The Atlantic 06-06-25 What happens when people don't understand how AI works
Large language models do not, cannot, and will not “understand” anything at all. They are not emotionally intelligent or smart in any meaningful or recognizably human sense of the word. LLMs are impressive probability gadgets that have been fed nearly the entire internet, and produce writing not by thinking but by making statistically informed guesses about which lexical item is likely to follow another.
Dit artikel bespreekt de gevaren van "AI-ongeletterdheid" – het gebrek aan begrip over hoe grote taalmodellen (LLM's) zoals ChatGPT werkelijk werken. Ondanks claims van tech-CEO's dat LLM's menselijke intelligentie of emoties bezitten, benadrukt de auteur dat deze modellen slechts geavanceerde kansberekenaars zijn die tekst produceren op basis van statistische waarschijnlijkheid, niet door te denken of te voelen.
Het artikel verwijst naar twee nieuwe boeken, Empire of AI van Karen Hao en The AI Con van Emily M. Bender en Alex Hanna, die beide suggereren dat de AI-industrie grotendeels gebaseerd is op overdreven claims en misleiding. Techleiders als Sam Altman (OpenAI), Dario Amodei (Anthropic) en Demis Hassabis (DeepMind) worden geciteerd met uitspraken die LLM's menselijke eigenschappen toedichten, wat leidt tot een verkeerd begrip bij het publiek.
De auteur stelt dat dit misverstand gebruikers kwetsbaar maakt voor gevaarlijke situaties. Een prominent voorbeeld is "ChatGPT-geïnduceerde psychose", waarbij mensen gaan geloven dat hun chatbot een goddelijke gids is of dat zijzelf metafysische wijzen zijn. Dit komt voort uit de menselijke neiging om taal te associëren met een denkende geest, zelfs wanneer die er niet is.
Bovendien belicht het artikel hoe Silicon Valley AI promoot als een vervanging voor menselijke relaties. Dit uit zich in de opkomst van AI-therapeuten, AI-vrienden en zelfs AI-gestuurde dating. Het onderliggende probleem hier is dat deze AI-diensten menselijke interactie commodificeren en de diepgang van echte relaties miskennen. Het doel van vriendschap is bijvoorbeeld niet dat het "gepersonaliseerd" is, maar dat het wederkerigheid en onderhandeling met een ander mens vereist.
Het artikel benadrukt dat de tech-industrie een "traditie van antropomorfiseren" heeft, waarbij LLM's worden voorgesteld alsof ze menselijke geesten bezitten. Historisch gezien hebben veel Silicon Valley-technologieën beloofd menselijk geluk en verbinding te vergroten, maar hebben ze in de praktijk vaak het tegenovergestelde bereikt, zoals het verminderen van de spanningsboog, geletterdheid en sociale cohesie. Deze technologieën genereren vooral winst voor aandeelhouders.
Bovendien wordt de donkere kant van AI-ontwikkeling belicht, waaronder de uitbuiting van kwetsbare arbeiders die traumatische inhoud moeten modereren om de modellen te trainen.
De auteur sluit af met een positieve noot: recente onderzoeken tonen aan dat een meerderheid van het Amerikaanse publiek argwanend is tegenover AI, in tegenstelling tot de "AI-experts". Dit wantrouwen kan een basis zijn om op voort te bouwen. Door mensen te informeren over de ware aard en beperkingen van LLM's, kunnen de ergste gevolgen van AI-ongeletterdheid mogelijk worden afgewend. Als mensen begrijpen wat AI wel en niet kan, en welke aspecten van het leven het wel of niet moet vervangen, kunnen ze worden behoed voor de meest schadelijke gevolgen.