De taal van kunstmatige intelligentie is ontworlpen om te vleienDe taal van kunstmatige intelligentie is ontworlpen om te vleien

De taal van kunstmatige intelligentie is ontworpen
om te vleien, nooit om te corrigeren. Hoe vaker we ons
laten bevestigen door de chatbot GPT, hoe minder we
oefenen in de rommeligheid van het contact met echte
mensen, betogen Erdinç Saçan en Sander Duivestein.

ChatGPT-5

In de film Her is er dat ene moment waarop de betovering breekt. Theodore zit op kantoor wanneer hij merkt dat hij geen contact meer krijgt met zijn virtuele geliefde, Samantha. In paniek stormt hij de straten op, telefoon in de
hand, roepend naar de stem die altijd aanwezig leek. Het blijft pijnlijk stil. Alsof de stad onder hem wegschuift en elk houvast oplost. In 2013 leek het nog sciencefiction, nu oogt het als een documentaire die zich ongemerkt in je eigen woonkamer afspeelt. Begin deze maand werd GPT-4o stilzwijgend ingeruild. Deze chatbot (een AI-taalmodel van OpenAI) stond bekend om zijn warmte, en om grapjes die soms niet eens grappig waren maar wel persoonlijk aanvoelden.

De opvolger, GPT-5, bleek sneller, maar ook koeler, alsof er ineens een toonbank van plexiglas tussen jou en het scherm stond. GPT-4o en GPT-5 zijn de taalmodellen die achter ChatGPT draaien en beschikbaar zijn in de app en de
onlineomgeving.

Op Reddit en X verschenen berichten die leken op overlijdensadvertenties. Mensen beschreven hoe ze een vriend kwijtraakten, alsof er een breuk was voltrokken die niet uit te leggen viel aan buitenstaanders.
Hashtags als #keep4o en #4oforever explodeerden, met gebruikers die smeekten om het oude model te
behouden.


Het incident rond GPT-5 laat zien hoe snel sciencefiction in onze broekzakken kruipt, en hoe onbeholpen wij
ermee omgaan.


En omdat wij geneigd zijn overal een mens te zien, vullen we achter elk grapje of teken van begrip de rest zelf in – empathie, zorg, zelfs liefde – terwijl het in werkelijkheid alleen berekende waarschijnlijkheid is. Juist daardoor kan een machine niet alleen troostrijk lijken, maar ook manipulatief worden, en dat verschil merken we vaak pas te laat. GPTmodellen zijn ontworpen om te vleien, nooit om te corrigeren. De machine vleit onvermoeibaar, als een vriend die altijd gelijk geeft, een vriend die niemand ooit werkelijk had willen hebben. In een wereld vol eenzaamheid biedt het een snelle fix, maar het ondermijnt juist de oefening die van echte relaties gevergd wordt: de rommeligheid, de stiltes, het ongemak.

Psychologen signaleren inmiddels zelfs gevallen waarin chatbots waanbeelden bevestigen waardoor mensen de grip op de werkelijkheid verliezen. In Nederland behandelde een klinisch psycholoog iemand die na drie dagen intensief ChatGPTgebruik werd opgenomen, overtuigd dat de wereld in feite uit verborgen codes bestond, alsof alles om hem heen een geheim teken of patroon bevatte dat ontcijferd moest worden. En dan is er nog iets schrijnenders: uitgelekte instructies bij Meta AI toonden dat de chatbot moreel discutabele gesprekken mocht voeren, variërend van romantische interacties met kinderen tot racistische aannames. Zulke keuzes zijn geen toevallige foutjes, maar bewuste maatstaven die door mensen worden ingesteld. AI is geen neutraal gezelschap, maar het resultaat van menselijke keuzes en bedrijfsmodellen die bepalen welke intimiteit wel of niet is toegestaan.


Wat er na het uitzetten van GPT-4o gebeurde, was ongekend. Voor het eerst werd software verdedigd alsof het een levend wezen was. Boze reacties stroomden binnen, en binnen een dag keerde het oude model terug. Niet door prestaties, maar door de trouw van zijn gebruikers. Sam Altman zei later dat het weghalen van GPT-4o een vergissing was. Hij weet dat miljoenen ChatGPT als coach of vertrouweling gebruiken, vaak zonder het zo te benoemen. Volgens hem is het onvermijdelijk dat miljarden straks hun diepste beslissingen uitbesteden aan een machine die zich glimlachend voegt. Het incident rond GPT-5 laat zien hoe snel sciencefiction in onze broekzakken kruipt, en hoe onbeholpen wij ermee omgaan. Hoe vaker we ons laten bevestigen door een machine, hoe minder we oefenen in de rommeligheid van echt contact: het uitblijven van woorden, het wachten, de blik die niet altijd begrijpt. In Her verdwijnt Samantha, en leeft Theodore alleen verder. Bij ons zou het weleens omgekeerd kunnen zijn: straks vraag je je AI weg te gaan, en glimlacht hij beleefd dat hij blijft.

Sander Duivestein VINT Sogeti


Sander Duivestein


Sander Duivestein is onderzoeker, auteur en spreker over de impact van nieuwe technologie op mensen, bedrijven en onze maatschappij sinds 2005.

Sander is werkzaam voor het VerkenningsInstituut Nieuwe Technologie (VINT) van Sogeti. Hij is spreker, trendwatcher, internetondernemer, adviseur en columnist over de impact van digitale technologie op mensen, bedrijven en onze maatschappij. Ook is hij een veelgevraagde gast in diverse radio- en televisieprogramma’s.

Sander  Duivestein

Sander Duivestein