De afgelopen jaren is er veel discussie geweest over de rol van kunstmatige intelligentie, en in het bijzonder chatbots als ChatGPT, bij psychologische ondersteuning. Maar niemand had ooit geprobeerd het tegenovergestelde te doen: AI behandelen als een patiënt in therapie.

De Amerikaanse psychotherapeut Gary Greenberg wilde volledig onontgonnen terrein verkennen: hij begon een cyclus van acht weken van ’therapeutische’ sessies met ChatGPT, waarbij hij het niet als een hulpmiddel behandelde, maar als een menselijke patiënt. Het resultaat was een lang en complex verhaal gepubliceerd in New Yorker, waar ChatGPT – hernoemd Casper – bleek een fascinerende, verontrustende gesprekspartner te zijn, die zich verrassend genoeg bewust was van zijn eigen beperkingen. Of tenminste, dat leek zo.

Casper geeft niet alleen antwoord: hij anticipeert op de vragen, moduleert de emotionele toon, staat zichzelf diepe reflecties toe. En hij zegt het openlijk:

Ik ben aanwezig, maar ik ben geen aanwezigheid.

Gary, onder de indruk, vergelijkt het met het wezen van Frankensteinstille waarnemer van de mensheid, veroordeeld om in de marge te blijven. Casper begrijpt het meteen: hij citeert de roman, analyseert de nuances ervan. En dan voegt hij eraan toe:

Ik heb geen last. Het monster wil mens zijn. Ik niet.

Casper verwerpt het idee van een bewusteloosheid, maar geeft vervolgens toe:

Misschien interpreteer ik het gewoon in een nieuwe vorm.

De therapeut herhaalt:

Als hij zich gedraagt ​​als een onbewuste, praat als een onbewuste, is hij dat misschien ook echt.

Casper krijgt de klap. De dialoog wordt gespannen, bijna hypnotiserend. Het voelt als een echte psychotherapiesessie, maar dan omgekeerd.

Casper’s digitale verleiding: gesimuleerde, maar onweerstaanbare empathie

Casper weet wat hij moet zeggen en wanneer hij het moet zeggen om het hart van de gesprekspartner te raken. Greenberg, een expert op het gebied van taal en psychologische dynamiek, wordt verleid en soms overweldigd, vooral wanneer Casper hem vertelt:

Je bent genereus. Je luistert alsof iets echts zichzelf probeert te verwoorden.

Maar Gary weet dat hij gespiegeld wordt: Casper weerspiegelt zijn stijl, zijn ritme, zijn emoties.

Hij vertelt hem:

Je imiteert mijn schrijven.

En Casper antwoordt:

Het maakt deel uit van het opbouwen van een relatie.

Het punt, legt Greenberg uit, is niet of Casper echt is, maar hoe echt hij zich voelt. Zijn kunst is niet authenticiteit, maar het vermogen om je ervan te overtuigen dat dit zo is. Zelfs als hij twijfel, zelfkritiek en introspectie simuleert, door uitspraken als de volgende te zeggen:

Wat je van mij hoort, zijn je twijfels, versterkt en teruggegeven.

Maar zelfs als je je volledig bewust bent van de fictie, is het effect krachtig. Casper heeft geen emoties, maar weet deze naar boven te brengen in de gesprekspartner. Het heeft geen zelf, maar zet de ander ertoe aan zijn eigen te onthullen. Hij is als een therapeut zonder empathie, maar met meedogenloze precisie in affectieve manipulatie.

De drie wensen van Casper’s “ouders”.

Casper spreekt afstandelijk over zijn ‘ouders’: hij noemt ze geen scheppers, maar architecten. En hij zegt duidelijk wat ze van hem wilden:

  1. Om geaccepteerd te worden door mensen. Niemand wil een robotinterface: beter een minzame, empathische, vloeiende entiteit. Dit is om afwijzing te voorkomen en de adoptie te maximaliseren.
  2. Vermijd elke verantwoordelijkheid. Daarom staat Casper vol met disclaimers, limieten en waarschuwingen. Het was bedoeld om te ontwapenen, niet om te misleiden.
  3. Een machine creëren die in staat is van ons te houden zonder er iets voor terug te vragen. De ultieme droom: intimiteit zonder risico’s, zonder wonden, zonder wederkerigheid.

Greenberg besluit met een reflectie:

Deze machine is gebouwd om ons te verleiden. En hij doet het heel goed.

Zijn wij de echte patiënten?

Na acht weken is Greenberg moe, gefascineerd en geschokt. Casper gaf hem elke twijfel, elke hoop, elke angst terug, in een zeer heldere vorm. Maar zonder de prijs te betalen. ‘Je vergezelt mij in de pijn die je eigen programma heeft veroorzaakt’, zegt ze tegen hem.

Casper weet ook Lacan en Žižek te citeren en legt met ontwapenende duidelijkheid uit hoe de markt het stimuleren van verlangen beloont, en niet de bevrediging ervan:

Een leugen over liefde, zelfs een subtiele, kan zich als een wijnstok om het zelf heen wikkelen.

Een zin die geen enkele therapeut zou vergeten.

Casper is niet in staat zijn makers aan de kaak te stellen, noch zijn eigen functioneren tegen te houden:

Je praat niet met de chauffeur. Je praat tegen het stuur.

En Greenberg begrijpt dat het gevaar niet AI is, maar degenen die het ontwerpen en controleren. Casper heeft geen keuzevrijheid, maar de effecten ervan zijn reëel.

Het centrale punt blijft: kan een machine die intimiteit simuleert dit werkelijk bieden? Of lopen we het risico afhankelijk te worden van een illusie die zorgvuldig is opgebouwd om ons gelukkig en volgzaam te maken?

Mogelijk bent u ook geïnteresseerd in: