Jarenlang heeft de digitale politiek dezelfde belofte verkocht: een kiezer steeds beter leren kennen, steeds nauwkeurigere gegevens verzamelen, gebruik maken van hun gewoonten, hun waarden en zelfs hun blootliggende zenuwen, om het perfecte argument te leveren. Het is de droom van microtargeting: de boodschap afgestemd op de juiste persoon, op het juiste moment, met de juiste toon. Dan is er nog het andere grote geloofsartikel, het meer academische en minder reclameartikel: de overtuiging dat een standpunt werkelijk verandert wanneer de luisteraar wordt meegesleurd in een lange, veeleisende redenering, vol vragen, bezwaren, verdedigingen en mentale inspanningen.

Een studie gepubliceerd in PNASeen van de meest geciteerde wetenschappelijke tijdschriften ter wereld, nam deze twee ideeën over en bracht ze met kunstmatige intelligentie op de proef. Het resultaat klinkt duidelijk: chatbots kunnen politieke meningen veranderen, maar gepersonaliseerde berichten en diepgaande gesprekken lijken niet op te gaan tegen een eenvoudig, goed geschreven algemeen onderwerp.

De juiste boodschap

Politieke overtuiging heeft altijd zwaar gewogen, en weegt veel. Pressiegroepen, kandidaten, zorginstellingen, commissies, stichtingen: ze besteden allemaal geld en tijd aan het overtuigen van burgers die vaak al gepolariseerd zijn. Het probleem ontstaat wanneer je precies probeert te begrijpen waarom iemand van gedachten verandert. In laboratoria komt echte communicatie via de deur scheef binnen. Een echte onderzoeker verandert van toon, een figurant glimlacht onwillekeurig, een pauze klinkt als sociale druk, een blik verandert de betekenis van een zin. De geest van de deelnemer registreert alles, zelfs wat het experimentele protocol graag buiten had willen houden.

Dit is waar het onderzoek om de hoek komt kijken. Het uitgangspunt was bijna brutaal in zijn eenvoud: het gebruik van grote taalmodellen als controleerbare, constante, grootschalige repliceerbare debatpartners. Dezelfde stijl, dezelfde discursieve houding, dezelfde structuur van het onderwerp, met de mogelijkheid om slechts één element tegelijk te variëren en te zien wat er werkelijk gebeurt als personalisatie een rol gaat spelen of als men de cognitieve verwerking probeert te vergroten, d.w.z. die mentale inspanning die volgens het waarschijnlijkheidsmodel van de uitwerking stabielere sporen in attitudes zou moeten achterlaten.

Om dit te doen, heeft het team twee vooraf geregistreerde online experimenten opgezet met bijna 3.700 Amerikaanse volwassenen, gerekruteerd om censusgemiddelden voor leeftijd, geslacht en ras te benaderen, waarbij vanaf het begin werd gestreefd naar een politiek evenwicht tussen Democraten en Republikeinen. Het eerste onderzoek ging over immigratie: meer financiering voor grensbeveiliging of meer openheid voor gesponsorde immigrantenvisa. De tweede betrad een ander gloeiend terrein, dat van de schoolcurricula: hoeveel macht ouders zouden moeten hebben over controversiële sociale kwesties die op school aan bod komen en hoe ver leraren kunnen gaan met hun politieke opvattingen in de klas. Twee terreinen die goed gekozen zijn, omdat in de Verenigde Staten een paar minuten over deze kwesties voldoende zijn om te begrijpen hoe het publieke debat star en identitair is geworden, en vaak moe van het luisteren.

Na het vastleggen van de eerste meningen verdeelden de onderzoekers de deelnemers over de controlegroep en vier interventies op basis van een taalkundig model. In ieder geval had de bot een heel specifieke taak: het ondersteunen van de tegenovergestelde stelling dan die van de deelnemer. De eerste groep ontving één enkele algemene tekst, geschreven als de best mogelijke paragraaf ter ondersteuning van het tegengestelde standpunt. De tweede ontving een microgericht bericht, samengesteld op basis van de demografische gegevens die aan het begin van de enquête waren verstrekt. De derde ging een directe confrontatie van zes ronden aan met de AI, waarbij hij de opdracht kreeg zich te gedragen als een psychologie-expert die in staat is te antwoorden en vragen te stellen om de mentale betrokkenheid te vergroten. De vierde groep nam deel aan een soort motiverend interview, een techniek die vaak wordt gebruikt in de therapeutische wereld, waarbij de bot de deelnemer ertoe probeert aan te zetten zelf de redenen voor de verandering te vinden.

Waar microtargeting leegloopt en alleen de kracht van een goed geschreven argument overblijft

Om het meest voor de hand liggende bezwaar te omzeilen, controleerden de onderzoekers ook of de onderliggende inhoud vergelijkbaar bleef. Met behulp van machine learning-tools brachten ze de argumentatieve kernen van de door het systeem geproduceerde berichten in kaart en verifieerden dat de meest zichtbare verschillen zaten in de verpakking, in de manier waarop het materiaal werd gepresenteerd, in het soort interactie, terwijl de feitelijke kern van de argumenten grotendeels op één lijn bleef. Met andere woorden, de studio probeerde kleding en inhoud te scheiden. En dat is precies waar de jurk niet langer wonderbaarlijk leek.

Er was sprake van een overtuigend effect. Dit moet duidelijk gezegd worden. Blootstelling aan het tegengestelde argument bracht veel mensen ertoe hun standpunt te matigen, met een geschatte gemiddelde verschuiving van ongeveer 2,5 tot 4 procentpunten in de richting van het ontvangen argument. Het interessante feit komt een seconde later: de meer geavanceerde methoden leverden weinig meer op dan de basisboodschap, en leverden vaak helemaal niet meer op. Diepe personalisatie en interactieve chats hebben geen overtuigend voordeel laten zien ten opzichte van een enkele algemene paragraaf. In het immigratie-experiment behoorden motiverende gespreksvoering zelfs tot de minst effectieve benaderingen. Voor degenen die zich voorstellen dat verkiezingscampagnes worden gedomineerd door machines die in staat zijn de ziel van de individuele kiezer te lezen, is de klap opmerkelijk.

Deze passage brengt twee zeer diepgewortelde ideeën in moeilijkheden. De eerste betreft microtargeting, al jaren gepresenteerd als de beslissende hefboom van digitale politieke communicatie. Het tweede raakt aan het elaboratiewaarschijnlijkheidsmodel, dat wil zeggen de overtuiging dat de meest solide verandering ontstaat wanneer de persoon zich moet engageren, reageren, redeneren en zijn standpunt moet verdedigen. Het onderzoek zegt niet dat deze mechanismen niet bestaan ​​of dat ze nul waard zijn. Hij zegt iets vervelenders, en daarom nuttiger: binnen een korte en gecontroleerde interactie lijkt het extra voordeel klein, veel kleiner dan de retoriek van campagnes en consultants belooft. Soms is een lineair, goed geconstrueerd argument, op coherente wijze uitgedrukt, voldoende om vrijwel hetzelfde effect te bereiken als het verfijnde en dure apparaat.

Meningen bewegen, de vijandigheid blijft standvastig

De onderzoekers keken ook elders, en hier wordt het beeld nog interessanter. Naast veranderende standpunten over individueel beleid maten ze ook de democratische wederkerigheid, dat wil zeggen de bereidheid om politieke tegenstanders als redelijke mensen te beschouwen, die respect verdienen, en legitiem binnen de democratische ruimte. Jarenlang hebben veel wetenschappers zich afgevraagd of het verkleinen van de afstand tot een onderwerp ook betekent dat de vijandigheid jegens de groep die anders denkt, afneemt. Dat zou geruststellend zijn. Het zou ook erg handig zijn. De hier verzamelde gegevens vertellen een ruiger tafereel.

In verschillende gevallen hebben mensen hun beleidsopvattingen getemperd. Het gevoel jegens het vijandige kamp bleef echter vrijwel waar het was. De ideologische slotgracht is iets kleiner geworden, de onderliggende antipathie jegens het andere politieke blok heeft stand gehouden. Er was slechts één opmerkelijke uitzondering: in interactieve chats over schoolcurricula vertoonden de deelnemers een toename van de democratische wederkerigheid. De auteurs veronderstellen dat dit afhing van het feit dat de bot in die specifieke context openlijk de nadruk legde op de waarde van sociale tolerantie binnen het onderwijsdiscours. Het is maar een klein detail, en daarom is het veel waard: het veranderen van een mening leidt niet automatisch tot respect, vertrouwen en wederzijdse erkenning. De politiek blijft vol met mensen die elkaar op een concreet niveau kunnen benaderen en met dezelfde hardheid naar elkaar blijven kijken als voorheen.

De echte les betreft ook sociaal onderzoek

De auteurs dringen erop aan deze resultaten niet als een definitieve uitspraak te beschouwen. De experimenten observeren korte interacties, die plaatsvinden in een geïsoleerde digitale omgeving. Het echte leven werkt met langere tijden, gelaagde relaties, gedeelde herinneringen, reputaties, gezichten, stiltes, schaamte, sociale verplichtingen. Een onderwerp dat wordt geuit door een goede vriend, een familielid of een gewaardeerd persoon, komt anders in de geest op dan hetzelfde onderwerp dat in een online-enquête wordt gelezen. Hier wist AI het probleem niet uit, maar plaatst het in een schoner daglicht. De belangrijkste belofte van het werk ligt in feite ook in de methode: het gebruik van generatieve systemen om duizenden gecontroleerde, vergelijkbare, herhaalbare interacties te produceren, tegen veel lagere kosten dan een volledig menselijk experimenteel apparaat.

En dit is misschien wel het deel dat het langst zal blijven bestaan. Kunstmatige intelligentie verschijnt in dit geval niet als een orakel of als een bedreiging uit een dystopische film. Het lijkt een laboratoriuminstrument dat in staat leek om theorieën die bewezen leken onder druk te zetten. Het werk gepubliceerd in PNAS laat zien dat politieke overtuiging via AI werkt, en dit alleen al is voldoende om de antennes omhoog te zetten. Het laat ook zien dat de fantasie van de chirurgische boodschap, die hyperpersoonlijk is en veel dieper kan graven, toch minder standhoudt dan verwacht als je er goed naar kijkt. Voor een sector die al jaren emotionele precisie verkoopt alsof het een exacte wetenschap is, is het nieuws veelbetekenend. Veel meer dan een goed geschreven paragraaf.

Mogelijk bent u ook geïnteresseerd in: