Ze stromen voor onze ogen terwijl we aan het einde van de dag in de rij staan in de supermarkt of op de bank. Een bejaarde die een ontroerend jubileum viert, een kind dat alleen jarig is, een plattelandstafereel dat naar vroeger ruikt. Laten we een like plaatsen, een reactie schrijven, misschien delen. Dan blijkt dat dat beeld nooit heeft bestaan. Het is gemaakt door kunstmatige intelligentie. En nee, het gebeurde niet omdat we naïef zijn.
Onderzoek gepubliceerd in Computers in menselijk gedrag verklaart waarom AI-gegenereerde afbeeldingen op Facebook ons zo diep kunnen raken. Het antwoord ligt niet in de technologie, maar in de psychologie. En het gaat iedereen aan.
Waarom AI-beelden kritisch denken omzeilen
Het onderzoek werd uitgevoerd door Márk Miskolczi, onderzoeker bij Corvinus Universiteit van Boedapestdie besloot minder te kijken naar spectaculaire deepfakes en meer naar wat we dagelijks tegenkomen op sociale media. Niet de grote politieke desinformatie, maar de alledaagse emotionele clickbait.
Volgens Miskolczi gaat het er niet om of een beeld technisch perfect is. Velen zijn dat helemaal niet. Handen met te veel vingers, vreemd gladde gezichten, details die niet kloppen. Toch werken ze. Ze werken omdat ze emotionele verhalen vertellen die eenvoudig, direct, geruststellend of hartverscheurend zijn. En als een verhaal ons raakt, zijn de hersenen geen detective meer.
Facebook wordt steeds meer bevolkt door synthetische afbeeldingen die in massa worden geproduceerd door pagina’s die onschadelijk lijken, maar die feitelijk deel uitmaken van echte contentfarms, ‘contentfabrieken’ die als enig doel hebben interacties te genereren. Likes, reacties, aandelen. Elke reactie is zichtbaarheid en dus geld waard.
Om het fenomeen te bestuderen observeerde de onderzoeker rechtstreeks openbare prikborden en selecteerde pagina’s waarop regelmatig verdachte afbeeldingen werden gepubliceerd. Na een dubbele controle, handmatig en met behulp van AI-detectietools, werden 146 (zeker kunstmatige) afbeeldingen en ruim 9.000 door echte mensen geschreven commentaren geanalyseerd.
Het meest interessante feit is niet hoeveel mensen voor de gek werden gehouden, maar hoe ze reageerden. Gebeden, wensen, troostende boodschappen, woorden vol menselijkheid gericht aan onderwerpen die niet bestaan. Er schuilt geen cynisme in deze antwoorden. Er is empathie.
Nostalgie en mededogen: de emoties die onze waakzaamheid verlagen
De meest effectieve beelden zijn de beelden die spreken over een geïdealiseerd verleden of over duidelijke kwetsbaarheid. Oudere echtparen die ‘al 60 jaar samen zijn’, verdrietige kinderen, eenzame mensen. Scènes die bevestigen wat we nu al voelen: dat ooit alles eenvoudiger was, dat de pijn getroost moet worden, dat het negeren ervan onmenselijk zou zijn.
Hier komt een heel menselijk mechanisme in het spel: als iets resoneert met onze waarden, zijn we geneigd het zonder al te veel vragen te accepteren. Dit is de zogenaamde bevestigingsbias. Als het beeld versterkt wat we geloven, waarom zouden we dan twijfelen?
Dan is er de emotionele verankering. De eerste emotie die we voelen wordt het referentiepunt. Als een onderschrift spreekt over een vergeten kind op zijn of haar verjaardag, raakt dat aanvankelijke verdriet ons. Op dat moment verdwijnen eventuele visuele fouten naar de achtergrond.
Wanneer opmerkingen een leugen ‘waar’ maken.
Een ander belangrijk aspect is de rol van de menigte. Als een post duizenden likes en een stortvloed aan liefdevolle reacties heeft, hebben we de neiging om erop te vertrouwen. Het is een automatische reflex. Als iedereen gelooft dat het waar is, dan is dat waarschijnlijk ook zo.
Volgens Miskolczi worden commentaarsecties zo een soort geloofwaardigheidsmachine. Sommige commentaren zijn geschreven door bots, geprogrammeerd om het verhaal te versterken. Maar wie later arriveert, weet het niet. Hij ziet gewoon een gemeenschap deelnemen en samenkomen. Niet uit naïviteit, maar uit behoefte aan verbinding.
Een van de belangrijkste aspecten van het onderzoek betreft een hardnekkig vooroordeel: het idee dat vooral ouderen of laagopgeleiden erin trappen. De gegevens bevestigen dit niet. De mentale snelkoppelingen die door de hersenen worden gebruikt, werken op elk leeftijds- en cultureel niveau, vooral in de snel scrollende contexten die typisch zijn voor sociale media.
Kwetsbaarheid is geen kwestie van intelligentie, maar van emotionele context. Vermoeidheid, eenzaamheid, haast, de behoefte om ergens deel van uit te maken. Alle staten kennen we goed.
Het grootste risico: het vertrouwen in alles verliezen
Het probleem, waarschuwt de onderzoeker, is niet alleen maar tijdelijke misleiding. Het is het langetermijneffect. Als we geen onderscheid meer kunnen maken tussen waargebeurde verhalen en geautomatiseerde fictie, lopen we het risico aan alles te twijfelen. Zelfs authentieke beelden, echte getuigenissen, echte menselijke verhalen.
Er is geen reden tot paniek. Bewustwording is nodig. Leren vertragen, beter observeren, onszelf afvragen waarom een inhoud ons zo veel raakt. Niet om koud of cynisch te worden, maar om juist dat deel van ons te beschermen dat met empathie reageert. Omdat de paradox deze is: AI-beelden werken zo goed, juist omdat we mensen zijn. En misschien is het begrijpen hoe we worden aangeraakt de eerste stap om niet gebruikt te worden.
Mogelijk bent u ook geïnteresseerd in:
