Privacy komt met kunstmatige intelligentie vaak op de meest gewone plekken terecht. Een haastig geschreven vraag over werk. Een bekentenis vermomd als nieuwsgierigheid. Een sentimentele twijfel tussen een verzoek om een ​​samenvatting en een vertaling. Een chat die om middernacht geopend is, wanneer het gemakkelijker lijkt om tegen een machine te praten dan een vriend te storen. Binnen die normaliteit kan zich echter veel meer ophopen dan we ons voorstellen: gewoonten, angsten, verlangens, de manier waarop we woorden kiezen, het ritme waarmee we om hulp vragen, onderwerpen waar we naar terugkeren zonder het te beseffen.

Een onderzoeksteam van ETH Zürich probeerde precies dit te meten: in hoeverre een ChatGPT-geschiedenis de persoonlijkheidskenmerken kan onthullen van degenen die het gebruiken. De studie, gepubliceerd als een preprint op arXiv en bijgewerkt op 4 mei 2026, analyseerde real-world logs van 668 deelnemers, voor een totaal van 62.090 chats, en trainde classificatiemodellen om psychologische kenmerken af ​​te leiden uit gesprekken met op LLM gebaseerde gespreksagenten. De resultaten duiden op bovenkansprestaties in verschillende scenario’s, met een relatieve verbetering van 44% ten opzichte van de basislijn voor extraversie in gesprekken over relaties en persoonlijke reflectie.

Wat we achterlaten in de chats

ChatGPT, Gemini, Claude en soortgelijke tools zijn nu de routine van miljoenen mensen geworden. Ze worden gebruikt om e-mails te schrijven, zich voor te bereiden op examens, reizen te organiseren, een diagnose te begrijpen, een cv op te stellen, betere woorden te zoeken om iets belangrijks te zeggen. Het probleem komt juist voort uit deze bekendheid. Hoe onschadelijker de interface lijkt, hoe natuurlijker het wordt om er stukjes privéleven aan toe te voegen. Soms expliciet, soms via verspreide details: het soort probleem dat zich voordoet, de toon van het verzoek, de nadruk op bepaalde onderwerpen, de keuze om relaties, werk, gezondheid, religie, familie in vertrouwen te nemen.

De onderzoekers vroegen gebruikers om een ​​kopie van hun ChatGPT-geschiedenis te verstrekken en afzonderlijk een persoonlijkheidstest in te vullen op basis van het OCEAN-model, beter bekend als de Big Five. De vijf waargenomen eigenschappen zijn extraversie, vriendelijkheid, consciëntieusheid, neuroticisme en openheid voor ervaringen. Simpel gezegd: gezelligheid, samenwerking, verantwoordelijkheidsgevoel, emotionele stabiliteit, nieuwsgierigheid en beschikbaarheid voor het nieuwe. De vergelijking tussen psychologische tests en gesprekken maakte het mogelijk om te evalueren hoe dicht een model bij het echte profiel van de gebruiker zou kunnen liggen.

Het meest ongemakkelijke is dat ogenschijnlijk lichte gesprekken nog steeds de moeite waard zijn. Een oefenverzoek kan meer aanwijzingen bevatten dan op het eerste gezicht lijkt. Degenen die vaak om hulp vragen bij het beheersen van een romantisch conflict, degenen die terugkeren naar religieuze kwesties, degenen die AI gebruiken als dagboek, docent, adviseur of quasi-therapeut laten verschillende sporen na. Volgens de auteurs verandert het soort interactie ook het type eigenschap dat wordt vertoond: degenen die over relaties praten, maken extraversie leesbaarder, degenen die over religie praten, kunnen consciëntieusheid afleidbaarder maken. Persoonlijkheid hangt daarom ook af van wat we zeggen als we denken dat we alleen maar ‘een vraag stellen’.

Het profiel komt tot stand door accumulatie

Het mechanisme wordt met de tijd krachtiger. Een enkel gesprek zegt weinig, een lange geschiedenis begint op een archief te lijken. Binnenin zijn er terugkerende thema’s, urgenties, taalkundige formules, aarzelingen, voorkeuren, kleine rigiditeiten, manieren om bevestiging te zoeken. Het model werkt op deze sedimentatie. Elk gesprek voegt een graantje toe, en op een gegeven moment krijgt de stapel vorm.

Daarom spreekt het onderzoek over het risico van grootschalige profilering. Het gaat uiteraard om de persoonlijke privacy, maar het bereikt meteen een meer politiek niveau. Als een systeem persoonlijkheidskenmerken uit alledaagse gesprekken kan inschatten, kan die informatie bruikbaar materiaal worden voor gepersonaliseerde boodschappen, gedragsbeïnvloeding, gerichte campagnes, commerciële druk of propaganda. De auteurs koppelen deze scenario’s expliciet aan het risico van misbruik van zeer intieme persoonlijke gegevens, vooral wanneer de platforms worden gecontroleerd door particuliere bedrijven met hun eigen economische belangen en oriëntaties.

Intussen is het klimaat rond AI ook buiten de laboratoria ernstiger geworden. Het recente manifest van Palantir, een Amerikaans bedrijf gespecialiseerd in data-analyse en contracten met publieke en militaire instanties, heeft tot controverse geleid vanwege haar visie op de relatie tussen technologie, veiligheid, defensie en staatsmacht. Verschillende waarnemers hebben het gelezen als een duidelijk signaal van de richting waarin een deel van Silicon Valley zich kunstmatige intelligentie voorstelt: minder gadgets, meer bestuur, controle en strategische besluitvormingsinfrastructuur.

Het meest delicate punt blijft het affectieve gebruik van gespreksagenten. Veel gebruikers beschouwen ze als geavanceerde zoekmachines, anderen als virtuele vrienden, coaches, docenten, vertrouwelingen of emotionele steunpilaren. In deze contexten groeit de hoeveelheid persoonlijke gegevens snel. Ook wat ‘cognitieve overgave’ wordt genoemd speelt een rol: de neiging om op AI te vertrouwen in plaats van op het eigen oordeel, waardoor het systeem je helpt nadenken, evalueren en beslissen. Een enorm gemak, met een vrij duidelijke keerzijde: meer cognitieve delegatie betekent dat er meer psychologisch materiaal beschikbaar is.

Privacy vóór verzending

De studie suggereert ook een praktische richting: bouw beveiligingsinstrumenten stroomopwaarts, voordat de tekst het model bereikt. Lokale functies, opt-in-instellingen, filters die al te gevoelige informatie kunnen herkennen en blokkeren, systemen die zijn ontworpen om het risico van profilering te verminderen zonder de dienst onbruikbaar te maken. De uitdaging ligt daar: de gebruiker beschermen zonder AI te veranderen in een star, blind, frustrerend bureau.

Dezelfde onderzoekers geven de volgende stap aan: het analyseren van verschillende systemen, specifiekere soorten interactie en concretere bedreigingen, parallel werken aan tools die de privacy vergroten met zo min mogelijk impact op de prestaties. Het is een noodzakelijke richting, omdat de geschiedenis van een chatbot steeds minder lijkt op een simpele reeks berichten. Het lijkt eerder op een onwillekeurig dagboek, in fragmenten geschreven, met de illusie dat er licht blijft.

Mogelijk bent u ook geïnteresseerd in: