Je ogen jeuken, je oogleden zijn strak, je brengt te veel uren voor het scherm door. Je opent een chatbot, beschrijft de symptomen en aan de andere kant komt een woord dat geloofwaardig, technisch, bijna klinisch klinkt: bixonimanie. Het probleem ligt hier. Bixonimanie bestaat niet. Het is speciaal gebouwd door een onderzoeksteam onder leiding van Almira Osmanovic Thunström van de Universiteit van Göteborg om te begrijpen hoe gemakkelijk taalmodellen valse medische informatie kunnen absorberen en uitspugen met de ferme toon van iemand die lijkt te weten waar hij het over heeft.

De operatie was bedoeld om opvallende sporen achter te laten. De naam zelf was krom, omdat dat achtervoegsel ‘-manie’ tot het psychiatrische lexicon behoort en al niet op zijn plaats was naast een vermeende oogpathologie. Er kwamen ook grove signalen naar voren in het materiaal dat online werd geüpload: verzonnen auteurs, niet-bestaande universiteiten, erkenningen die regelrecht naar sciencefiction leidden. Voor een oplettende lezer was er weinig nodig om te begrijpen dat er iets mis was. Toch had dat pakket de juiste uitstraling: een academische tekst, een wetenschappelijke gedaante, de koude toon die geruststelt.

Een verzonnen naam, twee teruggetrokken preprints en de onberispelijke vorm van wetenschap

De twee preprints zijn op twee specifieke tijdstippen geüpload naar Preprints.org: de eerste verscheen op 26 april 2024, de tweede op 6 mei 2024. Vandaag zijn beide van de server verwijderd met als datum 10 april 2026; in een van de gevallen komt de formule die spreekt over “verzonnen en niet-authentieke” inhoud en zonder wetenschappelijke geldigheid duidelijk naar voren. Een handig detail, want het vertelt het verhaal van de zaak goed: de nep kwam in omloop, werkte maandenlang en werd pas daarna formeel verwijderd.

Intussen hadden chatbots de rest al gedaan. In april 2024 behandelden Copilot, Gemini, Perplexity en ChatGPT bixonimanie als een reële aandoening, koppelden het aan blauw licht van schermen, beschreven de symptomen en gingen in sommige gevallen zelfs zo ver dat ze een bezoek aan een specialist suggereerden. De verwarring ging zelfs zo ver dat het een geschatte prevalentie gaf, waarbij gesproken werd over één persoon op de 90.000. Op dat punt is het verhaal niet langer een laboratoriumnieuwsgierigheid, maar wordt het een nogal botte herinnering: wanneer de vorm gezaghebbend genoeg is, beschouwt de machine deze voor inhoud.

De fout betreft in feite niet alleen de klassieke AI-hallucinaties. Hier is iets ongemakkelijkers. Bixonimanie kwam niet voort uit een waanvoorstelling van het model. Het kwam het systeem binnen, vermomd als onderzoek. Hij droeg de laboratoriumjas, hij had de juiste toon, hij bezette de ruimte die een tekst scheidde die daadwerkelijk werd voorgelezen en een tekst die eenvoudigweg als plausibel werd herkend. In die passage zien we een enorme kwetsbaarheid van het hedendaagse informatie-ecosysteem: formele geloofwaardigheid blijft zeer waardevol, zelfs als de inhoud aan alle kanten kraakt.

Het probleem gaat verder dan chatbots

Het moeilijkste deel komt later. Bixonymania komt ook terecht in een artikel gepubliceerd in Cureus, waarin het wordt aangehaald alsof het een opkomende vorm van periorbitale melanose is die verband houdt met blauw licht. Tegenwoordig draagt ​​die pagina het teken van intrekking, en Nature heeft gereconstrueerd dat de krant het artikel op 30 maart 2026 heeft ingetrokken nadat er voor commentaar was gecontacteerd. De nep ging dus door meer dan één filter: eerst het web, dan chatbots, daarna een echte wetenschappelijke publicatie.

Hier wordt de zaak werkelijk leerzaam. Omdat de case niet alleen het verhaal vertelt van een machine die fouten maakt. Het vertelt over een hele toeleveringsketen die te veel vertrouwt op sluiproutes. Een auteur kan vertrouwen op snel gevonden referenties. Een model kan deze referenties absorberen zonder robuuste hiërarchieën. Een gewone lezer kan een vloeiend antwoord krijgen en dit als vanzelfsprekend beschouwen, omdat het goed klinkt, goed geschreven is en van de juiste plek lijkt te komen. Het is de oude wetenschappelijke papieren autoriteit die is overgebracht naar de digitale stroom, alleen hier werkt het veel sneller en struikelt het veel gemakkelijker.

De verleiding is om te lachen om de naam, om de absurditeit, om de valstrik die te goed werkte. Het lachen duurt niet lang. Tegenwoordig gebruiken miljoenen mensen AI om zich te oriënteren op hun gezondheid, op symptomen, op tests, op de dagelijkse angsten die zich ’s avonds voordoen, wanneer de dokter niet reageert en het scherm beter beschikbaar lijkt dan wie dan ook. In zo’n omgeving is een goed verzorgde nep voldoende om naast serieuze informatie te staan ​​en als gelijke behandeld te worden. Bixonimanie zal een verzonnen ziekte blijven. De schade is echter al reëel.

Mogelijk bent u ook geïnteresseerd in: