Google heeft de afgelopen maanden sterk ingezet op AI Overviews, de automatische samenvattingen die bovenaan de zoekresultaten verschijnen om snelle antwoorden te geven. Maar toen dit systeem een gevoelig terrein als de gezondheidszorg raakte, bleek het mechanisme veel kwetsbaarder dan verwacht. Hij was het die alarm sloeg De Bewakerwaarin bepaalde informatie van kunstmatige intelligentie werd genoemd “gevaarlijk en alarmerend”, waardoor de Mountain View-reus gedwongen werd in te grijpen.
Uit het onderzoek van de Britse krant bleek hoe AI Overviews bij bepaald medisch onderzoek onvolledige, gedecontextualiseerde of zelfs onjuiste gegevens konden retourneren, met het reële risico dat gebruikers ernstige problemen zouden onderschatten. Naar aanleiding van deze rapporten heeft Google besloten verschillende samenvattingen te verwijderen die verband houden met bijzonder gevoelige gezondheidsvragen.
Het geval van levertesten
Een van de meest aangehaalde voorbeelden betreft leverfunctietesten. Op de vraag wat normale leverbloedtestwaarden zijn, leverde de AI van Google een lange reeks cijfers op, maar zonder fundamentele elementen aan te geven, zoals de leeftijd, het geslacht, de etniciteit of de geografische herkomst van de patiënt. In de geneeskunde zijn deze factoren cruciaal voor het correct interpreteren van resultaten, en het ontbreken ervan kan tot misleidende conclusies leiden.
Het door The Guardian benadrukte risico was duidelijk: een persoon met daadwerkelijk abnormale waarden kon geloven dat hij gezond was en besluiten geen medische hulp in te roepen, waardoor de diagnose en behandeling werden uitgesteld. Na de publicatie van het onderzoek lieten sommige van deze zoekopdrachten geen AI-overzichten meer zien, een teken van een eerste correctie van het systeem.
Google’s reactie
Geconfronteerd met kritiek heeft Google een voorzichtige koers gekozen. Een woordvoerder, geciteerd door Voogdlegde uit dat het bedrijf geen commentaar geeft op individuele verwijderingen, maar herhaalde zijn inzet voor het verbeteren van AI-overzichten wanneer deze geen rekening houden met de context. Volgens het bedrijf zou een groot deel van de betwiste informatie nog steeds worden ondersteund door bronnen die als betrouwbaar worden beschouwd, maar het probleem blijft de manier waarop deze wordt samengevat en aan gebruikers wordt gepresenteerd. In de praktijk zijn AI-overzichten niet volledig uit het gezondheidsthema geëlimineerd, maar selectiever gefilterd, vooral voor de meest directe en potentieel risicovolle vragen.
Een delicaat moment voor AI in de gezondheidszorg
Het verhaal komt op een moment dat steeds meer technologiebedrijven proberen de digitale gezondheidszorgsector te betreden, zoals blijkt uit de lancering van ChatGpt Health door OpenAI. Juist om deze reden laat de aflevering van Google zien hoe complex en delicaat het is om de synthese van klinische informatie aan een AI toe te vertrouwen. De boodschap die naar voren komt uit het onderzoek naar Voogd het is duidelijk: als het om gezondheid gaat, kan zelfs een snelle en ogenschijnlijk nuttige reactie een risico worden als de medische context die nodig is om deze correct te interpreteren ontbreekt.
Mogelijk bent u ook geïnteresseerd in:
