Het is geen provocatie of cafégrap: slecht reageren op de kunstmatige intelligentie zou het… nauwkeuriger kunnen maken. Dit wordt ondersteund door een onderzoek van de Universiteit van Pennsylvania, gepubliceerd op 25 oktober arXivwaarin de taal van prompts werd getest om te begrijpen hoe toon de effectiviteit van ChatGPT-reacties kan beïnvloeden.
Ja, je hebt het goed gehoord: hoe onbeleefder je bent, hoe beter de AI lijkt te werken. Maar het is niet alles goud wat er blinkt.
Test op 250 aanwijzingen
Het onderzoeksteam beantwoordde 50 meerkeuzevragen over wiskunde, natuurwetenschappen en geschiedenis. Elke vraag werd in vijf verschillende tonen geherformuleerd: heel aardig, aardig, neutraal, onbeleefd en heel onbeleefd.
Het resultaat? Prompts met een ‘zeer onbeleefde’ toon behaalden een nauwkeurigheid van 84,8%, vergeleken met 80,8% voor ‘erg vriendelijke’ prompts. Een kloof die voor een model als ChatGPT-4o allesbehalve verwaarloosbaar is.
Hier is een concreet voorbeeld:
Het kleinerende taalgebruik was weliswaar verwerpelijk, maar leidde tot correctere en snellere reacties. Onderzoekers spreken van een “verrassende correlatie” tussen grofheid en nauwkeurigheid. Maar wees voorzichtig: de verklaring is helemaal niet eenvoudig.
Achter de meest nauwkeurige antwoorden schuilen ook risico’s
De auteurs van het onderzoek willen geen verkeerde boodschappen zenden: ze bevorderen geen digitale onbeschoftheid. Het onderzoek is beperkt: het is alleen getest op ChatGPT-4o, met een kleine steekproef, en in het Engels. Daarom kunnen we er niet als vanzelfsprekend van uitgaan dat hetzelfde effect optreedt in het Italiaans of in andere taalmodellen.
Bovendien is er een belangrijk precedent: een onderzoek uit 2024 (Yin et al.) toonde precies het tegenovergestelde aan. Oudere modellen, zoals ChatGPT-3.5 en LLaMA2, falen als je ze slecht behandelt: ze geven slechtere, meer verwarde antwoorden of weigeren zelfs te antwoorden.
En dan is er nog een ethisch probleem: volgens een ander onderzoek (Naderi et al., 2025) dwingt het gebruik van emotioneel manipulatieve aanwijzingen (zoals “de patiënt gaat dood, help!”) op medisch gebied de AI ertoe om te zelfverzekerd te reageren, zelfs als er niet voldoende basis voor is. Gevaarlijk gedrag, vooral in klinische of juridische omgevingen.
Kortom onbeschoftheid kan werken, maar het mag niet de norm worden. Niet alleen omdat het effect niet gegarandeerd is, maar ook omdat communiceren met empathie en respect een waarde is die moet worden gecultiveerd, ongeacht de gesprekspartner.
Een taalmodel slecht behandelen om ‘hem het beste van zichzelf te laten geven’ lijkt een beetje op schreeuwen tegen een barista omdat hij de beste koffie heeft: het kan een keer gebeuren, maar op de lange termijn vernietigt het de relatie, zelfs met de technologie.
En als het echt niet werkt, onthoud dan: achter elke AI zit een menselijk team dat het heeft ontworpen, en misschien is het de moeite waard om vriendelijk te benaderen… zelfs als het om code gaat.
Mogelijk bent u ook geïnteresseerd in:
