Een roos is niet alleen een naam. Het is geen set letters, noch een definitie van een woordenboek. Een roos is het parfum dat zich in de lucht verspreidt, de delicatesse van de bloembladen onder de vingers, het levendige beeld dat onder de indruk blijft van de geest. En dit alles, Kunstmatige intelligentie kan het niet wetenalthans niet zoals we weten.
Dit wordt bevestigd door een nieuwe studie gepubliceerd op Natuur menselijk gedrag en uitgevoerd doorOhio State Universityvolgens welke Zelfs niet de meest geavanceerde taalmodellen van de AI kunnen het concept van “bloem” echt vertegenwoordigen. Zelfs als ze op miljard woorden worden getraind, kunnen deze systemen geen zintuiglijke ervaringen ervaren die een bloem iets meer dan een woord maken.
De limiet van kunstmatige intelligentie is duidelijk
“Een taalkundig model kan geen roos ruiken, noch de bloemblaadjes van een madeliefje of wandelen in een veld van wilde bloemen”, legt hij uit Qihui xude belangrijkste auteur van de post-doc-studie en onderzoeker in de psychologie. “En zonder die zintuiglijke en motorische ervaringen zal hij nooit begrijpen wat een bloem echt in zijn geheel is.”
Het punt is eenvoudig, maar diep: Menselijke kennis wordt niet alleen gemaakt van woordenmaar van lichaam, emoties, direct contact met de wereld. En terwijl kunstmatige intelligentie gebaseerd is op taalmodellen, Mensen bouwen concepten op door met elkaar te verweven geluiden, geuren, afbeeldingen, aanraking, emoties en acties.
Xu en zijn team vergeleken Vier geavanceerde taalmodellen -GPT-3.5 en GPT-4 door Openai, Palm en Gemini di Google-Met de manier waarop mensen interpreteren Meer dan 4.400 woordeninclusief “bloem”, “hoef”, “humoristische” en “swing”.
De vergelijking vond plaats op twee fronten:
De resultaten zijn duidelijk: Wanneer woorden abstracte concepten waren of losgekoppeld van de zintuigende IA was verrassend goed in het simuleren van hun menselijke weergave. Maar Zodra de concepten lichamelijk of vastgebonden werden ingesteld, stortten de modellen in.
We denken aan “Pasta” en “Rose”: beiden roepen het reukvermogen op. Maar voor ons mensen, De pasta lijkt meer op spaghetti dan op rozenomdat visie, smaak, voedselfunctie ook in het spel komt. De IA daarentegen worstelt om deze multisensorische verenigingen te maken.
“Van de intense parfum van een bloem, tot de zachtheid wanneer we de bloemblaadjes strelen, tot de vreugde die ons opwekt – dit alles is met elkaar verweven om een complex idee van ‘bloem’ te vormen, schrijven de onderzoekers. Een idee Dat de IA, alleen gebaseerd op tekst, niet kan vastleggen.
Zelfs de meest geavanceerde modellen, getraind op immense hoeveelheden teksten – veel verder dan wat een persoon zijn hele leven leest -.
Maar er verandert iets
Niet alles gaat verloren. Uit de studie bleek dat De modellen die ook zijn getraind met afbeeldingen, evenals met tekst, beheren beter om visuele concepten weer te gevenzoals die gerelateerd aan visie of vorm. En in de toekomst, als ze zullen worden geïntegreerd met Zintuiglijke gegevens en robottechnologieënzou kunnen beginnen met het waarnemen (gedeeltelijk) de fysieke wereld, zoals Xu opmerkt:
Morgen zou de IA toegang kunnen hebben tot de zintuigen, misschien via sensoren, robots of andere interfaces. En dan ja, misschien zal het in staat zijn om lichamelijke concepten zoals ‘Flower’ beter te begrijpen. Maar voor nu is dat soort begrip nog steeds van ons.
De studie werd uitgevoerd in samenwerking met Yingyying Peng, Ping Li en Minghua Wu van de Hong Kong Polytechnic University, Samuel Nastase van Princeton University en Martin Chodorow van de City University in New York.