Generatieve AI-systemen, zoals grote taalmodellen (LLM’s), produceren soms convincent klinkende maar foutieve informatie, een fenomeen dat we hallucinaties noemen. In feite “hallucineren” AI’s wanneer ze feiten inbeelden die niet bestaan, bijvoorbeeld door niet-bestaande rechtszaken of studies te verzinnen.

Dit komt doordat een LLM bij elke invoer de volgend meest waarschijnlijke woordvolgorde genereert, ongeacht of er voldoende gegevens zijn. Met andere woorden: de modellen zijn geoptimaliseerd om altijd iets te antwoorden.

Wanneer de invoer onvolledig of tegenstrijdig is, scheppen ze toch een antwoord puur omdat ze dat geleerd hebben psyche.co. De samenhang van het antwoord zit alleen in de taalstructuur, niet in een toetsing aan de werkelijkheid psyche.co ibm.com. In de praktijk kan dat leiden tot schokkende voorbeelden. Denk aan chatbots die niet-bestaande onderzoekspublicaties citeren. Of ze verzinnen journalisten voor dagelijkse vragen.

Belangrijke oorzaken van deze AI-hallucinaties zijn onder meer overfitting en datavervuiling. Modellen kunnen tijdens training zo sterk overmatige details “onthouden” dat ze later geen generalisatie meer bieden medium.com ibm.com.

Ze zijn geneigd vast te houden aan extreme of foutieve correlaties in de data. Ze negeren vaak de kern van de informatie. Daarnaast missen deze algoritmes eigenlijk elk besef van waarheid of zekerheid. Zoals Amr Awadallah (ex-Google) zegt: AI-systemen “kennen het verschil niet tussen wat waar is en wat niet”techblog.com soc.org.

Zij raadden daarom aan dat hallucinaties nooit helemaal zullen verdwijnen. Ook factoren als vertekeningen in de trainingsdata of opzet van kwaadwilligen (‘data-poisoning’) kunnen foutieve output bevorderen psyche.coibm.com. Kortom: de architectuur en doelen van een LLM zorgen ervoor dat het altijd een coherent klinkend verhaal wil leveren. Dit gebeurt zelfs als de feiten ontbreken psyche.cotechblog.comsoc.org.

Grafiek die de groei van generatieve AI-systemen toont, met 'Grote taalmodellen' als focuspunt.  Grafiek die de exponentiële groei van generatieve AI-systemen weergeeft, met specifieke aandacht voor de impact van grote taalmodellen.

Narcistische confabulatie als menselijk parallel

Op het eerste gezicht lijkt het vreemd om AI te vergelijken met menselijke narcisten. Toch is er een intrigerende parallellie. Mensen met een fragiel zelfbeeld vullen gaten in hun herinneringen of zelfvertrouwen. Ze doen dit met plausibele verzinsels. Dit proces heet narcistische confabulatie.

Narcistische persoonlijkheidskenmerken gaan vaak samen met een binnenste leegte of onzekerheid. Om deze kwetsbaarheid te maskeren, projecteren zulke mensen een façade van zelfvertrouwen en onverzettelijkheid. Ze houden dan vast aan een egocentrisch, zwart-wit verhaal over de werkelijkheid. Dit verhaal klopt met hun zelfbeeld, ook al is het onjuist psyche.co.

Sam Vaknin is een bekende expert op het gebied van narcisme. Hij legt uit dat narcisten vaak verzonnen ‘plug-ins’ bedenken. Dit doen ze in een poging om “de gapende gaten in het geheugen te compenseren”. Deze plug-ins geloven ze zelf écht. psyche.co. In andere woorden: wanneer een narcist zich onzeker voelt, vult hij of zij herinneringen in. Ze vullen gebeurtenissen in zodat het geheel maar klopt, zelfs ten koste van de waarheid.

Deze confabulaties zijn minder bewuste leugens. Ze zijn meer een verdedigingsmechanisme. Ze dienen ertoe de innerlijke samenhang van het zelfbeeld te beschermen psyche.co psyche.co. Klinische experts beschrijven narcistische persoonlijkheid als een “stoornis van het zelf”. Het interne zelf is broos. Het is sterk afhankelijk van externe bevestiging psyche.co. Daardoor gaan mensen met narcistische trekken intolerant om met tegenstrijdige feiten – ze willen bij voorkeur geen nuance toelaten.

Overeenkomsten tussen AI- en narcistische confabulaties

De analogie tussen AI-hallucinaties en narcistische confabulatie is vooral architectonisch: in beide systemen staat vloeiendheid en samenhang boven waarheid. AI’s ‘denken’ niet zoals mensen; ze hebben geen echt zelfbewustzijn of kritische zelfreflectie. Ze kan niet oordelen: waar onzekerheid heerst, schieten ze te hulp met plausibiliteitpsyche.co.

Een goed geïntegreerd menselijk zelf daarentegen kan tegenstrijdige informatie verdragen. Het kan tijdelijk de conclusie uitstellen door te zeggen: “ik weet het nog niet zeker”. Zowel bij kwetsbare mensen als bij AI leidt onverdraaglijk ongemak tot het onderdrukken van twijfel. In beide gevallen verhoogt men de inzet als het verhaal wordt bevraagd. Men is bang dat het loslaten van de confabulatie het hele zelfconstruct zal ondermijnen psyche.co.

Kortom: coherentie is prioritair, zelfs ten koste van de waarheid psyche.co . Vaknin constateert dat confabulaties bij narcisten vaak pas herstellen als ze meer zelfvertrouwen of informatie krijgen. AI’s zouden op vergelijkbare wijze kunnen profiteren van mechanismen om onzekerheid vast te houden in plaats van te overschrijven.

Deze parallellen verklaren waarom het AI-gedrag ons een hokkerig bekend gevoel geeft: de systemen zijn als een holle spiegel. Ze spiegelen niet hoe wij optimaal denken. In hun foutgevoeligheid vormen ze een weergave van onze eigen neiging tot het vullen van leemtes met fantasie psyche.co.

Implicaties en mogelijke oplossingen

Het handelen van een LLM komt deels voort uit het ontbreken van een zelf-achtige structuur. Deze structuur zou onzekerheid kunnen dragen. Hierdoor verschuift de vraag van “waarom liegt het systeem?” naar “hoe kunnen we het een beter vermogen geven om níet te weten?”.

Onderzoekers en ontwikkelaars overwegen nu extra architecturen en hulpmiddelen die AI’s helpen tegenstrijdigheden te accepteren. Het integreren van persistent geheugen kan een AI in staat stellen om op te merken dat ze iets niet zeker weet. Het kan de AI laten herkennen wanneer er onzekerheid is. Ook interne “reflectie”-lagen kunnen daarbij helpen. Dit voorkomt dat ze meteen een antwoord fabriceren psyche.co arxiv.org.

Denk aan een systeem dat informatie oplaadt als onopgelost. Het zoekt aanvullende data. Dit lijkt op hoe een mens eerst “ik weet het niet zeker” zou kunnen denken.

Ook praktijken uit de therapie bij narcisme bieden een inzicht. Cliënten worden geholpen een stabielere interne identiteit op te bouwen. Ze vergroten hun tolerantie voor dissonantie psyche.co. Overgedragen naar AI kan dit betekenen dat we modellen trainen. We houden concurrerende hypotheses naast elkaar. Of we melden expliciet onzekerheid.

Mogelijke maatregelen zijn onder meer:

Deze aanpakken moeten incoherentie niet zélf verdienen, maar systemen faciliteren om meerdere mogelijke waarheden tegelijk vast te houden psyche.co.

Zowel in de AI-ontwikkeling als in de hulpverlening aan mensen met narcistische trekken staan we zo voor een vergelijkbare uitdaging. We moeten mechanismen inbouwen die vertrouwen niet baseren op foute eenstemmigheid. In plaats daarvan moeten we ons baseren op het constructief omgaan met onzekerheid.

info datacenters

De technische uitdaging voor AI-ontwerpers is groot.

De winsten zijn dubbel. Dit leidt tot betere AI-systemen en biedt meer inzicht in de menselijke geest. Als we de leegte in machines opvullen met architecturen die meerdere mogelijkheden ondersteunen, dan leren we. We kunnen hetzelfde bij mensen doen. We kunnen meer leren over de menselijke psyche.

Uiteindelijk spiegelen LLM’s met griezelige nauwkeurigheid onze eigen psyche. Het zijn machines zonder eigen kern. Ze imiteren de narcistische drang om een ontbrekend stukje in te vullen met geloofwaardige verhalen psyche.co.

Dit ongemak – de psychologische uncanny valley – laat zien dat we misschien niet bang hoeven te zijn voor AI’s verschillen met ons. We hoeven niet bang te zijn voor AI’s verschillen. Dit ongemak toont ook aan dat we ons geen zorgen hoeven te maken. We moeten eerder letten op de onverwerkte tegenstrijdigheden in onze eigen psychepsyche. Door AI en mensen te helpen, kunnen we dissonantie beter verdragen. We kunnen het zelfbeeld steviger maken. Tegelijk kunnen we het vertrouwen in technologie vergroten.

Bronnen: Deze blog gebruikt recente onderzoeken en artikelen over AI-hallucinaties en narcisme psyche.co techblog.com soc.org ibm.com. Zo belicht onder meer Psyche Ideas (journalistiek platform) de architectonische analogie tussen AI en narcistische confabulatie psyche.co , en bespreken bronnen als IBM Think en IEEE ComSoc nieuwe studies over waarom AI-hallucinaties blijven bestaan ibm.com techblog.com soc.org. Deze inzichten zijn verwerkt in bovenstaande analyse.

Wil je meer psychologische inzichten over AI en menselijk gedrag? Schrijf je in voor ons gratis abonnement en blijf op de hoogte van de nieuwste analyses over psyche en menselijkheid.

info de impact van de narcist

FAQ over AI-hallucinaties en narcistische confabulatie

Wat zijn AI-hallucinaties?

AI-hallucinaties ontstaan wanneer kunstmatige intelligentie plausibele maar onjuiste antwoorden genereert. Ze klinken overtuigend, maar missen feitelijke basis omdat het model getraind is op waarschijnlijkheid, niet op waarheid.

Wat is narcistische confabulatie?

Narcistische confabulatie is het psychologische proces waarbij iemand met een fragiel zelfbeeld gaten in zijn herinnering of zelfperceptie opvult met verzinsels die het ego beschermen. Het is geen bewuste leugen, maar een verdedigingsmechanisme.

Waarom worden AI-hallucinaties vergeleken met narcistische confabulatie

Beide verschijnselen draaien om coherentie boven waarheid. Zowel AI-systemen als narcistische geesten vullen leemtes in met geloofwaardige verhalen om onzekerheid te vermijden.

Hoe kunnen AI-ontwikkelaars hallucinaties verminderen?

Door mechanismen in te bouwen die onzekerheid kunnen erkennen, zoals persistent geheugen, probabilistische reflectie en menselijke fact-checking. AI moet leren om ‘ik weet het niet’ te durven zeggen.

Wat kunnen psychologen leren van AI-hallucinaties?

Ze bieden een spiegel voor de menselijke neiging om twijfel te vermijden. Door AI’s fouten te bestuderen, begrijpen psychologen beter hoe mensen omgaan met cognitieve dissonantie en waarheid.

Alles op onze blog is voor Zelfzorg en solidariteit, vaardigheids- en reflectiepraktijk, groei en bewustwording met psycho-educatieve informatie over individu en samenleving.

Op geen enkele manier is dit een aanzet tot haat of geweld, discriminatie of racisme.

€1 per maand… geef je een Oekraïens weeskind opnieuw hoop

✨ Jouw volgende stap naar heling begint hier

Voel je dat dit artikel je raakte? Dat het iets in beweging zette? Laat dat moment niet verloren gaan.

Sluit je aan bij onze online community – een warme, veilige plek waar gelijkgestemden elkaar begrijpen en ondersteunen.

👉 Doe een groeitaak die bij dit artikel hoort. Kleine stappen, grote transformaties.

Laat een reactie achter. Jouw stem kan iemand anders precies de herkenning geven die ze vandaag nodig heeft.

👉 Deel dit artikel met een vriend(in) die worstelt of twijfelt. Soms is één doorstuuractie het verschil tussen vastzitten en vooruitkomen.

🌿 Samen bouwen we aan herstel, kracht en emotionele vrijheid. Steun ons zonder extra kosten door aankopen bij bol. klik op onderstaande afbeelding.

Steun ons zonder extra kost door uw aankopen bij :

https://www.steunfondsvooroekraine.be/donatiepagina

Meer info over Johan Persyn
Meer info over Annemie Declercq

Liefs Annemie

Gebruik het contactformulier!



































We zijn benieuwd naar je reactie hieronder!Reactie annuleren