AI-hallucinaties en narcistische confabulatie: waarom AI-verhalen niet per se de waarheid weerspiegelen

Close-up afbeelding van de menselijke hersenen met visuele illustraties van neurale netwerken die de complexiteit van AI-hallucinaties symboliseren.

Generatieve AI-systemen, zoals grote taalmodellen (LLM’s), produceren soms plausibele maar foutieve informatie, bekend als hallucinaties. Dit komt doordat ze altijd antwoord geven, ongeacht de waarheid. Er zijn vergelijkingen tussen deze AI-hallucinaties en narcistische confabulatie bij mensen; beide prioritizen coherentie boven waarheid. Oplossingen omvatten mechanismen voor onzekerheid en menselijk toezicht.