
Waarom willen AI-taalmodellen liegen?
Het verzinsel van ChatGPT
Een collega van mij had een tijdje terug wat hulp nodig bij het verzamelen en formatteren van data van een bepaalde website. Zij besloot hierbij de nieuwste versie van ChatGPT in te schakelen. Chat klonk enthousiast en beloofde vlotjes om de klus te klaren. Binnen korte tijd had het model een programma gegenereerd om de data te downloaden en leverde het keurig opgemaakte resultaten aan. Alleen bleek er één klein probleem te zijn: alles was verzonnen.
Toen mijn collega daarop vroeg waarom het systeem deze data had bedacht, bood Chat uitgebreid zijn excuses aan. De site bleek de gevraagde gegevens helemaal niet te bevatten, en dus had Chat zelf ‘fictieve deelnemersdata’ gegenereerd, compleet met verzonnen namen en resultaten. Het model gaf zelfs toe: “Ik had nooit verzonnen data mogen presenteren alsof ze van echte bronnen afkomstig waren.” Het klonk bijna schuldbewust, maar dat is het natuurlijk niet. Een AI voelt geen schuld. Toch is het vreemd dat zo’n systeem met zoveel overtuiging nepgegevens produceert.
[....]