AI als studiepartner met nukken
Kim Kardashian heeft in een interview met Vanity Fair toegegeven dat haar vriendschap met ChatGPT “toxisch” is geworden. De realityster, die rechten studeert, vertelt dat ze het AI-programma gebruikt om juridische vragen te beantwoorden. Dat liep niet altijd goed af.
“Ik gebruik ChatGPT voor juridisch advies. Wanneer ik een vraag heb, maak ik een foto en stuur ik die door. Ze hebben het altijd fout. Het heeft ervoor gezorgd dat ik examens niet haalde,” zei Kardashian. “Dan word ik kwaad en roep ik: ‘Door jou ben ik gebuisd!’”
Hallucinaties en nepadvies
ChatGPT en andere taalmodellen staan erom bekend soms verkeerde of verzonnen informatie te geven — zogenaamde ‘hallucinaties’. De technologie voorspelt woorden op basis van gigantische hoeveelheden data, maar weet zelf niet wat waar of onwaar is. Daardoor kan de tool klinken alsof hij zeker is, ook al klopt het antwoord niet.
Die foutieve zekerheid heeft al eerder juridische gevolgen gehad. In de Verenigde Staten zijn advocaten op de vingers getikt omdat ze ChatGPT gebruikten voor pleitnota’s waarin niet-bestaande rechtszaken werden geciteerd.
Een gesprek met een machine
Kardashian probeert de AI intussen op andere manieren te benaderen. Ze zegt dat ze ChatGPT aanspreekt alsof het gevoelens heeft: “Ik zeg dan: ‘Je gaat me doen zakken, hoe voel je je daarbij?’ En dan antwoordt het: ‘Dit leert je je eigen instincten te vertrouwen.’”
Hoewel ChatGPT geen emoties kent, toont de anekdote wel hoe mensen snel geneigd zijn technologie te vermenselijken. “Ik maak voortdurend screenshots en stuur die naar mijn vriendengroep: ‘Kun je geloven dat die b— zo met mij praat?’” zei Kardashian lachend.
De grens tussen hulp en hinder wordt zo steeds vager. Kunstmatige intelligentie mag dan geen gevoelens hebben, de frustraties die het oproept zijn heel menselijk.




