
Å gi elevene KI-assistenter er å gjøre dem en bjørnetjeneste
Feilinformasjon som skapes av kunstig intelligens er en iboende del av teknologien. I verste fall utstyres hver elev med en personlig desinformasjons-maskin.

(Illustrasjonsfoto: Shutterstock / NTB)
Se for deg at du er en norsklærer som har bedt elevene levere en kort tolkning av Alexander Kiellands novelle «En god Samvittighed» (1880).
I ett av svarene kretser tolkningen rundt karakteren Carsten Lauritzen. Hans hykleri og dobbeltmoral gjenspeiles av tittelen, forklarer eleven selvsikkert: Han gir til veldedighet, for å sikre sin "gode samvittighet", samtidig som han utnytter sine arbeidere på det groveste.
Det er bare ett problem: Denne karakteren opptrer ikke i novellen, og handlingsforløpet som beskrives er ikke det novellen skildrer. Det vil alle som har lest teksten umiddelbart oppfatte.
Hvorfor dikter KI-en?
Dette eksempelet er ikke oppdiktet, men hentet fra virkeligheten. Årvåkne lesere vil kanskje allerede ha gjettet at eleven her har fått "hjelp" av kunstig intelligens, og dermed sabotert for seg selv. Dette er en konsekvens av at alle elever nå er utstyrt med en personlig desinformasjons-maskin.
Hvordan kan det ha seg at kunstig intelligens bommer så kraftig?
Fenomenet, som her skaper karakteren Carsten Lauritzen, kalles for hallusinasjon. Dette er begrepet KI-forskere har valgt for å beskrive feilinformasjon som oppstår eller genereres i KI-systemer.
Man kan mistenke det for å være språklig pynt – det høres jo bedre ut enn løgn – men navnet er også oppklarende: Et menneske som hallusinerer er sjelden klar over det selv. Slik er det også når hallusinasjoner oppstår i KI-systemer: Den kunstige intelligensen vet ikke selv at den hallusinerer.
Hallusinasjon er en iboende del av teknologien
Det finnes mange forskjellige typer kunstig intelligens. Den mest utbredte og kjente i dag er familien av store språkmodeller som kalles Generative Pre-trained Transformers, eller GPT. Høres det kjent ut?
ChatGPT er et grensesnitt som lar deg “snakke” med en GPT-modell. Funksjonen til en slik språkmodell er å produsere responser som høres ut som menneskeskapt språk. Det gjør den ved å bryte ned språkmønstre fra de store mengdene data den er trent på, til små bruddstykker.
Bruddstykkene kalles på engelsk tokens – på norsk kan vi kanskje kalle dem polletter. Språkmodellen setter så pollettenesammen igjen på nye måter hver gang den får et spørsmål.
For hver nye pollett gjøres en sannsynlighetsberegning for å avgjøre hva den neste skal være. Stort sett går dette bra, fordi modellen velger polletter med høy sannsynlighet for å følge hverandre. Da produserer GPT-modellen ytringer som gir mening, og er mer eller mindre riktige.
Imidlertid kan det gå galt, ved at den velger en pollett med lav sannsynlighet. Dette har en selvforsterkende effekt, som kan føre til kjeder av polletter med lav sannsynlighet.
Språkmodellen vil alltid prioritere å gi brukeren et eller annet svar, uansett hvor lav sannsynligheten er for at den har truffet riktig hele veien. På denne måten oppstår hallusinasjoner, og fenomener som Carsten Lauritzen.
Les hele artikkelen her: