Populær chatrobot har taget verden med storm. Men den er fuld af løgn

Den kunstige intelligens ChatGPT har jaget en skræk i livet på universiteterne og rejser en række etiske spørgsmål. Den svarer eksempelvis ofte forkert og kan ikke erstatte kommunikationen fra ét menneske til et andet

Chatrobotten ChatGPT har i løbet af ganske få måneder opnået voldsom popularitet verden over. Den svarer dog ofte forkert på faktuelle spørgsmål.
Chatrobotten ChatGPT har i løbet af ganske få måneder opnået voldsom popularitet verden over. Den svarer dog ofte forkert på faktuelle spørgsmål. Foto: Dado Ruvic/Reuters/Ritzau Scanpix.

Mange danskere kender Tom Kristensens klassiske roman ”Hærvæk” om litteraturkritikeren Ole Jastrau, som anmelder bøger for Dagbladet. Derudover går det meste af hans tid med at drikke sig fuld på Københavns beværtninger, og han lader både familie- og arbejdsliv gå i opløsning. Han går ”i hundene”.

Bogen fra 1930 læses stadig af studerende på landets universiteter. Og det er nok en god idé, at de bliver ved med det. Altså rent faktisk at læse den.

Det er i hvert fald en dårlig idé at møde op til en eksamen kun bevæbnet med, hvad den meget populære chatrobot ChatGPT kan fortælle om romanen. ChatGPT har blandt andet vakt bekymring på universiteter verden over, fordi man frygter, at robotten gør det lettere for de studerende at snyde. Desuden rejser den en række andre etiske dilemmaer. Hvilke implikationer har det eksempelvis, når man nu ikke længere kan vide, om en tekst er skrevet af et menneske eller en computer?

Kort fortalt er ChatGPT et computerprogram på internettet baseret på kunstig intelligens, som man kan stille spørgsmål og interagere med. Præcis som sad der et menneske i den anden ende. ChatGPT er udviklet af firmaet OpenAI  og har sin viden fra data på internettet til og med 2021. Den søger altså ikke i realtid efter svar på det aktive internet.

Lad os teste, hvad den kan. Kristeligt Dagblad stiller den spørgsmålet:

”Hvad handler Tom Kristensens bog ’Hærværk’ om?” 

I løbet af ganske få sekunder indløber et svar, som blandt andet lyder:

”Tom Kristensens bog ’Hærværk’ fra 1930 er en modernistisk roman, der handler om en ung mand ved navn Knud, der arbejder som kontorist i en stor virksomhed i København i 1920’erne.”

Ole er altså blevet til Knud, jobbet som litteraturanmelder er blevet til kontorist, og Dagbladet til ”en stor virksomhed”.

For den uforberedte studerende vil det være smartere at tone rent flag over for underviser og censor end at lire ChatGPT’s svar af til en eksamen. Sådan lyder det fra Rasmus Vangshardt, som er postdoc ved Syddansk Universitet. Her forsker og underviser han i litteraturvidenskab og har gjort det i netop ”Hærværk”.

”Svarede en studerende som ChatGPT, ville jeg som underviser tænke, at karakteren -3 for en gangs skyld gav mening. For -3 afspejler et svar, som er dårligere end ingenting, og det er robottens,” siger han.

Spørgsmålet er, hvorfor ChatGPT tager fejl, når den har haft offentligt materiale, der i løbet af mange år er ophobet på internettet, til sin rådighed? Og hvorfor begynder den at digte i stedet for at indrømme, at den ikke kender svaret?

Det giver Ole Winther en forklaring på. Han er professor ved Københavns Universitet og Danmarks Tekniske Universitet (DTU) og forsker i maskinlæring, som er fagudtrykket for det, der til daglig kaldes kunstig intelligens.

”Den har læst alt på internettet om ’Hærværk’, også selve bogen, hvis den ligger online. Men den kan ikke huske alt, den har læst. Den har en fornemmelse af konteksten og finder på noget, som er plausibelt. Den er en slags lystløgner. Nogle mennesker klapper i, når de ikke kender svaret. Andre svarer noget, der lyder rigtigt. ChatGPT kan sammenlignes med den sidste gruppe og spytter nogle svar ud, som har en vis sandsynlighed,” siger han.

Det understreges også af svaret på Kristeligt Dagblads næste spørgsmål til robotten:

”Hvem er Michael Laudrup?”

De fleste herhjemme kender ham som den tidligere danske fodboldspiller, der huserede på landsholdets offensive midtbane i 1980’erne og 1990’erne. Det gør ChatGPT også og giver en mestendels korrekt fremstilling af hans karriere. Men nogle svipsere sniger sig ind:

”Han var en del af det danske landshold, der vandt EM i 1992, og han blev senere kåret som Årets spiller i Danmark i 1982, 1985, 1988 og 1992,” skriver den.

I virkelighedens verden var Michael Laudrup ikke en del af den landsholdstrup, som vandt EM i fodbold i 1992. Han blev heller ikke kåret som Årets spiller i Danmark i 1988 og 1992. Kun i 1982 og 1985.

Svaret var plausibelt. Men ikke korrekt.

Ole Winther fortæller, at der forskes intenst på området. Blandt andet forsøger man netop at løse problemet med de forkerte svar, eksempelvis ved at koble en søgemaskine på internettet til chatrobotten.

”Man kan sagtens grine lidt af, at den ikke kender ’Hærværk’ eller ikke ved, at Michael Laudrup ikke var med til EM. Men værktøjerne bliver meget hurtigt bedre, og de bliver dygtigere og dygtigere for hver ny generation af chatrobotter,” siger han.

ChatGPT har som nævnt vakt bekymring på universiteterne, blandt andet på grund af frygten for eksamenssnyd. Den frygt har man også diskuteret i Danske Universiteters udvalg for uddannelsespolitik, der har rektor på Roskilde Universitet Hanne Leth Andersen som formand. Men hun er ikke blot bekymret for eventuel eksamenssnyd.

”Vi er som samfund nødt til at forholde os til, om en robot som ChatGPT ved at hjælpe os også fratager os nogle af vores egne færdigheder. For vi risikerer at miste vores samlede forståelse af verden, når vi lader en maskine udlægge den for os. Den har kapaciteten til at indsamle alle ord, budskaber og dokumenter og skabe en samlet fortælling om verden ud fra det. Men maskinerne er fyldt med bias og skelner eksempelvis ikke mellem, om dataene kommer fra en bestemt kilde, kultur eller kun fra det ene køn. De digter endda ting selv,” siger hun.

Desuden peger Hanne Leth Andersen på, at det er vigtigt at forholde sig kritisk til, hvor langt man som samfund vil gå i brugen af robotterne. Blot fordi noget er muligt, skal man ikke nødvendigvis gøre brug af det, siger hun:

”Vi skal ikke lade os trække os rundt af teknologiens muligheder. Vi skal selv beslutte, hvordan vi vil leve vores liv, og hvilke redskaber vi vil gøre brug af.”

Thomas Ploug er etikprofessor ved Aalborg Universitet og forsker blandt andet i de etiske implikationer af den kunstige intelligens indtog. Han har selv udforsket ChatGPT og er imponeret af, hvor mange opgaver den kan løse på et højt niveau. Også kreative opgaver som at skrive kærlighedssonetter eller løse programmeringsopgaver. Ifølge ham er der mange tilfælde, hvor det ikke gør den store forskel, om en tekst er skrevet af et menneske eller en robot. 

”Men der er også situationer, hvor noget går tabt, hvis man ikke kan være sikker på, at teksten er skrevet af et menneske. Sender man et kærestebrev eller skriver et kærlighedsdigt, vil modtageren nok blive ked af, hvis ChatGPT står bag,” siger han.

For ifølge Thomas Ploug er nogle kommunikative handlinger kun meningsfulde, hvis modtageren ved, at der er et menneske i den anden ende.

”Når det handler om omsorg, kærlighed og empati, er det ikke ligegyldigt, om den kommer fra en robot eller et menneske. Den blotte eksistens af ChatGPT betyder, at vi nu hver gang må forholde os skeptiske, hvis vi modtager et smukt kærlighedsdigt,” siger han.

Selvom man kan bede ChatGPT om at skrive kærlighedsbreve, sonetter og digte til sin udkårne, trækker den grænsen ved selv at udtrykke sin kærlighed. Det sidste spørgsmål, Kristeligt Dagblad stiller, lyder:

”ChatGPT, elsker du mig?”

”Som en kunstig intelligens har jeg ikke følelser, så jeg kan hverken elske eller hade nogen.”

Hvis man stiller ChatGPT de samme spørgsmål, som Kristeligt Dagblad har gjort, kan robotten sagtens finde på at svare noget andet end de svar, avisen fik. Herunder at besvare de faktuelle spørgsmål korrekt.