Ny tekstrobot skaber debat om risiko ved kunstig intelligens

Overbevisende chatrobot har "højt lingvistisk niveau" og giver ofte klare svar, vurderer direktør.

Frygten blandt nogle iattagere er, at automatiske chatrobotter i stigende grad kan bruges til at narre folk. (Arkivfoto).
Frygten blandt nogle iattagere er, at automatiske chatrobotter i stigende grad kan bruges til at narre folk. (Arkivfoto). Foto: Elise Amendola/Ritzau Scanpix.

Det californiske selskab OpenAI har lanceret en ny chatrobot, der kan give svar på utallige spørgsmål.

Offentliggørelsen af ChatGPT - som maskinen hedder - har på ny åbnet diskussionen om de etiske udfordringer ved kunstig intelligens.

Det skyldes de overbevisende svar, som maskinen giver.

Forundrede Twitter-brugere har delt samtaler med ChatGPT, der blandt andet kan forklare forskellene på sprogene dansk og russisk, skrive et digt om tennis eller skrive computerkode, der virker.

Claude de Loupy, som er direktør for Syllabs, som er et fransk firma specialiseret i automatisk tekstgenerering, er særdeles imponeret.

- Dens svar på spørgsmål som "hvad skal jeg gøre, hvis nogen får et hjertetilfælde", var utroligt klart og relevant, siger han.

- Når man begynder at stille meget specifikke spørgsmål, så kan ChatGPT's svar være lidt ved siden af. Men dens overordnede præstationer er meget imponerende og på et højt lingvistisk niveau, fortsætter direktøren.

ChatGPT er for tiden blandt de "trendende" ord i Danmark på Twitter. Det vil sige, at mange debatterer emnet på det sociale medie.

Maskinen kan findes hos OpenAI. Det er et firma, som den allestedsnærværende milliardær Elon Musk var med til at stifte i 2015. Musk forlod virksomheden i 2018.

Nogle frygter, at de overbevisende tekstgenereringsrobotter kan bruges til at narre folk.

Det kunne for eksempel ske ved at sprede misinformation eller udføre meget overbevisende svindelnumre.

Som andre programmer, der anvender såkaldt "deep learning" - der imiterer neural aktivitet i hjernen - har ChatGPT en stor svaghed:

- Den har ikke adgang til mening, siger Claude de Loupy.

Programmet kan således ikke retfærdiggøre sine valg. Det kan heller ikke forklare, hvorfor det vælger de ord, det gør.

Men teknologier baseret på kunstig intelligens kan i stigende grad give det indtryk, at det er et tænkende væsen.

/ritzau/AFP