Prøv avisen

Er vi klar til at lade kunstig intelligens overtage store dele af vores liv?

Foto: THOMAS KUHLENBECK

Udviklingen af kunstig intelligens buldrer fremad, og det får en række etiske spørgsmål til at presse sig stadig mere på. Alligevel diskuterer vi stadig det forkerte, når vi diskuterer robotter, mener forskere og debattører

Bliver kunstig intelligens menneskehedens endeligt? Vil robotter overtage verden inden for en overskuelig fremtid?

Spørgsmålene hører ikke længere skøre videnskabsfolk og B-film til, men stilles af nogle af klodens skarpeste og mest fremsynede hjerner, ikke mindst professor Stephen Hawking og forretningsmagnaten, ingeniøren og opfinderen Elon Musk. Deres svar er endda et rungende ja. Og det kommer til at ske inden for de næste 100 år.

Så sortsynede var fire af Danmarks førende forskere og debattører inden for kunstig intelligens ikke, da de mødtes onsdag aften for at diskutere de store – og stadig ubesvarede – etiske spørgsmål omkring vores brug af teknologien. Flere af dem ærgrede sig over de dystre prognoser for menneskeheden fra Hawking og Musk, for intet tyder på, at det har hold i virkeligheden. Og næsten lige så slemt: Udtalelserne skævvrider den stadig mere nødvendige debat om, hvordan vi udnytter mulighederne og undgår faldgruberne i brugen af kunstig intelligens, sagde ph.d. Søren Tranberg, der har forsket i kunstig intelligens de seneste 15 år og i 2015 skrev bogen ”Robotterne iblandt os”:

”De får desværre meget opmærksomhed på at male skrækbilledet af et monster, der kommer om natten og tager vores børn. Men i stedet for at være bange bør vi bruge energien på at forholde os til de problematikker, vi oplever allerede.”

Klavs Birkholm, direktør for tænketanken TeknoEtik og tidligere medlem af Det Etiske Råd, var helt på linje:

”Debatten om kunstig intelligens kommer ofte til at handle om, hvorvidt det er godt eller skidt med den nye teknologi. Men det er en forkert debat, for teknologien stormer frem uanset hvad, og det interessante er derfor, hvordan vi faktisk bruger den. Og her har vi skubbet en række etiske dilemmaer foran os, som vi ikke længere kan undgå at forholde os til. Et godt eksempel finder man i det sociale system, hvor vi er godt på vej til at lade computere overtage dele af sagsbehandlingen og eksempelvis beslutte, hvilke børn der skal fjernes fra deres familie. Er det den vej, vi vil?” spurgte han.

Cirka 80 tilhørere fyldte hver en stol i Kunstforeningen Gl. Strand i København, der udgjorde de smukke rammer om debatmødet – et møde arrangeret af virksomheden Atea Future Growth, som udforsker it-trends, og Kubrick Festival 2017, som hele året fejrer den amerikanske filminstruktør Stanley Kubrick. Kubrick var blandt andet kendt for at skrive manuskriptet til filmene ”Rumrejsen år 2001” og ”AI”, der begge har kunstig intelligens som et omdrejningspunkt.

Lektor på Danmarks Tekniske Universitet Thomas Bolander begyndte debatten med at afgrænse, hvad kunstig intelligens egentlig er, for det er et begreb, der ofte bliver brugt forkert – og for bredt. Generelt kan man sige, at kunstig intelligens er et område af menneskelig intelligens, som vi hidtil kun selv har kunnet mestre, men som vi nu også kan få robotter til. Eksempelvis at spille skak.

”Kunstig intelligens handler om at bryde grænsen mellem menneske og maskine ned,” forklarede Thomas Bolander, og understregede den forskel, der dog altid vil være der: En robot med kunstig intelligens kan ikke være levende. Og den kan kun agere inden for de rammer, mennesket har sat for den. Den har pr. definition altså ingen selvstændige ambitioner om at overtage verden.

Men den overtager de dele af verden, vi lader den overtage, og det er her, gråzonerne og de etiske dilemmaer kan opstå. De selvkørende biler, som nu kører rundt stadig flere steder i verden, er et hyppigt brugt, men også illustrativt eksempel. Når vi overlader kontrollen til en kunstig intelligens, hvordan programmerer vi så de mange mulige gråzonetilfælde, hvor computeren eksempelvis må vælge mellem at køre nogen ned eller undgå selv at gøre galt? Hvis liv tæller mest? Og hvad, hvis der sker en teknisk fejl, eller computeren laver en åbenlys fejlvurdering, hvem har så ansvaret? Føreren af bilen, producenten af bilen eller de konkrete programmører?

Den slags problemstillinger understreger, hvor mange betydningslag, der er i vores virkelighed, og som man ikke blot kan programmere sig frem til, påpegede aftenens fjerde debattør, filosoffen Malene Trock Hempler.

”Filosoffen Hannah Arendt stillede spørgsmålet: Hvordan forklarer man, at så mange gode mennesker begår grusomheder under krig? Hendes svar var: Deres dømmekraft sættes ud af spil. Vores evne til at vurdere en given situation og tænke selv er noget helt grundlæggende menneskeligt, som vi ikke kan overføre på kunstig intelligens, og det medfører nogle begrænsninger, som vi bliver nødt til at tage højde for,” sagde hun.

Men – indskød Søren Tranberg, der erkendte at være debatpanelets nok mest optimistiske deltager i forhold til brugen af kunstig intelligens – vi har det netop med at glemme, hvor grusomme vi mennesker selv kan være. Vi begår fejl i trafikken hele tiden, nogle gange endda bevidst. Derfor er det en falsk problematik, at de selvkørende biler skal vælge, hvem den skal redde, og hvem den skal slå ihjel.

”Lige nu accepterer vi, at cirka 1,2 millioner mennesker dør i trafikken hvert år globalt set. Havde vi mon accepteret det offer, hvis vi havde kendt det, da udviklingen af de første biler begyndte? Nu tøver vi så ved udsigten til, at der kan ske – lad os bare sige – 2000 fejl årligt med selvkørende biler, som medfører døden. Problemet er i virkeligheden, at vi ikke har lyst til på forhånd at godkende dødsfald eller andre uhensigtsmæssige hændelser som følge af kunstig intelligens,” sagde han.

Det er netop her, kernen i debatten om kunstig intelligens bør ligge, mente Thomas Bolander, lektoren fra Danmarks Tekniske Universitet. Vi er nødt til at diskutere og blive enige om, hvilke frihedsgrader og beslutningskraft vi skal give de intelligente systemer. Det afgørende er ifølge ham, at der altid skal være et menneske med i ligningen, og at robotter aldrig må få det sidste ord. Den kunstige intelligens skal bruges som et hjælpeværktøj de steder, hvor det giver mening at nedbringe menneskelige fejl, eksempelvis inden for sundhedsvæsenet, hvor en computer eksempelvis med fordel kan foreslå, hvad en patient kan fejle ud fra de indtastede symptomer. For en læge kan aldrig have det fulde overblik. Men hvis der skal et menneske ind over hver gang, får man ikke det fulde udbytte af den kunstige intelligens, påpegede Søren Tranberg.

”Det er også den afvejning, der bliver svær, og derfor bliver lovgivning om fælles regler helt afgørende i de kommende år,” sagde han, og det åbnede for en helt ny vinkel på diskussionen. For hvilke interesser kommer til at forme den lovgivning?

Samme bekymring havde Thomas Bolander. For hvad nu, hvis nogle producenter af selvkørende biler er bedre, men også dyrere end andre, hvilke standarder skal staten så sætte? Hvis nogen sælger deres bil på, at den selvfølgelig er programmeret til at prioritere dens egne passagerer højest, skal den så være ulovlig?

”Vi har tilsvarende diskussioner nu med dyr medicin. Vi vil gerne give folk bedst mulige chancer for at overleve, men til hvilken pris? Den slags diskussioner kommer også med selvkørende biler og alle mulige andre former for kunstig intelligens. Men jeg tror ikke, det helt er gået op for flertallet, at denne nye virkelighed er lige om hjørnet.”