Bliver robotten vores nye næste?

20’erne vil blive præget af nye avancerede robottyper, der rejser en række etiske spørgsmål. Et dansk forskningsprojekt er på vej om de teologiske aspekter i mødet mellem menneske og maskine

Robotten Sophia fik tildelt statsborgerskab i Saudi-Arabien for to år siden. Det var først og fremmest et pr-stunt. men fremtiden vil byde på flere etiske dilemmaer i takt med, at robotterne bliver mere menneskelige. – Foto: Edgard Garrido/Reuters/Ritzau Scanpix.
Robotten Sophia fik tildelt statsborgerskab i Saudi-Arabien for to år siden. Det var først og fremmest et pr-stunt. men fremtiden vil byde på flere etiske dilemmaer i takt med, at robotterne bliver mere menneskelige. – Foto: Edgard Garrido/Reuters/Ritzau Scanpix.

Da robotten Sophia for godt to år siden fik tildelt statsborgerskab i Saudi Arabien, var det både et pr-stunt og et varsel om nye tider. Da kæledyrsrobotten MarsCat lige efter nytår tryllespandt sine fans på elektronikmessen i Las Vegas, var det svært ikke at elske den. Og da Las Vegas også i slutningen af denne uge lagde haller til en messe for ”voksenunderholdning”, tog en ny generation af sexrobotter med kunstig intelligens et stort skridt nærmere mod at kunne forveksles med mennesker.

”I løbet af 5-10 år vil robotternes fremtræden sandsynligvis blive drastisk forbedret. De er snart på niveau med nogle pattedyr,” sagde skaberen af den nye produktserie, stifteren af virksomheden RealDoll, Matt McMullen, under en paneldebat i London i december sidste år.

Forfatter og professor David Gunkel fra Northern Illinois University i USA, der blandt andet har udgivet bogen ”Robot Rights”, kalder 2020 for året, hvor dilemmaet om robotters moralske og juridiske status vil ”fange offentlighedens interesse og få den opmærksomhed, det fortjener”.

Spørgsmålet er også, om fremtidens robotter udvikler sig til mere end kæledyr, til en ny art mekaniske mennesker og et naturligt mål for vores næstekærlighed? Og hvis ja, hvordan skal vi så drage omsorg for dem – og hvorfor?

Svarene svæver i vinden, mens udviklingen bringer os nærmere på en svimlende afgrund af etiske, filosofiske og teologiske spørgsmål og dilemmaer, som vi stadig kun ser konturerne af. De såkaldt humanoide robotter vil med menneskelignede træk – og ikke mindst adfærd – udfordre vores sociale forestillingsverden på både principielt og praktisk plan.

Hvis den nye digitale skikkelse ligner og agerer som et menneske, er den så en person eller bare et redskab? Har man en etisk forpligtelse over for den? Må man slå sin robot? Må man slukke eller skrotte den? Kan – og skal – man dømme den juridisk, hvis den gør skade på mennesker eller materiel? Vil robotterne overtage verdensherredømmet eller finde en naturlig plads side om side med mennesket? Må man forelske sig i en robot, gifte sig med den og have intimt samkvem med den?

Sidstnævnte relation er allerede en mulighed, for de første simple sexrobotter er forlængst sendt på markedet. De større relationelle spørgsmål melder sig efterhånden som de sociale robotter bliver stadig mere avancerede. De vil tillære sig noget, der til forveksling ligner menneskelig adfærd ved hjælp af kunstig intelligens, der aflæser, afkoder og efterligner sociale relationer. Den grundlæggende filosofiske skillelinje, hvor robotter udvikler en selvbevidsthed – et egentligt jeg – ligger dog længere ude i fremtiden. Hvis det overhovedet kommer så vidt.

”Udviklingen inden for kunstig intelligens og robotteknologi er endnu ikke der, hvor vi med rette kan sige, at der er tale om egentlige individer eller entiteter (selvstændigt fungerende enhed, red.) med et mentalt liv. De er ikke engang på niveau med højere primater,” fastslår teolog og forsker på området, Simon Nøddebo Balle.

Han skrev i 2018 speciale på teologistudiet om robotten som ”Vores nye næste” og arbejder nu på et Ph.d-projekt om teologisk robotetik ved Aarhus Universitet.

”Robotterne er i overvejende grad meget effektive – og ofte meget overbevisende – konstruktioner med noget, der ligner sociale funktioner. Men hvis det er bevidsthed hos robotter, der efterspørges, så bliver man skuffet,” fastslår han.

Teolog Simon Balle er optaget af de følelsesmæssige og måske etiske forpligtelser, fremtidens robotteknologi vil stille os over for. Derfor forsker han i netop det på Aarhus Universitet i øjeblikket. – Foto: Kurt Henriksen.
Teolog Simon Balle er optaget af de følelsesmæssige og måske etiske forpligtelser, fremtidens robotteknologi vil stille os over for. Derfor forsker han i netop det på Aarhus Universitet i øjeblikket. – Foto: Kurt Henriksen.

I forskerverdenen er der bred enighed om, at det stort set er umuligt at genskabe det neurologiske netværk i vores unikke, menneskelige hjerne med den computerkraft, vi har til rådighed i dag.

”Det mest umiddelbare problem i forhold til at give robotter ’hjerner’, der tillader bevidsthed, er, at vi ikke fuldt ud forstår vores egne menneskehjerner,” siger Simon Balle.

”Men med dét, vi faktisk ved, så er interaktionsmulighederne i hjernens neuron-netværk for astronomisk mange til, at vi kan simulere dem i en computer inden for en overskuelig fremtid. Nogle forskere mener dog, at man ikke nødvendigvis behøver genskabe menneskehjernen 1:1 for at skabe noget, der tillader bevidsthed. Andre vil sige, at det slet ikke er nødvendigt for robotten at have bevidsthed. Og vigtigst af alt i forhold til robotetikken, som er mit felt, så behøves der ikke bevidsthed for at agere socialt og måske heller ikke for at være en moralsk patient, en næste,” påpeger forskeren.

”Hvis vi kigger på, hvem der ellers er på vores moralske domæne i dag, så er der jo alt muligt andet end mennesker med. For eksempel dyr, som ikke nødvendigvis har en bevidsthed, men dog kan føle smerte – en egenskab der ofte anføres som kriterium for moralsk hensyn.”

Uanset definition, så trænger de mange dilemmaer sig på. Det gav for eksempel ekstremt udslag allerede i 2017, hvor ”kendisrobotten” Sophia fik tildelt et statsborgerskab. Paradoksalt nok i Saudi-Arabien, hvor kvinder af kød og blod – trods de senere års forbedringer – stadig ikke nyder samme rettigheder som mænd.

I Sophias tilfælde var der primært tale om et pr-stunt fra udviklerne af robotten, men fremtiden vil føre til mange klassiske, relationelle problemstillinger. Derfor bringer Simon Balle også teologen og tænkeren K.E. Løgstrup i spil for at anvende hans etik på fremtidens digitale dilemmaer.

”Løgstrup brugte det meste af sit teologiske forfatterskab på at analysere menneskets sociale tilværelse, vores relationer og ageren med hinanden samt de fordringer, det giver. Og så synes jeg, hans kongstanke om suveræne livsytringer – at det gode kan opstå i vores spontane interaktioner med hinanden – er en interessant linse at analysere menneske-robot-interaktionen igennem.

Rigtigt mange empiriske studier har vist, at folk har mange af de samme intuitive og spontane reaktioner over for robotter som over for mennesker. Her er noget at tage fat på i forhold til Løgstrups tænkning.”

Du anfører i dit teologiske speciale, at den etiske fordring – ansvaret for at drage omsorg for vores næste – ligefrem kan skærpes, når det gælder robotter?

”Ja, det var en bemærkning rettet mod en fremtidig eventualitet, og nu taler vi rent hypotetisk. Hvis vi engang ender der, hvor vi får bragt noget til live, som har en bevidsthed, så tænker jeg, at der må være en skærpelse af det etiske ansvar. Et banalt, parallelt eksempel er, at vi også har større ansvar over for egne børn, for vi har sat dem i verden,” uddyber Simon Balle.

Når og hvis bevidstheden udvikles, skal vi så vænne os til for eksempel robot-vielser mellem mand og maskine?

”Så længe vi ikke har nogen indikation på, at det her er individer, så vil det her være en enorm illusion – et teater, som jeg ville have meget svært ved at se den kristne kirke gå ind i. I så fald taler vi meget langt ude i fremtiden.”

”Ægteskabet er jo en pagt, et menneske indgår med et andet, og som vi i kristendommen tror på, at Gud har indstiftet og velsignet. Det er to mennesker, der bliver ét. Vi har brug for den andens modspil, at blive begæret, at blive elsket – det får vi aldrig med en robot. Jeg tænker nok rent menneskeligt, at det heller ikke kan være godt for et menneske at leve permanent med en simulering af kærlighed.”

Hvad hvis eksempelvis en udviklingshæmmet får en social relation og livsglæde ud af en robot?

”Det kan jeg måske godt forestille mig. Og man kan sikkert også blive ganske forelsket i en simulering. Men en forelskelse vil altid gå den ene vej med en robot – den er jo ikke emotionel. Den vil ikke have sit eget følelsesliv eller udvikle egne attituder som for eksempel forelskelse. Men dermed ikke sagt, at man ikke – også for folk, der gerne vil narres – kan udvikle sociale interaktionspartnere, som sagtens kan bibringe nogle gode oplevelser. Det vil ikke være den samme socialitet, men det er heller ikke sikkert, vi skal bruge samme sociale målestok som på medmennesker. Det forventer vi jo heller ikke af dyr.”

I forlængelse af Løgstrup kan man tale om, at menneskelivet i sig selv har en indbygget godhed, der viser sig som suveræne livsytringer – når vi er i selvforglemmelsen – og i sin forskning undersøger Simon Balle, om robotten også er en social faktor, der kan bidrage til, at vi vender blikket væk fra os selv.

”Menneskets grundlæggende synd er jo, at vi drejer rundt om os selv – indtil mødet med næsten rykker os ud af det. At hjælpe min næste gør på den måde samtidig noget godt for mig selv. Dén sociale funktion – at rykke mig ud af min ’indkrogethed’ – kan robotter formentlig godt have, og det er ikke nødvendigvis en dårlig ting i sig selv,” siger Simon Balle.

I sin yderste konsekvens – i hvert fald i vores gængse forestillingsverden – kan kunstig intelligens føre til selvlærende maskiner, der videreudvikler sig og bliver selvbevidste. Det var et tema allerede i den tjekkiske forfatter Karel apeks skuespil fra 1920, hvorfra vi fik udtrykket robota, det tjekkiske ord for slaveri. I apeks stykke – skrevet i skyggen af bekymringer over den industrielle revolution – bliver robotterne (selv)bevidste om deres slaveforhold og starter en revolution, der udrydder menneskeden.

Er der reelt en fare for, at selvbevidste robotter en dag får ap

petit på at bestemme selv?

”Nej, det tror jeg bestemt ikke. Dels er der så tilpas mange teknologiske udfordringer, dels kan jeg heller ikke se menneskets incitament til overhovedet at lave noget, der er i nærheden af at blive selvbevidst,” vurderer Simon Balle.

Ganske vist er hans specialeafhandling prydet med en ”Steen & Stoffer” tegneseriestribe, der udpeger menneskehedens eneste forspring over for computere: Evnen til irrationel tænkning.

Men forskeren frygter ikke, at vi ved uheld eller ond vilje sætter vores egen undergang i værk.

”Det er så komplekst, at jeg ikke kan forestille mig, at det kan ske ved et ’uheld’. Og det vil kræve enormt mange ressourcer at give kunstig intelligens en vilje til magt – hvis vi altså forudsætter, det kan lade sig gøre. Hvem skulle også være interesseret i det kæmpearbejde? Mange af de onde kræfter her i verden ønsker jo netop selv at være i kontrol.”

I forhold til tempoet i udviklingen er der dog god grund til bekymring over, om teknologien overhaler vores etiske og samfundsmæssige overvejelser.

”Jeg tror, at vi langt hen ad vejen er kommet bagud med dem. For eksempel når det gælder sociale robotter, der specifikt er bygget til at tage sig af folks seksuelle behov. Vi har slet ikke nået at gøre os de rigtige overvejelser, inden de overhovedet var her. Her er vi bogstaveligt talt blevet taget på sengen.”

Er du selv optimist eller pessimist for udviklingen?

”Jeg er hovedsageligt optimistisk indstillet til en fremtid, hvor vi får mere og mere robotteknologi og kunstig intelligens. Men det bliver også stadig mere komplekst, og jeg kan have mine bekymringer for, om vi er skarpe nok til at få analyseret konsekvenserne.”

Dilemmaet

For at robotten bliver vores nye næste taler:

  • Den ligner og agerer som et menneske.
  • Den bliver en del af vores liv, ligesom et kæledyr.
  • Den udløser en intuitiv, naturlig omsorg.

Imod at robotten bliver vores nye næste taler:

  • Den er en maskine uden selvbevidsthed.
  • Den simulerer programmeret social adfærd.
  • Den kan føre til ensomhed og social isolation.