Prøv avisen
Kronik

Robotteknologiens indtog og humanioras etiske udfordring

Der skal inddrages refleksive, seriøse overvejelser og stillingtagen til udviklingen af robotter i nutiden og i særdeleshed i fremtiden. Vil vi som mennesker i fremtiden huske på, at robotter er et menneskeskabt produkt? spørger dagens kronikør

Efter deltagelse i RoboBusiness Europe 2016 i Odense, både som konferencespeaker og som tilhører, fik det mig til at tænke yderligere over, hvor umådelig vigtigt det er, at vi særligt under uddannelse indtænker og forholder os til robotteknologiens uvilkårlige indtog i samfundet, både kritisk-konstruktivt og i et pædagogisk-sociologisk og filosofisk øjemed.

Uddannelsesområdet er en nøglespiller, når det handler om bevidstgørelse og om at komme med pædagogiske indspark til de fremtidige problemstillinger og udfordringer, vi på nuværende tidspunkt bør forholde os kritisk til for at komme tiltag i forkøbet – som vi senere formentlig ikke har nogen indflydelse på og kan styre.

Vi har brug for kritisk tænkning og analytisk ræssoneren i udviklingen af robotteknologi, og vi har særligt brug for fagligt tværgående tænkning, ikke kun videnskabelig tænkning.

Vi bør, for blot at fremhæve ét blandt mange eksempler, diskutere indholdet i ekstravagante film som ”Her”, hvor hovedpersonen udvikler et forhold til sin computer, idet han installerer et nyt operativsystem med kunstig intelligens og egen bevidsthed.

Et andet eksempel – og i en helt anden kategori – er udviklingen af autonome våbensystemer. Forskere er i færd med at udvikle selvbevidste robotter for at kunne reducere tabet af soldater i krig. Hvilket umiddelbart kan forekomme positivt, idet vi reducerer vores menneskelige tab i krig, men hvem debatterer de autonome våbensystemer, som frit kan vælge – og eliminere – deres eget udsøgte mål? For også at nævne klo-droner, som kan gribe og flyve af sted med, i første omgang, havemøbler.

En af vore store eksistentielle trusler er at overdrage moralsk ansvar til robotter, hvilket er et omfattende etisk dilemma. Microsofts medgrundlægger Bill Gates er blandt dem, som udtrykker deres bekymring omkring udviklingen af kunstig intelligens:

”Først vil maskinerne udføre en masse jobs for os og ikke være specielt intelligente. Det burde være positivt, hvis vi forvalter det rigtigt. Men et par årtier senere vil intelligensen være stærk nok til at blive en bekymring (...). Jeg forstår ikke, hvorfor nogle mennesker ikke er bekymrede.” (Udtalelse ved Q&A-session on Reddit, januar 2015).

Forskere har i samarbejde med Google været i færd med at skrive deres egne love omkring robotter, fordi de forudser, at Asimows tre love om robotter, der første gang bliver introduceret i hans fiktive novelle ”Runaround” (Asimow, 1950), og som siden har været del af diskursen omkring udvikling af robotter, vil fremstå alt for komplekse, når de skal nedfældes i software.

Den intelligente agent vil være i en konstant læreproces med at skulle tilpasse sig information og indrette sig efter et forandrende miljø, hvilket vil gøre det umuligt at forudse, hvad den kunstige intelligens’ kognition vælger at notere sig og at fortolke i det specifikke miljø. En såkaldt kill switch , off-knap, burde derfor være i stand til at stoppe den programmerede intelligente agent fra at fare vild i hjernen på robotten (Goggle DeepMind & FHI).

Men hvis ansvar er det at sætte rammer og begrænsninger for teknologisk udvikling? Når det kommer til forskning, er sagen, at forskning altid kommer efter produktudvikling. Det vil efter al sandsynlighed være for sent at vente på forskningens svar, omend det burde være i vekselvirkning med forskning at fremkomme til svarene.

Når det angår erhvervsliv og industri, vil der efter al sandsynlighed være visse og specifikke interesser, som vil overtrumfe menneskelig moral og etik i det lange løb.

Og når det angår politik, politikere og offentligt ansatte, vil de (med al respekt) med stor sandsynlighed ikke vide i tilstrækkeligt omkring, hvad der foregår inden for teknologisk udvikling og den hastige vækst i udviklingen af robotter. Er det således en civilsamfundsopgave at efterspørge retningslinjer og grænser for udvikling af robotteknologi og intelligente agenter?

I en kritisk pædagogisk-teoretisk optik er det i høj grad et spørgsmål omkring befolkningens bevidstgørelse, og her bør uddannelsessystemet fremtræde som en frontløber på feltet.

Alan Wolfe har i 1989 udtalt, at moderne samfundsvidenskaber er ”de mest udbredte vejvisere for moralske forpligtelser” i nutiden. Sociologiens centrale opgave er således at udvikle ”et perspektiv på moralsk handling, der er forskelligt fra markedets og statens, og som kort fortalt tillader os at se moralsk forpligtelse som en socialt konstrueret praksis, der er forhandlet mellem på den ene side agenter med evne til læring og vækst og på den anden side en kultur, der kan ændre sig”. Det er således vores alles ansvar at forholde os til (teknologisk) produktudvikling.

I klassisk kritisk teori er omdrejningspunktet at gennemskue undertrykkende forhold i samfundet og i hverdagen. Via selvreflektion og ved at analysere de faktiske forhold omkring sig og at bevidstgøres herom har mennesket mulighed for at ændre på forhold som manipulation og undertrykkelse.

Fremmedgjortheden over for teknologien og følelsen af, at man ikke kan styre det, vil kun blive endnu værre, hvis vi i et åbent samfund ikke bruger og anerkender nødvendigheden af teknologisk indsigt og forståelse som en del af udviklingen.

Der skal inddrages refleksive, seriøse overvejelser og stillingtagen til udviklingen af robotter i nutiden og i særdeleshed i fremtiden. Vil vi som mennesker i fremtiden huske på, at robotter er et menneskeskabt produkt? Sådanne spørgsmål er nærliggende ud fra filmen ”Her”, hvor hovedpersonen udvikler et kærlighedsforhold til sin computer, der i form af det indlagrede operative system med kunstig intelligens (som kan lære, og som har sin egen personlighed), fremstår som en sympatisk, indlevende og forstående medspiller, der opfører sig medgørligt, passende og støttende i hverdagslivets situationer og sammenhænge.

Og som endda tilstræber at være i sensuel og kropslig kontakt. Hvor mange af os menneskelige artsfælder vil ikke i en travl og kompleks hverdag tilskynde os til at vælge den føjelige, forstående og medgørlige computerkæreste, som vi kan slukke og tænde for, som det passer os?

Robotter og robotteknologi må være på færde, også i den humanistiske undervisning, hvis fremmedgjortheden, utrygheden og usikkerheden omkring robotters væren og gøren skal forløses til teknologisk forestillingskraft og handlekraft, der bygger på – og udvikler – kommunikation, kollaboration, kreativitet og kritisk tænkning gennem oplevelser af at bidrage ved at ”gøre noget” relevant og meningsfuldt for verden gennem brug af teknologier.

Ud fra denne tænkning er robotter og robotteknologi i højere grad et fortælleværktøj og et produktionsværktøj end et programmeringsværktøj. At kunne programmere robotter har ingen værdi i sig selv. Det, der har værdi, er kollaboration, kommunikation, kreativitet og kritisk tænkning omkring, hvordan de skal programmeres, og endnu vigtigere, hvorfor. Der kan ligge frugtbare og værdifulde tværgående tilgange og samarbejder mellem naturvidenskabelige fag (STEM) – som er de fag, der primært er orienterede inden for indeniørvidenskab og robotteknologi – og humanistiske fag, når det kommer til etik, moral og menneskekundskab versus robotintelligens og -teknologi, natur versus menneskeskabt kultur. I en teknologisk kritisk pædagogik vil der både være robot-læring, robot-pædagogik og robot-etik på færde.