Digitaliseringen er ved at tage vores frihed fra os

Den seneste tid er der kommet mere fokus på digitaliseringens etiske skyggesider. Men det er langt mere alvorligt end databeskyttelse, at de skjulte algoritmer styrer forskellige livsområder og fratager os en række frie valg, skriver dagens kronikør

Klavs Birkholm. Pressefoto
Klavs Birkholm. Pressefoto

DE SENESTE MÅNEDER har vi været vidner til en stigende offentlig opmærksomhed omkring digitaliseringens etiske skyggesider. For én, som skrev sin første kritik af Facebooks trussel mod demokratiet den 21. december 2009 her i avisen, og som siden har bidraget med snesevis af advarsler mod den datadrevne overvågningsøkonomi, er det selvsagt dybt tilfredsstillende at opleve en sådan vågnende bevidsthed.

Der er dog lang vej endnu, før vi til fulde forstår, hvor omfattende en ændring af hele samfundsordenen, de eksplosivt voksende digitaliseringstiltag er i færd med at afstedkomme. Mange tror stadig, at det hele drejer sig om databeskyttelse og cybersikkerhed. Tilsvarende tror nogle, at mere åbenhed og ”transparens” vil løse de fleste problemer.

MEN DATABESKYTTELSE og transparens er kun den mindste del af problemet. Langt mere alvorligt er det, at big data er blevet råstof for millioner af computeralgoritmer, som diskret styrer, hvad vi mennesker foretager os med hinanden, både i det private rum, på jobbet og i det offentlige rum. Det er en styring, der i ganske små ryk fratager os en række frie valg og frihedsgrader, som samfundet ellers dyrt har tilkæmpet. Hvorfor tager de fleste af os så ikke mere på vej? Fordi vi til gengæld får øget bekvemmelighed i rigt mål.

I en ny bog, som jeg har redigeret sammen med it-konsulent Niels Frølich, leverer nogle af verdens førende eksperter deres analyser af, hvordan de skjulte algoritmer styrer en række forskellige livsområder – ikke bare Facebook, men eksempelvis også det danske sundhedsvæsen, vores Google-søgninger, processen for ansættelse og afskedigelse af skolelærere i USA, ”tingenes internet” i de såkaldt smarte byer kloden rundt, danske mediers kandidattest op til politiske valg, ansigtsgenkendelse i reklameindustrien, den statslige og kommunale sagsbehandling i Danmark og – måske værst af alt – den politiske beslutningsproces.

FOR AT UNDGÅ MISFORSTÅELSER er det værd at understrege, at der findes masser af gode algoritmer, som helt grundlæggende er til gavn for samfundsfællesskabet. Det gælder blandt andet inden for trafikstyring, transportregulering, 3D-scanning, klimamodeller og naturligvis masser af automatiserede produktionsprocesser. Men der er rigtignok også mange eksempler på det modsatte, og dem gælder det om at identificere.

En af de ting, der kan gøre algoritmer ondsindede, er deres feedback i lukkede kredsløb. For eksemplets skyld kan læseren forestille sig, at politiets computersystemer til ”foregribende politiarbejde” identificerede en række velhaverkvarterer som de områder, man især bør rykke ud til og foretage identitetstjek, husundersøgelser, ”afskrækkende anholdelser” med videre. Hvis så beboere i Rungsted eller Hørsholm sætter sig til modværge mod kropsvisitationer, kan systemet allerede her notere en succes: Uvilje mod ordensmagten, vi har valgt det rigtige område.

Hvis politiet yderligere kan registrere et forhøjet antal hastighedsovertrædelser på villavejene: Endnu en succes. Og hvis det lykkes at beslaglægge et par computere med børneporno eller dokumentation for skuffeselskaber i skattely, er det helt sikkert: Algoritmen havde ret! Vi skal have endnu mere politi og overvågning i netop disse kvarterer!

Sjovt nok peger de eksisterende systemer for forebyggende politiindsats modsat på de fattigste og mest etnisk blandede kvarterer. Også her er den positive tilbagemelding om, at man har valgt rigtigt, på forhånd sikret. Systemet er på den måde ”inappellabelt”, som matematiker Cathy O’Neil siger det.

En afgørende grund til, at den slags mekanismer kan virke, er, hvad jeg kalder algoritmens autoritet. Selve navnet lyder som noget matematisk, objektivt. Oprindelig var en algoritme også bare en regneforskrift. Men i dag er computeralgoritmen et styreprogram, præget af programmørens fordomme og mangel på samme. Programmøren besidder en magt, som er skjult for omverdenen og alt for ofte også skjult for ham selv, konstaterer it-specialist Aske Mottelson.

MIDT I DENNE ofte lovligt forvirrede debat høres nu fra flere sider forslag om oprettelse af et it-etisk råd. En eller anden form for uvildig institution, der kan sortere skidt fra kanel og udpege de virkelige etiske dilemmaer.

Men hvordan og i hvilken form? På Akademikernes og it-branchens digitaletiske ”hackathon” den 18. maj lød der både et forslag om at udvide mandatet for Det Etiske Råd, et forslag om oprettelse af et nyt Digitaletisk Råd af lignende struktur og et forslag om et rent ekspertråd.

Det sidste er en rigtig dårlig idé. Når Det Etiske Råd, der blev oprettet ved lov i 1987, udviklede sig til en så stor succes, at det ligefrem kom til at danne forbillede i andre europæiske lande, skyldes det ikke mindst understregningen af, at det skulle være en lægmandsforsamling, der hverken politisk eller økonomisk var viklet ind i de nye bioetiske dilemmaer. Den initiativtagende sundhedsminister Britta Schall Holberg (V) forstod til fulde, at ingen kan være ekspert i etik. Rådet skulle fremdrage etiske dilemmaer, oplyse og rådgive – aldrig træffe beslutninger. Det betød, at rådet kunne lægge flere forskellige synspunkter frem og overlade den endelige beslutning til folkestyret.

Jeg sad selv otte år i Det Etiske Råd fra 2003 til 2011 og var ofte dybt frustreret over, at politikerne i stigende grad fralagde sig ansvaret og hverken traf den ene eller den anden beslutning. Men havde rådet bestået af lutter medicinske professorer og filosoffer, peger erfaringen fra andre lande på, at det i sidste ende bare ville have blåstemplet alle nye teknologier inden for genetikken og befrugtningsindustrien.

Det andet spørgsmål, hvorvidt et it-etisk råd bør være selvstændigt eller en del af det allerede eksisterende råd, er lidt vanskeligere at afgøre. Fordelen ved at lægge opgaven ind under det nuværende råd er, at det besidder en betydelig demokratisk autoritet (som en ny tendens til partipolitiske udpegninger ganske vist er i færd med at nedbryde). Det Etiske Råds tradition for uvildighed og seriøsitet har skabt tillid til det i store dele af den danske befolkning.

Ulempen er til gengæld, at rådets sagsfelt kan blive for omfattende til, at medlemskredsen kan håndtere det, og at sekretariat kan gabe over det. En vis elementær sagkundskab om de problemer, der arbejdes med, er ubetinget nødvendig i det professionelle sekretariat.

ENDELIG KAN MAN JO SPØRGE, om de bioetiske og digitaliseringsetiske dilemmaer overhovedet kan sammenlignes i omfang og i dybde. Lige så revolutionære teknologierne til kunstig befrugtning, kloning og genetisk manipulation fra starten fremtrådte i den offentlige debat, lige så potentielt omvæltende er de digitale teknologier – de arbejder bare langt mere skjult.

Selvom både medicinalindustri, fertilitetsklinikker og genetiske forskningsmiljøer har klare interesser i, at deres respektive forretninger ikke bremses af for mange etiske betænkeligheder, er deres magt for intet at regne mod de globale hightech-virksomheder, der ikke kan få fart nok på digitalisering og disruption. For dem handler det på verdensplan om milliarder og atter milliarder.

I skyggen af sådanne økonomiske interesser får etiske overvejelser kun ringe ilt, og man kan frygte, at det også vil sætte sit præg på udformningen af et nyt it-etisk råd. Omvendt kan man selvfølgelig også håbe, at det ikke vil ske.