Opråb: Teknologien skal have indstillet sit moralske kompas

Hvis vi ikke bliver bedre til at sætte mennesket i centrum for udviklingen af kunstig intelligens, risikerer vi, at menneskets psykiske velbefindende bliver prisen, vi betaler for tilgængelighed og profit, skriver tre fagpersoner i fælles opråb

"Teknologien er allestedsnærværende og invasiv. Mange af firmaerne bag vores aktuelt mest anvendte teknologier bygger på overvågningskapitalistiske forretningsmodeller, som Harvard-professoren Shoshana Zuboff så pædagogisk og dog foruroligende forklarer det: Vi skylder os selv og hinanden at overveje: Hvad er prisen for dette ”slaraffenland” af belejlige platforme og stjerneunderholdning? Og hvem betaler?," skriver dagens kronikører
"Teknologien er allestedsnærværende og invasiv. Mange af firmaerne bag vores aktuelt mest anvendte teknologier bygger på overvågningskapitalistiske forretningsmodeller, som Harvard-professoren Shoshana Zuboff så pædagogisk og dog foruroligende forklarer det: Vi skylder os selv og hinanden at overveje: Hvad er prisen for dette ”slaraffenland” af belejlige platforme og stjerneunderholdning? Og hvem betaler?," skriver dagens kronikører. Foto: Aly Song/Reuters/Ritzau Scanpix.

Teknologi med såkaldt kunstig intelligens skal bruges til at forbedre vores liv. Og selvom vi ikke altid er enige om, hvad forbedring består i, er det vigtigt, at vi altid arbejder ud fra dette udgangs-punkt. Vi har brug for at udvikle kunstig intelligens, der kan bruges til at gøre os bedre til dét, vi gerne vil som mennesker, frem for bare at bruge data til at aflure vores præferencer som forbrugere.

Mennesket skal være målet, ikke midlet. Derfor skal vi udvikle kunstig intelligens, så den kan samarbejde og reflektere sammen med os. Den skal også kunne omgås alle mennesker respektfuldt og med empati – specielt dem, der har særlige behov.

Det er imidlertid ikke den virkelighed, vi ser ind i lige nu. Hvis vi ikke bliver bedre til at sætte mennesket i centrum for udviklingen af kunstig intelligens, risikerer vi, at menneskets psykiske velbefindende bliver prisen, vi betaler for tilgængelighed og profit.

Vi har oplevet, hvordan covid-19 har faciliteret en digital transformation på speed. Alle har arbejdet hjemmefra og er blevet vant til digital teknologi som aldrig før. Nye softwareprodukter er udviklet til formålet, og det er blevet normalt for os at ”mødes” i Zoom, Teams og Skype for Business med vores kolleger og kunder og ”ses” med venner og familie på Slack og WhatsApp.

Og når vi har brug for en pause fra arbejdet, så er overspringshandlingen den samme som før krisen: Facebooks newsfeed eller Netflix’ seneste tilbud.

Teknologien er allestedsnærværende og invasiv. Mange af firmaerne bag vores aktuelt mest anvendte teknologier bygger på overvågningskapitalistiske forretningsmodeller, som Harvard-professoren Shoshana Zuboff så pædagogisk og dog foruroligende forklarer det:

Vi skylder os selv og hinanden at overveje: Hvad er prisen for dette ”slaraffenland” af belejlige platforme og stjerneunderholdning? Og hvem betaler? Forbrugere guides rundt på indhegnede ”markedspladser”, hvor deres virtuelle adfærd markeres og spores som datapunkter. Og det er spor, der, hvis man forfølger og indsamler dem, kan indbringe hardcore valuta.

Dette er virkeligheden. Idealerne står dog ikke tilbage, snarere står de i kø. De seneste par år er vi præsenteret for det ene sæt retningslinjer efter det andet for, hvordan kunstig intelligens kan udvikles og anvendes på etisk forsvarlig vis.

Herhjemme udgav den tidligere regering sidste år National Strategi for Kunstig Intelligens, hvor etik var højt på dagsordenen. Og EU-Kommissionen med Margrethe Vestager i spidsen opfordrede her i februar alle producenter af kunstig intelligens til at have en ”human-centric approach”.

Vores bekymring går på, om virkeligheden og idealet kan mødes. Vores tværdisciplinære samarbejde handler om at se på teknologiens indgriben i menneskelivet gennem henholdsvis teknopsykologi, kunstig intelligens-forskning og innovationssociologi.

Vi er optaget af, at udvikling og implementering af kunstig intelligens kommer til at ske på menneskers præmisser frem for på teknologiens. Der er fantastiske nye muligheder i moderne teknologi, men det kræver, at de menneskelige hensyn balanceres i forhold til de markedsøkonomiske.

Idealet om en ”menneskecentreret tilgang” til kunstig intelligens kan kun blive til virkelighed, hvis udviklingen af kunstig intelligens også underlægges en human-videnskabelig ramme, således at softwarefunktionerne målrettes menneskers behov for fællesskab, tryghed og motivation for personlig udvikling.

Teknologi skal forbedre vores liv, og kunstig intelligens skal udvide og udvikle vores iboende mentale og fysiologiske kapacitet. I professionelle sammenhænge kan det betyde, at man lader teknologien overtage funktioner, som er kedelige, beskidte eller farlige for os mennesker – for eksempel i bygge- eller slagteribranchen.

Men kunstig intelligens kan også bruges til at optimere vores færdigheder, så vi præsterer endnu bedre. Det gælder for eksempel i sundhedsvæsenet, hvor radiologer, patologer og dermatologer håber på, at kunstig intelligens kan understøtte deres billedeanalyse til at forudsige sygdomme. Eller i fødevareindustrien, hvor man i Danish Crown eksperimenterer med at lade kunstig intelligens hjælpe medarbejdere med at vurdere kødets kvalitet samt med at oplære nye medarbejdere.

På den private scene kan vi også understøttes af kunstig intelligens. Helt konkret kan mennesker med fysiske eller mentale handicap for eksempel få støtte til deres daglige gøremål eller til kontakt med deres nære.

Disse eksempler illustrerer, at kunstig intelligens ikke kun bruges til at overvåge os eller til at kapitalisere på vores data. Men der kan gøres meget mere. Teknologiens næste udviklingstrin bør være at kunne samarbejde med os på en måde, der skaber tillidsfulde relationer mellem mennesker og maskine.

Skal man gøre sig forhåbninger om, at mennesker udvikler og bevarer en tillid til den kunstige intelligens, skal vi opleve, at maskinen i en vis udstrækning evner at sætte sig i vores sted. Den skal kunne ”lytte” til vores holdninger og forstå vores behov. Det er en krævende opgave, men ikke desto mindre hvad vi mennesker gør hver dag og forventer af vores samarbejdspartnere.

Det er indlysende, at det kan være nødvendigt at sænke forventningerne til, hvor socialt smidigt en maskine kan agere, men vi behøver som minimum at kunne stille krav og vide, hvornår og hvorfor maskinen ikke lever op til det. Den skal kunne kommunikere med os og kunne udvise tvivl om sine antagelser og konklusioner.

Maskinlæringsalgoritmer giver allerede deres vurderinger som sandsynligheder. Men det er langtfra altid, at denne karakter af sandsynlighed præsenteres for brugeren. I særligt uheldige situationer kan maskinlæringsalgoritmer også tage fundamentalt fejl i deres vurdering.

Det har vi set med de selvkørende biler, der indimellem bliver i tvivl om, hvad det egentlig er, de ”ser” foran sig. Før har bilens teknologi været mere simpel, men nu bliver den så avanceret, at den kan have nogle af de samme udfordringer som en menneskelig chauffør: trafikale situationer, der kan være svære at gennemskue, situationer, hvor det ikke er klart, hvad der er det bedste, og situationer, hvor man overser noget, begår fejl eller bliver usikker.

Udviklere af kunstig intelligens bør være ærlige og tydelige om teknologiens fejlbarlighed. Samarbejdet mellem mennesket og bilen vil blive mere vellykket, hvis bilens – og menneskets – svagheder og usikkerheder lægges åbent frem. Præcist som det gælder i rent menneskelige samarbejdsrelationer. Og det gælder også al anden kunstig intelligens-teknologi, der er så avanceret, at den selvstændigt træffer beslutninger under forskelligartede omstændigheder, og hvor omstændigheder og beslutninger hverken er helt forudsigelige eller 100 procent fejlfri.

Ingen kan være uenige i, at det er forkert at køre nogen ned. Men der kan tydeligvis være tvivl om, hvilke krav vi skal stille til teknologi, og hvordan vi skal placere ansvaret mellem mennesker og teknologi. Når det drejer sig om emner, der vedrører moralske og sociale forhold, så er det som regel ikke indlysende, hvad der er ”det rigtige” at gøre.

Det afhænger af vores moralske kompas, det vil sige vores forståelse af mennesket og vores sociale intelligens. Det er den verden, vi nu skal finde ud af at introducere maskinerne til.