21-11-2018 13:27:59

Kunstig intelligens befinder sig i en diversitetskrise

Kunstig intelligens: Der dryppes kunstig intelligens ind i alle mulige beslutningsprocesser. Teknologien udvikles i høj grad af velbemidlede, hvide mænd, og det kan skabe store bias-problemer, der er ved at udvikle sig til et spørgsmål om menneskerettigheder.
28. feb. 2018 Af Morten Scriver Andersen - Journalist

Når kunstig intelligens i stigende grad bliver grundlaget for automatiserede beslutningssystemer i fx rets- og sundhedsvæsen, er det en problematik, der følger med: Hvem udvikler den kunstige intelligens?

Det er langt fra uvæsentligt, lyder det fra forskellige sider, der mener, at udviklingen af kunstig intelligens groft sagt er forbeholdt hvide, velbemidlede mænd.

Og man skal ikke tage på mange it- eller teknologikonferencer for at erfare, at der er noget om snakken. En sådan konference befandt Microsofts Timnit Gebru sig på i 2016 med 8.500 deltagere. Hun er sort. Og da hun fik kigget sig ordentligt omkring på de andre konferencedeltagere, opdagede hun, at det var hun alene med seks andre om at være.

Timnit Gebru er en del af Microsoft Research-gruppen, der arbejder med fairness, ansvarlighed, transparens og etik i den store it-virksomhed. Hun mener vi befinder os i en diversitetskrise, når det kommer til kunstig intelligens. Derfor arrangerede hun i 2017 konferencen Black in AI, der satte problematikken på dagsordenen.

”Der er en skævvridning i forhold til, hvilke problemer vi synes er vigtige, hvilken form for forskning vi synes er vigtig, og i hvilken retning vi mener kunstig intelligens skal gå. Hvis vi ikke har diversitet blandt vores forskere, adresserer vi ikke problemer, der er vedrører majoriteten af mennesker i verden. Når problemer ikke påvirker os, så tror vi ikke de er vigtige,” siger Timnit Gebru i et interview til MIT Technology Review.

Bias er det største problem

Kunstig intelligens er af mange blevet udråbt, som en af de teknologier, der tager fart i de kommende år. I et studie foretaget af den amerikanske AI-platform for juridisk kontrakthjælp, LawGeex, viste en computer sig meget hurtigere og en smule mere præcis end sine 20 advokatkonkurrenter. Vi tager også dagligt favntag med selvlærende algoritmer, der fx styrer de annoncer, vi bliver eksponeret for og de film vi bliver foreslået på Youtube. Kunstig intelligens i bred forstand er ved at sive ned i de fleste sprækker i samfundet.

Eksemplet med de detroniserede advokater er et blandt mange varsler, om at kunstig intelligens – om vi kalder det neurale netværk eller machine learning – i fremtiden vil blive brugt på vigtige områder.

Ifølge professor og tidligere medlem af Etisk råd Thomas Ploug vil problemet med et bias i de forskellige AI-løsninger blive et stadig større problem. Han mener, at det er vigtigt med diversitet i udviklingsprocessen for at undgå bias.

”Hvis man fx har systemer, der trænes af mennesker, så spiller det en rolle, at de trænes af forskellige mennesker, så vi får en mangfoldighed i den måde, man håndterer, læser og forstår situationer på. Både for at få bedre løsninger, fordi mangfoldighed tit er garanti for de bedste løsninger, men også fordi nuancerne spiller en rolle for, hvordan vi etisk set evaluerer situationer,” siger Thomas Ploug, der forsker i it-etik ved Aalborg Universitet.

Bias er allerede et problem i søgemaskiner

Ifølge Thomas Ploug er bias i teknologien det største problem, og det skyldes kun delvist mangel på diversitet hos de mennesker, der står bag. Bias kan give anledning til krænkelse, diskrimination og stigmatisering, men det kan være svært at gøre noget ved.

Et eksempel på krænkende bias, der kan få store konsekvenser for en enkelt gruppe mennesker, giver forfatter Umoja Noble over for MIT Technology Review. Hun følte sig kaldet til at skrive sin seneste bog Algorithms of Oppression, da hun en dag googlede ordene ”black girl”. Til hendes store skuffelse kom den verdensomspændende søgemaskine tilbage med sideforslag domineret af pornografi.

Det må anses som et grelt eksempel på de værdier, som internettjenester som Google mere eller mindre bevidstløst fremviser. Men ifølge Umoja Noble flyder internettet med mindre provokerende, men dog lignende problematiske cases. For når algoritmer udvælger søgeresultater – viser et bestemt udsnit af verden – så kan selv umiddelbart neutrale stykker kode reflektere strukturel ulighed i samfundet.

Hun mener, at automatiserede beslutningssystemer baseret på kunstig intelligens, som dem vi med al sandsynlighed vil se i vores sundheds-, retsvæsen og mange andre steder, vil udvikle sig til en problematik om menneskerettigheder i løbet af det igangværende århundrede.

”Det tror jeg meget stærkt på, fordi machine learning-algoritmer og projekter bruger data, som allerede er biased, mangelfuld og fejlbehæftet. Og baseret på den information lærer vi maskiner, hvordan de tager beslutninger,” siger hun.

Det største problem er bias

At automatiserede beslutningssystemer bliver et spørgsmål om menneskerettigheder, er professor Thomas Ploug helt enig i.

”Det tror jeg er fuldstændig rigtigt. Manglen på gennemskuelighed kommer til at rejse alvorlige problemer. Ikke mindst i takt med, at man implementerer kunstig intelligens på kryds og tværs af samfundet. Og når du oven i købet implementerer det i institutioner som rets- og sundhedsvæsnet, så har du systemer, hvor fx diskriminerende beslutninger har alvorlige konsekvenser for mennesker,” siger han.

En af de løsninger både Umoja Noble og Thomas Ploug peger på, er en større gennemsigtighed og transparens i måden, vi konstruerer kunstig intelligens. I Google-eksemplet skal vi åbent erkende, at teknologien ikke er perfekt. At den tværtimod er manipulerende, og hvordan den så er det.

”En del af løsningen kan jo lige præcis være at prøve at skabe åbenhed. Men det er klart, at vi ikke bare kan acceptere problemet, for det kan jo potentielt give anledning til nogle etisk set meget problematiske valg. Det kan vi ikke lukke øjnene for,” siger han.

Har vi brug for en AI-ombudsmand?

Der er flere eksperter, der i den seneste tid har efterspurgt en ombudsmand eller en slags vagthund (watchdog) til at sikre fair brug af kunstig intelligens. Det er blandt andet den engelske professor Luciano Floridi og Sandra Wachter, som vi før har interviewet her på IDA Universe.

Thomas Ploug efterspørger en pendant til Etisk råd, der siden 1987 har rådgivet Folketinget og offentlige myndigheder og skabt en ordentlig debat om nye bio- og genteknologier. Et sådan råd skal udstyres med teknisk ekspertise, men i stedet for en rådgivende instans kan det også være en slags en ombudsmand, der direkte kan behandle klagesager på området, vi har brug for.

Som det ser ud i dag er virksomhedernes komplicerede algoritmer at betragte som forretningshemmeligheder, og det er derfor svært at skabe gennemsigtighed, som loven er i dag. Det problem løser den kommende persondataforordning heller ikke, så måske skal vi sætte vores lid til en AI-ombudsmand for at sikre den menneskelige intelligens’ basale rettigheder.

Fascinerende og morbidt, men førerløse biler er ikke kørende guder
Fascinerende og morbidt, men førerløse biler er ikke kørende guder

Kunstig intelligens: Selvkørende biler kommer med en række etiske dilemmaer. Nogle giver mening at diskutere, men det er en afsporing af debatten at tro, at de første selvkørende biler kommer til at træffe beslutninge ...

Læs mere
Kunstig intelligens
Kunstig intelligens

Kunstig intelligens er formentlig den fremtidsteknologi, der har størst potentiale for at skabe markante ændringer i vores dagligdag. Men hvad er kunstig intelligens, hvordan bliver teknologien en ...

Læs mere
It-branchen hungrer efter kvinder, men de kommer ikke af sig selv
It-branchen hungrer efter kvinder, men de kommer ikke af sig selv

Techtopia: Der er 24 procent kvinder i it-branchen og endnu færre, når man skærer HR og administration væk. Det er et stort problem og giver fattigere produkter, mener IT-Branchen og fremtrædende kvindelige ...

Læs mere

Deltag i debatten

luk
close