18-10-2018 22:29:01

AI er teknologiens første forsøg på at frigøre sig

Kunstig intelligens: Kunstig intelligens kan løse verdens problemer, men kan også svække vores demokrati, give myndighederne hidtil usete muligheder for social kontrol og sætte mennesket autonomi under pres, mener ekspert.
8. maj. 2017 Af Morten Scriver Andersen - Journalist
<p><em>Microsofts Twitter-chatrobot Taylor er et lysende eksempel på, hvordan kunstig intelligens kan løbe fuldstændig løbsk</em></p>

Microsofts Twitter-chatrobot Taylor er et lysende eksempel på, hvordan kunstig intelligens kan løbe fuldstændig løbsk

Mon det er en Alpha Go eller en Taylor?

Begge er de blevet folkekære computerprogrammer for deres spektakulære løsrivelse fra den menneskelige intelligens, men med to vidt forskellige fortegn.

Alpha Go slog til teknørdernes store tilfredsstillelse en af verdens bedste spillere i det hyperkomplekse brætspil, Go, med cifrene 4-1. På cirka samme tid måtte Microsofts Twitter-chatbot Taylor overgive sig til sine unge følgere. Under et døgn efter fødslen var Taylor blevet så påvirket af brugernes racistiske og sexistiske sprogbrug, at Microsoft måtte slukke for hende. Et par positive pip om Adolf Hitler skulle efter sigende have været dråben.

Sirikommisionen

Sirikommissionen arbejder for at skabe viden, om hvordan vi bedst imødekommer og udnytter den udvikling, som den fjerde industrielle bølge medfører i form af blandt andet kunstig intelligens, Internet of Things og forøget computerkraft.

Den er stiftet af IDA-formand Thomas Damkjær Petersen og Ida Auken fra Radikale Venstre og består desuden af en række repræsentanter for erhvervsliv, faglige organisationer og digitale eksperter.

Læs mere om Sirikommissionen.

Se alle deltagerne.

De to robotter viser i al deres forskellighed det etiske dilemma, som kunstig intelligens sætter os i. Er det gevinsten værd, når vi slipper robotterne løs for at løse udfordringer, som vi i vores menneskelige begrænsninger ikke kan overkomme?

"Vi har at gøre med en teknologi, hvis adfærd ikke er forudsigelig. Sådan er det med selvlærende systemer, der kan modificere de algoritmer de er baseret på," forklarer Thomas Ploug fra SIRI Kommissionen om kunstig intelligens.

"Men når vi indfører en ny teknologi, så gør vi det typisk, fordi der er nogle goder forbundet med det. Og her har vi som med meget andet teknologi nogle potentielle gevinster, men også nogle potentielle skader," fortsætter han.

Hvor langt vil vi gå?

Thomas Ploug forsker til dagligt i IT-etik ved Aalborg Universitet, og han er optaget af balancen mellem gevinst og skade i brug af ny teknologi. For eksempel har han kigget meget på IBM's Watson, der er spået en stor fremtid i sundhedsvæsnet med at bistå lægerne i beslutningsprocesser.

"I nogle tilfælde er der jo betydelige gevinster, som vi vil gå langt for at opnå. Hvis man introducerer Watson i sundhedsvæsnet, kan vi måske få bedre diagnostik og behandling. Omvendt er det ikke helt entydigt, hvad vi for eksempel får ud af, at introducere selvkørende biler. Måske får vi mere sikkerhed i trafikken, men det er ikke givet. Det er heller ikke klart, hvad vi får ud af at introducere chatbotter baseret på kunstig intelligens," siger han under henvisning til Microsofts Taylor.

Men ligesom selvkørende biler kan køre galt, så kan Watson også fejldiagnosticere patienter. Ingen af dem er klogere end de data, de bliver fodret med.

Stephen Hawking advarer

Sådan er det også med mennesket, vil mange indvende. Men her peger Thomas Ploug på vores særlige plads blandt klodens skabninger.

"Vi vil jo gerne beskytte menneskets autonomi. Vi skal have lov til at forme og forfølge vores mål og værdier i tilværelsen. Her er der nogle, der forestiller sig, at kunstig intelligens er en teknologi, der kan tage autonomien fra mennesket. Det har Stephen Hawking og andre advaret imod," siger Thomas Ploug og henviser til stjernefysikerens opråb om risikoen for at kunstig intelligens potentielt kan udrydde planeten. Eller redde den.

"Der er stor usikkerhed omkring det, men det kan principielt ikke udelukkes, at teknologien vil tage kontrollen over os," fastslår Thomas Ploug.

Pakker vi fremtidsdystopierne væk for en stund, så peger Thomas Ploug på to grundlæggende etiske problemstillinger.

Sendt på fedmekur af robot

Hvad angår vores privatliv, er meldingen klar fra Thomas Ploug.

"Vores privatliv er under pres fra teknologien. Alle de gevinster, der er knyttet til kunstig intelligens, øges jo flere data, vi har til rådighed," lyder hans dom.

Tager vi Watson-eksemplet igen, så fungerer den bedre jo flere personfølsomme data, den bliver fodret med om danskernes sundhed eller mangel på samme.

"Man kan jo lave maskinanalyser af sygdomsrisiko for enkeltpersoner, og på den måde tilrettelægge interventioner over for den enkelte. Det er der en stor sundhedsmæssig gevinst i, men det er klart, at her har vi også en potentiel kilde til social kontrol på individniveau," siger Thomas Ploug.

På den måde kan staten i en ikke så fjern fremtid sende danskere på fedmekur og rygestop i samfundsøkonomiens tjeneste og med privatlivet som offer. Derudover kan de algoritmer, der ligger til grund, løbe løbsk, som vi så det med Alpha Go og Microsofts Taylor.

"For det første så kender vi ikke nødvendigvis de initielle algoritmer. Derudover risikerer vi også med selvlærende systemer, at de modificerer de oprindelige algoritmer og de vægte, der indgår i beslutninger. Det giver en intransparens i forhold til vores privatlivsbeskyttelse."

Clasher med dansk fairness

I et demokratisk anlagt land som Danmark er intransparens en af de største forhindringer for udbredelsen af kunstig intelligens. Beslutninger skal nemlig træffes på åben og demokratisk vis, og her er algoritmer ifølge Thomas Ploug en for kompleks størrelse.

"Hvis lægen træffer en beslutning, så ved vi, den hviler på noget faglighed og nogle politiske beslutninger. De retningslinjer kan vi tilgå, og vi kan spørge lægen, hvad der er grundlaget for beslutningen. Men beslutninger truffet af kunstig intelligens systemer er ikke er transparente, vi kan ikke spørge systemet om grundlaget for beslutningen. Selv hvis vi kender algoritmen, kan den være modificeret," forklarer Thomas Ploug.

Derfor mener han, at vi så vidt muligt skal arbejde for at skabe åbenhed omkring algoritmerne, eventuelt gennem et undersøgende organ, som forskeren Sandra Wachter også har argumenteret for.

"Man må skulle stille krav om forskning, kontrol og test ved meget kontrollerede omstændigheder," siger han.

Men, påpeger han til slut: En læge er ikke garant for at samfundets regler bliver overholdt.

"Ligesom en algoritme kan indføre sit eget system, så kan en læge også have sine egne personlige principper. På den måde er det ikke et ukendt problem. Men en læge kan vi stille til retsligt ansvar, og det er et effektivt virkemiddel til at sikre, at han overholder de krav, vi stiller til beslutninger. Det er svært at gøre med en computer."

Thomas Ploug var blandt hovedtalerne på SIRI Kommissionen og Data Ethics' workshop om AI etik. Hvis du ikke vil gå glip af lignende arrangementer kan du melde dig ind i netværket IDA Fremtidsteknologi, som holder dig opdateret om om fremtidens boblende teknologi-trends, der kan vende op og ned på alting inden du får set dig om

Fremtidsupdate #16: Den nye opfinderbevægelse

Henrik Bennetsen fra opfinderfabrikken Otherlab, fortæller om innovation i Silicon Valley, startups og sin egen iværksætter-rejse fra Esbjerg til San Francisco.

Se video
IDA Fremtidsteknologi
IDA Fremtidsteknologi

Rimer dine faglige interesser på emner som machine learning, blockchain, kunstig intelligens, robotter, selvkørende biler, kvantecomputere, smarte energisystemer? Så er IDA Fremtidsteknologi noget ...

Læs mere
Fremtidsupdate - Teknologisk TV-avis
Fremtidsupdate - Teknologisk TV-avis

Hver måned har Rolf Ask Clausen en aktuel gæst i studiet. Du kan foreslå emner før, deltage med spørgsmål under, og diskutere videre bagefter.

Læs mere

Deltag i debatten

luk
close