25-02-2018 22:37:26

Vi har behov for en vagthund, der skal sikre fair kunstig intelligens

Kunstig intelligens: Algoritmer og kunstig intelligens står i stigende grad bag beslutninger, der har indflydelse på vores dagligdag. Men hvem kontrollerer, at algoritmerne træffer fair beslutninger? Ingen, mener britisk forskerhold, der efterlyser en uafhængig instans, som kan skabe transparens.
24. apr. 2017 Af Rene Pedersen - netværksredaktør

Tænk over hvor mange algoritmer, du møder hver eneste dag på arbejde. Det giver formentlig ingen mening at forsøge at tælle, for antallet er enorm og det er formentlig steget betragteligt i næste måned. De simple eksempler er dit Excel-regneark. Det er styringen af de annoncer, du møder, når du surfer på nettet. Det er Youtubes forslag til, hvad du bør se som den næste video.

Fælles for de fleste er, at de løser små opgaver, som gør dit eller andres liv nemmere. Men i takt med at vi får mere data, mere computerkraft og mere rutine i at bruge algoritmerne, bliver de også mere avancerede og kommer i højere og højere grad til at stå for beslutninger, som kan få afgørende betydning for dit liv. Og hvad nu hvis systemerne diskriminerer dig? Hvem sikrer så dine rettigheder, og at du kan få at vide, hvad der ligger bag beslutningerne?

Det bedste bud på længere sigt er EU's Databeskyttelsesforordning (GDPR), som træder i kraft i 2018. Men som privatpersoner er det langt fra nok, mener Sandra Wachter, der forsker i data-etik og algoritmers påvirkning af privacy ved det anerkendte Oxford Internet Institute på University of Oxford. Sammen med kollegerne Brent Mittelstadt og Luciano Floridi står hun bag et nyt paper, som har set nærmere på Databeskyttelsesforordningen. Konklusionen står tydeligt skrevet allerede i rapportens titel “Why a Right to Explanation of Automated Decision-Making Does Not Exist in the General Data Protection Regulation”.

“Det var forventet, at GDPR ville give en såkaldt “right to explanation,” så alle har krav på en forklaring på, hvordan en algoritme når frem til en beslutning om dem. Der var en forestilling om, at det var et virkelig stort skridt i forhold til at øge transparent og ansvarlighed,” siger Sandra Wacher og fortsætter.

“Men det paper, som Brent Mittelstadt, Luciano Floridi og jeg har skrevet, viser, at det er meget usandsynligt, at det kommer til at ske” .

Sandra Wachter forklarer, at “right to explanation” eller på dansk: “få en forklaring på afgørelse” blot er nævnt i databeskyttelsesforordningen én enkelt gang i anvisning 71, og den er ikke juridisk bindende. I den står der blandt andet:

“En sådan behandling bør under alle omstændigheder være omfattet af de fornødne garantier, herunder specifik underretning af den registrerede og retten til menneskelig indgriben, til at fremkomme med synspunkter, til at få en forklaring på den afgørelse, der er truffet efter en sådan evaluering, og til at bestride afgørelsen”, står der i forordningen. Og det er ikke nok til at give en sikret ret.

“Anvisninger kan ikke etablere rettigheder. De giver kun vejledning i, hvordan man kan tolke den operative del af rammen, som er tvetydig. Problemet er, at artikel 22, som er juridisk bindende og beskæftiger sig med automatisk beslutningstagen, ikke nævner “the right to explanation” overhovedet. Og i fremtiden vil artikel 22 blive brugt i forhold til alt, der har med kunstig intelligens at gøre,” siger Sandra Wachter.

Der er ganske vist tilføjet en række “safeguards” til forordningen. Et af de værn er, at du har ret til at klage over en beslutning truffet 100 procent af en algoritme, men der opstår samtidig et smuthul, for hvad så med beslutninger, som er truffet primært af maskiner, men også indeholder minimal menneskelig indblanding?

Og generelt er dine muligheder for som almindelig forbruger for dårlige, når det kommer til at få et svar på, hvad der ligger bag algoritmernes beslutninger, mener Sandra Wachter. Det er måske ikke så afgørende for dit liv, at du ved, hvorfor Netflix og Spotify anbefaler de film og sange, som de gør. Men får du et nej til et kreditkort i din bank, en afvisning af dit forsøg på at få en sundhedsforsikring eller afvisning af ansøgningen på ophold i udlandet, vil du nok gerne vide, hvad der ligger bag.

“Jeg mener, at det vi har har, bedst kan betegnes som “retten til at blive informeret”, hvis en bank for eksempel benytter algoritmer til at beslutte, om jeg kan få et lån eller ej. Jeg vil have ret til at vide, om de benytter data og algoritmer til at fastsætte min lånerente og kreditværdighed. Derudover vil jeg have ret til at få at vide, hvilket logik, der ligger bag de automatiske processer. Men forretningshemmeligheder og immaterialrettigheder bliver en barriere i forhold til at få brugbar information. Retspraksis viser, at vi får meget begrænset information om algoritmerne,” siger Sandra Wachter og fortsætter.

“Det, jeg ikke får, er en grundig forklaring på, hvordan de er nået frem til en bestemt rente, og hvilke faktorer, der har spillet en rolle i beslutningen om min specifikke sag. Men fremtidig retspraksis kan være med til at etablere sådan en rettighed i fremtiden”.

Forretningshemmeligheder

EU’s Databeskyttelsesforordning giver altså ikke umiddelbart adgang til en “right to explanation”. Blandt andet fordi den også beskytter de virksomheder, som benytter algoritmerne i deres forretning, og Sandra Wachter har også fuld forståelse for, at vi som forbrugere ikke skal have fri adgang til alle algoritmer, der påvirker vores liv. Så udover at gøre dataforordningen mindre tvetydig, ser hun behovet for en kontrolinstans.

“Det er forståeligt, (red. at virksomhederne ønsker at tilbageholde kildekode/algoritmer) for hvis du driver en forretning, vil du ikke offentliggøre din forretningsstrategi og dit software, fordi du er nødt til at konkurrere på et åbent marked. Samtidig vil det også give mulighed for at folk “gamer” eller manipulerer systemet,” siger hun og uddyber.

“Så det er et validt argument. Og det er også derfor, vi mener, at en ‘AI Watchdog’, som har undersøgelsesbeføjelsen til at undersøge systemet, hvis folk tror, at noget ikke er i overensstemmelse med loven, når en beslutning er taget via algoritmer, er en god idé.”

Sandra Wachter forestiller sig en uafhængig betroet tredjepart, der får beføjelse til at undersøge koden, hvis folk tror, at noget ikke gik efter loven, da der blev truffet afgørelse om dem. Men som samtidig heller ikke deler eventuelle forretningshemmeligheder om systemernes opbygning med andre.

“Der er flere forskellige mulige modeller. Det hele afhænger af, hvordan de er designet, og her er det vigtigt, at der sidder eksperter med den nødvendige baggrundsforståelse. Du vil som minimum have behov for etikere, advokater og it-folk. Det skal være folk, der er i stand til at forså de juridiske og etiske problemstillinger og som samtidig forstår, hvordan teknologien fungerer, “ siger hun.

Workshop om kunstig intelligens og etik

SIRIKommissionen and DataEthics indbyder til workshop om kunstig intelligens og etik på Aalborg Universitet i København 4. maj klokken 15.00

Her kan du høre Sandra Wachter fortælle, hvorfor vi har brug for en vagthund, der kan holde styr på virksomhedernes brug af algoritmer. Derudover stiller Thomas Ploug fra Aalborg Universitet skarpt på de etiske spørgsmål og udfordringer, som kunstig intelligens fører med sig. 

Program:

3.00 p.m. Welcome
by Pernille Tranberg, DataEthics

3.10 p.m. Ethical questions and challenges by using AI
by Thomas Ploug, Aalborg University

3.40 p.m. We need an algorithm watchdog!
by Sandra Wachter, Alan Turing Institute, Oxford University

4.10 p.m. Workshop: Every day data about your preferences are collected. What you like, your habits, what you do, where you go, and with whom.
Smart, but is it ok and when is it not okay?

5.10 p.m. Presentation of working groups results.
Comments by Thomas Ploug and Sandra Wachter

5.50 p.m. Summing up and thanks!

Registration: The workshop is free. Please mail to gmu@ida.dk


Deltag i debatten

luk
close