25-02-2018 12:51:12

Kunstig intelligens er i fare for at udvikle sig til et våbenkapløb

Elon Musk og 116 eksperter vil have FN-konventioner mod brugen af kunstig intelligens i krigsførelse på lige fod med kemiske våben. Der er et våbenkapløb, der skal afværges, mener tidligere medlem af etisk råd
30. aug. 2017 Af Morten Scriver Andersen - Journalist
<p><em>Elon Musk og 116 eksperter vil have love mod brugen af dødelige, autonome våbensystemer som vi allerede har det med kemiske våben.</em></p>

Elon Musk og 116 eksperter vil have love mod brugen af dødelige, autonome våbensystemer som vi allerede har det med kemiske våben.

Først kom krudt og kugler, så atomvåben og nu dræberrobotter og kunstig intelligens. Er vi på vej ind i den tredje revolution inden for krigsførelse? 

Det mener 116 eksperter anført af grundlæggeren af SpaceX og Tesla, Elon Musk, og Alphabets Mustafa Suleyman, der har skrevet et åbent brev til FN om deres bekymring for et forestående våbenkapløb om at skabe de perfekte dræberrobotter. Det skriver The Guardian. 

Brevet kommer efter, at FN for nylig besluttede at starte formelle diskussioner om brugen af sådanne våben herunder droner, tanks og automatiserede maskingeværer. 

"Når dødbringende, autonome våben først er udviklet, vil det muliggøre at væbnede konflikter bliver udkæmpet på et hidtil uset niveau og med en tidsskala hurtigere end mennesker kan opfatte. Disse kan være terrorvåben, våben, som despoter og terrorister bruger mod uskyldige befolkninger, og våben, som kan hackes til at opføre sig på uønskede måder" skriver Elon Musk og kompagni.

De påpeger, at vi ikke har lang tid til at reagere. Og når denne Pandoras æske først er åbnet, bliver den svær at lukke igen. Derfor vil de have et forbud mod visse "moralsk forkerte" dødelige autonome våbensystemer på lige fod med fx kemiske våben. 

Faren ved det ukendte

Meget af det, de 116 eksperter frygter er langt hen af vejen allerede en realitet. Droner har i årevis hærget i Afghanistan, mens autonome våbensystemer som det vagttårn, Samsung har udviklet, våger over den demilitariserede zone mellem Syd- og Nordkorea med indbyggede maskingeværer, der selv kan identificere og skyde efter mål på kilometers afstand. 

For tidligere medlem af etisk råd og nuværende direktør for Tænketanken TeknoEtik, Klavs Birkholm, er det ikke så meget de dystopiske forudsigelser om altødelæggende dræberrobotter, der bekymrer. Det er mere det dræbende spild af kræfter og ressourcer samt den stigende mistillid, som et våbenkapløb kan medføre. 

"Sikkerheden i en stat beror jo på, at den føler sig i stand til at forsvare sine egne grænser. Og hvis det er sådan, at en potentiel modstander har våben, som man ikke kan forsvare sig imod, så må man gøre noget ved det. Det var sådan, atomvåbenkapløbet blev indledt, og der er rimelig god grund til at antage, at hvis der bliver satset meget på de her våben, så bliver der en eller anden form for kapløb," siger Klavs Birkholm. 

Han mener, der er større usikkerhed forbundet med udviklingen af robotteknologi og kunstig intelligens i moderne krigsførelse. 

"Atomvåbenkapløbet handlede, om hvor store våben vi kan lave, og hvor præcist vi kan ramme med dem. Det her kan jo blive et kapløb om at udvikle alle mulig typer våben, som den anden slet ikke har hørt om. Så der er noget risikabelt ved det," advarer Klavs Birkholm. 

Ingen dommedagsprofeti 

Klavs Birkholm mener ikke, at en verden, hvor våben i stor skala kan gå i krig på egen hånd er lige om hjørnet. Men han hilser en eventuel tilføjelse til FN- konventionen fra 1983 om brugen af visse konventionelle våben, som i forvejen indeholder et forbud mod fx kemiske og tilsigtet blindende laservåben. 

Omvendt mener Klavs Birkholm ikke, at argumentet, om at robotter og kunstig intelligens er en god ting i krigsførelse, kan afvises fuldstændig. 

Han henviser til den amerikanske robotetiker Ronald C. Arkin, der i 2006 blev hyret af det amerikanske forsvar for at undersøge, om robotter kan designes til at handle etisk på slagmarken. Arkin mener, at robotsoldater er langt at foretække frem for mennesker. Èt er, at tragedien er til at overse, når de bliver ramt, men de handler også mere rationelt, end mennesker, lyder vurderingen fra Arkin. Mange soldater dør nemlig af såkaldt friendly fire, og uheld sker i massevis, fordi soldaterne er skræmt fra vid og sans. Modsat robotter er ikke ramt af frygt, og de kan vente med at affyre, indtil de har identificeret fjenden. 

Droner laver også fejl 

Men robotter og kunstig intelligens har langt fra vist sig fejlfri, og brugen af fx droner har da også været et populært sted at starte den etiske debat om moderne krigsførelse. 

"Det er det, vi har oplevet i den amerikanske krigsførelse i Obamas tid. Der er flere og flere droner, der har overtaget krigsførelsen, og så kan Obama bryste sig ved, at der er færre uheld, end der har været før. Ja, i USA, men ikke i Afghanistan, fordi droner stadig går fejl," nævner Klavs Birkholm som eksempel. 

"Man kan sagtens føre debatter frem og tilbage, om der på nogle punkter er fremskridt i det her. Men det, som jeg synes er bestemmende, er, hvis teknologiudviklingen bliver drejet den retning. Så når det drejer sig om den advarsel, som Musk og de 116 eksperter har udsendt, så er den først og fremmest berettiget ved, at vi skal være opmærksomme på, at vi ikke får et våbenkapløb," understreger Klavs Birkholm. 

Han bemærker desuden, at militæret altid har været gode til at skubbe den teknologiske udvikling fremad. Det var fx frygten for et atomangreb, der drev amerikanerne til at udvikle internettet under Den Kolde Krig. 

Du kan høre mere til Klavs Birkhom ved arrangementet Automatisering og smart teknologi: De etiske dilemmaer i Aarhus 3. oktober. 

 

Stephen Hawking advarer: Forskning i kunstig intelligens kan være farlig
Stephen Hawking advarer: Forskning i kunstig intelligens kan være farlig

Kunstig intelligens: Den verdensberømte fysiker Stephen Hawking er bekymret for forskningen i kunstig intelligens. Udviklingen er ikke nødvendigvis ufarlig.

Læs mere
AI er teknologiens første forsøg på at frigøre sig
AI er teknologiens første forsøg på at frigøre sig

Kunstig intelligens: Kunstig intelligens kan løse verdens problemer, men kan også svække vores demokrati, give myndighederne hidtil usete muligheder for social kontrol og sætte mennesket autonomi under pres, mener eks ...

Læs mere
Elon Musk frygter ikke ond kunstig intelligens. Han frygter onde mennesker med kunstig intelligens
Elon Musk frygter ikke ond kunstig intelligens. Han frygter onde mennesker med kunstig intelligens

Kunstig intelligens: Kunstig intelligens har potentiale til at ændre grundlæggende på vores hverdag. Men ifølge Elon Musk er vi nødt til at sikre, at teknologien bliver demokratiseret, hvis den ikke skal blive farlig ...

Læs mere
Kunstig intelligens udgør en eksistentiel risiko
Kunstig intelligens udgør en eksistentiel risiko

Kunstig intelligens: Risikoen for at kunstig intelligens kommer til at udrydde menneskeheden, som vi kender den i et fremtidsscenarie ala Terminators skynet, er ikke stor. Men det er en risiko, som vi er nødt til at f ...

Læs mere
AI Etik skal designes ind fra bunden
AI Etik skal designes ind fra bunden

Kunstig intelligens er snart overalt, og det frigiver både enorme mængder produktivitet og store etiske problematikker. Det sidste skal vi lovgive os ud af, mener Innovation Labs Peter Froberg.

Læs mere

Deltag i debatten

luk
close