'Killer Robot' Lab står overfor boikott fra eksperter på kunstig intelligens

  • Phillip Hopkins
  • 0
  • 1162
  • 126

Kunstig intelligens (AI) samfunnet har en klar beskjed til forskere i Sør-Korea: Ikke lag mordereoboter.

Nesten 60 AI- og robotikkeksperter fra nesten 30 land har signert et åpent brev der de ber om en boikott mot KAIST, et offentlig universitet i Daejeon, Sør-Korea, som har blitt rapportert å "utvikle [kunst] intelligenssteknologier som skal brukes til militær våpen, og delta i den globale konkurransen om å utvikle autonome våpen, "heter det i det åpne brevet.

Med andre ord kan KAIST undersøke hvordan man lager militære AI-våpen. [5 grunner til å frykte roboter]

I følge det åpne brevet ble AI-eksperter verden over bekymret da de fikk vite at KAIST - i samarbeid med Hanwha Systems, Sør-Koreas ledende våpenselskap - åpnet et nytt anlegg 20. februar kalt Research Center for the Convergence of National Defense and Kunstig intelligens.

Gitt at FN (U.N.) allerede diskuterer hvordan man skal sikre det internasjonale samfunnet mot mordere AI-roboter, "er det beklagelig at en prestisjetung institusjon som KAIST ser ut for å få fart på våpenkappløpet for å utvikle slike våpen," skrev forskerne i brevet.

For å sterkt fraråde KAISTs nye oppdrag, boikotter forskerne universitetet til presidenten gjør det klart at senteret ikke vil utvikle "autonome våpen som mangler meningsfull menneskelig kontroll," sa brevforfatterne.

Denne boikotten vil være altomfattende. "Vi vil for eksempel ikke besøke KAIST, være vertskap for besøkende fra KAIST eller bidra til noe forskningsprosjekt som involverer KAIST," sa forskerne.

Hvis KAIST fortsetter å forfølge utviklingen av autonome våpen, kan det føre til en tredje revolusjon i krigføring, sa forskerne. Disse våpnene "har potensiale til å være terrorvåpen", og deres utvikling kan oppmuntre til at krig kjempes raskere og i større skala, sa de.

Despoter og terrorister som skaffer seg disse våpnene kan bruke dem mot uskyldige befolkninger og fjerne eventuelle etiske begrensninger som vanlige jagerfly måtte møte, la forskerne til.

Et slikt forbud mot dødelige teknologier er ikke nytt. For eksempel forbyr Genève-konvensjonene væpnede styrker å bruke blendende laservåpen direkte mot mennesker, tidligere rapportert. I tillegg er nervemidler som sarin og VX forbudt av Chemical Weapons Convention, der mer enn 190 nasjoner deltar.

Imidlertid er ikke alle land enige om å beskytte tepper som disse. Hanwha, selskapet som samarbeider med KAIST, hjelper til med å produsere klaseammunisjon. Slike ammunisjon er forbudt under U.N.-konvensjonen om klasevåpen, og mer enn 100 nasjoner (selv om ikke Sør-Korea) har signert konvensjonen mot dem, sa forskerne.

Hanwha har møtt ringvirkninger for sine handlinger; basert på etiske grunner, investerer ikke Norges offentlig fordelte $ 380 milliarder pensjonsfond i Hanhwas aksjer, sa forskerne.

I stedet for å jobbe med autonome drapsteknologier, bør KAIST jobbe med AI-enheter som forbedrer, ikke skader, menneskeliv, sa forskerne.

I mellomtiden har andre forskere i årevis advart mot mordere AI-roboter, inkludert Elon Musk og avdøde Stephen Hawking.

Original artikkel på .




Ingen har kommentert denne artikkelen ennå.

De mest interessante artiklene om hemmeligheter og oppdagelser. Mye nyttig informasjon om alt
Artikler om vitenskap, rom, teknologi, helse, miljø, kultur og historie. Forklare tusenvis av emner slik at du vet hvordan alt fungerer