Státy OSN: Daleko od zákazu zabíjení robotů

ZBRANĚ BUDOUCNOSTI: Human Rights Watch vydala zprávu o regulaci autonomních zbraní. Co bude určovat války budoucnosti?

Harang je vedoucí norského mírového týmu.

Umělá inteligence je ve větru jako nikdy předtím. Diskutuje se o potenciálu technologie Arendalsuka jako u všech ostatních klíčových provozovatelů vysílání pro společensky angažovaný výraz. Umělá inteligence je považována za klíčovou technologii v boji proti probíhajícímu Coronaepidemický. A to bylo vše, co chybělo. Je vůbec možné přijmout účinná protiopatření proti další pandemii bez rozsáhlého využívání umělé inteligence? Potenciál detekce infekce, globálního sledování ohnisek a identifikace infikovaných osob je obrovský. Mnohým utrpením se samozřejmě lze vyhnout, pokud takovou technologii použijeme dobrým způsobem.

Současně se zřizováním umělé inteligence, která je ústřední technologickou odpovědí na výzvy od snižování chudoby po změnu klimatu, se zdá být otázka regulace této technologie trochu v cestě. Příkladem toho jsou prohlášení o ochraně osobních údajů týkající se sledování infekce zde doma. Tato technologie má ve většině společenských oblastí potenciál tak obrovský vzhůru, že svět je pochopitelně netrpělivý na používání této technologie. Když je potřeba tak velká a okamžitě musíte nejprve vyvinout technologii, než ji budete chtít regulovat?

Ve většině případů může mít taková myšlenka smysl, ale existuje řada výjimek z umělé inteligence. Cesta ke komunitě sledování je krátká. Výzvy demokracie již známe. Může se stát, že i po jednotlivých odvětvích je technologie jednoduše příliš silná a potenciálně sociálně povznášející na to, abychom dokázali převzít důsledky technologie, která je nyní na rýsovacím prkně. Můžeme tedy rychle udělat svět spíše horším než lepším.

Plně autonomní zbraňový systém

Pokud je technologie dostatečně výkonná, a tak se hluboce společensky mění, může se rychle stát nemožným tuto technologii nepoužívat, jakmile bude k dispozici. Takovým případem může být použití umělé inteligence ve střelivu, v takzvaných autonomních zbraních.

Takové zbraně budoucnosti, které jsou tak schopné útočit a ničit cíle mimo smysluplnou lidskou kontrolu, by mohly zásadně změnit válku budoucnosti. Je to rychlost, která v praxi určí války budoucnosti. A když jsou rozhodnutí na bojišti ponechána na strojích, doba odezvy na pohyb soupeře také poněkud prudce klesá. Ten, kdo losuje nejrychleji, vyhraje. Každý, kdo dokáže kybernetickou rychlostí přemoci druhou stranu, těžko zažije odpor zbraňových systémů ovládaných lidmi. Neexistují tedy žádná myslitelná protiopatření pro plně autonomní zbraňové systémy jiné než jiné autonomní zbraně. Jsou to možné scénáře, které vedly práci k zákazu vývoje, výroby a používání autonomních zbraní, ještě než tato technologie vůbec existuje.

Musí být vyžadována nějaká forma smysluplné lidské kontroly
autonomní zbraňový systém.

Human Rights Watch je jednou z klíčových organizací v kampani za zákaz zabíjení robotů. Tato kampaň si klade za cíl zakázat autonomní zbraně a od roku 2014 má zásadní význam pro řízení procesu OSN v této oblasti. Státy OSN prozatím ani zdaleka nedosáhly dohody o takovém zákazu. Za posledních šest let si ale alespoň vyhradili čas, aby hovořili o výzvách, které tyto zbraně vytvoří – v rámci Úmluvy proti nelidům zbraň. Nedávno přišel Human Rights Watch se zprávou o tom, co světové státy dosud deklarovaly z politiky regulace autonomních zbraní. Zpráva má název „Zastavení zabijáckých robotů: postoje jednotlivých zemí k zákazu plně autonomních zbraní a zachování lidské kontroly“ a je k dispozici na Www.hrw.org

Zpráva od roku 97 identifikovala veřejně stanovené politiky v této oblasti od 2013 států. To poskytuje dobrý datový základ pro analýzu. Zpráva konstatuje, že většina z těchto států věří, že musí být nutná nějaká forma smysluplné lidské kontroly nad autonomními zbraňovými systémy. V roce 2018 se iniciativy k zahájení jednání o zákazu autonomních zbraní v OSN ujaly také Brazílie, Chile a Rakousko. Dosud takovou linii zákazu podporovalo třicet států. Státy jako USA a Rusko se zároveň jasně postavily proti myšlence zákazu. Aby bylo možné zahájit zákaz jednání v rámci Úmluvy OSN proti nelidským zbraním, je nutná shoda. Neexistuje tedy žádný důvod se domnívat, že k něčemu takovému bude v dohledné budoucnosti možné dojít.

Norsko

Zpráva se rovněž zabývá norskou politikou v této oblasti. Tato politika je v zásadě založena na tom, že Norsko uznává etické a právní otázky vyvíjením autonomních zbraní s umělou inteligencí. Varuje se, že takové zbraně „by mohly stírat hranice odpovědnosti a odpovědnosti“. Norsko dosud nepodporovalo hranici zákazu v OSN. Přestože vláda nebyla v otázce zákazů vyjasněna, zdá se, že diskuse o etickém řízení ropného fondu posunula otázku zákazů vpřed, a to i v norské politice.

V dokumentu NOU 2020: 7 „Hodnoty a odpovědnost, etický rámec pro vládní penzijní fond globální“, od června 2020, vládou jmenovaný výbor prosazuje neinvestování do autonomních zbraní. Děje se tak navržením změny ve vytváření produktů, což dnes znamená, že producenti určitých druhů zbraní, tabáku a uhlí budou z fondu vyloučeni. Navrhuje se upřesnit a rozšířit kritérium zbraní, které definuje typy zbraní, do kterých by fond neměl být investován. Navrhuje se přidat do seznamu smrtící autonomní zbraně. Výbor to odůvodňuje takto: „U autonomních zbraní nepodléhá rozhodnutí použití síly přímé lidské kontrole. Díky tomu jsou odpovědnosti nejasné a podle názoru výboru je to zásadně problematické. ““ Návrh výboru bude dále projednán v Stortingu příští rok. Pravděpodobně tedy také uvidíme samotné strany v Stortingově pozici za nebo proti mezinárodnímu zákazu.

PŘEČTĚTE SI také: Mary Wareham: Vražedné roboty musí být zastaveny, než bude pozdě!

Předplatné 195 NOK

Žádné články k zobrazení