Bojni Roboti: Prepovedana Ni Dovoljena

Kazalo:

Bojni Roboti: Prepovedana Ni Dovoljena
Bojni Roboti: Prepovedana Ni Dovoljena

Video: Bojni Roboti: Prepovedana Ni Dovoljena

Video: Bojni Roboti: Prepovedana Ni Dovoljena
Video: ZBOGOM LJUDI! ROBOT SOCIJALNI RADNIK U VUHANU 2024, Maj
Anonim

Strokovnjaki so se sestali v Ženevi, vendar do dogovora ni prišlo: ZDA in Rusija sta blokirali vsa dela. Morda je to edini čas, ko hegemoni delujejo tako harmonično.

Bojni roboti: prepovedana ni dovoljena
Bojni roboti: prepovedana ni dovoljena

V Ženevi so se končala srečanja strokovnjakov v obliki Konvencije o nečloveškem orožju, da bi odločili o usodi tako imenovanih bojnih robotov - avtonomnega orožja, ki uporablja umetno inteligenco za premagovanje ciljev. Dogovorov pa ni bilo mogoče doseči. Združene države, Rusija, Južna Koreja, Izrael in Avstralija so bile med manjšinskimi državami, ki jim je uspelo blokirati sentiment do popolne prepovedi robotov morilcev.

Torej, čeprav na svetu še vedno ni delujočega avtonomnega orožja, tehnologija ostaja tako rekoč humana - jo je mogoče razvijati in raziskovati. Zanimivo je, da sta ZDA in Rusija po mnenju Stockholmskega inštituta za raziskave miru (SIPRI) na vrhu seznama največjih izvoznikov orožja. Tudi Južna Koreja, Izrael in Avstralija na tej lestvici ne zaostajajo - sodijo med 20 najboljših igralcev na trgu.

In čeprav Kitajska (peti izvoznik orožja na svetu, stalna članica Varnostnega sveta OZN, zagovarja prepoved bojnih robotov, na sestankih ni uspela prilagoditi tehtnice v svoji smeri. Danes 26 držav odkrito podpira prepoved uporabe umetne inteligence v vojni. Drugi se izogibajo jasnemu stališču) Francija in Nemčija (tretji in četrti izvoznik orožja) ponudita podpis dokumenta, ki bi utrdil primat človeka nad umetno inteligenco, vendar je verjetneje, na strani tistih, ki želijo razviti avtonomna bojna vozila.

"Vsekakor je razočaranje, da lahko majhna skupina vojaških velikanov zadrži voljo večine," je izid ženevskih srečanj komentirala Mary Verhem, koordinatorka kampanje za ustavitev robotov-morilcev.

Situacija dejansko izgleda kot zarota oboroženih monopolnih tajkunov, saj ZDA in Rusija običajno ne morejo doseči vsaj neke vrste kompromisa o pomembnih vprašanjih. Vzemimo sirsko: Washington in Moskva sta medsebojno blokirali resoluciji po uporabi kemičnega orožja v Siriji letos spomladi. Mimogrede, zadušljivi plini in druge strupene snovi za vojaške namene so bile prej prepovedane s Konvencijo o nečloveškem orožju.

Naslednje srečanje o usodi robotov morilcev bo novembra v Ženevi.

Zakaj želijo prepovedati avtonomno orožje

Zagovorniki prepovedi robotske vojne vztrajajo, da bojno polje ni prostor za umetno inteligenco. Po njihovem mnenju takšne tehnologije predstavljajo veliko grožnjo. Danes vsaj ni jasno, kako bo stroj ločeval borce (tiste, ki so neposredno vpleteni v sovražnosti) od neborcev (vojaškega uslužbenca, ki lahko orožje uporablja samo za samoobrambo) in civilistov na splošno. Obstaja možnost, da bo delo ubilo ranjene in tiste, ki se bodo predali, kar je prepovedano z veljavnimi pravili vojskovanja.

Kaj preprečuje, da bi delo prekinilo vse strani v konfliktu, tudi lastnike takega orožja? Elementi umetne inteligence se že uspešno uporabljajo v vojaški opremi, raketah; robote privlačijo za izvidništvo, vendar zadnja beseda še vedno leži na ljudeh. Avtonomno orožje ne bo upoštevalo ukazov poveljnikov - zato je avtonomno. Zato so vojaški generali iz različnih držav skeptični glede uvajanja strojev v osebje.

In še eno odprto vprašanje je mednarodni terorizem. Tehnologija avtonomnega orožja lahko pride v napačne roke in jo sčasoma lahko vdre. Pred letom dni je ruski predsednik Vladimir Putin dejal, da bo vladar sveta tisti, ki bo postal vodilni v razvoju umetne inteligence. V primeru avtonomnega orožja bo tisti, ki dobi dostop do takšnih tehnologij, postal vladar sveta. In za to dejansko potrebujete le računalnik in izmikač, ki bo šel skozi varnostne sisteme. Mimogrede, Pentagon so že večkrat vdrli. Zato nihče ne more zagotoviti, da bo avtonomno orožje ostalo nedotakljivo.

Prav tako ni jasno, kdo bo pravno odgovoren, če bo vojni zločin storjen kot posledica delovanja avtonomnega orožnega sistema. »Inženir, programer, proizvajalec ali poveljnik, ki je uporabil orožje? Če odgovornosti ni mogoče opredeliti v skladu z mednarodnim humanitarnim pravom, ali je mogoče uporabo takšnih sistemov priznati kot pravno ali etično upravičeno? «Ugotavlja Mednarodni odbor Rdečega križa.

Zanimivo je, da so znanstveniki zagovarjali tudi prepoved bojnih robotov. Julija letos je več kot dva tisoč znanstvenikov, zlasti ustvarjalec Tesle in SpaceX-a Elon Musk in soustanovitelji DeepMind-a, podpisalo dokument, da ne bodo razvijali smrtonosnega avtonomnega orožja. Google je storil enako. Tehnični velikan je opustil delo na projektu Pentagona Maven. Leta 2017 so številni znanstveniki že pozvali OZN, naj prepovejo ustvarjanje robotov morilcev.

Mimogrede, vprašanje umetne inteligence v vojni se je na dnevnem redu Združenih narodov pojavilo konec leta 2013, a se od takrat praktično nič ni spremenilo. Šele letos so se začela strokovna srečanja v obliki Konvencije o nečloveškem orožju. To pomeni, da je trajalo več kot štiri leta, da smo prišli do neke bolj ali manj praktične ravni.

Zakaj nočejo prepovedati avtonomnega orožja

Ne glede na to, kako nenavadno se sliši, je dirka v orožju glavni razlog, da ne želijo prepovedati robotov morilcev. Putin ima prav: kdor prej dobi avtonomno orožje, bo prevladoval nad svetom. Uradno je ta razlog izražen.

Glavni argument nasprotnikov prepovedi je nezmožnost ločevanja civilne umetne inteligence od vojske. Ne bomo prepovedali kuhinjskih nožev samo zato, ker jih lahko uporabljajo teroristi. Dejansko je praktično nemogoče ločiti civilni razvoj umetne inteligence od vojske. Zdaj pa govorimo o prepovedi tega orožja, ki bo lahko samostojno določalo in napadalo cilje. To bi lahko bil projekt Maven, ki ga ministrstvo za obrambo ZDA dela skupaj z Boozom Allenom Hamiltonom (Google je pogodbo zavrnil).

Razvijalci Mavena želijo naučiti brezpilotne letalnike, da analizirajo slike, zlasti s satelitov, in - potencialno - prepoznajo cilje za napad. Pentagon je pri projektu začel delati aprila 2017 in upal, da bo do konca leta dobil prve delujoče algoritme. Toda z razmejitvijo Googlovih zaposlenih se je razvoj upočasnil. Od junija letos je po Gizmodovih besedah sistem lahko ločeval elementarne predmete - avtomobile, ljudi, vendar se je v težkih situacijah izkazal za povsem nepomembnega. Če bo prepoved avtonomnega orožja kljub temu sprejeta na ravni OZN, bo treba projekt opustiti, medtem ko Pentagon trdi, da lahko njegov razvoj reši življenja, saj ga je mogoče programirati za bolj natančno in zanesljivo delovanje v primerjavi z ljudmi.

"Razumeti morate, da govorimo o tehnologiji, da nima vzorcev, ki bi delovali. Zamisel o takšnih sistemih je še vedno zelo površna," je poudarila na predvečer srečanja v Ženevi na ruskem zunanjem ministrstvu. - Po našem mnenju se lahko mednarodno pravo, zlasti humanitarni sektor, uporablja za avtonomno orožje. Ne potrebujejo posodobitve ali prilagajanja sistemom, ki še ne obstajajo."

No, in še en resničen, a ne izrečen razlog, je denar. Danes je trg vojaških tehnologij umetne inteligence ocenjen na več kot šest milijard dolarjev. A do leta 2025 se bo ta številka po ocenah analitikov ameriške družbe MarketsandMarkets potrojila - na skoraj 19 milijard. Za največje izvoznike orožja je to dobra motivacija, da blokirajo kakršne koli omejitve pri razvoju robotov morilcev.

Napredovanja ni mogoče ustaviti

Zagovorniki prepovedi avtonomnega orožja ugotavljajo, da se tehnologija zelo hitro razvija in bo umetna inteligenca sčasoma postala orožje - vprašanje časa. V njihovih besedah je logika. Umetna inteligenca je sestavni del četrte znanstvene in tehnološke revolucije, ki se nadaljuje zdaj. Upoštevati je treba, da je tehnični napredek na tak ali drugačen način povezan z vojaškimi operacijami. Tretja znanstvena in tehnološka revolucija je trajala do sredine 50. let 20. stoletja, to je, da je njen vrhunec padel na obdobje druge svetovne vojne.

Leta 1949 je Ženeva sprejela Konvencijo o zaščiti civilnih oseb v vojnem času. V povojnem obdobju so dopolnili tudi IV Haaško konvencijo iz leta 1907, ki je določala pravila za vodenje vojne. To pomeni, da so grozote druge svetovne vojne postale katalizator tega procesa. Zagovorniki človekovih pravic torej ne želijo čakati na tretjo svetovno vojno, da bi človeštvo zaščitili pred avtonomnim orožjem. Zato vztrajajo, da je zdaj treba odločiti o usodi robotov morilcev.

Po mnenju strokovnjakov Human Rights Watch je uporaba bojnih robotov v nasprotju z Martensovo deklaracijo - preambulo Haaške konvencije o vojnih zakonih in običajih iz leta 1899. Z drugimi besedami, roboti morilci kršijo zakone človeštva in zahteve javne zavesti (položaj je bil potrjen v IV. Haaški konvenciji).

"Sodelovati moramo pri preventivni prepovedi takšnih orožnih sistemov, preden se razširijo po vsem svetu," je dejala Bonnie Doherty, višja raziskovalka v oddelku za orožje pri Human Rights Watchu.

No, tokrat ni uspelo prepovedati robotov morilcev. Predvidljivo bodo tudi novembrska srečanja brezplodna. Res je, da se skoraj vse države strinjajo - tehnologija ne more dovoliti, da teče gravitacija, bojni roboti pa potrebujejo takšen zaporni žerjav. Še vedno pa ni jasno, ali bo človeštvo imelo čas, da ga potegne, ko bo za to potrebna potreba.

Priporočena: