Borbeni Roboti: Zabranjeno Se Ne Može Dopustiti

Sadržaj:

Borbeni Roboti: Zabranjeno Se Ne Može Dopustiti
Borbeni Roboti: Zabranjeno Se Ne Može Dopustiti

Video: Borbeni Roboti: Zabranjeno Se Ne Može Dopustiti

Video: Borbeni Roboti: Zabranjeno Se Ne Može Dopustiti
Video: Почему танк Т-14 Армата лучший танк в мире - лучший танк в мире 2024, Studeni
Anonim

Stručnjaci su se sastali u Ženevi, ali nije se mogao postići dogovor: Sjedinjene Države i Rusija blokirali su sve radove. Možda je ovo jedini put kada hegemoni djeluju tako skladno.

Borbeni roboti: zabranjeno se ne može dopustiti
Borbeni roboti: zabranjeno se ne može dopustiti

Sastanci stručnjaka u formatu Konvencije o neljudskom oružju završili su u Ženevi kako bi odlučili o sudbini takozvanih borbenih robota - autonomnog oružja koje umjetnom inteligencijom poražava ciljeve. Međutim, nije se mogao postići dogovor. Sjedinjene Države, Rusija, Južna Koreja, Izrael i Australija bile su među manjinskim zemljama koje su uspjele blokirati sentiment prema potpunoj zabrani robota ubojica.

Dakle, iako na svijetu još uvijek ne djeluje autonomno oružje, tehnologija ostaje, da tako kažem, humana - može se razvijati i istraživati. Zanimljivo je da su Sjedinjene Države i Rusija, prema Stockholmskom institutu za istraživanje mira (SIPRI), na vrhu liste najvećih izvoznika oružja. Južna Koreja, Izrael i Australija također ne zaostaju na ovoj ljestvici - oni su među 20 najboljih tržišnih igrača.

Iako se Kina (peti izvoznik oružja na svijetu, stalna članica Vijeća sigurnosti UN-a zalaže za zabranu borbenih robota, tijekom sastanaka nije uspjela prilagoditi vagu u svom smjeru. Danas 26 zemalja otvoreno podržava zabrana uporabe umjetne inteligencije u ratu. Drugi se klone jasnog stava) Francuska i Njemačka (treći i četvrti izvoznik oružja) nude potpisivanje dokumenta koji bi učvrstio primat čovjeka nad umjetnom inteligencijom, ali vjerojatnije je da će na strani onih koji žele razvijati autonomna borbena vozila.

"Svakako je razočaravajuće što mala skupina vojnih divova može zadržati volju većine", komentirala je Mary Verhem, koordinatorica Kampanje za zaustavljanje robota ubojica, ishod ženevskih sastanaka.

Zapravo, situacija izgleda kao zavjera naoružanih monopolističkih tajkuna, s obzirom na to da Sjedinjene Države i Rusija obično ne mogu postići barem neku vrstu kompromisa o važnim pitanjima. Uzmimo sirijsku: Washington i Moskva međusobno su blokirali međusobne rezolucije nakon korištenja kemijskog oružja u Siriji ovog proljeća. Ugušujući plinovi i druge otrovne tvari za vojne svrhe, inače, prethodno su bile zabranjene Konvencijom o nehumanom oružju.

Sljedeći sastanak o sudbini robota ubojica održat će se u Ženevi u studenom.

Zašto žele zabraniti autonomno oružje

Pristalice zabrane ratovanja s robotima inzistiraju na tome da bojno polje nije mjesto za umjetnu inteligenciju. Prema njihovom mišljenju, takve tehnologije predstavljaju veliku prijetnju. Danas barem nije jasno kako će stroj razlikovati borce (one koji su izravno uključeni u neprijateljstva) od neboraca (vojno službeno osoblje koje oružje može koristiti samo za samoobranu) i civila općenito. Postoji mogućnost da će rad usmrtiti ranjenike i one koji se predaju, što je zabranjeno trenutnim pravilima ratovanja.

Što sprečava rad da ometa sve strane u sukobu, čak i vlasnike takvog oružja? Elementi umjetne inteligencije već se uspješno koriste u vojnoj opremi, raketama; roboti su privučeni za izviđanje, ali konačna riječ ipak ostaje na ljudima. Autonomno oružje neće se pokoravati zapovijedima zapovjednika - zato je i autonomno. Zbog toga su vojni generali iz različitih zemalja skeptični prema uvođenju strojeva u redove osoblja.

I još jedno otvoreno pitanje je međunarodni terorizam. Tehnologija autonomnog oružja može pasti u pogrešne ruke i na kraju može biti hakirana. Prije godinu dana ruski predsjednik Vladimir Putin rekao je da će vladar svijeta biti taj koji će postati lider u razvoju umjetne inteligencije. U slučaju autonomnog oružja, onaj tko dobije pristup takvim tehnologijama postat će vladar svijeta. A za to vam zapravo trebaju samo računalo i izmicanje koje će proći kroz sigurnosne sustave. Inače, Pentagon je hakiran više puta. Slijedom toga, nitko ne može dati jamstva da će autonomno oružje ostati nepovredivo.

Također je nejasno tko će biti pravno odgovoran ako je ratni zločin počinjen kao rezultat funkcioniranja autonomnog oružnog sustava. „Inženjer, programer, proizvođač ili zapovjednik koji je koristio oružje? Ako se odgovornost ne može definirati kako zahtijeva međunarodno humanitarno pravo, može li se primjena takvih sustava prepoznati kao pravnu ili etički opravdanu?”, Napominje Međunarodni odbor Crvenog križa.

Zanimljivo je da su se znanstvenici zalagali i za zabranu borbenih robota. U srpnju ove godine više od dvije tisuće znanstvenika, posebno tvorac Tesle i SpaceX-a Elon Musk i suosnivači DeepMinda, potpisali su dokument da neće razvijati smrtonosno autonomno oružje. Google je učinio isto. Tehnički div je odustao od rada na Pentagonovom projektu Maven. A 2017. godine brojni su znanstvenici već pozvali UN da zabrani stvaranje robota ubojica.

Inače, pitanje umjetne inteligencije u ratu pojavilo se na dnevnom redu Ujedinjenih naroda krajem 2013. godine, ali od tada se praktički ništa nije promijenilo. Tek ove godine započeli su stručni sastanci u obliku Konvencije o nehumanom oružju. Odnosno, trebalo je više od četiri godine da se dođe do neke manje-više praktične ravni.

Zašto ne žele zabraniti autonomno oružje

Bez obzira koliko to zvučalo otrcano, utrka u naoružanju glavni je razlog zašto ne žele zabraniti robote ubojice. Putin je u pravu: onaj tko prvi dobije autonomno oružje dominirat će svijetom. Službeno se ovaj razlog iznosi.

Glavni argument protivnika zabrane je nemogućnost odvajanja civilne umjetne inteligencije od vojske. Kao, nećemo zabraniti kuhinjske noževe samo zato što ih teroristi mogu koristiti. Zapravo je praktički nemoguće odvojiti civilni razvoj umjetne inteligencije od vojske. Ali sada govorimo o zabrani ovog oružja, koje će moći samostalno određivati i napadati ciljeve. Ovo bi mogao biti projekt Maven, na kojem američko Ministarstvo obrane radi zajedno s Boozom Allenom Hamiltonom (Google je odbio ugovor).

Programeri Maven žele naučiti bespilotne letjelice analizirati slike, posebno sa satelita i - potencijalno - identificirati ciljeve za napad. Pentagon je počeo raditi na projektu još u travnju 2017. godine i nadao se da će prve radne algoritme dobiti do kraja godine. No, demaršom Googleovih zaposlenika razvoj je odgođen. Od lipnja ove godine, prema Gizmodu, sustav je mogao razlikovati elementarne objekte - automobile i ljude, ali pokazalo se da je u teškim situacijama potpuno beznačajan. Ako se zabrana autonomnog oružja ipak usvoji na razini UN-a, projekt će se morati ukinuti, dok Pentagon tvrdi da njegov razvoj može spasiti živote, jer se može programirati da radi točnije i pouzdanije u usporedbi s ljudima.

"Morate shvatiti da govorimo o tehnologiji, da ona nema uzorke koji bi mogli funkcionirati. Ideja takvih sustava još je uvijek površna", istaknuto je uoči sastanka u Ženevi u ruskom ministarstvu vanjskih poslova. - Prema našem mišljenju, međunarodno pravo, posebno humanitarni sektor, može se primijeniti na autonomno oružje. Ne trebaju modernizaciju ili prilagodbu sustavima koji još ne postoje."

Pa, i još jedan stvaran, ali ne i glasan razlog, je novac. Danas se tržište vojnih tehnologija umjetne inteligencije procjenjuje na više od šest milijardi dolara. No, do 2025. brojka će se utrostručiti - na gotovo 19 milijardi, prema analitičarima američke tvrtke MarketsandMarkets. Za najveće izvoznike oružja ovo je dobar motiv da blokiraju bilo kakva ograničenja u razvoju robota ubojica.

Napredak se ne može zaustaviti

Pristalice zabrane autonomnog oružja napominju da se tehnologija razvija vrlo brzo i da će umjetna inteligencija na kraju postati oružje - pitanje vremena. U njihovim riječima ima logike. Umjetna inteligencija sastavni je dio četvrte znanstvene i tehnološke revolucije koja se nastavlja i danas. Treba imati na umu da je tehnički napredak na ovaj ili onaj način povezan s vojnim operacijama. Treća znanstvena i tehnološka revolucija trajala je do sredine 50-ih godina XX. Stoljeća, odnosno vrhunac je pao na razdoblje Drugog svjetskog rata.

1949. godine Ženeva je usvojila Konvenciju o zaštiti civilnih osoba u vrijeme rata. U poslijeratnom razdoblju dopunili su i IV Haašku konvenciju iz 1907. godine koja je odredila pravila vođenja rata. Odnosno, strahote Drugog svjetskog rata postale su katalizator ovog procesa. Dakle, branitelji ljudskih prava ne žele čekati Treći svjetski rat kako bi zaštitili čovječanstvo od autonomnog oružja. Zbog toga je sada potrebna odluka o sudbini robota ubojica, inzistiraju oni.

Prema stručnjacima Human Rights Watcha, upotreba borbenih robota proturječi je Martensovoj deklaraciji - preambuli Haške konvencije o ratnim zakonima i običajima iz 1899. godine. Drugim riječima, roboti ubojice krše zakone čovječanstva i zahtjeve javne svijesti (stav je potvrđen u IV. Haškoj konvenciji).

"Moramo surađivati na nametanju preventivne zabrane takvih oružnih sustava prije nego što se prošire svijetom", rekla je Bonnie Doherty, viša istraživačica u odjelu za oružje Human Rights Watcha.

Pa, ovaj put nije uspjelo zabraniti robote ubojice. Predvidljivo će i sastanci u studenom biti besplodni. Istina, gotovo sve zemlje se slažu - tehnologiji se ne može dopustiti da teče gravitacijom i borbenim robotima je potrebna takva zaustavna dizalica. Ali još uvijek nije jasno hoće li čovječanstvo imati vremena povući ga kad se za tim ukaže potreba.

Preporučeni: