Koja je Pentagonova ažurirana politika o robotima ubojicama?

Pentagon je izdao ažurirati svoju Direktivu 3000.09, koji pokriva ono što nazivaju Autonomija u sustavima naoružanja i drugi zovu 'roboti ubojice.' Aktualni dronovi poput Zračnih snaga i CIA-e MQ-9 žetelice upravljaju daljinskim upravljačem: ljudsko biće sjedeći ispred video ekrana identificira mete na tlu tisućama milja daleko, postavlja ih na nišan i otpušta a Projektil Hellfire ili drugo oružje. Autonomna oružja su drugačija: sama biraju svoje mete bez ljudske intervencije. Potrebna su jasna pravila o tome kada i kako se mogu koristiti, a nova direktiva ih dovodi korak bliže.

Prije deset godina, kada je objavljena prva verzija 3000.09, autonomno oružje izgledalo je poput znanstvene fantastike. Sada su vrlo stvarni. UN je to tvrdio Bespilotne letjelice koje je isporučila Turska samostalno su napadale mete u Libiji 2020., a Rusija sada raspoređuje lebdeće streljivo u Ukrajini s autonomna sposobnost.

Mnogi aktivisti, poput Kampanja za zaustavljanje ubojitih robota, žele potpunu zabranu autonomnog oružja, inzistirajući na tome da svako daljinsko oružje ostane pod njom smislena ljudska kontrola u svakom trenutku. UN je raspravljao o tome kako kontrolirati takvo oružje mnogo godina.

Međutim, kao što nova direktiva jasno pokazuje, Pentagon se drži drugačije linije.

"DoD se dosljedno protivi standardu politike 'smislene ljudske kontrole' kada su u pitanju i autonomni sustavi i sustavi umjetne inteligencije," Gregory Allen, direktorica Projekta o upravljanju umjetnom inteligencijom pri Centar za strateške i međunarodne studije, rekao mi je. „Preferirani izraz DoD-a je 'odgovarajuće razine ljudske prosudbe', što odražava činjenicu da u nekim slučajevima – na primjer, autonomne letjelice za nadzor i neke vrste autonomnog kibernetičkog oružja – odgovarajuća razina ljudske kontrole može biti mala ili nikakva .”

Koje bi autonomno oružje bilo dopušteno pod kojim okolnostima? Allen smatra da je prethodna verzija direktive bila toliko nejasna da je obeshrabrivala bilo kakav razvoj na ovom području.

„Zbunjenost je bila toliko raširena – uključujući i neke starije čelnike Ministarstva obrane – da su se dužnosnici suzdržavali od razvoja nekih sustava koji ne samo da su dopušteni politikom, već su i izričito izuzeti od zahtjeva višeg pregleda“, kaže Allen.

Niti jedno oružje nije podneseno procesu pregleda za autonomno oružje kako je navedeno u originalu 3000.09 u deset godina od njegovog objavljivanja.

Alen je napisao esej o ovome za CSIS prošle godine, opisujući četiri područja na kojima je bilo potrebno raditi – formalno definiranje autonomnih oružanih sustava, govoreći što "omogućena umjetna inteligencija" znači za politiku, kako će se proces pregleda nositi s modelima za ponovnu obuku strojnog učenja i pojašnjavajući koje vrste oružja zahtijevaju proći kroz naporan proces pregleda.

"Ministarstvo obrane implementiralo ih je sve", kaže Allen.

U načelu, to bi trebalo osigurati ono što Ministarstvo obrane naziva "snažnom i trajnom predanošću transparentnom globalnom lideru u uspostavljanju odgovorne politike u vezi s vojnom uporabom autonomnih sustava".

Međutim, postoje neki dodaci koji bi se mogli smatrati nedostacima, kao što je izuzeće od višeg pregleda za bespilotne letjelice s autonomnim oružjem koje ne gađaju ljude ("antimaterijalno oružje"), ali bi im bilo dopušteno gađati projektile, druge bespilotne letjelice. i potencijalno drugih sustava.

"Riječ 'obrana' obavlja gomilu posla," Zak Kallenborn, rekao mi je politički suradnik na Schar School of Policy and Government na Sveučilištu George Mason. "Ako bespilotna letjelica djeluje na neprijateljskom teritoriju, gotovo svako oružje može se protumačiti kao 'obrana' platforme."

Kallenborn također napominje da, iako se učinkovito autonomno oružje poput nagaznih mina koristi više od jednog stoljeća, krajolik se brzo mijenja zbog napretka u umjetnoj inteligenciji i osobito strojnom učenju. To je dovelo do sustava koji su vrlo sposobni, ali tehnički krti – kada pogriješe, pogriješe spektakularno na načine na koje ne bi, na primjer, niti jedan čovjek zamijenivši kornjaču za pušku.

“Autonomija putem umjetne inteligencije definitivno zaslužuje više brige, s obzirom na krhkost i nedostatak objašnjivosti trenutno dominantnih pristupa”, kaže Kallenborn.

Ažuriranje nije veliko. Ali to pokazuje stalnu predanost Pentagona razvoju učinkovitog autonomnog oružja i uvjerenje da se ono može pridržavati međunarodno humanitarno pravo — razlikovanje civila od vojnog osoblja, nastojanje da se izbjegne ozljeđivanje civila i korištenje samo proporcionalne i potrebne sile.

Pokretači kampanje vjeruju da umjetna inteligencija neće posjedovati potrebno razumijevanje za donošenje moralnih prosudbi u ratnim uvjetima i riskira stvaranje svijeta u kojem je rat automatiziran i u kojem ljudi više nemaju kontrolu. Drugi vjeruju da će američka vojska biti nadmašili protivnici s autonomnim oružjem osim ako je umjetna inteligencija inkorporirana na taktičkoj razini, i to previše ljudskog angažmana usporava vojne robote.

Rasprava će se vjerojatno nastaviti čak i kada se počnu pojavljivati ​​autonomna oružja, a rezultati će se pomno pratiti. U svakom slučaju, čini se da roboti ubojice dolaze.

Izvor: https://www.forbes.com/sites/davidhambling/2023/01/31/what-is-the-pentagons-updated-policy-on-killer-robots/