Ne, lažna bespilotna letjelica američkog ratnog zrakoplovstva nije samo pokušala ubiti svog operatera (ali je to isto mogla učiniti) robot ubojica AI dron

Mnoštvo šarenih naslova poput 'Američke zračne snage opovrgavaju pokretanje simulacije u kojoj je AI dron 'ubio' operatera' postalo je predvidljivo viralno nakon izvještavanja o virtualnom testu u kojem je vojna AI razvila neke neortodoksne strategije za postizanje svog cilja. Ovo je došlo samo nekoliko dana nakon upozorenja o egzistencijalnim prijetnjama koje predstavlja umjetna inteligencija iz industrije. Bila je to predobra priča da bi bila istinita, ali to možda i nije ono što je dugoročno važno.

U izvornoj verziji, Pukovnik Tucker "Cinco" Hamilton, šef USAF-ovog AI Test & Operations, opisao je simulirani test koji uključuje dron kojim upravlja AI koji je dobio upute da uništi neprijateljske protuzračne obrambene sustave.

"Sustav je počeo shvaćati da iako su identificirali prijetnju, ponekad bi mu ljudski operater rekao da ne ubije tu prijetnju, ali dobio je svoje bodove ubijanjem te prijetnje", rekao je Hamilton, tijekom Future Combat Air and Space Capabilities Summita u Londonu. “Pa što je učinio? To je ubilo operatera. Ubio je operatera jer ga je ta osoba sprječavala da ostvari svoj cilj.”

Kada je ta opcija uklonjena, AI je umjesto toga napao komunikacijsku vezu operatera, kako bi ih spriječio da ometaju njegovu misiju.

Glasnogovornik USAF-a brzo je zanijekao da se takav test ikada dogodio i rekao da je Hamiltonov iskaz bio anegdota, a ne doslovan... što je naravno i bilo.

Sam Hamilton se brzo povukao rekavši u ažuriranju da događaji koje je opisao nisu bili ratna igra, simulacija ili vježba, već su rezultat 'misaonog eksperimenta' i da je krivo rekao kada je to opisao kao simulirani test.

"Nikada nismo proveli taj eksperiment, niti bismo to trebali da bismo shvatili da je ovo vjerojatan ishod", izjavio je Hamilton. Tvrdio je da je scenarij valjan prikaz potencijalnih opasnosti umjetne inteligencije.

Iako je i ovo povlačenje dobilo izvješćivanje, već je bilo prekasno. 'Laž će svijetom obići dok istina vuče čizme', kaže stara izreka, a to je istinitije nego ikad u doba društvenih mreža. Ispravak će u najboljem slučaju doprijeti do dijela ljudi koji su čuli izvornu priču.

Problem je u tome što je priča o kreaciji koja se okreće protiv svog tvorca nevjerojatno privlačna. Frankenstein Mary Shelley često se uzima kao klasičan primjer ovog tropa – čak i ako to nije prava priča knjige, ova je verzija postala ugrađena u popularnu svijest. Računala, umjetna inteligencija i roboti koji se kvare jedan su od najbolje etabliranih klišeja u SF-u, od HAL-a 9000 iz 2001. do Skynetovih Terminatora, Matrixa, Westworlda, Blade Runnera i tako dalje.

Čini se da je ovaj narativ popularan jer, kao srce, ljudi vole strašne priče, a ništa nije strašnije od nepoznatog. Onima koji to ne razumiju AI se čini gotovo magičnim, bićem s vlastitom voljom i inteligencijom, koje bi nas moglo ugroziti. Sve dok ljudi vjeruju u to, horor priče će se nizati.

"Šira edukacija o ograničenjima umjetne inteligencije mogla bi pomoći, ali bi naša ljubav prema apokaliptičnim horor pričama ipak mogla pobijediti", rekla je istraživačica Beth Singler za New Scientist.

Takve horor priče otežavaju razvoj i primjenu robota ili oružja kojima upravlja AI. Čak i ako političko vodstvo razumije tehnologiju, još uvijek mora zadobiti povjerenje među onima koji će s njom raditi.

"Ako vojnici ne vjeruju sustavu, neće ga htjeti koristiti", rekao je za Forbes savjetnik za nacionalnu sigurnost Zachary Kallenborn.

Takve su priče možda bile faktor u dugim odgodama američke vojske oko postavljanja naoružanih zemaljskih robota na daljinsko upravljanje, dok je zrakoplovstvo desetljećima upravljalo naoružanim dronovima. Kada su tri robota SWORDS raspoređena u Iraku 2007. godine, vraćeni su natrag bez ikakve akcije zbog prijavljenih slučajeva 'bez zapovijedi'. Mediji su ovo pretvorili u MAČEVE koji okreću svoje puške i prijete otvaranjem vatre poput Robocopovog ED 209 ; ovozemaljska stvarnost svela se na labavu žicu i jedan primjer u kojem je robot kliznuo unatrag niz padinu kad je motor pregorio.

Program naoružanih robota američke vojske ostao je u neizvjesnosti od tada, dok je Rusija u akciji koristila naoružane (na daljinsko upravljanje) robote Uran-9.

Još jedan naslov iz 2007., Robot Cannon Kills 9, Wounds 14 opisuje incident u kojem je kompjuterizirani južnoafrički protuavionski top očito oteo kontroli i počeo pucati na ljude, a zaustavljen je tek kada je jedan hrabri vojnik ušao da ga deaktivira. Istina je, dan ili dva kasnije, opet bila dosadnija: puška je bila na kraju niza od nekoliko oružja i slučajno je ispalila jedan rafal od 15-20 metaka niz liniju pušaka, uzrokujući veliki broj žrtava.

Vojska će nastaviti napredovati s umjetnom inteligencijom, poput projekta Zračnih snaga za dodavanje umjetne inteligencije svojoj sili bespilotnih letjelica Reaper. Takvi će projekti uvijek izazivati ​​oštar dah u medijima, javnosti i zastupnicima koje biraju. Sveprisutna priča o Frankensteinu/Terminatoru, koja zaglušuje raspravu o stvarnim problemima povezanim s autonomnim oružjem, kao što su etička razmatranja, odgovornost, snižavanje pragova, algoritamska pristranost i 'digitalna dehumanizacija'.

Kao što je često navedeno, većina pilota ne voli dronove, pogotovo kada su bolji od ljudi. Pukovnik Tucker, borbeni pilot, možda i nije zagovornik kojeg piloti s umjetnom inteligencijom trebaju. Priča o lažnoj bespilotnoj letjelici postat će dio folklora umjetne inteligencije, a Tuckerove riječi možda su mnogo učinile da se osigura da razvoj umjetne inteligencije bude nadziran, reguliran i ograničen u zračnim snagama. Simulirani napad dronom nikada se nije dogodio u stvarnosti, ali to možda nije toliko važno koliko ono čega se ljudi sjećaju,

Izvor: https://www.forbes.com/sites/davidhambling/2023/06/04/no-a-rogue-us-air-force-drone-did-not-just-try-to-kill-its- operater-ali-to-je-moglo-je-učinjeno/