Etika umjetne inteligencije bori se s vatrenim udarcem jedan-dva autonomnih sustava oružja temeljenih na umjetnoj inteligenciji i iskorištavanjem autonomnih sustava vođenih umjetnom inteligencijom koji su đavolski naoružani

Ti nevjerojatni plesni četveronožni roboti.

Siguran sam da ste vidjeli one virusne videozapise četveronožnih robotskih sustava koji plešu i šepure se na naizgled divne i pseće omiljene načine. Čini se da uživamo vidjeti te robote koje pokreće umjetna inteligencija dok se penju preko prepreka i čini se da dobivaju delikatno uporište kada sjede na vrhu kutija ili nakon što su nesigurno postavljeni na pripijene vrhove ormara. Njihovi će ljudski voditelji povremeno bockati ili gurati četveronožne robote koji se vesele, što se čini izrazito nepoštenim i lako vas može razbjesniti zbog drskog tretmana tih humanoida-majstora.

Ipak se pitam jeste li vidjeli ne tako viralne videozapise potpuno drugačijeg kalibra.

Pripremi se.

Postoje naširoko objavljeni video snimci koji prikazuju istu vrstu četveronožnih robota koji su opremljeni naglašenim oružjem ove ili one vrste.

Na primjer, mitraljez ili slično vatreno oružje postavljeno je na inače poznatog robota koji pleše i skače. Postoji elektronička veza između četveronožnog robota i mehanizma za paljenje oružja. Sada naoružana naprava za hodanje računala prikazana je kako korača prema mjestu gdje je postavljena meta, a mitraljez je žestoko pucao na metu. Nakon što zakuca naknadno djelomično uništenu metu, četveronožni robot pleše i poskakuje oko obližnjih prepreka i postavlja se u red kako bi ponovio istu radnju uvijek iznova na drugim novim metama.

Nije baš ono što ste očekivali vidjeti. Ovo svakako uklanja bezbrižnost i relativnu radost otvorenog promatranja tih ljupkih četveronožnih robota kako rade svoje. Dobrodošli u surovu stvarnost naizgled neškodljiv autonomni sustavi koji se pretvaraju ili pretvaraju u oštro naoružane. Uz vrlo malo truda, možete preko noći imati autonomni sustav koji se smatra "nenaoružanim" naknadno opremljen tako da sadrži kompletno oružje.

Gotovo je lako u nekim okolnostima.

Raspravljat ću o ovoj žestoko kontroverznoj temi i pokriti prilično teške nedoumice u vezi s etikom umjetne inteligencije koje se javljaju. Krenut ćemo na putovanje u autonomne sustave, umjetnu inteligenciju, autonomna vozila, naoružavanje i niz srodnih borbenih pitanja etičke umjetne inteligencije. Za moje kontinuirano i opsežno pokrivanje AI etike i Etičke AI, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Počnimo s nekim temeljnim kamenjem.

Rasprave radi, prihvatite da postoje dva glavna načina za kategorizaciju autonomnih sustava koji su naoružani oružjem:

1) Autonomni oružani sustavi (po dizajnu)

2) Autonomni sustavi koji su naoružani (naknadno)

Postoji važna razlika između ove dvije kategorije.

U prvom slučaju, definirat ćemo an autonomni sustav naoružanja biti od samog početka kompjutorizirana kreacija koja je namjerno namijenjena da bude oružje. Programeri su imali na umu da žele osmisliti oružje. Njihova izričita potraga je proizvesti oružje. Znali su da mogu integralno kombinirati oružje s najnovijim tehnologijama autonomnih sustava. Ovo je oružje koje jaše na valu visoke tehnologije koje postiže autonomno kretanje i autonomne radnje (uskoro ću detaljnije elaborirati).

Nasuprot tome, u drugom slučaju, razmotrit ćemo pitanje autonomnih sustava koji uopće nemaju posebnu sklonost prema oružju. To su autonomni sustavi koji se razvijaju za druge svrhe. Zamislite autonomno vozilo kao što je samovozeći automobil koji će se koristiti za pružanje mobilnosti za sve i pomoć u smanjenju tisuća godišnjih smrtnih slučajeva do kojih dolazi zbog automobila kojima upravljaju ili upravljaju ljudi (pogledajte moje detaljno izvješće na link ovdje). Čini se da nikakvo oružje ne dolazi u obzir za one optimistične napore koji potiču društvo da izbace ljude iza volana i umjesto toga stave AI na vozačevo sjedalo.

Ali ti bezopasni autonomni sustavi mogu biti naoružani ako ljudi to žele.

Tu drugu kategoriju onda nazivam autonomni sustavi koji su naoružani. Autonomni sustav je izvorno i pobožno napravljen za svrhu koja se vjerojatno ne odnosi na oružje. Unatoč tome, snenu altruističnu nadu sruši netko negdje tko dobije povjerljivu ideju da bi se ova izmišljotina mogla koristiti kao oružje. Odjednom je autonomni sustav koji se činio ljupkim postao smrtonosno oružje označavanjem nekog oblika sposobnosti oružja (kao što su ranije spomenuti četveronožni roboti nalik psima kojima je dodana mitraljez ili slično vatreno oružje) .

Nažalost, te dvije kategorije završavaju pomalo na istom mjestu, naime pružajući kapacitet korištenja autonomnih sustava za oružje na potencijalno smrtonosnoj osnovi.

Proces dolaska do te krajnje točke vjerojatno će biti drugačiji.

Za potpuno naoružane autonomne sustave koji su označeni kao oružje, aspekti naoružanja obično su naprijed i u sredini. Mogli biste reći da su aspekti autonomnog sustava omotani oko kamena temeljca bilo kojeg oružja koje se razmatra. Proces razmišljanja programera je pomalo u skladu s tim kako oružje može iskoristiti pojavu autonomnih sustava.

Druga perspektiva obično uopće nije takav način razmišljanja. Programeri žele izvesti najsuvremeniji autonomni sustav, možda za boljitak čovječanstva. Ovi programeri uložili su svoje iskreno srce i dušu u izradu autonomnog sustava. Ovo je srž njihovog izuma. Možda ne zamišljaju da bi itko mogao uzurpirati ili potkopati njihov čudesno koristan uređaj. Oni su blaženo zaljubljeni u društvene koristi povezane s autonomnim sustavom koji se oblikuje i proizvodi.

U nekom trenutku, recimo da treće strane shvate da se autonomni sustav može preinačiti u oružje. Možda prevare programere da im dopuste autonomni sustav za, kako se tvrdi, uzvišene svrhe. Iza zatvorenih vrata, ovi zlotvori odlučuju tajno dodati kapacitet za naoružavanje autonomnom sustavu. Voila, nevinost se pretvorila u pravo oružje.

Stvari se ne moraju odvijati na taj način.

Možda je programerima rečeno da razvijaju nevini autonomni sustav, ali oni koji su financirali ili usmjeravali napore imali su druge svrhe na umu. Možda su napori za autonomni sustav doista započeli nevino, ali onda kada je trebalo platiti račune, vodstvo je prekinulo dogovor s izvorom financiranja koji želi autonomne sustave iz opakih razloga. Druga je mogućnost da su programeri znali da bi kasnija upotreba mogla biti oružje, ali da su zaključili da će prijeći taj mučni most kada ili ako se ikada pojavi. itd.

Postoji puno i puno različitih putova o tome kako se sve ovo odvija.

Moglo bi vam biti zanimljivo to što sam u prethodnim kolumnama opisao da raste svijest o etici umjetne inteligencije u vezi s dvostruke namjene elementi suvremene umjetne inteligencije, vidi link ovdje. Dopustite mi da vas ukratko upoznam.

Sustav umjetne inteligencije koji je zamišljen kao dobar ponekad može biti na rubu lošeg, možda kroz neke prilično jednostavne promjene, te se u skladu s tim smatra dvonamjenskim. U vijestima je nedavno bio sustav umjetne inteligencije koji je izgrađen za otkrivanje kemikalija koje bi mogle biti ubojice, a za koje su programeri htjeli biti sigurni da možemo izbjeći ili biti oprezni s takvim loše zamišljenim kemikalijama. Ispostavilo se da bi se umjetna inteligencija mogla donekle lako podesiti da predano otkriva te ubojite kemikalije i tako potencijalno dopusti zlikovcima da znaju koje vrste kemikalija mogu potencijalno skuhati za svoje strašne zle planove.

Autonomni sustavi se dokazivo mogu uklopiti u taj omotač dvostruke namjene.

Do neke mjere, to je razlog zašto je etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Pravila AI Etike tjeraju nas da ostanemo budni. AI tehnolozi ponekad mogu biti zaokupljeni tehnologijom, osobito optimizacijom visoke tehnologije. Oni ne uzimaju u obzir nužno veće društvene posljedice. Imati način razmišljanja o etičkoj inteligenciji i činiti to integralno za razvoj i primjenu umjetne inteligencije ključno je za proizvodnju odgovarajuće umjetne inteligencije, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji tvrtke usvajaju etiku umjetne inteligencije.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Zapravo, oni upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, potkopati zlatnu gusku tako što ćemo smanjiti napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

Autonomija i oružje kao dva pravila

Postoji floskula koju neki koriste kako bi upozorili na sve vrste autonomnih sustava naoružanih oružjem, koji su zajednički skovani kao klaonički roboti.

Ovo dovodi do dodatnog aspekta o kojem bismo trebali razmisliti.

Mora li autonomni sustav naoružanja i/ili autonomni sustav koji je naoružan imati prevagu nad smrtonosnim ili ubojitim robotom?

Neki bi tvrdili da možemo odlučno ne ubojito naoružani autonomni sustavi također. Stoga bi se, s tog gledišta, činilo krajnje neprikladnim koristiti fraze kao što su roboti koljači ili roboti ubojice. Nesmrtonosna varijanta bi vjerojatno bila u stanju obuzdati ili izazvati štetu koja nije smrtonosna. Ti takvi sustavi ne ubijaju, oni imaju manji kapacitet za stvaranje ozljeda. Ne preuveličavajte sposobnosti, kažu oni koji inzistiraju na tome da ne moramo biti zaokupljeni izravnim strojem za ubijanje.

Dakle, mogli bismo imati ovo:

  • Smrtonosni autonomni oružani sustavi
  • Smrtonosni autonomni sustavi koji su naoružani
  • Nesmrtonosni autonomni sustavi oružja
  • Nesmrtonosni autonomni sustavi koji su naoružani

Naravno, protuargument je da bi se činilo da bi bilo koji autonomni sustav koji je naoružan imao potencijal skliznuti u područje smrtonosnosti, čak i ako je navodno zamišljen samo za upotrebu na nesmrtonosnoj osnovi. Inkrementalna dva koraka od nesmrtonosnog do smrtonosnog brzo će se poduzeti nakon što već imate u ruci oružje usred autonomnog sustava. Teško bi vam bilo pružiti željezno jamstvo da nesmrtonosni neće uletjeti u smrtonosnu arenu (iako neki to pokušavaju učiniti, matematički prividno).

Prije nego što uđemo dalje u ovu opću temu autonomnih sustava i naoružavanja, moglo bi biti zgodno istaknuti još nešto što, iako je možda očito, nije nužno na vidljivom mjestu.

Ovdje je:

  • Postoji aspekt umjetne inteligencije koji je sastavni dio autonomnog sustava
  • Postoji aspekt oružja koji je strana ove jednadžbe koja se odnosi na oružje
  • AI također može biti međusobno povezan s oružjem

Raspakirajmo to.

Pretpostavit ćemo da današnji autonomni sustavi zahtijevaju AI kao temeljno kompjuterizirano sredstvo za iznošenje autonomnih aspekata. Spominjem ovo jer biste mogli pokušati tvrditi da bismo mogli koristiti tehnologije i tehnike koje nisu povezane s umjetnom inteligencijom za izradu autonomnih sustava, što bi se, iako istinito, činilo sve manje vjerojatnim. U osnovi, umjetna inteligencija teži omogućiti veću razinu autonomije, a većina u skladu s tim koristi AI visoku tehnologiju.

U redu, dakle imamo sposobnost temeljenu na umjetnoj inteligenciji koja je na neki način ugrađena u autonomni sustav i djeluje tako da vodi i kontrolira autonomni sustav.

Držite to na dohvat ruke kao pravilo.

Čini se očiglednim da također trebamo imati neki oblik oružja, inače zašto ovdje raspravljamo o temi autonomnih sustava i oružje. Dakle, da, očito postoji oružje ove ili one vrste.

Neću ulaziti u vrstu oružja koje bi se moglo koristiti. Možete jednostavno zamijeniti bilo koje oružje koje vam padne na pamet. Možda ima preciznog oružja. Moglo bi postojati masovno orijentirano destruktivno oružje. Moglo bi biti nešto s mecima ili projektilima. To može biti nešto što ima kemikalije ili atomske hlapljive komponente. Popis je beskrajan.

Dodatno razmatranje je je li umjetna inteligencija međusobno povezana s oružjem. AI se možda samo provoza oružjem. U slučaju četveronožnog robota koji je pucao iz pištolja, možda je iz pištolja pucao čovjek koji ima daljinski upravljač povezan s okidanjem oružja. Robot poput psa upravlja scenom, a zatim je na udaljenom čovjeku da povuče okidač.

S druge strane, AI bi mogao biti onaj koji povlači okidač. AI je možda osmišljen ne samo za navigaciju i manevriranje, već i za aktiviranje oružja. U tom smislu, umjetna inteligencija radi sve od A do Ž. Nema ovisnosti o udaljenom čovjeku koji će obavljati dio stvari s oružjem. AI je programiran da to radi umjesto toga.

Da pojasnimo, u ovom konkretnom slučaju upotrebe autonomnih sustava koji su naoružani, imamo ove vrste mogućnosti:

  • Autonomni sustav: AI upravlja autonomnim sustavom potpuno samostalno
  • Autonomni sustav: AI upravlja autonomnim sustavom, ali čovjek u petlji također može intervenirati
  • Oružje: Daljinski čovjek upravlja oružjem (AI ne)
  • Oružje: AI upravlja oružjem, ali čovjek u petlji također može intervenirati
  • Oružje: AI upravlja oružjem potpuno samostalno

Prethodno sam pokrio varijacije uključivanja čovjeka u petlju u vezi s autonomnim sustavima i autonomnim vozilima, vidi link ovdje.

Kada gledate one zabavno orijentirane videozapise plesa i skakutanja četveronožnih robota, obično se pretpostavlja da su to roboti kojima upravlja isključivo AI (dobro, to je običaj ili se smatra ispravnim bontonom među onima koji su duboko u ova pitanja). To je ono što biste također s pravom mogli pretpostaviti. Naravno, to ne znate sa sigurnošću. Moguće je da udaljeni ljudski operater vodi robote. Također postoji mogućnost da umjetna inteligencija obavlja dio navođenja, a udaljeni ljudski operater također to radi, možda pomažući umjetnoj inteligenciji ako se robot nađe u teškoj poziciji i ne može računalno izračunati održiv način da se oslobodi.

Suština je da postoje brojni aspekti načina na koji se umjetna inteligencija i autonomni sustavi te naoružavanje mogu miješati. Neki imaju AI koji pokreće autonomni sustav, ali ne i oružje. Čovjek možda daljinski upravlja oružjem. Drugi kut je taj da je oružje možda aktivirano unaprijed, a autonomni sustav isporučuje aktivirano oružje, stoga AI nije izravno sudjelovao u aktiviranju oružja samo po sebi i umjesto toga je djelovao kao vozilo za dostavu. A moglo bi biti da je AI poslovično majstor za sve i da također radi cijeli niz aspekata autonomnog sustava u korištenju oružja.

Izaberi.

U međuvremenu, imajte na umu da je čovjek u petlji veliki faktor kada su u pitanju rasprave o ovoj temi.

Crta podjele po nekima je da ako umjetna inteligencija radi ciljanje i pucanje (ili što god oružje podrazumijeva), onda je cijeli komplet i caboodle prešao u ne-nema zemlje. To se naizgled razlikuje od konvencionalnog oružja "ispali i zaboravi" koje ima unaprijed ciljani odabir koji određuju ljudi, kao što je patrolna bespilotna letjelica koja ima projektil spreman za ispaljivanje na metu koja je već izabran od strane čovjeka.

Neki se pitaju zašto autonomni sustavi koji su naoružani ne bi uvijek uključivali čovjeka u petlji tijekom procesa u kojem je autonomni sustav u aktivnom statusu. Čini se da bi nam bilo bolje da je strogi zahtjev da svi takvi autonomni sustavi s oružjem moraju imati čovjeka u petlji, bilo za rad autonomnog sustava ili za upravljanje oružjem (ili za oboje) . Držati pretpostavljenu sigurnu i postojanu ljudsku ruku u ovoj mješavini umjetne inteligencije moglo bi se činiti posve lukavim.

Pripremite se za dugačak popis razloga zašto to nije nužno izvedivo.

Razmotrite ove poteškoće:

  • Human-in-the-loop možda neće biti dovoljno brz da odgovori na vrijeme
  • Human-in-the-loop možda nema dovoljno informacija da poslušno odgovori
  • Human-in-the-loop možda neće biti dostupan u potrebno vrijeme
  • Čovjek u petlji može biti neodlučan i neće djelovati kada je to potrebno
  • Čovjek u petlji mogao bi donijeti "pogrešnu" odluku (relativno)
  • Human-in-the-loop možda neće biti dostupan iz sustava u potrebnom trenutku
  • Čovjek u petlji mogao bi se zbuniti i biti preopterećen
  • Itd.

Nedvojbeno ste u iskušenju pogledati taj popis ljudskih slabosti i ograničenja, a zatim doći do ozbiljnog zaključka da ima očitog smisla izbaciti čovjeka u petlji i uvijek umjesto njega koristiti AI. To bi moglo biti ili isključenje čovjeka u petlji ili bi možda AI mogla nadjačati uvriježeni dizajn čovjeka u petlji. Pogledajte moju analizu o tome kako nesuglasice između umjetne inteligencije i čovjeka u petlji mogu dovesti do nesigurnih situacija, pokrivenu na link ovdje.

Često se omalovažavajući popis ovakvih nedostataka usmjerenih na ljude u stvarnom vremenu ostavlja sam po sebi i ostavlja dugotrajan dojam da umjetna inteligencija mora na neki način biti mnogo mudriji izbor nego imati čovjeka u petlji . Nemojte upasti u tu podmuklu zamku. Tu su uključeni otrežnjujući kompromisi.

Razmotrite ove posljedice AI-ja:

  • AI bi mogao naići na pogrešku koja bi ga zalutala
  • AI bi mogao biti preopterećen i blokirati se bez reakcije
  • AI može sadržavati programske pogreške koje uzrokuju nepravilno ponašanje
  • AI bi mogao biti oštećen implantiranim virusom zlotvora
  • AI bi mogli preuzeti cyberhakeri u stvarnom vremenu
  • AI se može smatrati nepredvidljivim zbog složenosti
  • AI bi mogao računalno donijeti "krivu" odluku (relativno)
  • Itd.

Vjerujem da vidite da postoje kompromisi između korištenja čovjeka u petlji i oslanjanja isključivo na AI. U slučaju da ste u iskušenju predložiti da je gotovo rješenje koristiti oba, samo bih želio naglasiti da možete dobiti najbolje od oba svijeta, ali također možete dobiti najgore od oba svijeta. Nemojte pretpostavljati da će uvijek i sigurno biti najbolje od oba svijeta.

Možda ste bili donekle iznenađeni jednom od gore navedenih mana u vezi s umjetnom inteligencijom, konkretno činjenicom da bi umjetna inteligencija mogla biti nepredvidiv. Navikli smo vjerovati da bi umjetna inteligencija trebala biti strogo logična i matematički precizna. Kao takav, također možete očekivati ​​da će AI biti potpuno predvidljiv. Trebali bismo točno znati što će AI učiniti. Točka, kraj priče.

Žao mi je što sam razbio taj balon, ali ovaj mit o predvidljivosti je pogrešan naziv. Veličina i složenost moderne umjetne inteligencije često je blato koje prkosi biti savršeno predvidljivo. To se vidi u buci oko etičke umjetne inteligencije oko nekih današnjih upotreba strojnog učenja (ML) i dubokog učenja (DL). Odmah ću malo više objasniti.

Također, možda biste željeli pogledati moju najnoviju analizu nadolazećih trendova prema pokušaju da se osiguraju provjerljivi i matematički dokazivo ispravni AI sustavi putem najnovijih AI sigurnosti, na link ovdje.

Razmišljanje o pravilima puta

Spomenuo sam pojam ciljeva i ciljanja, što je prilično pretrpana terminologija koja zaslužuje posebnu pozornost.

Možemo razmisliti o ovome:

  • Mete koje su ljudi
  • Mete koje nisu ljudi već su živa bića
  • Ciljevi koji se tumače kao vlasništvo

Pretpostavimo da imamo autonomni sustav koji je naoružan. AI se koristi za vođenje autonomnog sustava i koristi se za oružje. AI radi sve od A do Ž. Ne postoji odredba za čovjeka u petlji. Što se tiče ciljanja, AI će odabrati mete. Ne postoji prethodno ciljanje koje su uspostavili ljudi. Umjesto toga, umjetna inteligencija je programirana da općenito utvrdi postoje li ljudi na meti (možda tražeći neprijateljske akcije, određene vrste uniformi i tako dalje).

Sa mnom u ovome dosad?

Ovaj scenarij je uglavnom onaj koji izaziva najviše negodovanja u vezi s naoružanim autonomnim sustavima.

Izražena zabrinutost je da umjetna inteligencija radi (barem) tri stvari koje joj se ne bi smjele dopustiti:

  • Ciljanje na ljude kao mete
  • Ciljanje bez upotrebe čovjeka u petlji
  • Potencijalno djeluje nepredvidljivoly

Primijetite da se jasno spominju brige o nepredvidivosti umjetne inteligencije. Moguće je da iako je umjetna inteligencija programirana da cilja na određene vrste ljudi, programiranje umjetne inteligencije nije ono što smo mislili da jest, i umjetna inteligencija završi ciljajući na "prijatelje" uz one koje je umjetna inteligencija trebala protumačiti kao "neprijatelje". ” (ili, možda umjesto). Povrh svega, čak i ako odlučimo uključiti odredbu o čovjeku u petlji, nepredvidivost umjetne inteligencije može značiti da, kada bi se AI trebao dogovoriti s čovjekom u petlji, to ne uspijeva tako i djeluje bez ikakve ljudske intervencije.

Moglo bi vam biti zanimljivo da je Međunarodni odbor Crvenog križa (ICRC) ponudio sveobuhvatno stajalište u tri točke o autonomnim sustavima oružja koje razrađuje ove vrste zabrinutosti (prema web stranici ICRC-a):

1. “Nepredvidivi autonomni oružani sustavi trebali bi se izričito regulirati van, osobito zbog njihovih neselektivnih učinaka. To bi se najbolje postiglo zabranom autonomnih oružanih sustava koji su dizajnirani ili korišteni na takav način da se njihovi učinci ne mogu dovoljno razumjeti, predvidjeti i objasniti.”

2. “U svjetlu etičkih razmatranja zaštite čovječanstva i poštivanja pravila međunarodnog humanitarnog prava za zaštitu civila i boraca koji su izvan borbe, trebalo bi isključiti korištenje autonomnih oružanih sustava za ciljanje ljudskih bića. To bi se najbolje postiglo zabranom autonomnih oružanih sustava koji su dizajnirani ili korišteni za primjenu sile protiv osoba.”

3. “Kako bi se zaštitili civili i civilni objekti, poštivala pravila međunarodnog humanitarnog prava i zaštitila čovječanstvo, trebalo bi regulirati dizajn i upotrebu autonomnih oružanih sustava koji ne bi bili zabranjeni, uključujući kombinaciju: ograničenja na vrste meta, kao što je njihovo ograničavanje na objekte koji su po prirodi vojni ciljevi; ograničenja trajanja, geografskog opsega i opsega uporabe, uključujući omogućavanje ljudske prosudbe i kontrole u odnosu na određeni napad; ograničenja situacija uporabe, kao što je njihovo ograničavanje na situacije u kojima civili ili civilni objekti nisu prisutni; rzahtjevi za interakciju čovjek-stroj, posebice kako bi se osigurao učinkovit ljudski nadzor te pravovremena intervencija i deaktivacija.”

S tim u vezi, Ujedinjeni narodi (UN) putem Konvencije o određenim konvencionalnim oružjima (CCW) u Ženevi uspostavili su jedanaest neobvezujućih vodećih načela o smrtonosnom autonomnom oružju, prema službenom izvješću objavljenom na internetu (obuhvaćajući reference na relevantne međunarodne humanitarne Odredbe zakona ili međunarodnog humanitarnog prava):

(a) Međunarodno humanitarno pravo nastavlja se u potpunosti primjenjivati ​​na sve sustave oružja, uključujući potencijalni razvoj i upotrebu smrtonosnih autonomnih sustava oružja;

(b) Ljudska odgovornost za odluke o korištenju sustava oružja mora se zadržati budući da se odgovornost ne može prenijeti na strojeve. Ovo treba uzeti u obzir kroz cijeli životni ciklus oružanog sustava;

(c) Interakcija čovjek-stroj, koja može imati različite oblike i implementirati se u različitim fazama životnog ciklusa oružja, trebala bi osigurati da potencijalna uporaba sustava oružja temeljenih na novim tehnologijama u području smrtonosnih autonomnih sustava oružja bude u usklađenost s primjenjivim međunarodnim pravom, posebice međunarodnim humanitarnim pravom. U određivanju kvalitete i opsega interakcije čovjek-stroj treba uzeti u obzir niz čimbenika uključujući operativni kontekst, te karakteristike i sposobnosti oružanog sustava u cjelini;

(d) Odgovornost za razvoj, postavljanje i korištenje bilo kojeg novog sustava naoružanja u okviru CCW-a mora biti osigurana u skladu s primjenjivim međunarodnim pravom, uključujući djelovanje takvih sustava unutar odgovornog lanca ljudskog zapovijedanja i kontrole;

(e) U skladu s obvezama država prema međunarodnom pravu, u proučavanju, razvoju, nabavi ili usvajanju novog oružja, sredstva ili metode ratovanja, mora se utvrditi hoće li njegova uporaba, u nekim ili svim okolnostima, biti zabranjeno međunarodnim pravom;

(f) Prilikom razvoja ili nabave novih sustava oružja temeljenih na novim tehnologijama u području smrtonosnih autonomnih sustava oružja, fizičke sigurnosti, odgovarajućih nefizičkih zaštitnih mjera (uključujući kibernetičku sigurnost od hakiranja ili lažiranja podataka), rizik od nabave od strane terorističkih skupina i rizik od proliferacije treba uzeti u obzir;

(g) Procjene rizika i mjere za ublažavanje trebaju biti dio ciklusa projektiranja, razvoja, testiranja i postavljanja novih tehnologija u bilo kojem sustavu oružja;

(h) Trebalo bi razmotriti korištenje novih tehnologija u području smrtonosnih autonomnih oružanih sustava u održavanju usklađenosti s međunarodnim humanitarnim pravom i drugim primjenjivim međunarodnim pravnim obvezama;

(i) U izradi potencijalnih mjera politike, nove tehnologije u području smrtonosnih autonomnih sustava oružja ne bi trebale biti antropomorfizirane;

(j) Rasprave i sve potencijalne političke mjere poduzete u kontekstu KKO ne bi trebale kočiti napredak ili pristup mirnodopskim upotrebama inteligentnih autonomnih tehnologija;

(k) CCW nudi odgovarajući okvir za rješavanje pitanja novih tehnologija u području smrtonosnih autonomnih oružanih sustava u kontekstu ciljeva i svrha Konvencije, koja nastoji uspostaviti ravnotežu između vojne nužnosti i humanitarnih razloga.

Nesreća u kojoj se nalazimo

Ovi razni ratni zakoni, zakoni oružanih sukoba ili IHL (Međunarodni humanitarni zakoni) služe kao vitalan i uvijek obećavajući vodič za razmatranje onoga što bismo mogli pokušati učiniti u vezi s dolaskom autonomnih sustava koji su naoružani, bilo temeljnim dizajnom ili naknadnim metodama.

Iskreno možemo željeti da se zabrana autonomnih sustava sa smrtonosnim oružjem strogo i poslušno poštuje. Problem je u tome što se u bilo kojoj od najiskrenijih zabrana lukavo može pronaći mnogo prostora za migoljenje. Kako kažu, pravila su stvorena da se krše. Možete se kladiti da će tamo gdje su stvari labave, riffraff pronaći praznine i pokušati zaobići pravila.

Evo nekih potencijalnih rupa u zakonu vrijednih razmatranja:

  • Tvrdnje o nesmrtonosnosti, Napraviti ne ubojito autonomni sustavi oružja (naizgled u redu budući da je izvan granice zabrane), koje onda možete za sitniš pretvoriti u smrtonosne (tek ćete biti izvan zabrane u posljednjem trenutku).
  • Zahtjevi samo za autonomni sustav. Podržavajte zabranu tako što nećete proizvoditi autonomne sustave usmjerene na smrtonosne napade, au međuvremenu ostvarite što veći napredak u osmišljavanju svakodnevnih autonomnih sustava koji (još) nisu naoružani, ali koje možete za sitniš naknadno ugraditi u oružje.
  • Tvrdnje da nisu integrirani kao jedan. Izradite autonomne sustave koji uopće nisu opremljeni oružjem, a kada dođe vrijeme, pokušajte žestoko tvrditi da su to dva odvojena elementa i stoga tvrditi da ne spadaju u rubriku sve-u-jednom, kada dođe vrijeme. autonomni oružani sustav ili njegov rođak.
  • Tvrdi da nije autonoman. Napravite oružani sustav za koji se ne čini da ima autonomne kapacitete. Ostavite mjesta u ovom navodno neautonomnom sustavu za ubacivanje autonomije temeljene na umjetnoj inteligenciji. Po potrebi uključite autonomiju i spremni ste za pokret (do tada, naizgled, niste kršili zabranu).
  • drugo

Postoji mnogo drugih izraženih poteškoća s pokušajima potpune zabrane smrtonosnih autonomnih oružanih sustava. Pokrit ću još nekoliko njih.

Neki stručnjaci tvrde da zabrana nije osobito korisna i da bi umjesto toga trebale postojati regulatorne odredbe. Ideja je da će te naprave biti dopuštene, ali pod strogim nadzorom policije. Izložena je litanija zakonitih uporaba, zajedno s zakonitim načinima ciljanja, zakonitim vrstama sposobnosti, zakonitom proporcionalnošću i slično.

Po njihovom mišljenju, izravna zabrana je poput guranja glave u pijesak i pretvaranja da slon u sobi ne postoji. Ova tvrdnja, međutim, izaziva uzavrelu krv onih koji se suprotstavljaju argumentom da uvođenjem zabrane možete dramatično smanjiti iskušenje koje inače postoji u nastojanju da se provode ovakvi sustavi. Naravno, neki će se razmetati zabranom, ali barem se nadamo da većina neće. Tada možete usmjeriti svoju pozornost na razmetalice i ne morate usmjeravati pozornost na sve.

Te rasprave se vrte ukrug.

Još jedna zabrinutost koja se često spominje je da čak i ako se dobri pridržavaju zabrane, zli neće. Ovo dobre stavlja u loš položaj. Loši će imati ovakve autonomne sustave s oružjem, a dobri neće. Jednom kada se stvari otkriju da su loši u njima, bit će prekasno da ih dobri sustignu. Ukratko, jedina mudra stvar koju treba učiniti je pripremiti se za borbu protiv vatre vatrom.

Tu je i klasična rasprava o odvraćanju. Ako se dobri odluče napraviti autonomne sustave s oružjem, to se može iskoristiti za odvraćanje loših od pokušaja ulaska u sukob. Ili će se dobri bolje naoružati i tako razuvjeriti loše, ili će dobri biti spremni kada loši možda otkriju da su cijelo vrijeme potajno smišljali te sustave.

Kontra ovim kontrama je da stvaranjem autonomnih sustava s oružjem vodite utrku u naoružanju. Druga strana će tražiti isto. Čak i ako su tehnološki nesposobni iznova stvoriti takve sustave, sada će moći ukrasti planove onih "dobrih", izvršiti obrnuti inženjering utrobe visoke tehnologije ili oponašati sve što im se čini da vide kao isprobano način da obavite posao.

Aha, neka replika, sve bi to moglo dovesti do smanjenja sukoba prividno međusobno. Ako strana A zna da strana B ima ta smrtonosna oružja autonomnih sustava, a strana B zna da ih strana A ima, mogli bi mirno sjediti i ne dolaziti do sukoba. Ovo ima onu posebnu auru vibracija uzajamno osiguranog uništenja (MAD).

I tako dalje.

AI u autonomiji

Uvjerimo se da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite vrlo oprezni s antropomorfiziranjem današnje umjetne inteligencije.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Uz tu dodatnu temeljnu pozadinu, ponovno se okrećemo temi autonomnih sustava i naoružanja. Ranije smo vidjeli da AI ulazi u komponentu autonomnog sustava i također može ući u komponentu naoružanja. Današnja umjetna inteligencija nije osjećajna. Ovo je vrijedno ponavljanja i to ću istaknuti radi dodatnog uvida u ova pitanja.

Istražimo neke scenarije da vidimo kako je to ključno razmatranje. Na ovu ću temu na trenutak izaći iz ratne orijentacije i pokazati kako ona prožima mnoge druge društvene sredine. Učvrstite se u skladu s tim.

Autonomni sustav temeljen na umjetnoj inteligenciji, kao što je autonomno vozilo za koje ćemo reći da nema nikakve veze s oružjem, probija se kroz normalnu lokaciju. Čovjek dolazi kako bi koristio autonomno vozilo. Osoba je naoružana oružjem za slutnju. Pretpostavite radi rasprave u ovom konkretnom scenariju da osoba ima nešto nepoželjno na umu. Osoba ulazi u autonomno vozilo (noseći svoje oružje, skriveno ili neskriveno, u svakom slučaju).

Autonomno vozilo nastavlja do odredišta koje je vozač zatražio. U ovom slučaju, umjetna inteligencija jednostavno programski prenosi ovog putnika od jednog mjesta preuzimanja do određenog odredišta, baš kao što je radila za moguće desetke ili stotine putovanja, svaki dan.

Da je ovo bio ljudski vozač i vozilo kojim upravljaju ljudi, vjerojatno postoji neka šansa da bi ljudski vozač shvatio da je putnik naoružan i da izgleda ima loše namjere. Ljudski vozač može odbiti upravljati vozilom. Ili bi se ljudski vozač mogao odvesti do policijske postaje. Ili bi možda ljudski vozač mogao pokušati savladati naoružanog putnika (postoje prijavljeni slučajevi) ili odvratiti putnika od upotrebe oružja. Prilično je kompliciran i može postojati bezbroj varijacija. Teško bi vam bilo ustvrditi da postoji samo jedan pravi odgovor za rješavanje takve nevolje. Nažalost, situacija je mučna i očito opasna.

Umjetna inteligencija u ovom slučaju vjerojatno neće biti programirana za bilo koju od takvih mogućnosti. Ukratko, naoružani putnik mogao bi upotrijebiti svoje oružje, čineći to unutar autonomnog vozila, tijekom vožnje. Sustav vožnje s umjetnom inteligencijom nastavit će putovati, a autonomno vozilo nastavit će se kretati prema navedenom odredištu putnika (pod pretpostavkom da se odredište inače ne smatra izvan granica).

Većina suvremenih AI sustava za vožnju računalno bi se usredotočila samo na kolnik, a ne na napore vozača.

Stvari mogu postati gore od ovoga.

Pretpostavimo da netko želi prevesti hrpu namirnica do mjesta koje uzima dodatnu hranu za potrebite. Osoba traži autonomno vozilo i stavlja vrećice s namirnicama na stražnje sjedalo vozila. Neće ići s njima na vožnju i samo koriste autonomno vozilo za dostavu vrećica s hranom umjesto njih.

Čini se sasvim u redu.

Zamislite da podlika osoba umjesto toga odluči postaviti neki oblik naoružanja u autonomno vozilo umjesto miroljubivije ideje vrećica s namirnicama. Mislim da možete pogoditi što bi se moglo dogoditi. To je zabrinutost na koju sam više puta poticao u svojim kolumnama i upozoravao da se moramo nositi s njom što prije.

Jedan ponuđeni odgovor na ove vrste scenarija je da bi se možda sva autonomna vozila mogla programirati da koriste svoje kamere i druge senzore kako bi pokušali otkriti je li potencijalni putnik naoružan i ima li zle namjere. Možda bi AI bila programirana da to učini. Ili AI elektronički i tiho upozorava udaljenog ljudskog operatera koji bi zatim putem kamera vizualno i na druge načine pregledao i eventualno komunicirao s putnikom. Sve je to dio složene i potencijalno nerješive gomile crva, tako da pokreće intenzivna pitanja privatnosti i mnoštvo drugih potencijalnih problema u vezi s etičkom umjetnom inteligencijom. Pogledajte moju pokrivenost na link ovdje.

Još jedna donekle slična alternativa je da AI sadrži neku vrstu ugrađenog etičkog programiranja koje pokušava omogućiti AI-u da donosi etičke ili moralne prosudbe koje su inače rezervirane za ljude koji donose odluke. Ispitao sam ove vrste prognostičara računalne etike ugrađene u umjetnu inteligenciju, vidi link ovdje i link ovdje.

Vraćajući se scenariju na bojnom polju, zamislite da smrtonosni autonomni sustav oružja krstari iznad borbene zone. AI upravlja autonomnim sustavom. AI upravlja oružjem na brodu. Ranije smo zamislili mogućnost da bi AI mogla biti programirana da skenira naizgled neprijateljske pokrete ili druge pokazatelje ljudskih ciljeva koji se smatraju valjanim borcima.

Treba li ta ista umjetna inteligencija imati neku vrstu etički orijentirane komponente koja nastoji računalno razmotriti što bi čovjek u petlji mogao učiniti, djelujući na neki način umjesto čovjeka u petlji?

Neki kažu da, nastavimo s tim. Neki užasnuto ustuknu i kažu da je to ili nemoguće ili na neki drugi način krši svetost ljudskosti.

Još jedna konzerva crva.

Zaključak

Za one od vas koji su zainteresirani za ovu temu, postoji još mnogo toga o čemu se može raspravljati.

Dat ću vam brzi okus jedne mučne zagonetke.

Obično očekujemo da će se čovjek na kraju smatrati odgovornim za sve što se dogodi tijekom rata. Ako AI kontrolira autonomni oružani sustav ili upravlja autonomnim sustavom koji je možda bio naoružan, a taj sustav učini nešto na bojnom polju za što se vjeruje da je nesavjesno, koga ili što treba kriviti za to?

Mogli biste tvrditi da AI treba smatrati odgovornom. No, ako je tako, što to točno znači? Još ne smatramo današnju umjetnu inteligenciju utjelovljenjem pravne osobe, pogledajte moje objašnjenje na link ovdje. Nema podvijanja repa magarcu u slučaju umjetne inteligencije. Ako umjetna inteligencija jednog dana postane osjetljiva, možda biste to mogli pokušati učiniti. Do tada, ovo je malo doseg (plus, kakvim bi kaznama ili posljedicama AI bio podvrgnut, pogledajte moju analizu na link ovdje i link ovdje, na primjer).

Ako umjetna inteligencija nije odgovorni osumnjičeni, onda bismo prirodno mogli reći da se koji god čovjek ili ljudi osmislili umjetnu inteligenciju treba smatrati odgovornima. Možete li to učiniti ako je umjetna inteligencija samo pokretala autonomni sustav i pojavili su se neki ljudi koji su to spojili s naoružavanjem? Pratite li programere umjetne inteligencije? Ili oni koji su primijenili AI? Ili samo naoružavajući glumac?

Vjerujem da ste shvatili da sam dotaknuo samo vrh ledenog brijega u svojoj srdačnoj raspravi.

Za sada, idemo naprijed i završimo ovaj diskurs. Možda se sjećate da je John Lyly ušao Euphues: Anatomija duhovitosti 1578. nezaboravno izjavio da je u ljubavi i ratu sve pošteno.

Bi li imao na umu pojavu autonomnih sustava oružja i isto tako pojavu autonomnih sustava koji su naoružani?

Ovo svakako trebamo staviti na vrh naših misli, odmah.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-struggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- oružni-sustavi-i-iskorištavanje-autonomnih-sustava-pokretanih-ai-koji-su-đavolski-naoružani/