Etika umjetne inteligencije i zakon o umjetnoj inteligenciji postavljaju teška pitanja o tom novom obećanju od strane proizvođača plesnih robota koji kažu da će spriječiti AI upotrebu oružja

Možda ste prošli tjedan vidjeli u vijestima ili primijetili na društvenim mrežama najavljeno obećanje nekih proizvođača robota o njihovim deklariranim ciljevima da izbjegnu AI naoružavanje robota opće namjene. Provest ću vas kroz detalje za trenutak, stoga ne brinite ako niste saznali za tu stvar.

Reakcija na ovu objavu bila je brza i, možda kao i obično u našem polariziranom društvu, bila je i pohvalna, a ponekad i podrugljivo kritična ili potpuno gadno skeptična.

To je priča o dva svijeta.

U jednom svijetu neki kažu da je to upravo ono što nam treba odgovoran Programeri AI robota za deklaraciju.

Hvala Bogu što ste na pravoj strani problema koji će postupno postajati sve vidljiviji i zabrinjavajući. Ti simpatični plesni roboti su zabrinjavajući jer ih je prilično lako natjerati da nose oružje i da budu iskorišteni na najgore načine (ovo možete sami provjeriti na društvenim mrežama, a postoji mnoštvo videozapisa koji prikazuju plesne robote naoružane mitraljezima i ostalo naoružanje).

Druga strana ove medalje kaže da je tzv. obećanje ništa više od marketinškog trika ili trika za odnose s javnošću (kao usput, je li netko upoznat s razlikom između obećanja i donacije?). U svakom slučaju, oni koji sumnjaju upozoravaju da je to signaliziranje neobuzdane vrline u kontekstu plesnih robota. Vidite, žaljenje zbog činjenice da se roboti opće namjene mogu naoružati svakako je vrijedno i ozbiljno traženo razmatranje, iako je puka tvrdnja da proizvođač to neće učiniti vjerojatno prazno obećanje, inzistiraju neki.

Sve u svemu, cijela stvar dovodi do prilično velikog skupa razmatranja AI etike i AI zakona. Pedantno ćemo raspakirati temu i vidjeti kako je ovo dvostruki udarac etičke i pravne AI bare. Za moje kontinuirano i opsežno pokrivanje AI etike i AI zakona, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Tijekom ove rasprave također ću se pozivati ​​na svoje prethodne analize opasnosti AI naoružavanja, kao što je moja detaljna procjena na link ovdje. Možda biste željeli pogledati taj diskurs za dodatne detalje iza kulisa.

Otvoreno pismo koje otvara konzervu crva

Započnimo ovu analizu pažljivim korak po korak istraživanjem Otvorenog pisma koje je nedavno objavilo šest relativno dobro poznatih naprednih proizvođača robota, naime Boston Dynamics, Clearpath Robotics, ANYbotics, Agility Robotics, Open Robotics i Unitree. Uglavnom, pretpostavljam da ste uglavnom vidjeli robote Boston Dynamicsa, poput onih koji šepure na sve četiri. Izgledaju kao da su poput pasa i uživamo ih vidjeti kako skaču uokolo.

Kao što sam ranije i opetovano upozoravao, upotreba takvih "plešućih" robota kao sredstva za uvjeravanje šire javnosti da su ti roboti ljupki i preslatki nažalost dovodi u zabludu i vodi u brojne zamke njihovog antropomorfiziranja. Počinjemo razmišljati o ovim stvrdnutim komadima metala i plastike kao da su ekvivalent umiljatog odanog psa. Naša spremnost da prihvatimo ove robote temelji se na lažnom osjećaju sigurnosti i sigurnosti. Naravno, morate zaraditi novac, a izgledi za to se povećavaju paradiranjem oko plesnih robota, ali to nažalost izostavlja ili naizgled skriva stvarnu činjenicu da su ti roboti roboti i da AI koja kontrolira robote može biti krivo osmišljena ili poći po zlu.

Razmotrite ove razgranate umjetne inteligencije (izvadak iz mog članka o korištenju umjetne inteligencije u oružje, koji se nalazi na link ovdje):

  • AI bi mogao naići na pogrešku koja bi ga zalutala
  • AI bi mogao biti preopterećen i blokirati se bez reakcije
  • AI može sadržavati programske pogreške koje uzrokuju nepravilno ponašanje
  • AI bi mogao biti oštećen implantiranim virusom zlotvora
  • AI bi mogli preuzeti cyberhakeri u stvarnom vremenu
  • AI se može smatrati nepredvidljivim zbog složenosti
  • AI bi mogao računalno donijeti "krivu" odluku (relativno)
  • Itd.

To su točke u vezi s umjetnom inteligencijom koja je istinski osmišljena na početku da učini pravu stvar.

Povrh tih razmatranja, morate uključiti AI sustave izrađene od samog početka da rade loše stvari. Možete imati AI koja je napravljena u korisne svrhe, često se naziva AI za dobro. Također možete imati AI koji je namjerno napravljen za loše svrhe, poznat kao AI za loše. Nadalje, možete imati AI za dobro koji je pokvaren ili pretvoren u nastajanje AI za loše.

Uzgred, ništa od ovoga nema nikakve veze s time da umjetna inteligencija postane osjećajna, što spominjem jer neki stalno uzvikuju da je današnja umjetna inteligencija ili osjetljiva ili na rubu toga. Ne tako. Razbijam te mitove u svojoj analizi link ovdje.

Uvjerimo se onda da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Vrsta umjetne inteligencije na koju se fokusiram sastoji se od ne-osjećajne umjetne inteligencije koju imamo danas. Kad bismo htjeli divlje spekulirati o osjećajnoj umjetnoj inteligenciji, ova bi rasprava mogla krenuti u radikalno drugačijem smjeru. Osjećajna umjetna inteligencija bi navodno bila ljudske kvalitete. Trebali biste uzeti u obzir da je AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva umjetna inteligencija na kraju mogla biti pametnija od ljudi (za moje istraživanje superinteligentne umjetne inteligencije kao mogućnosti, pogledajte pokrivenost ovdje).

Čvrsto bih sugerirao da stvari držimo prizemno i razmotrimo današnju računalnu ne-osjećajnu umjetnu inteligenciju.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite vrlo oprezni s antropomorfiziranjem današnje umjetne inteligencije.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, ni programeri umjetne inteligencije možda neće shvatiti što se događa. Tajanstvena matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom biste se nadali i očekivali da će AI programeri testirati potencijalno zakopane pristranosti, iako je to teže nego što se čini. Postoji solidna šansa da će čak i uz relativno opsežno testiranje još uvijek biti pristranosti ugrađene u modele usklađivanja uzoraka ML/DL.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima izrazito značajne implikacije na etiku umjetne inteligencije i nudi zgodan uvid u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj donošenja zakona o umjetnoj inteligenciji.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

U prijašnjim sam kolumnama pokrio različite nacionalne i međunarodne napore u izradi i donošenju zakona koji reguliraju AI, vidi link ovdje, na primjer. Također sam pokrio različita načela i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih naroda kao što je UNESCO-ov set etike AI koji je usvojilo gotovo 200 zemalja, vidi link ovdje.

Evo korisnog temeljnog popisa etičkih AI kriterija ili karakteristika u vezi sa AI sustavima koje sam prethodno pomno istražio:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima umjetne inteligencije, pa čak i onima koji u konačnici postavljaju i održavaju sustave umjetne inteligencije.

Svi dionici tijekom cijelog životnog ciklusa AI-a razvoja i korištenja smatraju se unutar opsega poštivanja uspostavljenih normi Etičke AI-a. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju podliježu pridržavanju etičkih pojmova umjetne inteligencije. Kao što je prethodno naglašeno, potrebno je selo da osmisli i postavi umjetnu inteligenciju, a za to cijelo selo mora biti upućeno i pridržavati se pravila etičke inteligencije.

Sad kad sam postavio korisne temelje za ulazak u Otvoreno pismo, spremni smo zaroniti.

Službeni naslov predmeta Otvorenog pisma je sljedeći:

  • "Otvoreno pismo industriji robotike i našim zajednicama, Roboti opće namjene ne bi se trebali koristiti kao oružje” (prema objavljenom na internetu).

Do sada, tako dobro.

Naslov gotovo izgleda kao sladoled i pita od jabuka. Kako bi itko mogao osporiti ovo kao nekadašnji poziv da se izbjegne naoružavanje AI robota?

Čitajte dalje da vidite.

Prvo, kao temelj za razmatranje, evo službenog uvodnog paragrafa Otvorenog pisma:

  • “Mi smo neke od vodećih svjetskih tvrtki posvećenih uvođenju novih generacija napredne mobilne robotike u društvo. Ove nove generacije robota su pristupačnije, lakše im je upravljati, autonomnije su, pristupačnije i prilagodljivije od prethodnih generacija i sposobni su za navigaciju na lokacijama koje su prije bile nedostupne automatiziranim ili daljinski upravljanim tehnologijama. Vjerujemo da će napredni mobilni roboti pružiti veliku korist društvu kao suradnici u industriji i suputnici u našim domovima” (prema objavljenom na internetu).

Dobra strana pojave ovih vrsta robota je ta što možemo predvidjeti mnoge velike prednosti koje će se pojaviti. Nema sumnje u to. Možda imate robota u svom domu koji može obavljati one aktivnosti poput Jetsona kao što su čišćenje vaše kuće, pranje posuđa i drugi poslovi oko kućanstva. Imat ćemo napredne robote za upotrebu u tvornicama i proizvodnim pogonima. Roboti potencijalno mogu puzati ili manevrirati u tijesnim prostorima, kao što je slučaj kada se zgrada sruši i ljudski životi su u pitanju za spašavanje. I tako dalje.

Na stranu, moglo bi vam biti zanimljivo moje nedavno kritičko izvještavanje o Tesla AI Day-u, na kojem je Elon Musk prikazao neku vrstu hodajućih robota kao budućnost za Teslu i društvo, vidi link ovdje.

Natrag na stvar koja je pri ruci. Kada ozbiljno razgovaramo o plesnim robotima ili hodajućim robotima, moramo pažljivo uzeti u obzir kompromise ili ukupni ROI (povrat ulaganja) ove upotrebe umjetne inteligencije. Ne bismo smjeli dopustiti da se pretjerano zanesemo prednostima kada postoje i troškovi koje treba uzeti u obzir.

Sjajna nova igračka može imati prilično oštre rubove.

Sve ovo potiče važnu, ali pomalo prešutnu tvrdnju da je dio razloga zbog kojeg se sada pojavljuje problem AI naoružavanja zbog napretka AI prema autonomnim aktivnostima. Obično smo očekivali da oružjem općenito upravljaju ljudi. Čovjek odlučuje hoće li pucati ili pucati iz oružja. Vjerojatno možemo smatrati tog čovjeka odgovornim za svoje postupke.

Umjetna inteligencija koja je osmišljena da radi autonomno ili koja se može prevariti da to učini naizgled bi uklonila čovjeka iz petlje. AI tada algoritamski donosi računalne odluke koje mogu završiti ubijanjem ili ozljeđivanjem ljudi. Osim očite zabrinutosti o nedostatku kontrole nad umjetnom inteligencijom, također imate grižnju savjesti da bi nam moglo biti teško pripisati odgovornost za radnje umjetne inteligencije. Nemamo čovjeka koji nam je očiti pokretač.

Shvaćam da neki vjeruju da bismo trebali jednostavno i izravno smatrati AI odgovornom za svoje postupke, kao da je AI stekao osjećaj ili na neki drugi način dobio status pravne osobe (pogledajte moj izvještaj o raspravama o stjecanju AI-ja kao pravne osobe na link ovdje). To za sada neće ići. Morat ćemo pronaći AI do ljudi koji su je osmislili ili postavili. Oni će nedvojbeno pokušati legalno izbjeći odgovornost pokušavajući tvrditi da je AI otišao dalje od onoga što su zamislili. Ovo je rastuća tvrdnja s kojom se moramo pozabaviti (pogledajte moje tekstove o AI zakonu za uvid u sporna pitanja koja su uključena).

Ujedinjeni narodi (UN) putem Konvencije o određenim konvencionalnim oružjima (CCW) u Ženevi uspostavili su jedanaest neobvezujućih vodećih načela o smrtonosnom autonomnom oružju, prema službenom izvješću objavljenom na internetu (obuhvata reference na relevantno međunarodno humanitarno pravo ili odredbe međunarodnog humanitarnog prava) , uključujući:

(a) Međunarodno humanitarno pravo nastavlja se u potpunosti primjenjivati ​​na sve sustave oružja, uključujući potencijalni razvoj i upotrebu smrtonosnih autonomnih sustava oružja;

(b) Ljudska odgovornost za odluke o korištenju sustava oružja mora se zadržati budući da se odgovornost ne može prenijeti na strojeve. Ovo treba uzeti u obzir kroz cijeli životni ciklus oružanog sustava;

(c) Interakcija čovjek-stroj, koja može imati različite oblike i implementirati se u različitim fazama životnog ciklusa oružja, trebala bi osigurati da potencijalna uporaba sustava oružja temeljenih na novim tehnologijama u području smrtonosnih autonomnih sustava oružja bude u usklađenost s primjenjivim međunarodnim pravom, posebice međunarodnim humanitarnim pravom. U određivanju kvalitete i opsega interakcije čovjek-stroj treba uzeti u obzir niz čimbenika uključujući operativni kontekst, te karakteristike i sposobnosti oružanog sustava u cjelini;

(d) Odgovornost za razvoj, postavljanje i korištenje bilo kojeg novog sustava naoružanja u okviru CCW-a mora biti osigurana u skladu s primjenjivim međunarodnim pravom, uključujući djelovanje takvih sustava unutar odgovornog lanca ljudskog zapovijedanja i kontrole;

(e) U skladu s obvezama država prema međunarodnom pravu, u proučavanju, razvoju, nabavi ili usvajanju novog oružja, sredstva ili metode ratovanja, mora se utvrditi hoće li njegova uporaba, u nekim ili svim okolnostima, biti zabranjeno međunarodnim pravom;

(f) Prilikom razvoja ili nabave novih sustava oružja temeljenih na novim tehnologijama u području smrtonosnih autonomnih sustava oružja, fizičke sigurnosti, odgovarajućih nefizičkih zaštitnih mjera (uključujući kibernetičku sigurnost od hakiranja ili lažiranja podataka), rizik od nabave od strane terorističkih skupina i rizik od proliferacije treba uzeti u obzir;

(g) Procjene rizika i mjere za ublažavanje trebaju biti dio ciklusa projektiranja, razvoja, testiranja i postavljanja novih tehnologija u bilo kojem sustavu oružja;

(h) Trebalo bi razmotriti korištenje novih tehnologija u području smrtonosnih autonomnih oružanih sustava u održavanju usklađenosti s međunarodnim humanitarnim pravom i drugim primjenjivim međunarodnim pravnim obvezama;

(i) U izradi potencijalnih mjera politike, nove tehnologije u području smrtonosnih autonomnih sustava oružja ne bi trebale biti antropomorfizirane;

(j) Rasprave i sve potencijalne političke mjere poduzete u kontekstu KKO ne bi trebale kočiti napredak ili pristup mirnodopskim upotrebama inteligentnih autonomnih tehnologija;

(k) CCW nudi odgovarajući okvir za rješavanje pitanja novih tehnologija u području smrtonosnih autonomnih oružanih sustava u kontekstu ciljeva i svrha Konvencije, koja nastoji uspostaviti ravnotežu između vojne nužnosti i humanitarnih razloga.

Ovi i drugi razni ratni zakoni i zakoni oružanih sukoba, ili IHL (Međunarodni humanitarni zakoni) služe kao vitalan i uvijek obećavajući vodič za razmatranje što bismo mogli pokušati učiniti u vezi s dolaskom autonomnih sustava koji su naoružani, bilo ključnim kamenom dizajnom ili naknadnim metodama.

Neki kažu da bismo trebali izravno zabraniti one autonomne sustave umjetne inteligencije koji se mogu koristiti kao oružje. Tako je, svijet bi trebao stati na noge i oštro zahtijevati da autonomni sustavi umjetne inteligencije nikada ne budu naoružani. Treba uvesti potpunu zabranu. Kraj priče. Točka, točka.

Pa, možemo iskreno željeti da se zabrana autonomnih sustava sa smrtonosnim oružjem strogo i poslušno poštuje. Problem je u tome što se mnogo prostora za migoljenje sigurno može naći unutar bilo koje od najiskrenijih zabrana. Kako kažu, pravila su stvorena da se krše. Možete se kladiti da će tamo gdje su stvari labave, riffraff pronaći praznine i pokušati zaobići pravila.

Evo nekih potencijalnih rupa u zakonu vrijednih razmatranja:

  • Tvrdnje o nesmrtonosnosti. Napravite nesmrtonosne autonomne sustave oružja (naizgled u redu budući da je izvan granice zabrane), koje možete za sitniš pretvoriti u smrtonosne (tek ćete biti izvan zabrane u posljednjem trenutku).
  • Zahtjevi samo za autonomni sustav. Podržavajte zabranu tako što nećete proizvoditi autonomne sustave usmjerene na smrtonosne napade, au međuvremenu ostvarite što veći napredak u osmišljavanju svakodnevnih autonomnih sustava koji (još) nisu naoružani, ali koje možete za sitniš naknadno ugraditi u oružje.
  • Tvrdnje da nisu integrirani kao jedan. Izradite autonomne sustave koji uopće nisu opremljeni oružjem, a kada dođe vrijeme, pokušajte žestoko tvrditi da su to dva odvojena elementa i stoga tvrditi da ne spadaju u rubriku sve-u-jednom, kada dođe vrijeme. autonomni oružani sustav ili njegov rođak.
  • Tvrdi da nije autonoman. Napravite oružani sustav za koji se ne čini da ima autonomne kapacitete. Ostavite mjesta u ovom navodno neautonomnom sustavu za ubacivanje autonomije temeljene na umjetnoj inteligenciji. Po potrebi uključite autonomiju i spremni ste za pokret (do tada, naizgled, niste kršili zabranu).
  • drugo

Postoji mnogo drugih izraženih poteškoća s pokušajima potpune zabrane smrtonosnih autonomnih oružanih sustava. Pokrit ću još nekoliko njih.

Neki stručnjaci tvrde da zabrana nije osobito korisna i da bi umjesto toga trebale postojati regulatorne odredbe. Ideja je da će te naprave biti dopuštene, ali pod strogim nadzorom policije. Izložena je litanija zakonitih uporaba, zajedno s zakonitim načinima ciljanja, zakonitim vrstama sposobnosti, zakonitom proporcionalnošću i slično.

Po njihovom mišljenju, izravna zabrana je poput guranja glave u pijesak i pretvaranja da slon u sobi ne postoji. Ova tvrdnja, međutim, izaziva uzavrelu krv onih koji se suprotstavljaju argumentom da uvođenjem zabrane možete dramatično smanjiti iskušenje koje inače postoji u nastojanju da se provode ovakvi sustavi. Naravno, neki će se razmetati zabranom, ali barem se nadamo da većina neće. Tada možete usmjeriti svoju pozornost na razmetalice i ne morate usmjeravati pozornost na sve.

Te rasprave se vrte ukrug.

Još jedna zabrinutost koja se često spominje jest da čak i ako se dobri pridržavaju zabrane, zli neće. Ovo dobre stavlja u loš položaj. Loši će imati ovakve autonomne sustave s oružjem, a dobri neće. Jednom kada se stvari otkriju da su loši u njima, bit će prekasno da ih dobri sustignu. Ukratko, jedina mudra stvar koju treba učiniti je pripremiti se za borbu protiv vatre vatrom.

Tu je i klasična rasprava o odvraćanju. Ako se dobri odluče napraviti autonomne sustave s oružjem, to se može iskoristiti za odvraćanje loših od pokušaja ulaska u sukob. Ili će se dobri bolje naoružati i tako razuvjeriti loše, ili će dobri biti spremni kada loši možda otkriju da su cijelo vrijeme potajno smišljali te sustave.

Kontra ovim kontrama je da stvaranjem autonomnih sustava s oružjem vodite utrku u naoružanju. Druga strana će tražiti isto. Čak i ako su tehnološki nesposobni iznova stvoriti takve sustave, sada će moći ukrasti planove onih "dobrih", izvršiti obrnuti inženjering utrobe visoke tehnologije ili oponašati sve što im se čini da vide kao isprobano način da obavite posao.

Aha, neka replika, sve bi to moglo dovesti do smanjenja sukoba na privid obostranog. Ako strana A zna da strana B ima ta smrtonosna oružja autonomnih sustava, a strana B zna da ih strana A ima, mogli bi mirno sjediti i ne dolaziti do sukoba. Ovo ima onu posebnu auru vibracija uzajamno osiguranog uništenja (MAD).

I tako dalje.

Pažljivo gledajući drugi odlomak

Ovdje smo već pokrili dosta toga i do sada smo razmotrili samo prvi ili uvodni odlomak Otvorenog pisma (ukupno su četiri odlomka).

Vrijeme je da pogledate drugi odlomak, evo ga:

  • “Kao i kod svake nove tehnologije koja nudi nove mogućnosti, pojava naprednih mobilnih robota nudi mogućnost zlouporabe. Nepouzdani ljudi mogli bi ih upotrijebiti za kršenje građanskih prava ili za prijetnje, ozljeđivanje ili zastrašivanje drugih. Jedno područje od posebne zabrinutosti je naoružavanje. Vjerujemo da dodavanje oružja robotima kojima se upravlja daljinski ili autonomno, široko dostupnim javnosti i sposobnima za navigaciju do prethodno nedostupnih lokacija na kojima ljudi žive i rade, povećava nove rizike od štete i ozbiljne etičke probleme. Primjene ovih novih robota s oružjem također će naštetiti povjerenju javnosti u tehnologiju na načine koji će oštetiti golemu korist koju će donijeti društvu. Iz tih razloga ne podržavamo postavljanje naših robota opće namjene napredne mobilnosti u oružje. Za one od nas koji smo govorili o ovom pitanju u prošlosti, i one koji se prvi put bave ovim pitanjem, sada osjećamo novu hitnost u svjetlu sve veće zabrinutosti javnosti posljednjih mjeseci uzrokovane malim brojem ljudi koji su vidljivo objavili svoje improvizirane nastojanja da se komercijalno dostupni roboti pretvore u oružje” (prema objavljenom na internetu).

Čitajući taj drugi odlomak, nadam se da možete vidjeti kako moj raniji govor ovdje o AI naoružavanju dolazi do izražaja.

Ispitajmo nekoliko dodatnih točaka.

Jedna pomalo zabrinutost u vezi s određenim aspektom formulacije koji je kod nekih izazvao smutnju je to što se čini da priča naglašava da bi "nepouzdani ljudi" mogli zloupotrijebiti ove AI robote. Da, doista, loši ljudi ili zlikovci mogu počiniti podla djela koja će "zloupotrijebiti" AI robote.

U isto vrijeme, kao što je istaknuto na početku ove rasprave, također moramo razjasniti da bi sama umjetna inteligencija mogla poći po zlu, vjerojatno zbog ugrađenih grešaka ili grešaka i drugih sličnih komplikacija. Izražena je zabrinutost da se samo naglašavaju šanse za nepovjerljivi ljudi je da se čini da zanemaruje druge nepovoljne mogućnosti. Iako većina tvrtki i dobavljača umjetne inteligencije to ne želi priznati, postoji mnoštvo problema sa sustavima umjetne inteligencije koji mogu ugroziti sigurnost i pouzdanost autonomnih sustava. Za moje pokrivanje sigurnosti umjetne inteligencije i potrebe za rigoroznim i dokazivim zaštitnim mjerama, pogledajte link ovdje, Na primjer.

Još jedna značajna točka koja se pojavila među onima koji su ispitali Otvoreno pismo uključuje uključenu tvrdnju da bi moglo završiti potkopavanjem povjerenja javnosti povezanog s AI robotima.

S jedne strane, ovo je valjana tvrdnja. Ako se roboti s umjetnom inteligencijom koriste za zlobne ponude, možete se kladiti da će javnost biti prilično uznemirena. Kad se javnost uzbudi, možete se kladiti da će zakonodavci skočiti u pohod i nastojati donijeti zakone koji ograničavaju AI robote i proizvođače AI robota. To bi zauzvrat moglo osakatiti robotsku industriju umjetne inteligencije ako zakoni budu sveobuhvatni i prekinu napore koji uključuju prednosti robotske inteligencije. U određenom smislu, beba bi mogla biti izbačena zajedno s vodom za kupanje (stari izraz koji vjerojatno zaslužuje mirovinu).

Očigledno pitanje koje se također postavlja jest je li ova tvrdnja o sprječavanju smanjenja povjerenja javnosti u AI robote pomalo sebičan kredo ili je za dobrobit svih nas (može li biti oboje?).

Ti odluči.

Sada dolazimo do posebno oštrog dijela Otvorenog pisma:

  • “Obvezujemo se da nećemo koristiti naše robote opće namjene za naprednu mobilnost ili softver koji razvijamo koji omogućuje naprednu robotiku kao oružje i nećemo podržati druge da to učine. Kad je to moguće, pažljivo ćemo pregledati namjeravane aplikacije naših kupaca kako bismo izbjegli potencijalno korištenje oružjem. Također se obvezujemo da ćemo istražiti razvoj tehnoloških značajki koje bi mogle ublažiti ili smanjiti ove rizike. Da budemo jasni, ne dovodimo u pitanje postojeće tehnologije koje nacije i njihove vladine agencije koriste da se obrane i poštuju svoje zakone” (prema objavljenom na internetu).

Možemo ovo raspakirati.

Sjednite i pripremite se u skladu s tim.

Jeste li spremni za vatrenu polarizaciju?

S pozitivne strane, neki glasno najavljuju da bi ovi proizvođači AI robota dali takvo obećanje. Čini se da će ovi proizvođači robota na svu sreću nastojati ne staviti svoje robote "opće namjene napredne mobilnosti" u oružje. Osim toga, u Otvorenom pismu stoji da neće podržati druge koji to učine.

Kritičari se pitaju događa li se neko pametno kovanje riječi.

Na primjer, gdje počinje i završava "napredna mobilnost"? Ako proizvođač robota smišlja a jednostavan-mobility AI robot, a ne napredni (što je nedefinirani dio tehničkog žargona), biva li to isključeno iz opsega onoga što će ne biti naoružan? Prema tome, očito je u redu staviti u oružje jednostavne pokretne AI robote, sve dok oni nisu tzv. napredan.

Isto vrijedi i za izraz roboti opće namjene. Ako je AI robot osmišljen posebno za naoružavanje i stoga nije, reći ćemo a Opća namjena robot, postaje li to održivo isključenje iz opsega?

Mogli biste prigovarati s tim prigovaranjem i gorljivo tvrditi da je ovo samo Otvoreno pismo, a ne pravni dokument od pedeset stranica koji opisuje svaki kutak i pukotinu.

To nas dovodi do naizgled više zabrinutosti na makrorazini koju su neki izrazili. U biti, što označava "zalog"?

Neki pitaju, gdje je govedina?

Tvrtka koja daje ovakvo obećanje čini to naizgled bez istinskog udjela u igri. Ako čelnici bilo koje tvrtke koja se prijavi za ovo obećanje odluči više ne poštovati obećanje, što će se dogoditi s tom tvrtkom? Hoće li rukovoditelji biti izbačeni po kratkom postupku? Hoće li se tvrtka zatvoriti i obilno se ispričati za kršenje obećanja? I tako dalje.

Koliko se može zaključiti, ne postoji posebna kazna ili kazna za bilo kakvo kršenje zaloga.

Mogli biste tvrditi da postoji mogućnost štete po ugled. Tvrtka koja daje zalog mogla bi biti oštećena na tržištu jer je dala zalog kojeg se više nije pridržavala. Naravno, ovo također pretpostavlja da će se ljudi sjećati da je zavjet dat. Također pretpostavlja da će kršenje jamstva biti nekako otkriveno (izrazito se čini malo vjerojatnim da će tvrtka reći sve ako to učini). Prekršitelja obećanja trebalo bi prozvati, a ipak bi takav problem mogao postati samo buka u tekućem tsunamiju vijesti o proizvođačima AI robotike.

Razmotrite drugi kut koji se pojavio.

Založnu tvrtku kupi neka veća tvrtka. Veća tvrtka odlučila je početi pretvarati robote opće namjene napredne mobilnosti u verzije s oružjem AI-ja.

Je li to kršenje zavjeta?

Veća tvrtka može inzistirati na tome da to nije kršenje budući da ona (veća tvrtka) nikad nije obećala. U međuvremenu, bezopasni AI roboti koje je manja tvrtka sastavila i osmislila, čineći to s naizgled najaltruističnijim namjerama, gotovo su preko noći pretvoreni u oružje.

Na neki način potkopava obećanje, iako biste mogli reći da manja tvrtka nije znala da će se to jednog dana dogoditi. Bili su ozbiljni u svojoj želji. Bilo je izvan njihove kontrole što se veće tvrtke za kupnju odlučilo učiniti.

Neki se pitaju i ima li tu zakonske odgovornosti.

Založna tvrtka odluči za nekoliko mjeseci da neće ispuniti zalog. Predomislili su se. Može li se tvrtka tužiti zbog odustajanja od zaloga koji je dala? Tko bi tužio? Što bi bila osnova za tužbu? Pojavljuje se niz pravnih pitanja. Kako kažu, možete tužiti gotovo svakoga, ali hoćete li pobijediti, sasvim je druga stvar.

Razmislite o ovome na drugi način. Tvrtka koja obećava dobiva priliku sklopiti stvarno veliki posao i prodati čitavu hrpu svojih robota opće namjene s naprednom mobilnošću ogromnoj tvrtki koja je spremna platiti na nos kako bi dobila robote. To je jedan od onih kupoprodajnih poslova od milijun dolara koji se dogode jednom u životu.

Što bi tvrtka za AI robotiku trebala učiniti?

Ako se jamči tvrtka za robotiku umjetne inteligencije javno trguje, oni bi gotovo sigurno ciljali na prodaju (isto bi se moglo reći za tvrtku u privatnom vlasništvu, iako ne baš tako). Zamislite da je tvrtka koja daje zalog zabrinuta da bi kupac mogao pokušati pretvoriti robote u oružje, iako recimo da o tome nema takve rasprave. Samo se šuška da bi kupac to mogao učiniti.

U skladu s tim, obećana tvrtka stavlja u svoju licencu da se roboti ne smiju koristiti kao oružje. Kupac odbija ovaj jezik i odustaje od kupnje.

Od kolike je zarade tvrtka za robotiku umjetne inteligencije upravo otišla?

Postoji li točka u kojoj stvarna dobit nadmašuje uključivanje zahtjeva za ograničenje licenciranja (ili, možda zakonski formulirano ograničenje kako bi se omogućio prostor za pomicanje i ipak sklopio posao)? Mislim da možete vidjeti dilemu koja je uključena. Tone takvih scenarija se lako dočaraju. Pitanje je hoće li ovaj zalog imati zube. Ako da, kakvi zubi?

Ukratko, kao što je spomenuto na početku ove rasprave, neki su oduševljeni činjenicom da se ova vrsta obećanja daje, dok drugi imaju nejasniji stav o tome hoće li obećanje držati vodu.

Idemo dalje.

Dobivanje obećanja

Četvrti i posljednji paragraf Otvorenog pisma kaže sljedeće:

  • “Razumijemo da naša predanost sama po sebi nije dovoljna za potpuno rješavanje ovih rizika i stoga pozivamo kreatore politike da surađuju s nama na promicanju sigurne upotrebe ovih robota i zabrani njihove zlouporabe. Također pozivamo sve organizacije, programere, istraživače i korisnike u robotičkoj zajednici da daju slična obećanja da neće graditi, autorizirati, podržavati ili omogućiti pričvršćivanje oružja na takve robote. Uvjereni smo da dobrobiti ovih tehnologija za čovječanstvo snažno nadmašuju rizik zlouporabe i uzbuđeni smo zbog svijetle budućnosti u kojoj ljudi i roboti rade rame uz rame kako bi se uhvatili u koštac s nekim od svjetskih izazova” (prema objavljenom na internetu).

Ovaj posljednji dio Otvorenog pisma ima nekoliko dodatnih elemenata koji su izazvali bijes.

Pozivanje na kreatore politike može biti dobro ili loše, tvrde neki. Mogli biste dobiti kreatore politike koji nisu upućeni u te stvari da onda rade klasičnu žurbu s prosudbom i zanatu zakona i propisa koji uzurpiraju napredak robota s umjetnom inteligencijom. Prema onome što smo ranije spomenuli, možda će inovacija koja pospješuje napredak AI robota biti poremećena ili zgažena.

Bolje budite sigurni da znate što tražite, kažu kritičari.

Naravno, protuargument je da narativ jasno kaže da kreatori politika trebaju surađivati ​​s tvrtkama koje se bave robotikom umjetne inteligencije kako bi smislili kako vjerojatno razumno donijeti takve zakone i propise. Suprotan protuargumentu je da bi kreatore politike moglo smatrati obožavateljima tvoraca AI robotike ako udovoljavaju njihovim hirovima. Kontra protuargumentu je da je prirodno nužno raditi s onima koji znaju o tehnologiji, inače će ishod potencijalno biti loš. itd.

Na temelju možda prigovaranja, neki su imali žgaravicu zbog linije koja poziva sve da daju slična obećanja da neće pričvršćivanje oružja do robota opće namjene napredne mobilnosti. Tamo je ključna riječ riječ pričvršćivanje. Ako netko izrađuje AI robota koji uključuje ili neprimjetno ugrađuje oružje, čini se da to zaobilazi formulaciju pričvršćivanje nešto. Sada možete vidjeti, netko žestoko tvrdi da oružje nije pričvršćeno, ono je u potpunosti sastavni dio AI robota. Prebolite to, uzvikuju, mi nismo u okviru tog obećanja, a mogli su i reći da jesu.

Ovo dovodi do još jedne pritužbe o nedostatku ljepljivosti zaloga.

Može li se tvrtka ili bilo tko tko se odluči na ovaj zalog proglasiti nezaloženim u bilo kojem trenutku da to želi učiniti i iz bilo kojeg razloga tako želi?

Očigledno je tako.

Puno je naklapanja oko obećanja i kakvu im snagu privlače.

Zaključak

Joj, mogli biste reći, ove tvrtke koje pokušavaju učiniti pravu stvar dobivaju kritike jer pokušavaju učiniti pravu stvar.

Što se dogodilo s našim svijetom?

Svatko tko se tako zavjetuje trebao bi imati koristi od sumnje, mogli biste strastveno tvrditi. Oni izlaze u javnu sferu kako bi dali hrabar i vitalan doprinos. Ako ih počnemo blatiti zbog toga, to će sigurno pogoršati stvari. Nitko neće htjeti dati takav zalog. Tvrtke i ostali neće ni pokušati. Oni će se sakriti i neće upozoriti društvo o tome u što se ti dragi plesni roboti mogu opasno pretvoriti.

Skeptici izjavljuju da način da se društvo opameti uključuje druge radnje, kao što je odustajanje od maštovitog čina izlaganja veselih plesnih AI robota. Ili ga barem učinite uravnoteženijim. Na primjer, umjesto da samo oponašate omiljene pse odane kućnim ljubimcima, ilustrirajte kako roboti koji plešu mogu biti sličniji divljim spuštenim ljutitim vukovima koji mogu rastrgati ljude na komadiće bez imalo oklijevanja.

To će privući više pažnje nego obećanja, mole.

Obećanja nedvojbeno mogu biti poprilična zagonetka.

Kao što je Mahatma Gandhi rječito rekao: "Bez obzira na to koliko je obećanje eksplicitno, ljudi će okrenuti i izvrtati tekst kako bi odgovarao vlastitoj svrsi."

Možda da zaključimo ovo na ohrabrujućoj noti, Thomas Jefferson je rekao ovo o zavjetima: "Uzajamno obećavamo jedni drugima naše živote, naše bogatstvo i našu svetu čast."

Kada je riječ o AI robotima, njihovoj autonomiji, njihovom naoružavanju i slično, svi ćemo u konačnici biti zajedno u ovome. Naše zajedničko obećanje treba barem biti da ćemo ove stvari držati u prvom planu, nastojat ćemo pronaći načine da se nosimo s ovim napretkom i nekako pronaći put prema osiguranju naše časti, bogatstva i života.

Možemo li se založiti za to?

Nadam se.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pledge-by-dancing- proizvođači-robota-kažu-da-će-spriječiti-ai-naoružavanje/