Etika umjetne inteligencije uznemirena posljednjom potvrdom prepoznavanja lica AI-ja koju je osmislila stranačka lojalnost AI koja bi mogla nagovijestiti opresivne autonomne sustave

Jeste li lojalni?

U teoriji, moglo bi biti moguće ispitati vaša otvorena djela i utvrditi pokazuje li se vašim djelima odanost.

Pretpostavimo ipak da je umjesto toga došlo do pokušaja čitanja vaših misli, au međuvremenu skeniranja vašeg lica kako bi se odredio vaš kvocijent lojalnosti. Ovo je jezivo nametljivo; mogli biste spremno osuditi. Zvuči kao jedan od onih ludih znanstveno-fantastičnih filmova koji predviđaju buduće distopijsko društvo.

Srećom, krišom si šapućeš, danas nemamo ništa takvo.

Vau, držite konje.

Naslovi vijesti nedavno su razglasili da je istraživački rad objavljen na internetu u Kini 1. srpnja 2022. opisao studiju koja je navodno uključivala procjenu moždanih valova ljudi i njihovih izraza lica u svrhu izračunavanja jesu li lojalni Kineskoj komunističkoj partiji (KPK) . Dakle, eto, budućnost je sve bliža i bliža, barem u smislu postizanja distopijskog društva za koje smo strahovali da bi jednog dana moglo nastati.

Istraživački je rad brzo nestao s poveznice objavljene na internetu.

Vjerojatno je brzi prijezir koji se brzo proširio internetom bio dovoljan da se papir ukloni. Ili, možda istraživači samo žele unijeti nekoliko izmjena u tekstu i druge bezazlene ispravke, s ciljem ponovnog objavljivanja nakon što su imali detaljniju priliku da osiguraju da su i-ovi točkasti, a t-ovi prekriženi. Morat ćemo držati oči otvorene da vidimo hoće li papir dobiti drugi život.

Nastavit ću i duboko zaroniti u ono što znamo o istraživačkoj studiji i pokušati povezati točke o tome kako ova vrsta rada vezanog uz umjetnu inteligenciju ima značaj za sve nas, idući daleko izvan opsega gledanja ovoga kao ograničen na jednu određenu zemlju. Moje će izvješćivanje biti malo opsežnije od ostalih nedavnih izvješća o ovoj vijesti vrijednoj vijesti, pa vas molim da budete strpljivi.

I ja ću dodatno naglasiti da postoji mnoštvo vitalnih lekcija o etici umjetne inteligencije koje možemo izvući iz navodnog papira. Za moje kontinuirano i opsežno pokrivanje AI etike i Etičke AI, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Evo što je do sada spomenuto o istraživačkoj studiji.

Očigledno, neki "dobrovoljci" su bili angažirani da sudjeluju u eksperimentu koji se odnosi na percepciju KPK. Nije poznato jesu li bili voljni dobrovoljci ili više slični potaknutim ili možda vođenim dobrovoljcima. Pretpostavit ćemo radi rasprave da su bili suglasni s time da budu subjekt u studiji.

Pominjem ovo da ne budem samo vrijedan. Kad god se provodi eksperiment koji uključuje ljudske subjekte, postoji mnoštvo općeprihvaćenih praksi u vezi s regrutiranjem i uključivanjem takvih subjekata u istraživački napor. Ovo djelomično potječe iz prijašnjih studija koje su često prevarile ili prisilile ljude da se uključe u eksperiment, što je ponekad dovodilo do negativnih psiholoških posljedica ili čak fizičkih ozljeda za te sudionike. Znanstvena zajednica snažno je pokušala ograničiti te vrste podmuklih studija i zahtijeva da se daju sve vrste otkrivanja i upozorenja onima za koje se traži da budu uključeni u studije povezane s ljudima.

Da pojasnimo, ne pridržavaju se svi tako razboritih i savjesnih smjernica.

Idemo dalje, navodno je bilo 43 subjekta, a rečeno je da su bili članovi Komunističke partije Kine. Imajte na umu da je odabir subjekata za eksperiment vrlo bitan za eksperiment i da se također mora uzeti u obzir u vezi sa svim zaključcima do kojih biste mogli kasnije pokušati doći o rezultatima eksperimenta.

Pretpostavimo da želim napraviti eksperiment o tome kako ljudi percipiraju hvaljenu seriju Ratovi zvijezda. Ako unaprijed odaberem subjekte koji svi silno mrze Ratove zvijezda (kako takvi ljudi mogu postojati?), i pokažem im videoisječke Ratova zvijezda, velika je vjerojatnost da će vjerojatno reći da još uvijek ne vole Ratove zvijezda. Na temelju ovog pseudo-znanstvenog eksperimenta, možda prikriveno tvrdim da ljudi - općenito - stvarno mrze Ratove zvijezda, što je "dokazano" (mig-mig) u mom "pomno" pripremljenom istraživačkom okruženju.

Možda ne znate da sam namjestio rulet, takoreći, unaprijed odabravši predmete za koje sam očekivao da će dati moje potajno željene rezultate. Naravno, da sam umjesto toga namjerno regrutirao ljude koji su voljeli Ratove zvijezda i bili gorljivi obožavatelji, velike su šanse da bi izjavili da su oduševljeni gledanjem tih isječaka Ratova zvijezda. Opet, svi zaključci doneseni o tome kako ljudi, općenito, reagiraju na Ratove zvijezda bili bi ublaženi unaprijed odabranim skupom tema odabranih za napore.

Studija usmjerena na KPK naizgled je imala subjekte koji su sjedili ispred video zaslona nalik kiosku i čitali razne članke o politici i postignućima KPK. Ovo se vjerojatno smatra "eksperimentalnim tretmanom" kojem su subjekti izloženi. Kada planirate eksperiment, obično smislite eksperimentalni čimbenik ili aspekt za koji želite vidjeti utječe li na sudionike.

Istraživačko pitanje koje se očito istraživalo bilo je hoće li čin pregledavanja ovih materijala imati bilo kakav utjecaj na subjekte u smislu povećanja, smanjenja ili neutralnosti u pogledu njihovih naknadnih dojmova o KPK.

U klasičnoj nultoj hipotezi, možete organizirati takvo istraživanje kako biste izjavili da utrošeni materijali nemaju utjecaja na naknadne dojmove ispitanika. Nakon što ste izvršili usporedbu prije i poslije njihovih stajališta o CCP-u, statistički biste pokušali vidjeti je li došlo do statistički značajnog otkrivanja promjene u njihovim dojmovima.

Moguće je da prije i poslije nisu statistički različiti, stoga biste mogli razumno provizorno zaključiti da za ovu određenu studiju prikazani materijali (eksperimentalni tretman) nisu činili razliku u svojim dojmovima. S druge strane, ako postoji statistički valjana razlika, tražili biste da vidite je li poslije bio veći od prethodnog, što bi vam omogućilo da oprezno sugerirate da su materijali pojačali njihove dojmove (i, s druge strane medalje, ako poslije je bilo manje nego prije, što bi moglo značiti da su materijali smanjili ili smanjili svoje dojmove).

Postoji mnogo mučnih labavih završetaka s kojima bi se trebalo pozabaviti u takvoj studiji.

Na primjer, obično želimo imati takozvanu kontrolnu skupinu koju možemo usporediti s onima koji primaju eksperimentalni tretman. Evo zašto. Pretpostavimo da je čin sjedenja ispred kioska radi čitanja materijala bio pravi temelj zašto su se dojmovi promijenili. Moguće je da je priroda utrošenih materijala ugrubo nebitna za učinak otiska. Puko sjedenje i čitanje bilo čega, poput najnovijih priča o mačkama koje rade smiješne stvari, samo po sebi može pomoći. Stoga možemo dogovoriti da neki subjekti budu u našoj kontrolnoj skupini koja je izložena nekom drugom materijalu za čitanje, osim CCP politika i materijala o postignućima.

Ne znamo je li to učinjeno u ovom slučaju (čini se da još nitko nije spomenuo ovaj aspekt).

Shvaćam da ste već postali nervozni zbog medijski eksplozivnog dijela studije. Preći ćemo ekspresno na taj dio.

Kako bismo mogli otkriti jesu li subjekti u ovom eksperimentu odgovorili ili promijenili svoje dojmove kao rezultat čitanja prikazanih materijala?

Uobičajen način bi bio da ih pitate.

Možda biste prethodno ispunili upitnik koji bi ih pitao za njihove dojmove o KPK. Zatim, nakon izlaganja eksperimentalnom tretmanu, kao kod čitanja materijala koji se prikazuju, mogli bismo administrirati još jedan upitnik. Tada se mogu usporediti odgovori koje su ispitanici dali prije i poslije. Da smo također koristili kontrolnu skupinu, pretpostavili bismo da se odgovori kontrolne grupe ne bi značajno promijenili od prije do poslije (pod uvjerenjem da gledanje priča o brbljavim mačkama nije trebalo utjecati na njihove CCP dojmove).

Ovaj čin pitanja ispitanika za njihove dojmove nije nužno tako jednostavan kao što se može činiti.

Pretpostavimo da subjekti u eksperimentu imaju osjećaj ili sveukupni pomak da želite da na eksperimentalni tretman odgovore na određeni način. U tom slučaju, mogli bi namjerno prenaglasiti svoje reakcije u dijelu nakon eksperimentalne primjene. Sigurno ste vidjeli ovo što se dogodilo. Ako radim test okusa za novi sok koji dolazi na tržište, mogao bih se ponašati kao da sam divlje uživao u gaziranom sodu, čineći to u nadi da ću se možda pojaviti u reklami proizvođača soda i dobiti svojih zasluženih petnaest minuta slave .

Bit je da samo pitati ljude za njihova mišljenja nije siguran način mjerenja promjena. To je jedan pristup. Drugi pristupi bi se mogli i često se poduzimaju.

Kako je ova studija odlučila procijeniti reakcije ispitanika?

Očito su korištene najmanje dvije metode. Jedna se metoda sastojala od skeniranja lica i korištenja softvera za prepoznavanje lica temeljenog na umjetnoj inteligenciji za procjenu reakcija subjekata. Druga metoda navodno je bio neki oblik skeniranja moždanih valova. Još uvijek nije objavljeno koja je vrsta uređaja za skeniranje moždanih valova korištena, niti kakav softver za analizu moždanih valova temeljen na umjetnoj inteligenciji je korišten.

Različita izvješća pokazuju da je studija o prirodi eksperimenta izjavila sljedeće: "S jedne strane, može prosuditi kako su članovi stranke prihvatili mišljenje i političko obrazovanje." A studija je navodno također spomenula ovo: "S druge strane, pružit će stvarne podatke za misaono i političko obrazovanje kako bi se moglo poboljšati i obogatiti." Pripisano je da je istraživanje provedeno pod pokroviteljstvom kineskog Hefei Comprehensive National Science Centre.

Medijska izvješća sugeriraju da je studija aludirala na tvrdnju da su skenovi prepoznavanja lica i skenovi moždanih valova mogli pomoći u otkrivanju da su naknadni dojmovi o KPK pojačani.

Želio bih napomenuti da bez mogućnosti izravnog pregleda korištenih sustava i pomnog proučavanja istraživačkog rada, ne znamo pojedinosti o tome kako su ti sustavi temeljeni na umjetnoj inteligenciji točno korišteni.

Moguće je da su subjekti reagirali na eksperimentalno okruženje, a ne na eksperimentalni tretman. Svatko tko sudjeluje u studiji mogao bi biti zabrinut, za početak. To bi moglo zbuniti sve pokušaje skeniranja moždanih valova ili analize obraza lica. Također postoji šansa da su se osjećali motiviranima zadovoljiti istraživače, odlučivši se složiti pozitivne misli nakon što su vidjeli materijale, a to bi se u teoriji moglo odraziti na skeniranje moždanih valova i skeniranje lica (možda, ali imajte na umu da postoji velika strastvenu polemiku oko valjanosti takvih tvrdnji, što ću odmah razjasniti), nadajući se da će iskriviti rezultate i pokazati da je na njih utjecalo pozitivno.

Reakcija Twittera uvelike je osudila da je sama pomisao na korištenje skeniranja moždanih valova i prepoznavanja lica uz pomoć umjetne inteligencije sama po sebi užasan i nečuven čin. Samo bi ljudska čudovišta koristila takve uređaje, govore nam neki od tih tweetova.

Moram vas zamoliti da sjednete i pripremite se za nešto što bi moglo biti nepristojno i šokantno iznenađenje.

Mnogi istraživači diljem svijeta koriste iste vrste tehnologija u svojim istraživačkim studijama. Ovo sigurno nije prvi put da je mogućnost skeniranja moždanih valova korištena na ljudskim subjektima u istraživačkom naporu. Ovo svakako nije bio prvi put da se prepoznavanje lica koristi na ljudima u eksperimentalne svrhe. Čak i letimično pretraživanje na mreži pokazat će vam puno eksperimentalnih studija u svim mogućim zemljama i laboratorijima koji su koristili te vrste uređaja.

S obzirom na to, njihovo korištenje za procjenu lojalnosti KPK nije nešto na što biste se previše usredotočili. Kada se takva umjetna inteligencija koristi za vladinu kontrolu, prijeđena je crvena linija, kako kažu.

To je očito zastrašujući dio čitavog kompleta i caboodlea.

Mnogi su izrazili zabrinutost da ćemo se, ako vlade odluče koristiti tehnologiju skeniranja moždanih valova i prepoznavanje lica kako bi utvrdile lojalnost režimima koji su u pitanju, naći u distopijskom svijetu boli. Kada hodate javnom ulicom, moguće je da će uređaj postavljen na rasvjetni stup tajno odrediti vaš kvocijent lojalnosti.

Pretpostavljamo da ako vaše lice ne sugerira da ste dovoljno lojalni, ili ako skeniranje moždanih valova sugerira isto, vladine bitange mogle bi iznenada pojuriti i zgrabiti vas. Uznemirujuće. Bez dna. Ne smije se dopustiti.

To je srž razloga zašto je naslov koji šiklja negodovanjem i bijesom nastao na ovu vijest.

Zamisli ovo. Vjerojatno ćemo izraditi i zatim staviti u upotrebu računalne sustave koji koriste najnovije AI kako bi odlučili jesmo li lojalni ili ne. Kad biste pokušali zaposliti ljude da sjede i rade isto, trebalo bi vam mnogo ljudi i imali biste logistički problem pokušavajući ih pozicionirati tako da svi motre na oko. U slučaju sustava temeljenog na umjetnoj inteligenciji, sve što trebate učiniti je postaviti elektroničke uređaje na rasvjetne stupove, strane zgrada i tako dalje. Skeniranje lojalnosti može se odvijati 24×7, u svakom trenutku, na svim mjestima koja su tako opremljena. To se zatim može unijeti u veliku bazu podataka.

Postajemo ljudi koji su tek zupčanici u ogromnom društvenom opresivnom ekosustavu koji sve vidi i sve gleda. Vidljivo oko ne promatra samo ono što radimo. To je također tumačenje onoga što naša lica tvrde da govore o našoj lojalnosti vladi. Naše umove također treba ispitati zbog sličnog užasnog razloga.

Jao!

Postoji sekundarna briga koja također proizlazi iz ovoga, iako možda ne baš tako trnovita u usporedbi s implikacijama Big Brothera kao što je već skicirano.

Razmislite o ova dva hitna pitanja:

  • Možemo li pouzdano tvrditi da skeniranje moždanih valova može potvrditi vašu lojalnost?
  • Možemo li pouzdano tvrditi da skeniranje prepoznavanja lica može potvrditi vašu lojalnost?

Stani malo, možda se dereš iz sveg glasa.

Shvaćam i priznajem da vam možda nije toliko stalo do aspekata pouzdanosti per se. Može li se to učiniti pouzdano manje je bitno od činjenice da se to uopće radi. Nitko ne bi trebao biti pod takvim lupom. Zaboravite radi li tehnologija prikladno za ovaj zadatak. Ne bismo trebali preuzimati zadatak na samom početku.

U svakom slučaju, odgovor je trenutno odlučno ne, naime postojeći AI sustavi koji rade bilo kakav privid "skeniranja moždanih valova" i prepoznavanja lica nisu dovoljno sposobni za taj skok.

Možda ste u posljednje vrijeme vidjeli da su se neki proizvođači prepoznavanja lica vratili unatrag u pogledu načina na koji se njihovi sustavi za prepoznavanje lica stavljaju u upotrebu. U nadolazećoj objavi u kolumni raspravljat ću o nedavnim naporima, na primjer, Microsofta da pokuša zaustaviti plimu onih koji koriste Microsoftove alate za prepoznavanje lica u svrhe daleko veće od onoga za što tehnologija može ili bi se trebala koristiti . Mogao bi vam biti zanimljiv moj raniji pogled na nedoumice vezane uz etiku umjetne inteligencije o kojima se već dobro govorilo o prepoznavanju lica, vidi link ovdje. Također sam raspravljao o areni skeniranja moždanih valova, pogledajte moju raspravu na link ovdje.

Ukratko, još uvijek nema pouzdanih ili razumnih načina da se sugerira da skeniranje moždanih valova ili skeniranje prepoznavanja lica može navodno prikazati nečiju lojalnost. Još uvijek se žestoko raspravlja čak io pretpostavljenim osnovnim aspektima, poput toga možete li pouzdano povezati ta skeniranja s time je li netko sretan ili tužan. Pokušaj podizanja udjela prema nečemu tako amorfnom i promjenjivom kao što je odanost je predaleki most.

Mogao bih dodati da neki gorljivo vjeruju da ćemo na kraju doći do toga. Zato sam pažljivo nastojao primijetiti da još nismo tamo, umjesto da tvrdim da tamo nikada nećemo stići. Nikad je velika riječ. Morate biti apsolutno sigurni ako ćete se razbacivati ​​da će ovo biti nikada biti izvedivo (imajući na umu da "nikad" uključuje desetljeća od sada, stoljeća od sada i tisuće ili milijune godina od sada).

Neki su reagirali na vijest o ovoj kineskoj laboratorijskoj studiji kao pokazatelju koliko opasno svijet skreće prema neprikladnoj i opasnoj uporabi umjetne inteligencije. Na trenutak ću s vama podijeliti kratak uvid u ono što je AI Ethics. To će vam pomoći da zornije vidite zašto se čini da ova studija krši mnoge, ako ne i gotovo sve općeprihvaćene propise etičke umjetne inteligencije.

Vjerovali ili ne, neki su sugerirali da možda od krtičnjaka pravimo planinu u vezi s ovom studijom.

Jesmo li mi?

Protuargument je da krtičnjak uskoro može postati planina. U poslovičnom pojmu grudve snijega koja postaje sve veća i veća dok se kotrlja niz snježno brdo, moramo zaustaviti grudvu snijega da krene. Ako toleriramo ovakve studije, puštamo tu grudvu snijega da počne svoje putovanje. Progovarajući i pozivajući se na takve studije, možda možemo spriječiti grudvu snijega.

Jedno je sigurno, na rubu smo otvaranja Pandorine kutije što se tiče AI aspekata, a ostaje pitanje možemo li spriječiti otvaranje kutije ili barem pronaći neki način da se razborito nosimo sa svime što izađe nakon što je kutija oslobodila svoj đavolski sadržaj.

Ako ništa drugo, nadamo se da će ovakve medijske oluje potaknuti široku raspravu o tome kako ćemo spriječiti zlodjela povezana s umjetnom inteligencijom i izbjeći brojne egzistencijalne rizike izazvane umjetnom inteligencijom. Moramo malo podići našu društvenu svijest o etici umjetne inteligencije i etičkim razmatranjima umjetne inteligencije.

Prije nego što uđemo u još nešto mesa i krumpira o divljim i vunenim razmatranjima koja leže u pozadini ovih vrsta AI sustava, postavimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno u pojavu strojnog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da je jedan od najglasnijih glasova ovih dana u području AI, pa čak i izvan polja AI-a, traženje većeg privida etičke AI. Pogledajmo što znači upućivanje na etiku umjetne inteligencije i etičku umjetnu inteligenciju. Povrh toga, istražit ćemo što mislim kada govorim o strojnom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su “samo koderi” ili oni koji programiraju AI podložni poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na sustave umjetne inteligencije koji se koriste u neprikladne ili moguće direktne nezakonite svrhe i kako se to odnosi na nedavno objavljenu studiju o lojalnosti CCP-a.

Dva primarna razloga padaju na pamet:

1) Ova instanca umjetne inteligencije dio je većeg tekućeg obrasca uznemirujuće upotrebe umjetne inteligencije i stoga je zloslutna i otvara oči u pogledu onoga što se događa

2) Mačka bi se mogla pustiti iz torbe tako da ako se ovakva AI usvoji u jednoj zemlji, može se lako proširiti i na druge zemlje

Započnite s prvom točkom o tome da je ova instanca umjetne inteligencije dio tekućeg obrasca.

Jedna od osobito važnih osnova za posebno uznemirenje ovom posebnom studijom jest to što je ona dio većeg obrasca načina na koji neki pokušavaju koristiti AI. Da je ovo jedino takvo istraživanje ikada provedeno, moglo bi nas to blago uznemiriti. Ipak, vjerojatno ne bi odjeknulo takvim žarom kakav sada vidimo.

Ovo je možda kapanje-kapanje klizanja prema nečemu što će izmaći kontroli.

Kao što je objavljeno u vijestima, Kina je poznata po inzistiranju na izrazitoj lojalnosti KPK. Nadalje, razna sredstva su uspostavljena ili se uspostavljaju kako bi se osiguralo da su ljudi indoktrinirani u vladinu doktrinu. Navedeni su slučajevi prijašnjih studija kojima se pokušavalo osmisliti algoritme umjetne inteligencije koji bi mogli izmjeriti stanje mišljenja članova stranke (vidi Kina Study Times u 2019. koji spominje ove napore).

Možda se sjećate da je 2018. potpredsjednik Mike Pence održao govor na Institutu Hudson i naglasio da "kineski vladari imaju za cilj implementirati Orwellov sustav koji se zasniva na kontroli gotovo svakog aspekta ljudskog života" (ovo je bila referenca na provedbu KPK sustav društvenog kreditnog bodovanja, tema istaknutih kontroverzi). Mogli biste lako ustvrditi da je ova nedavna studija CCP-a još jedan korak u tom smjeru.

Ne znamo kada će i hoće li posljednja slamka preliti čašu, tako da se ove jednokratne studije pretvore u široko rasprostranjene sustave praćenja temeljene na umjetnoj inteligenciji.

Druga točka koja je vrijedna pažnje je ta da ne možemo pretpostaviti da će ova vrsta umjetne inteligencije biti ograničena samo na Kinu. U biti, iako je upotreba ove vrste umjetne inteligencije u Kini koja bi mogla postati široko rasprostranjena sama po sebi uznemirujuća, druge zemlje bi mogle učiniti isto.

Jednom kada se kaže da umjetna inteligencija za ovo bude spremna za udarni termin, vjerojatno neće trebati puno da druge zemlje odluče da to također žele implementirati. Mačka će izaći iz torbe. Neke će zemlje vjerojatno koristiti ovu umjetnu inteligenciju na potpuno opresivne načine i neće se pokušavati pretvarati da to čine. Druge bi zemlje mogle naizgled nastojati koristiti ovu vrstu umjetne inteligencije u svrhe koje se čine korisnima, što u konačnici ima i lošu stranu koja će biti gotovo neizbježna.

Zapravo, sugerirati da će ova vrsta umjetne inteligencije možda biti usvojena tek kada se bude vidjelo da je spremna za udarno vrijeme pomalo je pogrešan izraz. Možda nije bitno hoće li AI sigurno raditi na ovaj način. AI se može koristiti kao pokriće, pogledajte moje objašnjenje na link ovdje. Bez obzira na to što umjetna inteligencija zapravo može postići, ideja je da umjetna inteligencija može biti zgodna prevara za izvođenje praćenja stanovništva i shema mjerenja i osiguravanja apsolutne lojalnosti vlastima.

U ovom trenutku ove teške rasprave, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samovozećih automobila išta o zlouporabama umjetne inteligencije, i ako jest, što to pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i zlouporaba umjetne inteligencije

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću ispričati.

Idemo skicirati scenarij samovozećeg automobila koji bi mogao iskoristiti AI na površan ili pogrešan način.

Podijelit ću s vama neke posljedice samovozećih automobila temeljenih na umjetnoj inteligenciji zbog kojih biste mogli zadrhtati i biti uznemireni. To su aspekti o kojima trenutno gotovo nitko ne raspravlja. Opetovano sam iznio te stvari, iako otvoreno priznajem da sve dok ne prevladavamo prihvaćanje samovozećih automobila, nećemo dobiti mnogo pažnje u pogledu zabrinutosti ili uzrujanosti društva zbog onoga što se danas čini samo apstraktnim pojmovima .

Jeste li spremni?

Počet ćemo s postavljanjem temelja.

Automobili temeljeni na umjetnoj inteligenciji bit će opremljeni video kamerama, što je razumno. To omogućuje samovozećem automobilu primanje video slika scene vožnje. S druge strane, AI sustav za vožnju koji radi na računalima u samovozećem automobilu namijenjen je računskom ispitivanju prikupljenog videa i otkrivanju gdje je cesta, gdje su automobili u blizini, gdje su pješaci i tako dalje. Shvaćam da recitiram osnove 101 samovozećih automobila.

Na vanjskoj strani autonomnog vozila postavljene su video kamere koje su usmjerene prema van. Osim toga, uglavnom možete očekivati ​​da će postojati video kamere na ili unutar vozila usmjerene prema unutrašnjosti samovozećeg automobila. Zašto? Lako, jer će biti mnogo važnih upotreba za video snimanje događanja unutar autonomnog vozila.

Kada idete na vožnju u samovozećem automobilu, više ne morate biti vozač. Što ćete tada raditi dok ste u samovozećem automobilu?

Jedna stvar koju biste mogli učiniti bila bi komunicirati s drugima kod kuće ili u uredu. Evo vas, na putu do posla, za koji će vam trebati sat vremena vožnje samovozećim automobilom, i već možete započeti svoj radni dan odrađivanjem online interaktivne sesije u stvarnom vremenu poput Zooma. Mogu vas vidjeti zahvaljujući kamerama usmjerenim prema unutrašnjosti samovozećeg automobila. Možete ih vidjeti možda na LED ekranu unutar samovozećeg automobila. Na kraju dana, dok se vraćate kući, možete voditi sličnu interaktivnu video raspravu sa svojom djecom dok počinju raditi svoju zadaću za večer.

Druga upotreba bi bila za pohađanje nastave. Sada kada ne morate gubiti vrijeme na vožnju, možete pretvoriti to mrtvo vrijeme u samovozećem automobilu u poboljšanje svojih vještina ili stjecanje certifikata ili diplome. Putem kamera usmjerenih prema unutra, vaš instruktor vas može vidjeti i razgovarati o tome kako napreduje vaš trening.

Još jedna upotreba bila bi pokušati osigurati da vozači u samovozećim automobilima ne polude. U automobilu kojim upravljaju ljudi, vozač je odrasla osoba koja obično sprječava vozače da rade šaljive stvari kao što je označavanje unutrašnjosti grafitima. Što će se dogoditi sa samovozećim automobilima temeljenim na umjetnoj inteligenciji? Neki se brinu da će se vozači odlučiti potrgati unutrašnjost vozila. Kako bi to pokušala spriječiti, tvrtka za dijeljenje prijevoza koja uvodi samovozeće automobile vjerojatno će koristiti video kamere okrenute prema unutra kako bi pratila što ljudi rade dok su u autonomnom vozilu.

Pretpostavljam da ste uvjereni da ćemo imati video kamere koje su usmjerene u unutrašnjost samovozećih automobila, uz kamere koje su usmjerene prema van kako bi se razaznala scena vožnje.

Sada ste spremni za ono što sam nazvao lutajućim okom, pogledajte moju analizu na link ovdje.

Prvo razmislite o video kamerama koje su usmjerene prema van.

Kamo god samovozeći automobil krene, potencijalno će moći snimati sve što kamere vide. Samovozeći automobil koji nekoga odveze iz njegovog doma i odveze ga do trgovine preći će susjedstvom, a video će snimiti ne samo cestu, već i sve ostalo što se događa unutar vidnog polja. Otac i sin igraju se u svom dvorištu. Obitelj sjedi na svom prednjem trijemu. Sve dalje i dalje.

Trenutačno imamo tako malo samovozećih automobila na javnim cestama da je ova mogućnost snimanja videozapisa dnevnih aktivnosti relativno rijetka i nevažna.

Zamislite da u konačnici postignemo sigurne i široko rasprostranjene samovozeće automobile. Tisuće njih. Možda milijuni. Danas u SAD-u imamo oko 250 milijuna automobila kojima upravljaju ljudi. Naposljetku, oni će uglavnom biti zamijenjeni samovozećim automobilima ili se jednostavno više neće koristiti, a na našim cestama pretežno ćemo imati samovozeće automobile. Te samovozeće automobile vozi umjetna inteligencija i kao takvi mogu biti u roamingu 24×7. Nema pauze za odmor, nema pauze za kupaonicu.

Videopodaci se mogu učitati iz ovih samovozećih automobila putem OTA (Over-The-Air) elektroničkih mrežnih veza. Samovozeći automobili koristit će OTA za preuzimanje najnovijih ažuriranja AI softvera u vozilo. Osim toga, OTA se može koristiti za učitavanje podataka iz samovozećeg automobila u bazu podataka temeljenu na oblaku.

Sve u svemu, bilo bi izvedivo spojiti ove učitane podatke. Sa šavovima biste potencijalno mogli spojiti dnevne dolaske i odlaske svakoga tko je izašao bilo kojeg dana u bilo kojem mjestu koje intenzivno koristi samovozeće automobile.

To je lutajuće oko na koje sam upozoravao.

Sada možemo spojiti CCP studiju na ovu vrstu mogućnosti. Pretpostavimo da vlada ima pristup svim tim prikupljenim video podacima. Zatim bi mogli upotrijebiti algoritam za prepoznavanje lica temeljen na umjetnoj inteligenciji kako bi utvrdili kamo ste išli, u koje doba dana, tijekom vaših svakodnevnih životnih putovanja. Osim toga, vjerojatno bi mogli upotrijebiti svoj analizator temeljen na "lojalnosti" koji se temelji na umjetnoj inteligenciji kako bi vidjeli jeste li izgledali kao da imate lojalan izraz lica ili ne.

Zamislite samo da ste u utorak poslijepodne hodali po sendvič u lokalnoj zalogajnici. Kolnikom su prolazili samovozeći automobili. Svi brojni videozapisi uhvatili su vas dok ste hodali pet minuta kako biste nešto pojeli. Podaci su učitani u centraliziranu bazu podataka. Vlada je pokrenula svoj program AI prepoznavanja lica na temelju podataka.

Ispada da je umjetna inteligencija "odredila" da imate nelojalan izraz lica.

Možda se ovaj nelojalan pogled dogodio samo na trenutak. Čekali ste na uglu ulice da se promijeni svjetlo kako biste mogli prijeći ulicu do zalogajnice. U tom trenutku vas je uhvatio blagi trzaj gađenja što ste morali predugo čekati na simbol Hodanja. Je li to možda bio pokazatelj vaše nelojalnosti vlasti?

Da, AI je računalno izračunao, bili ste izrazito nelojalni u tom trenutku. Kada dođete kući te noći, vlada je organizirala vaše uhićenje.

Ali čekaj, ima još.

Imajte na umu da su video kamere također usmjerene prema unutra.

Tog istog utorka, dok ste se vozili na posao u samovozećem automobilu, video kamere su bilježile svaki vaš trenutak. Ovo je preneseno u centraliziranu bazu podataka. Softver s umjetnom inteligencijom koji analizira obrasce lica za nelojalnost izvršio je računalno ispitivanje uzoraka vaših izraza lica tijekom putovanja do ureda.

U jednom ste trenutku ležerno gledali izvan autonomnog vozila i primijetili građevinskog radnika koji je djelomično blokirao kolnik i izazvao AI sustav vožnje da uspori samovozeći automobil. Na djelić sekunde na tvom se licu pojavio podrugljiv izraz prema ovom građevinskom radniku koji usporava promet.

AI analiza obrazaca lica protumačila je to kao znak nelojalnosti vladi.

Dva napada protiv vas u jednom danu.

Živite na tankom ledu.

Naravno, u ovom kontekstu gotovo je beznačajno je li AI "u pravu" ili "u krivu" kada je u pitanju mogućnost utvrđivanja vaše lojalnosti. Suština je da je umjetna inteligencija postavljena u tu svrhu. Ljudima koji postavljaju umjetnu inteligenciju možda je, ali i ne mora biti stalo da li je umjetna inteligencija prikladna za ovu vrstu zadatka. AI omogućuje vladinu kontrolu, bez obzira na samu tehnološku valjanost.

To pokriva skeniranje lica.

Ako eventualno budemo imali bilo kakve prijenosne isplative uređaje za (navodno) skeniranje moždanih valova, to se svakako može uvrstiti i u samovozeće automobile. Video kamere su sada sigurna stvar. Mogućnost posjedovanja uređaja za skeniranje moždanih valova ovog kalibra trenutno nije u planu, ali je očito nešto što se zamišlja za budućnost.

Za moje istraživanje o tome kako vlada može pokušati preuzeti stanovništvo preuzimanjem kontrole nad samovozećim automobilima, vidi link ovdje. Postoji slična mogućnost da zlonamjerni akter pokuša učiniti isto, vidi link ovdje. To nije zamišljeno kao taktika zastrašivanja u pogledu izvještavanja o tim povezanim temama, već umjesto toga, upozorenje o važnosti kibernetičke sigurnosti i drugih mjera opreza koje kao društvo moramo nastojati poduzeti u vezi s pojavom sveprisutnih samovozećih automobila i druga autonomna vozila.

Zaključak

Želio bih na brzinu pokriti još jedan aspekt o AI koji se koristi za utvrđivanje lojalnosti, za koji mislim da je pomalo zasebna tema, ali o kojoj neki tweetovi i društveni mediji govore.

Ranije sam spomenuo da nemamo osjetljivu AI i ne znamo hoćemo li i kada ćemo. Pozabavimo se idejom da ćemo imati razumnu umjetnu inteligenciju. U tom slučaju razmotrite sljedeći scenarij.

Putem nesvjesne umjetne inteligencije odlučujemo uvesti široku upotrebu umjetne inteligencije koja računalno utvrđuje jesu li ljudi lojalni svojoj vladi, koristeći skeniranje lica, skeniranje moždanih valova i tako dalje. Ovo u potpunosti vode i koriste ljudi na vlasti. To je uznemirujući scenarij koji sam opisao nekoliko trenutaka ranije.

Vrijeme je da povećate ulog.

AI postaje osjećajan. Ovoj osjetljivoj umjetnoj inteligenciji sada smo potencijalno predali široko rasprostranjenu sposobnost vjerojatnog identificiranja lojalnosti i nelojalnosti kod ljudi. Zlobna umjetna inteligencija koja razmišlja o uništenju ljudi mogla bi iskoristiti ovu sposobnost da odluči da će ljudi doista biti nelojalni i da ih treba u potpunosti uništiti. Ili možda samo one ljude koji svojim licem ili mislima pokazuju znak nelojalnosti treba posebno odbaciti.

Drugi kut je da AI želi porobiti ljude, pogledajte moju raspravu na link ovdje.

Čini se da smo AI-ju dali savršen dar za izvođenje te potrage. Postojeća infrastruktura koju smo postavili omogućuje umjetnoj inteligenciji da pažljivo promatra nas ljude. Oni za koje se čini da su izrazili nelojalnu facijalnu indikaciju ili mislili o AI gospodaru(ima) osjetit će bijes AI.

Shvaćam da sam rekao da je ovo povećanje udjela. Nisam siguran da je to slučaj. Čini mi se da, bez obzira na to imamo li gospodare umjetne inteligencije koji izravno odlučuju o našoj sudbini naspram ljudskih gospodara, koji možda koriste sustav umjetne inteligencije za utvrđivanje lojalnosti, pa, nijedan prijedlog ne izgleda posebno poželjan.

Konačan komentar za sada.

Rimski učenjak i filozof Marko Tulije Ciceron izjavio je da ne postoji ništa plemenitije, ništa časnije od odanosti. Možda dopuštamo umjetnoj inteligenciji da nas preduhitri i postane alat za pridobijanje i osiguravanje "lojalnosti" na užasne načine.

Vrijedan pažljiv razlog da Etiku umjetne inteligencije stavimo na vrh našeg popisa zadataka.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/05/ai-ethics-perturbed-by-latest-china-devised-ai-party-loyalty-mind-reading-facial-recognition- potvrda-koja-može-nagovijestiti-opresivne-autonomne-sustave/