Etika umjetne inteligencije koja se bori s neizbježnim nesrećama s umjetnom inteligencijom, koja se nadvija i nad autonomnim samovozećim automobilima

Poznajete li možda nekoga tko je posebno sklon nezgodama?

Čini se da svi to radimo.

Možda je osoba ona vrsta koja je sklona skliznuti na koru banane ili srušiti dragocjenu vazu u vašoj dnevnoj sobi. Oni su ljudski magnet za nesreće ove ili one vrste. Moglo bi biti toliko loše da vam se ponekad mrzi biti u njihovoj blizini. Možda ćete dobiti zlokobni preljev ili pretrpjeti neslavne posljedice jedne od njihovih neugodnih nesreća.

Ali možda smo previše oštri kada sugeriramo da je itko skloniji nesrećama od drugih. Moglo bi se iznijeti argument da se nesreće mogu dogoditi svakome od nas. Svi smo podložni mogućnosti da počinimo ili budemo upleteni u nesreću. Uključeni su najbolji od nas.

Natrpajmo na ovu raspravu jedno dodatno uznemirujuće pitanje.

Jesu li nesreće neizbježne?

Drugim riječima, koliko god se trudili spriječiti nesreće, neraskidivo bi moglo biti da ipak postoji šansa i konačna sigurnost da će se nesreće dogoditi. Možete nastojati zaštititi svijet od nesreća. To se čini nedvojbeno razboritim. Ali na ovaj ili onaj način, nesreće će i dalje podići svoju ružnu glavu.

Kako kažu, nesreće čekaju da se dogode.

Moglo bi biti od pomoći razjasniti što se podrazumijeva kada se neki događaj na odgovarajući način označi kao nesreća. Uobičajena rječnička definicija je da je nesreća vrsta nezgode koja se dogodi neočekivano i nenamjerno, za koju postoji nesretni rezultat koji se sastoji od privida štete ili ozljede.

Pažljivo raspakirajte tu definiciju.

Navedeni incident je neočekivan. To implicira da kao da nismo shvaćali da će do same nesreće doći.

Navedeni incident je nenamjeran. To sugerira da bismo trebali isključiti okolnosti u kojima je netko namjerno želio da se incident dogodi. Ako šaljivdžija stavi koru od banane na pod gdje zna da će nesretni i nesuđeni nevini stati, bilo bi vam teško reći da je osoba koja se spotaknula o nju doživjela nesreću. Umjesto toga bili su prevareni i podmuklo odvedeni u zamku.

Definicija također uključuje kriterij da je rezultat nesretan. Nesreća u ovom svjetlu mora dovesti do lošeg ishoda. Osoba koja je slučajno srušila vazu napukla je i eventualno oštetila predmet koji se ne može popraviti. Vlasnik vaze je oštećen gubitkom vrijednosti. Osoba koja je uletjela u vazu mogla bi sada biti dužna vlasniku za gubitak. Ne daj Bože da bi se itko mogao posjeći ili otkinuti razbijanjem vaze.

Radi jednake ravnoteže, mogli bismo napomenuti da postoje i takozvane “dobre” nesreće. Osoba bi se mogla naći u velikom bogatstvu ili steći neku drugu vitalnu korist zbog posljedica nesreće. Jedan od najčešće citiranih primjera je Sir Alexander Fleming i njegovo hvaljeno otkriće penicilina. Priča se da je bio pomalo neoprezan u svom laboratoriju te je po povratku s dvotjednog odmora pronašao plijesan na jednom od svojih ploča za kulturu. Navodno je o tome rekao ovo: “Čovjek ponekad nađe ono što ne traži. Kada sam se probudio odmah nakon zore 28. rujna 1928., zasigurno nisam planirao revolucionirati svu medicinu otkrivanjem prvog na svijetu antibiotika ili ubojice bakterija. Ali pretpostavljam da sam upravo to i učinio.”

Ostavit ćemo po strani povoljne nesreće i usredotočiti se ovdje na strašne nesreće. Namrštena verzija nesreća je mjesto gdje ti štetni ishodi mogu biti posebno opasni po život ili imati teške posljedice. Koliko god je moguće, negativne nesreće želimo minimizirati (i, naravno, nesreće naopako koje bismo željeli povećati, ako je to izvedivo, iako ću tu varijantu smajlića pokriti u kasnijoj kolumni).

Želio bih malo preformulirati prethodno pitanje o neizbježnosti nesreća. Do sada smo držali pozornost na nesrećama koje se događaju u određenom slučaju pojedinačne osobe. Nema sumnje da nesreće također mogu utjecati na mnoštvo ljudi odjednom. To se posebno može susresti kada su ljudi uronjeni u složeni sustav ove ili one vrste.

Pripremite se za varijantu prethodno postavljenog pitanja.

Jesu li nesreće sustava neizbježne?

Trebali bismo ovo razmisliti.

Pretpostavimo da je tvornički pod postavljen za izradu dijelova za automobile. Oni koji su projektirali tvornicu su, recimo, izuzetno zabrinuti zbog nesreća radnika koje bi se mogle dogoditi. Radnici tvornice dužni su stalno nositi kacige. Znakovi u tvornici upozoravaju da se pazite na nesreće i budite pažljivi u svom poslu. Poduzimaju se sve mjere opreza kako bi se spriječile nesreće.

U ovom sustavu možemo se nadati da nitko nikada neće doživjeti nesreću. Vjerujete li da nema šanse da se dogodi nesreća? Usudio bih se sugerirati da se nijedan razuman mislilac ne bi kladio da je šansa za nesreću u ovom slučaju nula. Vjerojatnost nesreće može biti vrlo mala, ali još uvijek znamo i pretpostavljamo da unatoč svim mjerama opreza još uvijek postoji mali rizik da će se nesreća dogoditi.

Sve to upućuje na ideju da u dovoljno složenom sustavu moramo vjerovati da će se nesreće i dalje događati, bez obzira koliko se trudili spriječiti ih. Nerado se podupiremo odredbom da su nesreće sustava doista neizbježne. Grandiozna izjava ovog kalibra mogla bi sadržavati upozorenje da bi sustav morao biti nekog praga složenosti tako da je u biti nemoguće pokriti sve osnove kako bi se u potpunosti spriječile nesreće.

Sada ste uredno, korak po korak, upoznati sa široko zacrtanom teorijom o nesrećama koja se može označiti kao normalne nesreće ili teorija normalnih nesreća (NAT). Evo zgodnog opisa istraživača koji su ispitali ovaj pojam: „U dovoljno velikoj mjeri, svaki će sustav proizvesti 'normalne nesreće'. To su neizbježne nesreće uzrokovane kombinacijom složenosti, spajanja komponenti i potencijalne štete. Normalna nesreća razlikuje se od uobičajenih nesreća s kvarom komponenti po tome što događaji i interakcije koje dovode do normalne nesreće nisu razumljive operaterima sustava” (kao što je navedeno u “Razumijevanje i izbjegavanje kvarova umjetne inteligencije: Praktični vodič” Roberta Williamsa i Roman Yampolskiy, Filozofije časopis).

Razlog zašto sam te doveo u zemlju tzv normalne nesreće je da bismo možda trebali pažljivo primijeniti ovu teoriju na nešto što postupno i neizbježno postaje sveprisutno u našem društvu, naime na pojavu umjetne inteligencije (AI).

Udubimo se u ovo.

Neki ljudi lažno pretpostavljaju da će AI biti savršenstvo. AI sustavi neće pogriješiti i neće nas dovesti u probleme, nagađa se. Sve što trebate učiniti je osigurati da ti AI programeri odrade dovoljno dobar posao, i voila, AI nikada neće učiniti ništa što bi se moglo protumačiti kao slučajno ili kao uzrok nesreće.

Ne tako brzo prema tom hipotetskom uvjerenju. Ako ste voljni kupiti teoriju normalne nesreće, bilo koji AI bilo koje značajne složenosti neizbježno će dovesti do nesreće. Bez obzira na to koliko kasno noćno petljaju ti programeri umjetne inteligencije kako bi spriječili nesreću, AI će se sigurno u nekom trenutku uplesti u nesreću. Tako se kolačić mrvi. I nema predaha plakati u našem prolivenom mlijeku zbog toga.

Razmislite o kombinaciji umjetne inteligencije i konceptualnih načela normalne nesreće.

Zamislite da imamo AI sustav koji kontrolira nuklearno oružje. AI je pažljivo izrađen. Svaka zamisliva kontrola i ravnoteža kodirana je u AI sustav. Jesmo li sigurni od nesreće temeljene na umjetnoj inteligenciji koja bi se mogla dogoditi? Oni koji podržavaju stajalište o normalnim nesrećama rekli bi da nismo baš toliko sigurni kao što bi se moglo pretpostaviti. S obzirom na to da će AI vjerojatno biti posebno složen, normalna nesreća tamo tiho čeka da se jednog dana pojavi, možda u najgorem mogućem trenutku.

Bit tih trnovitih pitanja i nedoumica je da moramo biti na oprezu da AI mora biti opterećen nesrećama, a čovječanstvo mora učiniti nešto razumno i proaktivno u vezi s opasnostima koje mogu uslijediti. Kao što ćete vidjeti za trenutak ili dva, ovo je prijeteće razmatranje kada je u pitanju korištenje AI-a, a polje etike AI-a i etičke AI poprilično se hrva oko toga što učiniti. Za moje kontinuirano i opsežno pokrivanje etike umjetne inteligencije i etičke umjetne inteligencije, vidi link ovdje i link ovdje, Samo da spomenemo nekoliko.

Prije nego krenemo niz zečju rupu, uvjerimo se da smo na istoj stranici o prirodi AI. Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjetilni AI, niti hoće li osjetilni AI nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularitet, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna umjetna inteligencija kognitivni ekvivalent čovjeka koji vam daje savjete. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje). Svi ovi scenariji bi pojačali procjenu izvora.

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koje koristi uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Sve u svemu, opća je nada da ćemo uspostavljanjem osjećaja za etičke propise umjetne inteligencije barem moći povećati društvenu svijest o tome što AI može dobro učiniti i što može negativno proizvesti. Opsežno sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su “samo koderi” ili oni koji programiraju AI podložni poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Možda bismo trebali dodati hvaljenim popisima etike umjetne inteligencije koje moramo eksplicitno razmotriti i poduzeti otvorene mjere kako bismo spriječili ili barem snažno ublažili AI-temeljene normalne nesreće to bi se moglo dogoditi. Oni koji razvijaju AI moraju dati sve od sebe na tom planu. Oni koji koriste AI moraju učiniti isto. Oni koji koriste ili su na neki način podložni AI-u trebali bi biti oprezni i na oprezu zbog mogućnosti nesreća s umjetnom inteligencijom do kojih će se naizgled dogoditi.

Možda ćete biti u iskušenju pomisliti da se u AI može ugraditi dovoljno mjera opreza da bi se šanse za nesreću spustile na nulu. Za one koji su tehničari, uobičajena oholost je da ako dio tehnologije može stvoriti problem, drugi dio tehnologije sigurno može riješiti problem. Samo nastavite bacati sve više i više tehnologije dok problem ne nestane.

Pa, oni koji su proučavali nesreće orijentirane na sustave skloni bi se ne slagati i pristojno uzvratiti na pretpostavljenu tehničku pompoznost nudeći stajalište poznato kao švicarski model sira (SCM): „U SCM-u, slojevi sigurnosti su modelirani kao kriške sir s rupama koje predstavljaju slabe točke u svakom sloju sigurnosti. S vremenom rupe mijenjaju oblik i pomiču se. Na kraju, bez obzira na to koliko kriški sira (sigurnosnih slojeva) ima, rupe će se poravnati omogućavajući ravno pucanje kroz sve kriške sira (događa se nesreća)” (prema ranije citiranom radu Roberta Williamsa i Romana Yampolskog ).

Ne želim se zaglaviti u ovoj bočnoj tangenti o tome postoji li ili ne zajamčeni način da se AI programira kako bi se u potpunosti i uvijek spriječila svaka mogućnost nesreće. Postoje razni matematički i računalni pristupi dokazivanja koji se isprobavaju. Mislim da je razumno i pošteno izjaviti da mi danas nemamo skalabilnu radnu metodu niti tehnologije koje mogu jamčiti takvu nultu šansu, plus da smo definitivno opterećeni tonama i tonama umjetne inteligencije koja se neuspješno proizvodi koju mi siguran da se nije nastojao pridržavati takve prakse. Ova posljednja točka je ključna jer čak i ako možemo nešto smisliti u laboratoriju AI, skaliranje toga na zilijune divljih i bezbrižnih AI napora koji su u tijeku i koji će se i dalje pojavljivati ​​je čvoran problem i nije vjerojatno riješen čak i ako se stroj za računalno dokazivanje srebro metak je postojao.

Još jedna stvar koju vjerujem da zaslužuje kratko spomenuti sastoji se od umjetne inteligencije koja je pretvorena u činjenje nepoželjnih djela kao rezultat zlonamjernih ljudskih aktera. Neću te slučajeve svrstavati u područje nesreća s umjetnom inteligencijom. Zapamtite da je uvodna rasprava sugerirala da je rječnička definicija nesreće incident nesreće nenamjeran priroda. Ako ljudski cyber lopov uspije natjerati sustav AI da čini loše stvari, ja tu umjetnu inteligenciju ne klasificiram kao nesreću. Vjerujem da ćete se složiti s tom pretpostavkom.

Postavlja se zanimljivo pitanje koliko se raznih neželjenih radnji umjetne inteligencije može pripisati isključivo nesreći s umjetnom inteligencijom u odnosu na zabludu kibernetičkog kriminalca. Prema nekim postojećim bazama podataka o incidentima s umjetnom inteligencijom, čini se da se nesreće s umjetnom umjetnom inteligencijom događaju više nego zlonamjerno potaknuti incidenti, iako tu ideju morate shvatiti s velikom dozom soli. Kažem ovo jer postoji veliko iskušenje da se ne prijavi kada je AI sustav napadnut, a možda i da budemo spremniji prijaviti kada se dogodi AI nesreća.

Postoji iznimno važno upozorenje o nesrećama s umjetnom inteligencijom koje moramo razmotriti.

Korištenje fraze "nesreće s umjetnom inteligencijom" općenito je nepoželjno i stvorit će popriličan nered za sve nas, što znači za cijelo društvo. Kada čovjek doživi nesreću, često sliježemo ramenima i suosjećamo s osobom koja je doživjela nesreću. Čini se da riječ "nesreća" tretiramo kao da znači da nitko nije odgovoran za ono što se dogodilo.

Uzmimo primjer upadanja u prometnu nesreću. Jedan auto zamahne široko u desnom zavoju i slučajno naleti na drugi automobil koji je išao ravno naprijed. Jebiga, to je bila samo nesreća i slučajno se dogodila. Oni koji nisu bili uključeni u incident, možda će pustiti da stvar prođe ako se događaj tumači kao puka nesreća koja se dogodila.

Ipak, imam osjećaj da, da ste bili u autu koji je udaren, ne biste bili toliko simpatični prema vozaču koji je napravio preširoko zavoj. Vaše bi mišljenje zasigurno bilo da je drugi vozač bio loš vozač i da je naizgled nezakonita ili nerazumna vožnja dovela do nesreće. Označavajući incident kao "nesreću", vozač koji je zapeo sada je u donekle nepovoljnoj poziciji jer se čini da se sve dogodilo samo slučajno, a ne rukama vozača koji je zabrljao.

Zapravo, riječ "nesreća" toliko je ispunjena različitim konotacijama da uglavnom, vladine statistike o automobilskim nesrećama to pitanje nazivaju automobilskim sudarima ili automobilskim nesrećama, umjesto da koriste izraz prometne nesreće. Čini se da sudar automobila ili automobilska nesreća nemaju nikakve implikacije o tome kako je došlo do incidenta. U međuvremenu, fraza "prometne nesreće" gotovo nas navodi na pomisao da je to bila hira sudbine ili nekako izvan ruku čovječanstva.

Možete obilno vidjeti kako ovo konotacijsko razmatranje dolazi do izražaja kada se govori o nesrećama s umjetnom inteligencijom. Ne želimo da se programeri umjetne inteligencije skrivaju iza konotacijskog štita da je umjetna inteligencija nekome slučajno nanijela štetu. Isto vrijedi i za one koji koriste AI. Mogli biste tvrditi da je fraza "nesreće s umjetnom inteligencijom" gotovo antropomorfiziranje umjetne inteligencije koja će navesti društvo u zabludu da omogući ljudima koji su bili iza kulisa AI-a da izbjegnu odgovornost. Za moju raspravu o sve većoj važnosti držanja ljudi odgovornim za svoju umjetnu inteligenciju, pogledajte moju raspravu na ova poveznica ovdje i ova poveznica ovdje.

Od sada ću ovdje koristiti frazu nesreća s umjetnom inteligencijom, ali to činim nevoljko i samo zato što je to konvencionalni način upućivanja na ovaj fenomen. Pokušaji da se to drugačije izrazi obično su nažalost više napuhani i ne tako lako čitljivi. Molimo, pobrinite se da protumačite frazu na način koji ne uzrokuje da pogledate u drugu stranu i ne shvatite da su ljudi koji su u osnovi AI krivi kada AI krene po zlu.

Kako bismo ilustrirali vjerojatnu zbrku ili obmanjujuće aspekte upućivanja na AI kao na nesreće, možemo se vratiti na moje primjedbe o rušenju vaze. Razmotrite ovaj primjer AI koji to čini: “Ovaj problem ima veze sa stvarima koje AI učini slučajno ili ravnodušno. Robot za čišćenje koji obara vazu jedan je primjer za to. Složena okruženja imaju toliko vrsta 'vaza' da je malo vjerojatno da ćemo moći programirati kaznu za sve nuspojave” (prema radu Roberta Williamsa i Romana Yampolskog).

Sustav umjetne inteligencije koji se koristi u kućanstvu, a zatim "slučajno" sruši vazu, čini se da sugerira da nitko ne bi trebao biti kriv za ovo štetno djelovanje AI. Bila je to samo nesreća, mogli bi se žalosno osuditi. S druge strane, s pravom se trebamo pitati zašto AI sustav nije bio programiran da se nosi s vaznim okolnostima općenito. Čak i ako programeri umjetne inteligencije nisu predvidjeli da je vaza sama po sebi unutar opsega objekata koji se mogu susresti, sigurno se možemo zapitati zašto nije bilo nekog sveobuhvatnog izbjegavanja objekata koji bi spriječio AI sustav da sruši vaza (dakle, umjetna inteligencija možda nije klasificirala vazu kao vazu, ali je ipak mogla izbjeći kao objekt koji se može otkriti koji treba izbjegavati).

Predvidio sam i nastavljam predviđati da se postupno krećemo prema golemoj pravnoj borbi oko pojave AI sustava koji se dovode u "nesreće s umjetnom inteligencijom" i uzrokuju neku vrstu štete. Sve do sada, društvo nije reagiralo na bilo koji značajan način na pravno odbijanje umjetne inteligencije koja je izbačena na tržište i proizvodi štetne posljedice, bilo namjerno ili nenamjerno. Današnji AI bandwagon koji je postao zlatna groznica napola pečenih AI proizvođača i onih koji žurno donose implementaciju AI upravo sada dobivaju sreću i ostaju relativno netaknuti građanskim tužbama i kaznenim progonima.

Pravna reakcija potaknuta umjetnom inteligencijom dolazi, prije ili kasnije.

Idemo dalje, kako se pokušati nositi s neizbježnošću takozvanih AI nesreća?

Jedna stvar koju možemo učiniti odmah je pokušati predvidjeti kako bi se mogle dogoditi nesreće s umjetnom inteligencijom. Predviđajući nesreće s umjetnom inteligencijom, možemo barem pokušati osmisliti sredstva za njihovo suzbijanje ili minimiziranje njihove vjerojatnosti da će se dogoditi. Nadalje, možemo pokušati postaviti zaštitne ograde tako da se, kada se dogodi AI nesreća, šanse za demonstrativnu štetu budu smanjene.

Koristan skup čimbenika koji su opisani u ranije citiranom istraživačkom članku Razumijevanje i izbjegavanje pogrešaka umjetne inteligencije: praktični vodič uključuje ova svojstva (kao što je citirano iz istraživačkog rada):

  • Sustav na koji utječu izlazi AI.
  • Vremensko kašnjenje između izlaza AI i većeg sustava, vidljivost sustava, razina ljudske pažnje i sposobnost operatera da ispravi kvar AI.
  • Maksimalna šteta moguća zlonamjernom uporabom sustava koje kontrolira AI.
  • Spajanje komponenti u blizini AI i složenost interakcija.
  • Nedostatak znanja o umjetnoj inteligenciji i drugim korištenim tehnologijama te energetskoj razini sustava.

U ovom trenutku ove opsežne rasprave, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli dodatno razjasniti temu nesreća s umjetnom inteligencijom. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljuje li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji išta o pojavi takozvanih AI nesreća i ako jest, što ovo pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i incidenti s umjetnom inteligencijom

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni za duboko zaroniti u samovozeće automobile i mogućnosti etičke umjetne inteligencije što podrazumijeva pojavu takozvanih AI nesreća.

Zamislite da je samovozeći automobil baziran na umjetnoj inteligenciji u tijeku na ulicama vašeg susjedstva i čini se da vozi sigurno. Isprva ste posvećivali posebnu pažnju svakom trenutku kada biste uspjeli baciti pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektroničkih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo tjedana samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim cestama.

Da ne mislite da je nemoguće ili nevjerojatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se područja koja su u okviru testiranja samovozećih automobila postupno navikla vidjeti dotjerana vozila. Mnogi mještani naposljetku su prešli s razjapljenih usta ushićenog buljenja na sada emitovanje ekspanzivnog zijevanja dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerojatno je trenutno glavni razlog zašto bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Uobičajeni AI sustavi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na cesti. Za užurbane ljudske vozače u svojim tradicionalnim automobilima koje upravljaju ljudi, ponekad se razljutite kada ste zaglavljeni iza samovozećih automobila baziranih na umjetnoj inteligenciji koji se strogo pridržavaju zakona.

To je nešto na što bismo se svi trebali naviknuti, s pravom ili ne.

Vratimo se našoj priči.

Jednog dana samovozeći automobil doživi nesreću.

Prilikom skretanja udesno, AI sustav vožnje široko je zamahnuo autonomno vozilo i udario je automobil koji je upravljao čovjek. Automobil kojim je upravljao čovjek išao je ravno pravilnom prometnom trakom. Nije bilo posebne prilike da ljudski vozač skrene ili izbjegne udarac. Osim toga, nije bilo nikakvog upozorenja niti naznaka samovozećeg automobila da će u velikoj mjeri skrenuti u desno.

Je li ovo nesreća?

Svakako možemo reći da je to obuhvaćeno rubrikom nesreće s umjetnom inteligencijom. Osnova za takvu tvrdnju je da je za volanom samovozećeg automobila postojao AI sustav vožnje. Nekako, iz bilo kojih razloga, AI je odlučio napraviti širok zamah pri skretanju udesno. Rezultat je doveo do toga da je samovozeći automobil udario u automobil kojim upravljaju ljudi.

Prisjetite se prethodne rasprave o konotacijama povezanim s riječju "nesreća" i pogledajte kako se takvi prizvuci pojavljuju u ovom scenariju. Također, zapamtite da smo raspravljali o slučaju ljudskog vozača koji je napravio široki desni zavoj i naletio na automobil kojim upravljaju ljudi. Shvatili smo da je pojam da je ovaj čin "nesreća" pogrešan i zbunjujući. Ljudski vozač koji je napravio široki zamah mogao se sakriti iza ideje da se nesreća dogodila samo naizgled slučajno ili hirovom sudbine.

Umjesto da scenarij označimo kao "nesreću s umjetnom inteligencijom" u slučaju samovozećeg automobila baziranog na umjetnoj inteligenciji koji ide u širinu i udari u automobil kojim upravljaju ljudi, možda bismo trebali reći da se radilo o automobilskoj nesreći ili sudaru automobila koji uključuje samo-vozeći automobil. vozeći automobil i automobil kojim upravljaju ljudi. Tada možemo odbaciti praznu zbrku da je to nesreća nespoznatljivim sredstvima.

Što mislite kakva bi bila reakcija javnosti na incident?

Pa, ako se proizvođač automobila ili samovozeća tehnološka tvrtka može držati etiketiranja stvari kao nesreće, mogli bi zaobići potencijalnu reakciju zajednice u cjelini. Osjećaj suosjećanja u vezi s nesrećama koje su sve ispričane vjerojatno bi se pretakao na određenu okolnost. Za više o tome kako će gradovi, županije i državni čelnici potencijalno reagirati na incidente autonomnih vozila s umjetnom inteligencijom, pogledajte raspravu o studiji s Harvarda koju sam vodio i kako je opisano na link ovdje.

Ako se situacija jasno opiše kao automobilska nesreća ili sudar, možda bi to moglo omogućiti spoznaju da je netko ili nešto možda krivo za incident. Reakcija koljena mogla bi biti da se AI treba smatrati odgovornom. Stvar je u tome da, sve dok ili ako ikada odlučimo pomazati AI kao da ima privid pravne osobe, nećete moći pripisati odgovornost AI per se (pogledajte moju raspravu o AI i pravnoj osobi na link ovdje).

Možemo pregledati AI sustav vožnje kako bismo pokušali shvatiti što je dovelo do naizgled neprikladne vožnje i sudara automobila koji je uslijedio. To ipak ne znači da će AI snositi odgovornost. Odgovorne strane uključuju programere umjetne inteligencije, operatera voznog parka samovozećih automobila i druge. Uključujem i druge jer postoji mogućnost da grad bude djelomično odgovoran za projektiranje ugla na kojem se skretalo. Uz to, pretpostavimo da je pješak izletio iz ugla, a sustav za vožnju s umjetnom inteligencijom odlučio je izbjeći osobu, a zatim se upleo u sudar.

I tako dalje.

Zaključak

Željeli bismo znati što je AI računalno izračunavao i za što je bio programiran. Je li AI učinio kako je kodiran? Možda je AI naišao na bug ili grešku u programiranju, što ne opravdava radnje, ali daje više naznaka o tome kako je došlo do pada.

Kakve su AI zaštitne ograde programirane u AI sustav vožnje? Kad bi postojale zaštitne ograde, željeli bismo shvatiti zašto se činilo da ne spriječe automobilsku nesreću. Možda se AI sustav vožnje mogao zaustaviti umjesto da skrene. Željeli bismo znati koje je alternative AI računalno procijenio tijekom incidenta.

Osim dolaženja do dna konkretnog incidenta, još jedna opravdana dilema je ima li sustav vožnje AI-a nedostatak ili neki drugi ugrađeni aspekt koji će činiti slične vrste štetnih radnji. U biti, ovaj bi incident mogao biti izdajnički pokazatelj toga što će doći. Kako su korištene računalne simulacije situacija u vožnji kako bi se pokušalo predvidjeti ova vrsta poticaja AI sustava za vožnju? Je li bilo dovoljno ispita vožnje na cesti da se otkriju problemi s umjetnom inteligencijom koji su mogli dovesti do nesreće?

Ovaj scenarij naglašava spornu zagonetku koja se suočava s pojavom samovozećih automobila temeljenih na umjetnoj inteligenciji.

To ide ovako.

S jedne strane, postoji društvena želja za brzim usvajanjem samovozećih automobila zbog nade da će AI sustavi za vožnju biti jednako sigurni ili možda sigurniji od ljudskih vozača. Samo u Sjedinjenim Državama trenutno imamo gotovo 40,000 ljudskih smrtnih slučajeva godišnje zbog automobilskih nesreća i oko 2.5 milijuna ljudskih ozljeda. Analize sugeriraju da se znatan dio tih nesreća može pripisati ljudskoj grešci kao što je vožnja u alkoholiziranom stanju, vožnja s rastresom itd. (pogledajte moju procjenu takvih statistika na link ovdje).

AI sustavi za vožnju neće piti i voziti. Neće im trebati odmor i neće se istrošiti dok su za volanom. Pretpostavka je da uspostavljanjem samovozećih automobila kao održivog načina prijevoza možemo smanjiti broj ljudskih vozača. To bi zauzvrat trebalo značiti da ćemo na sažet način smanjiti broj godišnjih ljudskih smrtnih slučajeva i ozljeda u prometnim nesrećama.

Neki su stručnjaci rekli da ćemo završiti s nula smrtnih slučajeva i ozljedama, a ti samovozeći automobili navodno neće biti udesivi, ali ovo je potpuno apsurdan i potpuno lažan skup očekivanja. Objasnio sam zašto je ovo tako neiskreno link ovdje.

U svakom slučaju, pretpostavimo da ćemo imati određenu količinu automobilskih nesreća u koje se umiješaju samovozeći automobili. Pretpostavimo i da će te automobilske nesreće imati određenu količinu smrtnih slučajeva i ozljeda. Pitanje koje se muči je jesmo li mi kao društvo spremni uopće tolerirati takve slučajeve. Neki kažu da ako se dogodi čak i jedna smrt ili jedna ozljeda kao posljedica pravih samovozećih automobila, cijeli komplet i kaboodle treba zatvoriti.

Protuporno stajalište je da ako spašeni životi smanjuju godišnji broj, trebali bismo nastaviti poticati pojavu samovozećih automobila i ne reagirati na tako nelogičan način. Morat ćemo prihvatiti pretpostavku da će određena količina smrtnih slučajeva i ozljeda i dalje postojati, čak i kod samovozećih automobila, a ipak shvatiti da godišnji broj ako se smanji sugerira da smo na pravom putu.

Naravno, neki tvrde da ne bismo smjeli imati samovozeće automobile na našim javnim cestama sve dok ne budu odobreni za takvu upotrebu kao rezultat opsežnih i iscrpnih računalnih simulacija ili putem privatnog testiranja na zatvorenoj stazi. Protuargument je da je jedini održiv i najbrži način da se samovozeći automobili pokrenu korištenjem javnih cesta i da će svako kašnjenje u usvajanju samovozećih automobila u suprotnom omogućiti nastavak užasnog broja sudara s ljudskim automobilima. Opširnije sam obradio ovu raspravu u svojim kolumnama i pozivam čitatelje da pogledaju te rasprave kako bi stekli puni osjećaj perspektiva o ovom kontroverznom pitanju.

Zamotamo stvari za sada.

Nesreće s umjetnom inteligencijom će se dogoditi. Moramo se oduprijeti impulsu da nesreću s umjetnom inteligencijom protumačimo kao prividnu slučajan i ergo lažno neka kreatori i oni koji implementiraju AI budu kategorički isključeni.

Postoji dodatni zaokret koji vam ostavljam kao posljednju intrigantnu misao za vaš dan.

Komičar Dane Cook navodno je ispričao ovaj vic o prometnim nesrećama: “Prije nekoliko dana doživio sam prometnu nesreću. Nije moja krivnja. Čak i ako nisi ti kriv, druga osoba izlazi iz svog auta i gleda te kao da si ti kriv: Zašto si stao na crveno i pustio me da te udarim dok radiš 80!”

Tamo gdje zaokret dolazi do izražaja je mogućnost da bi sustav umjetne inteligencije odlučio inzistirati na tome da, kada se dogodi AI nesreća koja uključuje tu određenu AI, AI reklamira da je za incident kriv čovjek, a zasigurno nije kriv AI. Usput, ovo bi moglo biti potpuno istinito i čovjek bi mogao pokušati postati žrtveni jarac AI tvrdeći da je za to kriva AI.

Ili možda AI pokušava postati žrtveno janje čovjeka.

Vidite, umjetna inteligencija koju smo osmislili mogla bi biti lukava na taj način, slučajno ili ne.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- vožnja-automobili-također/