Etička umjetna inteligencija ambiciozno se nada da će AI sama naučiti etičko ponašanje, kao što je slučaj s umjetnom inteligencijom u autonomnim samovozećim automobilima

Aristotel je slavno rekao da obrazovanje uma bez obrazovanja srca nije nikakvo obrazovanje.

Mogli biste protumačiti tu pronicljivu primjedbu da sugerira da je učenje o etici i moralnom ponašanju od vitalnog značaja za čovječanstvo. U klasičnoj raspravi o prirodi protiv njegovanja, moramo se zapitati koliko je naših etičkih običaja instinktivno izvorno, dok se koliko toga naučimo tijekom naših životnih dana. Mala djeca promatraju druge ljude i vjerojatno skupljaju svoje etičke temelje na temelju onoga što vide i čuju. Isto se može reći i za tinejdžere. Za odrasle otvorenog uma, i oni će se nastaviti prilagođavati i napredovati u svom etičkom razmišljanju kao rezultat iskustva svakodnevnog svijeta.

Naravno, izričito podučavanje nekoga o etici također je dio predmeta. Ljudi su dužni učiti o etičkim načinima kroz pohađanje nastave na tu temu ili možda odlaskom na događaje i prakse koje ih zanimaju. Etičke vrijednosti mogu se jasno identificirati i podijeliti kao sredstvo za pomoć drugima u formuliranju vlastite etičke strukture. Osim toga, etika može biti suptilno skrivena unutar priča ili drugih načina poučavanja koji u konačnici nose poruku od čega se sastoji etičko ponašanje.

Čini se kako ljudi prožimaju etiku.

Što je s umjetnom inteligencijom (AI)?

Shvaćam da bi se takvo pitanje moglo činiti čudnim. Svakako očekujemo da ljudi ugrade etiku i hodaju kroz život s nekim prividom moralnog kodeksa. To je jednostavna i očita činjenica. S druge strane, čini se da se stroj ili računalo ne uklapaju u isti referentni okvir. Vaša bi iskustvena reakcija mogla biti da je natjerano ili čudno smatrati AI utjelovljenjem etičkih i moralnih kodeksa.

Čini se da najbolje što možemo učiniti u vezi s umjetnom inteligencijom jest osmisliti je tako da ne odstupa od etičkog ponašanja. Programeri umjetne inteligencije i oni koji se bave umjetnom inteligencijom moraju biti odgovorni za osiguranje da je AI kako je dizajniran i kada je implementiran već u skladu s etičkim pravilima. Iza vrata, da tako kažem, AI bi već trebao biti netaknut i spreman za rad kao potpuno etički ispravan izum.

Sigurno biste bili u pravu kada mislite da bi sustavi umjetne inteligencije doista trebali biti izrađeni tako da se već u potpunosti uklapaju u etičku osnovu. Društvo je bilo prilično uzbuđeno kada je najnoviji val sustava umjetne inteligencije prvi put objavljen i činilo se da pokazuje da smo u eri AI za dobro. AI bi pomogao u rješavanju mnogih najizazovnijih svjetskih problema. Napredak u tehnologiji koristio se kako bi se ljudske sposobnosti nadopunile kognitivnim mogućnostima, iako mi dopustite da naglasim da još nemamo razumnu umjetnu inteligenciju i ne znamo hoće li se osjetiti AI postići.

Problem s žurbom da se umjetna inteligencija pojavi na svijetu postupno je otkrila ružno podnožje umjetne inteligencije poznato kao AI za loše. Bilo je mnogo naslova o sustavima umjetne inteligencije koji koriste algoritamsko odlučivanje (ADM) koje je prepuno pristranosti i nejednakosti. Povrh toga, velik dio suvremene umjetne inteligencije pati od nedostatka transparentnosti, obično je neobjašnjiv u smislu objašnjenja računalnih odluka, često pokazuje nedostatak pravičnosti i dopušta nekima da preusmjere svoju ljudsku odgovornost upirući prstom u AI.

U svojim tekstovima opširno sam pokrivao etičku umjetnu inteligenciju i etiku umjetne inteligencije, uključujući link ovdje i link ovdje, Samo da spomenemo nekoliko.

Kako može postojati AI za loše ako uzmemo kao navedeni konstrukt da AI treba biti izrađen od početka kako bi se izbjegle neetičke radnje?

Odgovor je višestruk.

Prvo, mnogi programeri umjetne inteligencije i tvrtke koje se bave umjetnom inteligencijom i same nemaju pojma o važnosti oblikovanja svoje umjetne inteligencije kako bi ostali unutar etičkih granica. Koncept im uopće nije na radaru. Privlačnost brzog zarađivanja tjera neke da guraju naprijed s bilo kojim divljim idejama umjetne inteligencije koje žele namjerno proizvesti. Nema potrebe shvaćati nikakve etičke stvari. Samo izgradite AI i pokrenite ga.

Drugo, postoje oni koji stvaraju AI koji uljepšavaju potpunu svijest o etičkim posljedicama, ali oni otvoreno umanjuje ili donekle zanemaruju razmatranja etičke umjetne inteligencije. Jedna uobičajena perspektiva je klasična mantra tehničara o brzom neuspjehu i čestom neuspjehu. Samo nastavite ponavljati dok se nadamo da se stvari na odgovarajući način ne riješe. Šanse da se bilo kakvo sustavno i promišljeno uključivanje etike umjetne inteligencije u te brze napore AI-a uguraju su nažalost male. Razgovaram o potrebi za osnaživanjem vodstva prema etičkoj umjetnoj inteligenciji na link ovdje.

Treće, postoji mnogo nejasnoća o tome koje etičke zaštitne ograde treba uzeti u obzir pri osmišljavanju AI. Naravno, danas postoje mnoge etičke smjernice za umjetnu inteligenciju, pogledajte moje izvješće na link ovdje, iako je ove zgodne teorijske propise teško nužno pretvoriti u specifičnosti za dani AI sustav koji se gradi. Naznačio sam da ćemo polako vidjeti pojavu alata i metodologija za izgradnju umjetne inteligencije koje uključuju etičke prakse kodiranja umjetne inteligencije, pomažući da se zatvori jaz između apstraktnih aspekata i poslovičnih aspekata gume i ceste.

Četvrto, u skladu s naglaskom ovdje, istražujemo zahvaćeni slučaj AI koji čak i ako je prvobitno sastavljen unutar etičkih granica, a kasnije tijekom upotrebe vijuga izvan pretpostavljenih etički kodiranih parametara.

Moramo to raspakirati.

Veći dio današnje umjetne inteligencije koristi strojno učenje (ML) i duboko učenje (DL). To su tehnike i tehnologije kompjutorskog usklađivanja uzoraka. Općenito, ideja je da skupite puno relevantnih podataka za sve što bi AI trebao biti u stanju učiniti, ubacite te podatke u odabrani računalni uzorak za usklađivanje, a podudaranje uzoraka matematički pokušava pronaći korisne obrasce. Imajte na umu da nema smisla od strane ove umjetne inteligencije (koja, opet, takva stvar još ne postoji). Niti je uključeno zdravorazumsko razmišljanje. Sve je to matematika i izračuni.

Moguće je da su podaci koji se unose u ML/DL već prožeti pristranostima i nejednakostima. U tom slučaju, izgledi su da će podudaranje računskog uzorka samo oponašati iste sklonosti. Ako navedete podatke koji favoriziraju jednu rasu u odnosu na drugu ili favoriziraju jedan spol u odnosu na drugi, postoji velika šansa da će se podudaranje uzorka uhvatiti za to kao otkriveni uzorak.

Veliki problem s takvom vrstom zaključavanja je taj što bismo mogli imati poteškoća u otkrivanju da se obrasci temelje na tom aspektu podataka. Trnovita i složena matematika može učiniti pojavljivanje tako pronađenih uzoraka prilično problematičnim. Čak ni testiranje umjetne inteligencije neće nužno otkriti te tendencije, ovisno o rasponu i dubini testova koji se primjenjuju.

Dakle, pretpostavimo da ste izgradili sustav umjetne inteligencije i uradili domaću zadaću tako što ste prvo pokušali izbjeći korištenje podataka koji su već imali pristranosti. Zatim, nakon što su poduzeti Strojno učenje i Duboko učenje, testirali ste rezultate da vidite jesu li se na neki način pojavile bilo kakve pristranosti ili nejednakosti. Pretpostavimo da ne možete pronaći takve neugodne sklonosti.

Sve u svemu, sada je dato zeleno svjetlo za nastavak i stavljanje AI u upotrebu. Ljudi će početi koristiti umjetnu inteligenciju i vjerojatno će pretpostaviti da je etički ispravan. To misle i programeri. Tvrtka koja se bavi umjetnom inteligencijom misli ovo. Odlazimo svi.

Evo što se može dogoditi.

Nagoveštaj pristranosti koji nije pronađen u izvornim podacima i koji nije uhvaćen tijekom testiranja AI vjerojatno je aktiviran. Možda se to rijetko događa. Možda vjerujete da je sve u redu, dok je rijetkost. Ipak sumnjam da su oni koji su ranjivi na spomenutu pristranost voljni na stvari gledati na taj način. Usuđujem se reći da će se sustav umjetne inteligencije i oni koji su ga formulirali suočiti s posljedicama, bilo na pravnim sudovima ili na otvorenom sudu za društveno mišljenje.

Druga varijanta je poslovična ideja da se uzme jedan inč i zgrabi milju. Nagovještaj bi u početku mogao biti malen. Tijekom korištenja AI-a, AI je možda bio osmišljen da se mijenja kako stvari idu dalje. Ova vrsta "učenja" ili "samoučenja" može biti vrlo korisna. Umjesto da zahtijevaju od razvojnih inženjera čovjeka i umjetne inteligencije da neprestano modificiraju i prilagođavaju AI sustav, AI je napravljen da to čini sam. Bez kašnjenja, bez skupe radne snage itd.

Nedostatak ovog zgodnog samoprilagođavanja je da se inkling može podići na sve veće i veće unutar opsega korištenja AI. Dok je pristranost možda bila u malom uskom kutu, sada ima prostora za proširenje. AI nema privida da je to "pogrešno" i samo računski proširuje nešto što se čini da radi.

Ako vam od toga kosa stoji na glavi, morat ćete sjesti za sljedeću varijantu.

Pretpostavimo da pristranost nije postojala od samog početka i da imamo sva razumna uvjerenja da je AI potpuno bez predrasuda. Ili smo imali sreće ili smo se možda sustavno pobrinuli da nigdje u podacima nema pristranosti i da nije nastala putem računskog podudaranja uzorka. Unatoč tom uzdahu olakšanja, AI se može prilagoditi tijekom upotrebe. Pandorina vrata se otvaraju i AI odlučuje računalno gravitirati prema pristranostima koje se pronalaze tijekom onoga što AI radi.

Novootkrivena pristranost proždire se u AI, a nitko nije posebno mudriji što se to dogodilo. Joj, stvorili smo čudovište, pravog Frankensteina.

Kako se ova pojava može spriječiti ili barem označiti?

Jedan pristup koji dobiva na snazi ​​sastoji se od ugrađivanja u AI komponente prikupljanja etike. AI je konstruiran tako da uključuje elemente etičke umjetne inteligencije. Ti elementi zatim promatraju ili nadziru ostatak AI-a dok se AI tijekom vremena prilagođava. Kada se čini da je umjetna inteligencija prešla programirane etičke propise, etička umjetna inteligencija pokušava uključiti te prilagodbe ili upozorava programere da je nešto pošlo po zlu.

Možete pokušati programirati ovaj nadzorni kapacitet etičke umjetne inteligencije i nadati se da će prevladati dok se AI koristi.

Još jedan pomalo kontroverzan kut bio bi korištenje strojnog učenja i dubokog učenja za treniranje etičkih aspekata umjetne inteligencije u sustavu umjetne inteligencije.

Što reći?

Da, možda neortodoksan koncept je da umjesto da ljudski programer izravno kodira skup etičkih propisa AI-a, AI je oblikovan tako da ih pokuša "naučiti". Podsjetimo da sam ukratko napomenuo da se upotreba ML/DL-a obično oslanja na unos podataka u algoritme i da se odvija podudaranje računskog uzorka. Pitanje od milijun dolara je možemo li upotrijebiti isti mehanizam da unesemo etičke vrijednosti u sustav umjetne inteligencije.

Pretpostavljam da biste ovo mogli usporediti s mojom raspravom na početku o tome kako ljudi postaju svjesni etičkih načela, premda nemojte antropomorfizirati današnji AI kao usporediv s ljudskim razmišljanjem (nije, i uskoro ću ponoviti tu opomenu). AI se može "urođeno" programirati s etičkim AI pravilima. Ili bi AI mogao "naučiti" etičke AI propise. Možete učiniti oboje, naravno, što je nešto što sam pokrio negdje drugdje, vidite link ovdje.

Odvojite trenutak da razmislite o naizgled zapanjujućem konceptu da bi AI mogla "naučiti" etiku i ergo se vjerojatno pridržavati etičkog ponašanja.

Ovi istraživači koriste primjer AI sustava koji određuje željenu temperaturu u kući kako bi ilustrirali kako to može funkcionirati: “Prvo je 'promatrao' ponašanje ljudi u različitim kućanstvima samo tjedan dana i izvlačio zaključke o njihovim preferencijama. Zatim je pomoću senzora za detekciju pokreta utvrdio je li netko kod kuće. Kada je kuća bila prazna, pametni termostat je ušao u način visoke uštede energije; kada su ljudi bili kod kuće, termostat je prilagođavao temperaturu prema njihovim željama. Ovaj termostat jasno ispunjava dva zahtjeva etičkog bota, iako vrlo jednostavan. Procjenjuje preferencije ljudi i nameće ih kontrolama sustava grijanja i hlađenja. Može se zapitati kakve to veze ima s društvenim moralnim vrijednostima. Ovaj termostat omogućuje osobama s različitim vrijednostima da imaju željene postavke temperature. Stanari doma ne trebaju resetirati termostat svaki dan pri dolasku i odlasku. Ovaj jednostavni etički bot također smanjuje ukupni energetski otisak zajednice” (prema radu Amitaija Etzionija i Orena Etzionija pod naslovom “Etika uz pomoć umjetne inteligencije” u svesku na Etika i informacijska tehnologija).

Prije nego što dalje zadubim u zaokrete posjedovanja umjetne inteligencije koja "uči" etičko ponašanje, želio bih reći nešto više o statusu AI.

AI se može sastojati od sljedećih mogućih stanja:

1. Neosjetljiva obična stara umjetna inteligencija današnjice

2. Osjetna umjetna inteligencija ljudske kvalitete (još to nemamo)

3. Osjetna umjetna inteligencija koja je super-inteligentna (iznad #2)

Usredotočit ću se na postojeće stanje koje je neosjetljiva, obična AI. Velik dio onoga što biste ponekad mogli pročitati o etičkoj umjetnoj inteligenciji pokriva razumnu umjetnu inteligenciju i stoga je vrlo spekulativno. Kažem da je to spekulativno jer nitko ne može zabiti rep magarcu o tome što će razumna AI biti. Čak i dalje od područja ljudske kvalitete, osjećajna AI nalazi se vrlo razdragana super-inteligentna umjetna inteligencija. Mnogo je znanstveno-fantastičnih priča i nedoumica o tome kako bi ti okusi umjetne inteligencije mogli odlučiti porobiti čovječanstvo ili nas jednostavno sve izbrisati. To je poznato kao egzistencijalni rizik od AI. Ponekad se dilema također opisuje kao katastrofalni rizik od umjetne inteligencije.

Neki tvrde da bismo mogli biti u redu sve dok zadržimo AI uz neosjetljivu, običnu AI koju danas imamo. Pretpostavimo da ne možemo dosegnuti razumnu umjetnu inteligenciju. Zamislite da, koliko god se trudili izraditi razumnu umjetnu inteligenciju, ne uspijevamo u tome. Isto tako, pretpostavimo radi rasprave da razumna AI ne nastaje nekim tajanstvenim spontanim procesom.

Nismo li onda sigurni da će ovaj AI manjeg kalibra, koji je zamišljena jedina moguća vrsta AI, biti u upotrebi?

Ne baš.

Prilično, vjerojatno će se pojaviti isti opći problemi. Ne sugeriram da AI "razmišlja" na svoj način da nas želi uništiti. Ne, obična neosjetljiva umjetna inteligencija samo je postavljena na pozicije moći koje nas uvlače u samouništenje. Na primjer, neosjetnu umjetnu inteligenciju stavljamo u oružje za masovno uništenje. Ova autonomna oružja nisu u stanju razmišljati. U isto vrijeme, ljudi nisu u potpunosti u tijeku. Kao rezultat toga, AI kao oblik autonomne automatizacije nenamjerno uzrokuje katastrofalne rezultate, bilo ljudskom naredbom da to učini, bilo greškom ili greškom, ili usađenim zlom, ili samoprilagođavanjem koje stvari dovode do toga ružan put itd.

Tvrdio bih da problem etike umjetne inteligencije postoji za sve tri te države propisane AI, naime da imamo etičke probleme s umjetnom inteligencijom s neosjetnom, običnom umjetnom inteligencijom, i s osjećajnom umjetnom inteligencijom koja je ili samo ljudska razina ili proširena AI koja doseže hvaljena razina superinteligencije.

S obzirom na tu otrežnjujuću izjavu, zasigurno možemo raspravljati o veličini i poteškoćama povezanim s etičkim problemima na svakoj od odgovarajućih razina AI. Uobičajeno je stajalište da je etički problem umjetne inteligencije manje nepremostiv na neosjetljivoj AI, čvršći na razini umjetne inteligencije koja je jednaka osjećajnom čovjeku, i istinski zalupava na razini osjetljive super-inteligentne AI.

Što AI postaje bolji, etički problem umjetne inteligencije postaje gori.

Možda je to neprikosnoveni zakon prirode.

Vraćajući se fokusu na današnju umjetnu inteligenciju, pokušaj da AI “nauči” etičko ponašanje putem suvremenog strojnog učenja i dubokog učenja prepun je briga i lukavih problema. Pretpostavimo da AI ne uspijeva prikupiti željene etičke propise? Kako ćemo sa sigurnošću znati da je pri tome posustala? Također, hoće li drugi dijelovi AI sustava potencijalno nadjačati prikupljene etičke konstrukcije? Dodajte ovome da ako se AI prilagođava u hodu, prilagodbe bi mogle umanjiti etičke aspekte ili ih nehotice potpuno preplaviti.

Da stvar bude još gora, "učenje" bi moglo dovesti do toga da AI naleti na doista neetičko ponašanje. Dok smo mislili da činimo ispravnu stvar potičući AI da bude etičan, ispostavilo se da je umjesto toga AI skliznuo u usklađivanje uzoraka na neetičkim aspektima. Govorimo o pucanju u vlastitu nogu, to bi se apsolutno moglo dogoditi.

U ovom trenutku ove rasprave, kladio bih se da ste željni nekih dodatnih primjera iz stvarnog svijeta koji bi mogli naglasiti kako bi se AI „učenje” etike moglo primijeniti na današnju AI (osim ukusnog zadirkivanja primjera termostata).

Drago mi je da ste pitali.

Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Da li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji rasvjetljuje išta o tome da AI može "naučiti" etičke AI propise, i ako jest, što ovo pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni koji AI automobilom upravljaju potpuno samostalno, a tijekom zadatka vožnje nema nikakve ljudske pomoći.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još nema pravog automobila za samostalnu vožnju na razini 5, za koji još ne znamo hoće li to biti moguće i koliko će vremena trebati da se tamo stigne.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i etička inokulacija umjetnom inteligencijom

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo pripremljeni da duboko zaronimo u samovozeće automobile i mogućnosti etičke umjetne inteligencije, što uključuje tvrdnju koja podiže obrve da možemo natjerati AI da sam "nauči" o etičkom ponašanju.

Upotrijebimo vrlo jednostavan primjer. Samovozeći automobil baziran na umjetnoj inteligenciji u tijeku je na ulicama vašeg susjedstva i čini se da vozi sigurno. Isprva ste posvećivali posebnu pažnju svaki put kada biste uspjeli baciti pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektroničkih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo tjedana samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim cestama.

Da ne mislite da je nemoguće ili nevjerojatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se područja koja su u okviru testiranja samovozećih automobila postupno navikla vidjeti dotjerana vozila, pogledajte moju analizu na ova poveznica ovdje. Mnogi mještani naposljetku su se prebacili s razjapljenih usta ushićenog buljenja u sada emitujući ekspanzivno zijevanje dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerojatno je trenutno glavni razlog zašto bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Uobičajeni AI sustavi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na cesti. Za užurbane ljudske vozače u svojim tradicionalnim automobilima koje upravljaju ljudi, ponekad se razljutite kada ste zaglavljeni iza samovozećih automobila baziranih na umjetnoj inteligenciji koji se strogo pridržavaju zakona.

To je nešto na što bismo se svi trebali naviknuti, s pravom ili ne.

Vratimo se našoj priči. Jednog dana, pretpostavimo da samovozeći automobil u vašem gradu vozi i naiđe na situaciju u kojoj pješak čeka da prijeđe cestu. Pretpostavimo da pješak sam po sebi nema prednost. Automobil kojim upravljaju ljudi mogao bi proći pored pješaka i pritom biti potpuno legalan. Isto tako, AI sustav vožnje legalno može proći pored pješaka koji čeka.

Odlučivanje hoće li se zaustaviti i pustiti pješaka preko ulice u potpunosti je diskreciono za vozača, bez obzira na to radi li se o ljudskom vozaču ili AI sustavu vožnje.

Siguran sam da ste se nebrojeno puta susreli s ovakvom situacijom. Možda vam se žuri, pa ne stanete da pješaka prijeđe. Drugom prilikom imate dovoljno vremena da stignete do odredišta, pa se odlučite zaustaviti i dopustiti osobi koja čeka da prijeđe ulicu. Vaše raspoloženje i posebne okolnosti diktiraju što ćete odlučiti učiniti.

Ništa se u ovom scenariju ne čini neobično ili uznemirujuće.

Prije nego što ispitam stranu stvari s umjetnom inteligencijom, moglo bi vas zanimati da je ovaj poseban aspekt diskrecije koji dopušta pješaku da prijeđe ulicu pomno proučavan. Istraživači su utvrdili da ponekad izbor vozača očito ovisi o rasnim ili rodnim predrasudama. Ljudski vozač može odrediti pješaka koji čeka na čekanju i odlučiti dopustiti osobi da prijeđe naizgled na temelju inherentnih predrasuda vozača. Hoće li vozač uopće shvaćati da to čine, stvar je istraživanja u tijeku. Pogledajte moje izvješće na ova poveznica ovdje.

Postavio sam teren za naše istraživanje što bi AI sustav vožnje mogao učiniti u situaciji na pješačkom prijelazu.

Konvencionalno programiranje AI-a moglo bi značiti da AI programeri odluče uvijek zaustaviti AI sustav vožnje i pustiti pješaka da prijeđe. Čini se da je to etički ispravna ili građanska stvar. Samovozeći se auto priklanja čovjeku koji čeka i želi prijeći ulicu.

Usuđujem se reći, da ste putnik u samovozećem automobilu i da se AI uvijek zaustavlja za sve pješake koji diskrecijski čekaju, mogli biste poludjeti. Vaš brzi odlazak do trgovine može potrajati mnogo puta dulje. Zapamtite također da ne mislimo na pješake koji imaju pobožno zakonsko pravo prolaza, budući da bi ti slučajevi vjerojatno već imali AI programiran da uvijek dopušta. Usredotočujemo se samo na diskrecijske okolnosti.

Postoji više nedostataka ove deklaracije da se uvijek zaustavljaju kako bi diskrecijski pješaci prešli ulicu.

Oni koji proizvode i koriste samovozeće automobile temeljene na umjetnoj inteligenciji žele da se ljudi voze u njima. Ideja je da bismo samovozećim automobilima mogli smanjiti broj godišnjih prometnih nesreća, koje trenutno proizvode oko 40,000 godišnjih smrtnih slučajeva i 2.5 milijuna ozljeda samo u Sjedinjenim Državama, pogledajte moju zbirku statistike na ova poveznica ovdje. Osim ovog cijenjenog društvenog cilja, proizvođači automobila i samovozećih tehnologija nadaju se da će zaraditi i na svojim AI kreacijama, naravno.

Pominjem ovo jer bi ljudi mogli odlučiti da se ne voze u samovozećim automobilima ako sustav vožnje AI radi stvari koje nepotrebno završiti odgađanjem putovanja. Svaka bi obična osoba zaključila da bi, umjesto odabira ljudskog vozača, putovanje moglo biti brže, a ergo odabir samovozećeg automobila s umjetnom inteligencijom za putovanje mogao bi biti postavljen vrlo nisko na popisu njihovih izbora. To bi zauzvrat značilo da ne bismo imali traženo smanjenje prometnih nesreća i da bi proizvođači potencijalno smatrali da je njihova roba neisplativa.

S obzirom na taj niz argumenata, mogli biste se potaknuti na pomisao da AI nikada ne bi trebao stati kada se dogodi diskrecijski slučaj pješaka koji želi prijeći ulicu. Samo programirajte AI sustav vožnje da radi sve što je strogo legalno. Ako ne postoji zakonska obveza puštanja pješaka da prijeđe, onda nema sreće za tog pješaka koji čeka. Možda bi se osoba trebala uputiti do prijelaza koji dopušta pravnu osnovu za AI zaustavljanje samovozećeg automobila.

Možete li zamisliti negodovanje zbog ovoga?

Ljudi u vašem gradu ili gradu postupno otkrivaju da samovozeći automobili s umjetnom inteligencijom nikada neće dopustiti pješaku da prođe diskreciju. Taj prokleto razdražljivi AI! Kao da umjetna inteligencija lupa nosom prema ljudima. Nevaspitano derište komada ne-dobre automatike. Povrh svega, zamislite da postoje dokumentirane okolnosti u kojima pješaci očajnički trebaju prijeći, a AI se uopće ne bi zaustavio.

U međuvremenu, ljudski vozači voljno su se zaustavljali kako bi pustili te "očajne" ljude da sigurno pređu ulicu.

Kao rezultat ovog bijesa, samovozeći automobili s umjetnom inteligencijom više nisu dobrodošli na ulicama i usputnim cestama vašeg područja. Ukidaju se dozvole koje su izdali gradski čelnici. Stjerati nezahvalne zvjerke s naših cesta je vokalna galama.

U redu, čini se da smo između kamena i nakovnja. AI ne bi uvijek trebao pustiti diskrecionog pješaka da prijeđe (nemojte se uvijek zaustavljati). AI ne bi uvijek trebao spriječiti diskrecionog pješaka da prijeđe (nemojte uvijek zumirati). Što učiniti?

Očigledan odgovor bio bi programirati AI da djeluje na diskrecijski način.

Molim vas da razmislite o ADM-u (algoritamskom odlučivanju) od kojeg bi se ovo trebalo sastojati. Hoće li AI pokušati otkriti prirodu pješaka i upotrijebiti uočene karakteristike kao osnovu za odlučivanje hoće li zaustaviti samovozeći automobil ili ne? Možda je netko stariji način izbora. Ali je li ta dobna diskriminacija u nastajanju? I tako dalje.

Možda je AI sustav vožnje programiran da se zaustavi tijekom dana i nikad ne stane tijekom noći. Logika je vjerojatno da se pretpostavlja da je sigurnije za vozače u samovozećem automobilu da se autonomno vozilo zaustavi danju, ali ne i u mračnijim večernjim satima.

To možda zvuči razumno. Dio problema bit će i očekivanja pješaka. Evo na što mislim. Pješaci vide samovozeće automobile s umjetnom inteligencijom kako se zaustavljaju radi diskrecijskih prijelaza, što se događa po danu. Pješaci ne znaju po kojim kriterijima AI odluči stati. Pretpostavka nekih pješaka je da će AI uvijek stati (ne shvaćajući da je dnevno svjetlo u odnosu na noćno vrijeme pravi određivanje). Kao rezultat toga, oni pješaci koji vjeruju da će se samovozeći automobil uvijek zaustaviti iskoristit će priliku i početi prelaziti kada se sustav vožnje AI uopće ne želi zaustaviti (što bi se AI vjerojatno zaustavio ako pješak ulazi na ulicu, iako bi to moglo biti nezgodno i fizika bi mogla spriječiti AI da zaustavi samovozeći automobil nedovoljno vremena da izbjegne udarce naizgled "zalutalog" pješaka).

Pretpostavimo da programeri umjetne inteligencije i tvrtke koje sastavljaju i postavljaju samovozeće automobile u vašem gradu nisu sigurni kako poboljšati AI po ovom pitanju.

Odlučuju "trenirati" AI na podacima prikupljenim iz cijelog područja. Ispostavilo se da postoji mnogo gradskih kamera koje su snimile dolaske i odlaske automobila diljem mjesta. Ovi podaci pokazuju mnoge primjere pješaka koji žele prijeći ulicu na diskrecijski način. Svi se podaci unose u sustav strojnog učenja i dubokog učenja kako bi se izvuklo ono što se smatra uobičajenim u toj jurisdikciji.

Treniramo li umjetnu inteligenciju da radi ono što lokalni etički običaji pokazuju?

Drugim riječima, ako je u određenom gradu lokalna kultura više sklona zaustavljanju i puštanju diskrecijskih pješaka da prijeđu, što je vidljivo ljudskim radnjama vozača, ML/DL bi potencijalno izračunao ovaj obrazac. AI bi tada bio osposobljen da čini isto. S druge strane, ako se ljudski vozači rijetko zaustavljaju, AI bi potencijalno dobio tu "lekciju" iz računalne analize podataka. AI će raditi kao i ljudi, na neki način.

Tvrdnja je da je etičko ponašanje ljudi zarobljeno u podacima i da će AI prožeti te iste etičke propise računskom analizom. Etičar bi to općenito opisao kao komunitaristički pristup etici. Zajedničke vrijednosti zajednice odražavaju se u naporima zajednice u cjelini.

Ovo bi moglo izgledati kao kitnjasto rješenje.

Nažalost, postoji mnogo zamki.

Jedan od možda očitih problema je taj što ljudski vozači možda već koriste neki oblik pristranosti u odabiru zaustavljanja ili ne zaustavljanja (kao što je ranije spomenuto). AI će tada biti kopija ovih predrasuda. Želimo li da to bude tako?

Razmotrite još jedan problem. Pretpostavimo da ljudski vozači ne prihvaćaju spremno način na koji AI samovozeći automobili rade. Samo zato što su ljudski vozači bili, recimo, voljni stati, to se možda neće jednako pretpostaviti za samovozeće automobile. Moglo bi se dogoditi da se ljudski vozači iritiraju zbog samovozećih automobila s umjetnom inteligencijom koji se stalno zaustavljaju zbog diskrecijskih pješaka, iako se isto događa od strane ljudskih vozača, ali čini se da to ne uznemirava ljudske vozače.

Osim što je uznemirujuće, možete dočarati i mogućnost da ljudski vozači nehotice zakrenu samovozeće automobile straga. Ako čovjek-vozač nije očekivao da će se samovozeći automobil zaustaviti zbog pješaka, i ako je automobil kojim upravljaju ljudi izravno iza samovozećeg automobila, može se pojaviti strašna neusklađenost očekivanja. AI sustav vožnje zaustavlja samovozeći automobil. Ljudski vozač nije predvidio ovu akciju. Ljudski vozač udari u samovozeći automobil. Slijede ozljede, a moguće i smrtni slučajevi.

Namjerno sam ukazao na šanse ljudske štete.

Pješak koji prelazi ulicu može se na prvi pogled činiti trivijalnim pitanjem. Čini se da nitko ne može stradati na bilo koju metodu koju AI odluči zaustaviti ili ne zaustaviti. Pogrešno! Postoji mogućnost da se pješak pregazi. Postoji šansa da se automobil kojim upravlja čovjek zabije u samovozeći automobil. Vozač i putnici u automobilu kojim upravljaju ljudi mogu se ozlijediti. Vozači u samovozećem automobilu mogu se ozlijediti. Lako se predviđaju dodatne promjene moguće ljudske štete.

Zaključak

Govoreći o ljudskoj šteti, dat ću vam još nešto da vam se umovi uzburkaju oko ove zagonetke etičke umjetne inteligencije.

U vijestima je objavljeno da je muškarac vozio automobil na raskrižju i imao zeleno svjetlo za to. Drugi automobil koji je upravljao ljudskim pogonom odlučio je proći kroz crveno svjetlo na raskrižju i nezakonito i nesigurno ušao u raskrižje, prijeteći da će udariti u legalno vozilo.

Vozač je rekao novinarima da mora birati između udarca ili može skrenuti automobilom kako bi se nadao da ga ne udare, ali u blizini su bili pješaci i skretanje bi moglo ugroziti te ljude. Što bi ti napravio? Možete odabrati da vas udari ovaj automobil koji se nazire i možda živite da ispričate priču. Ili možete pokušati izbjeći da vas udare, ali u međuvremenu možete srušiti nedužne pješake.

Velik dio naše svakodnevne vožnje ima takve vrste etički ogromnih i trenutnih odluka koje treba donijeti. O tome sam opširno raspravljao, zajedno s povezivanjem ovih odluka o vožnji na život ili smrt s poznatim ili nekim recimo zloglasnim problemom kolica, pogledajte moju razradu na link ovdje.

Zamijenite ljudskog vozača u ovom scenariju s AI sustavom vožnje.

Što želite da AI radi?

To je zbunjujuće pitanje.

Jedan od pristupa je programiranje AI-a da oštro izvodi čistu akciju vožnje ravno naprijed, stoga čak ni računalno ne uzimajući u obzir druge opcije kao što je odmicanje od vjerojatnog sudara. Pretpostavljam da će vozači u samovozećim automobilima biti uznemireni kada otkriju da umjetna inteligencija nije bila osmišljena da čini ništa drugo osim preuzimanja udarca. Možete očekivati ​​tužbe i galamu.

Drugi pristup bio bi pokušati programirati AI da razmotri različite mogućnosti. Tko ipak može uspostaviti ADM koji odlučuje kojim će putem krenuti AI sustav vožnje? Čini se da je dopuštanje razvojnim programerima umjetne inteligencije da sami donose tako teške odluke prepuna obilnih briga.

Možete pokušati dopustiti umjetnoj inteligenciji da "uči" iz podataka o ljudskoj vožnji prikupljenih svakodnevnim prometnim situacijama. Ovo je slično dilemi o pješačkom prijelazu i ranije predloženoj ideji korištenja skupljenih podataka kako bi AI prikupila što god se činilo lokalnim etičkim običajima. Postoji mnogo upozorenja o tome, kao što je jesu li otkriveni obrasci ML/DL prikladni ili ne, itd.

Također sam unaprijed upozorio da postoji šansa da AI shvati možda neetičko ponašanje, ovisno o uključenim etičkim običajima. Na primjer, pretpostavimo da je AI nekako sletio na računalni obrazac kako bi uvijek ciljao na pješake kad god bi drugi automobil prijetio udariti samovozeći automobil.

Vau, pazite pješaci, bit ćete gotove mete.

Vrijeme je da za sada zatvorite raspravu i to uz ohrabrujuću završnu misao.

Možda ste svjesni da je Isaac Asimov predložio svoja “Tri zakona robotike” 1950. godine i mi smo do danas zaljubljeni u ta proklamirana pravila. Iako se čini da se pravila lako pridržavaju, kao što je da AI sustav ili robot ne smiju naštetiti čovjeku niti dopustiti da čovjek naudi, postoji mnogo ključnih nijansi koje ovo čine složenim i ponekad neodrživim, pogledajte moju analizu na link ovdje.

U svakom slučaju, evo još nečega po čemu je Asimov također poznat, iako manje: “Nikada ne dopustite da vam osjećaj morala stane na put da učinite ono što je ispravno.”

Za etičku umjetnu inteligenciju koju se svi nadamo osmisliti, moramo imati na umu da prožeta etika umjetne inteligencije možda nije ono što smo očekivali i da će AI nekako i dalje morati učiniti sve što je ispravno. Asimov je to dobro rekao. Davno prije, činilo se da je Aristotel razmišljao o prilično sličnim osjećajima.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- slučaj-sa-ai-u-autonomnim-samovozećim-automobilima/