Etika umjetne inteligencije kaže da bi umjetnu inteligenciju trebalo posebno koristiti kada ima dosta ljudskih predrasuda

Ljudi moraju upoznati svoja ograničenja.

Možda se sjećate poznate rečenice o poznavanju naših ograničenja koju je oštro izgovorio lik Prljavi Harry u filmu iz 1973. Magnum Force (prema izgovorenim riječima glumca Clinta Eastwooda u njegovoj nezaboravnoj ulozi inspektora Harryja Callahana). Općenito je mišljenje da smo ponekad skloni previdjeti vlastite granice i u skladu s tim upasti u vruću vodu. Bilo zbog oholosti, egocentričnosti ili jednostavno slijeposti za vlastite sposobnosti, pravilo da budemo svjesni i da izričito uzmemo u obzir svoje sklonosti i nedostatke, vrlo je razumno i korisno.

Dodajmo novi zaokret mudrom savjetu.

Umjetna inteligencija (AI) upoznala je svoja ograničenja.

Što mislim pod tom varijantom cijenjene krilatice?

Ispostavilo se da je početna žurba da se moderna umjetna inteligencija stavi na korištenje kao obećavajuće rješenje svjetskih problema postala zaprljana i potpuno zamućena spoznajom da današnja umjetna inteligencija ima neka prilično ozbiljna ograničenja. Krenuli smo od uzdižućih naslova AI za dobro i sve smo se više nalazili zaglibljeni u AI za loše. Vidite, mnogi sustavi umjetne inteligencije razvijeni su i opremljeni svim vrstama neželjenih rasnih i rodnih predrasuda, i bezbroj drugih takvih užasnih nejednakosti.

Za moje opsežno i kontinuirano pokrivanje AI etike i Etičke AI, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Predrasude koje su otkrivene u ovim sustavima umjetne inteligencije nisu, da tako kažemo, "namjerne" vrste koju bismo pripisali ljudskom ponašanju. Spominjem ovo kako bih naglasio da današnja umjetna inteligencija nije osjećajna. Unatoč onim glasnim naslovima koji sugeriraju suprotno, nigdje jednostavno ne postoji umjetna inteligencija koja bi se čak i približila osjećaju. Povrh toga, ne znamo kako staviti AI u kategoriju osjećaja, plus nitko ne može sa sigurnošću reći hoćemo li ikada postići AI osjećaj. Možda će se to jednom dogoditi, a možda i ne.

Dakle, želim reći da ne možemo posebno odrediti namjeru vrsti umjetne inteligencije koju trenutno posjedujemo. Uz to, možemo u izobilju dodijeliti namjeru onima koji izrađuju AI sustave. Neki programeri umjetne inteligencije nisu svjesni činjenice da su osmislili sustav umjetne inteligencije koji sadrži neugodne i moguće nezakonite pristranosti. U međuvremenu, drugi programeri umjetne inteligencije shvaćaju da unose pristranosti u svoje AI sustave, potencijalno radeći to na namjeran način.

U svakom slučaju, ishod je i dalje nedoličan i vjerojatno nezakonit.

U tijeku su snažni napori da se promovišu etička načela umjetne inteligencije koja će prosvijetliti programere umjetne inteligencije i pružiti odgovarajuće smjernice za izbjegavanje ugrađivanja pristranosti u njihove sustave umjetne inteligencije. Ovo će pomoći na dva načina. Prvo, oni koji stvaraju umjetnu inteligenciju više neće imati spremnu ispriku da jednostavno nisu bili svjesni kojih pravila treba slijediti. Drugo, oni koji odstupaju od uvjeta etičke umjetne inteligencije lakše će biti uhvaćeni i pokazaće im se da izbjegavaju ono na što su bili unaprijed upozoreni da čine i ne čine.

Uzmimo trenutak da ukratko razmotrimo neke od ključnih etičkih pravila umjetne inteligencije kako bismo ilustrirali o čemu bi graditelji umjetne inteligencije trebali razmišljati i što bi rigorozno trebali poduzimati sa stajališta etičke inteligencije.

Kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne metodologije koje se mogu revidirati, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pogoditi, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Štoviše, napor da se ta široka načela pretvore u nešto potpuno opipljivo i dovoljno detaljno da se može koristiti pri izradi AI sustava također je tvrd orah. Lako je općenito mahati rukama oko toga što su pravila AI etike i kako ih se općenito treba pridržavati, dok je mnogo kompliciranija situacija kada AI kodiranje mora biti prava guma koja se susreće s cestom.

Načela AI etike trebaju koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima umjetne inteligencije, pa čak i onima koji u konačnici postavljaju i održavaju sustave umjetne inteligencije. Svi dionici tijekom cijelog životnog ciklusa razvoja i korištenja umjetne inteligencije smatraju se unutar opsega poštivanja uspostavljenih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju moraju se pridržavati pojmova etike umjetne inteligencije. Imajte na umu da je potrebno selo da osmisli i postavi AI. Zbog čega cijelo selo mora biti na oprezu zbog AI etike.

U svakom slučaju, sada kada sam shvatio da AI može sadržavati pristranosti, možda se svi možemo složiti s ove dvije očite činjenice:

1. Ljudi mogu imati brojne neželjene predrasude i mogu djelovati u skladu s njima

2. AI može imati brojne neželjene pristranosti i može djelovati na te predrasude

Donekle mi se gadi slagati ljude s umjetnom inteligencijom u tom kontekstu jer bi to na neki način moglo implicirati da umjetna inteligencija ima osjećajne sposobnosti jednake ljudskim. To sigurno nije tako. Vratit ću se na trenutak sve većoj zabrinutosti oko antropomorfizacije umjetne inteligencije malo kasnije u ovoj raspravi.

Što je gore, ljudi koji pokazuju neželjene predrasude ili umjetna inteligencija koja to čini?

Usuđujem se reći da pitanje postavlja jedan od onih surovih izbora. Moglo bi se reći da je poslovično manje od dva zla. Voljeli bismo da ljudi ne utjelovljuju neželjene predrasude. Nadalje bismo željeli da ljudi, čak i ako imaju nepovoljne predrasude, ne postupaju u skladu s tim predrasudama. Isto bi se moglo reći za AI. Željeli bismo da umjetna inteligencija ne ugrađuje neželjene pristranosti i da čak i ako postoje takve interno kodirane predrasude, umjetna inteligencija barem ne bi djelovala na njih.

Želje, međutim, ne upravljaju nužno svijetom (za moju analizu rastućeg i uznemirujućeg privida tzv. AI Ispunjenje želja od strane društva općenito, vidi link ovdje).

U redu, očito želimo da ljudi znaju svoja ograničenja. Važno je prepoznati kada imate neželjene predrasude. Jednako je važno nastojati spriječiti da se te neželjene predrasude umetnu u vaše postupke i odluke. Današnje tvrtke pokušavaju koristiti sve vrste pristupa kako bi spriječile svoje zaposlenike da upadnu u strašne zamke nepovoljnih predrasuda. Zaposlenicima se pruža specijalizirana obuka o tome kako svoj posao obavljati na etički ispravan način. Procesi su oblikovani oko zaposlenika kako bi ih upozorili kada se čini da pokazuju neetične običaje. I tako dalje.

Drugi način suočavanja s ljudima i njihovim neželjenim predrasudama bila bi automatizacija ljudskog rada. Da, jednostavno uklonite čovjeka iz petlje. Nemojte dopustiti da čovjek obavlja zadatak donošenja odluka i vjerojatno više nećete imati dugotrajnih briga o ljudskom ponašanju prema bilo kakvim neželjenim predrasudama. Nije uključen čovjek i stoga se čini da je problem potencijalnih ljudskih predrasuda riješen.

Pominjem ovo jer smo svjedoci postupnog i masovnog pomaka prema korištenju umjetne inteligencije u algoritamskom odlučivanju (ADM). Ako ljudskog radnika možete zamijeniti umjetnom inteligencijom, velika je vjerojatnost da će se pojaviti mnogo koristi. Kao što je već spomenuto, više ne biste brinuli o ljudskim predrasudama tog ljudskog radnika (onog koji više ne radi taj posao). Šanse su da će umjetna inteligencija ukupno biti manje skupa u usporedbi s dugoročnim vremenskim horizontom. Oslobađate se svih drugih različitih poteškoća koje dolaze sastavni dio ljudskih radnika. itd.

Čini se da je ovo sve popularniji prijedlog: Kada pokušavate odlučiti gdje najbolje smjestiti umjetnu inteligenciju, prvo gledajte prema postavkama koje već uključuju neželjene ljudske sklonosti vaših radnika i za koje te sklonosti potkopavaju ili na drugi način pretjerano kompliciraju određene zadatke donošenja odluka.

Zaključak je da bi se činilo razboritim dobiti najviše za svoj novac u smislu ulaganja u umjetnu inteligenciju usmjeravanjem izravno na visoko izložene ljudske zadatke donošenja odluka koje je teško kontrolirati iz perspektive infuzije neželjenih predrasuda. Uklonite ljudske radnike u toj ulozi. Zamijenite ih AI. Pretpostavka je da umjetna inteligencija ne bi imala takve neželjene pristranosti. Stoga možete uzeti svoj kolač i pojesti ga, naime, preuzeti zadatke donošenja odluka i učiniti to bez etičkog i pravnog spektra neželjenih pristranosti.

Kad to olovkom izračunate, ROI (povrat ulaganja) vjerojatno bi učinio usvajanje umjetne inteligencije jednostavnim izborom.

Evo kako to obično izgleda.

Pregledajte svoju tvrtku i pokušajte identificirati zadatke donošenja odluka koji utječu na kupce. Od tih zadataka, koji će najvjerojatnije biti neprikladno poremećeni ako radnici utjelovljuju neželjene pristranosti? Ako ste već pokušali obuzdati te predrasude, možda ste pustili da stvari stoje kako jesu. S druge strane, ako se predrasude neprestano pojavljuju i ako je napor da ih se iskorijeni težak, razmislite o tome da u tu ulogu ubacite neku relevantnu umjetnu inteligenciju. Ne držite radnike u kombinaciji jer bi mogli nadjačati AI ili gurnuti AI natrag u ponor neželjenih predrasuda. Također, provjerite može li umjetna inteligencija obaviti zadatak stručno i da ste dovoljno uhvatili aspekte donošenja odluka potrebnih za obavljanje posla.

Isperite i ponovite.

Shvaćam da se to čini kao jasna ideja, ali shvaćam da postoji mnogo načina na koje zamjena ljudskih radnika umjetnom inteligencijom može poći po zlu. Mnoge su tvrtke jedva čekale poduzeti takve radnje i nisu pažljivo razmišljale kako to učiniti. Kao rezultat toga, često su pravili mnogo veći nered nego što su imali na početku.

Želim pojasniti i naglasiti da AI nije lijek za sve.

Govoreći o tome, postoji jedna ogromna smetnja oko čistoće naizgled nepristranog AI-ja koji donosi odluke pristranih ljudi. Problem je u tome što možda samo zamjenjujete jedan skup neželjenih predrasuda drugim. Prema ranijoj naznaci, umjetna inteligencija može sadržavati neželjene predrasude i može djelovati na te pristranosti. Iznošenje drske pretpostavke da zamjena pristranih ljudi za nepristranu umjetnu inteligenciju nije sve što se može zamisliti.

Ukratko, ovo je dogovor kada se stvar promatra striktno iz faktora pristranosti:

  • AI nema neugodnih predrasuda i stoga je ADM temeljen na umjetnoj inteligenciji praktičan za implementaciju
  • AI ima iste neželjene predrasude kao i ljudi koji su zamijenjeni i stoga je ADM temeljen na umjetnoj inteligenciji zabrinjavajući
  • AI uvodi nove neželjene predrasude izvan onih ljudi koji su zamijenjeni i vjerojatno će pogoršati stvari u skladu s tim
  • Umjetna inteligencija isprva se čini dobrom, a zatim se postupno koleba u nepoželjne predrasude
  • drugo

Možemo ukratko raspakirati te mogućnosti.

Prva je idealizirana verzija onoga što bi se moglo dogoditi. AI nema neželjenih predrasuda. Postavite AI na svoje mjesto i on izvrsno obavlja posao. Dobro za tebe! Naravno, čovjek bi se nadao da ste također na neki vješt način riješili premještanje ljudskih radnika zbog uključivanja umjetne inteligencije.

U drugom slučaju, postavljate AI i otkrivate da AI pokazuje iste neželjene predrasude koje su imali ljudski radnici. Kako to može biti? Uobičajen način upadanja u ovu zamku je korištenje strojnog učenja (ML) i dubokog učenja (DL) na temelju prikupljenih podataka o tome kako su ljudi u toj ulozi prethodno donosili svoje odluke.

Dopustite mi trenutak da objasnim.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su godinama radili na tom poslu uključivali neželjene predrasude, izgledi su da podaci to odražavaju na suptilan, ali značajan način. Kompjutersko podudaranje obrazaca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Nema privida zdravog razuma ili drugih osjetljivih aspekata modeliranja samo po sebi.

Nadalje, ni programeri umjetne inteligencije možda neće shvatiti što se događa. Tajanstvena matematika mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom biste se nadali i očekivali da će AI programeri testirati potencijalno zakopane pristranosti, iako je to teže nego što se čini. Postoji solidna šansa da će čak i uz relativno opsežno testiranje još uvijek biti pristranosti ugrađene u modele usklađivanja uzoraka ML/DL.

Sve u svemu, mogli biste se vratiti na početak. Iste nepovoljne pristranosti ljudi sada se računalno odražavaju u sustavu umjetne inteligencije. Niste iskorijenili predrasude.

Što je još gore, manje je vjerojatno da ćete shvatiti da AI ima pristranosti. U slučaju ljudi, obično biste mogli biti oprezni da ljudi imaju neželjene predrasude. Ovo je osnovno očekivanje. Korištenje umjetne inteligencije može uljuljkati vođe u uvjerenje da je automatizacija u potpunosti uklonila svaku vrstu ljudske pristranosti. Time sebi namještaju da su sami sebi pucali u nogu. Riješili su se ljudi s naizgled poznatim nepovoljnim predrasudama, zamijenivši ih umjetnom inteligencijom za koju se smatralo da nema takvih predrasuda, a ipak su sada stavili u upotrebu AI prepunu istih predrasuda za koje se već znalo da postoje.

Ovo može dovesti stvari u nedogled. Možda ste uklonili druge zaštitne ograde koje su se koristile s ljudskim radnicima koji su uspostavljeni da otkriju i spriječe pojavu onih već predviđenih ljudskih predrasuda. AI sada ima slobodne ruke. Ništa nije na mjestu što bi ga uhvatilo prije nego što se nešto učini. Umjetna inteligencija bi vas tada mogla početi voditi niz sumorni put goleme akumulacije pristranih radnji.

A vi ste u neugodnom i možda odgovornom položaju da ste nekoć znali za predrasude i sada ste dopustili da te pristranosti izazovu pustoš. Možda je jedna stvar nikada se niste susreli s takvim neželjenim predrasudama, a onda ih iznenada iz vedra neba pojavi umjetna inteligencija. Možete to pokušati opravdati "tko bi rekao" vrstom distraktora (možda ne baš uvjerljivo). Ali da ste sada postavili umjetnu inteligenciju koja radi iste neželjene pristrane radnje kao i prije, pa, vaši izgovori postaju sve tanji i jadniji.

Zaokret u ovome podrazumijeva da umjetna inteligencija pokazuje neželjene pristranosti koje se prije nisu susrele dok su ljudi obavljali zadatak. Moglo bi se reći da je ovo možda teže spriječiti jer se sastoji od "novih" predrasuda koje tvrtka prije nije tražila. Ipak, na kraju vam isprike možda neće donijeti veliko olakšanje. Ako je sustav umjetne inteligencije zašao na neetičan i nezakonit teritorij, vaša bi guska mogla biti skuhana.

Još jedan aspekt koji treba imati na umu jest da bi AI mogao započeti sasvim dobro, a zatim se malo pomaknuti prema neželjenim predrasudama. To je osobito vjerojatno kada se strojno učenje ili dubinsko učenje kontinuirano koriste kako bi se umjetna inteligencija održavala ažurnom. Bez obzira na to radi li ML/DL u stvarnom vremenu ili povremeno vrši ažuriranja, treba obratiti pozornost na to unosi li AI podatke koji sada sadrže pristranosti, a koji prije nisu bili prisutni.

Za vođe koji misle da dobivaju besplatan ručak mašući čarobnim štapićem da pristrane ljudske radnike zamijene umjetnom inteligencijom, čeka ih vrlo grubo buđenje. Pogledajte moju raspravu o važnosti osnaživanja vođa s pravilima Etike umjetne inteligencije na link ovdje.

U ovom trenutku ove rasprave, kladio bih se da ste željni nekih primjera iz stvarnog svijeta koji bi mogli pokazati zagonetku zamjene (ili ne) ljudskih nepovoljnih predrasuda neželjenim predrasudama temeljenim na umjetnoj inteligenciji.

Drago mi je da ste pitali.

Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji bilo što o neželjenim predrasudama u umjetnoj inteligenciji, i ako jest, što to pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni koji AI automobilom upravljaju potpuno samostalno, a tijekom zadatka vožnje nema nikakve ljudske pomoći.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još nema pravog automobila za samostalnu vožnju na razini 5, za koji još ne znamo hoće li to biti moguće i koliko će vremena trebati da se tamo stigne.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i umjetna inteligencija s nepoželjnim predrasudama

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni duboko zaroniti u samovozeće automobile i mogućnosti etičke umjetne inteligencije koje podrazumijevaju istraživanje umjetne inteligencije i neželjenih predrasuda.

Upotrijebimo vrlo jednostavan primjer. Samovozeći automobil baziran na umjetnoj inteligenciji u tijeku je na ulicama vašeg susjedstva i čini se da vozi sigurno. Isprva ste posvećivali posebnu pažnju svaki put kada biste uspjeli baciti pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektroničkih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo tjedana samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim cestama.

Da ne mislite da je nemoguće ili nevjerojatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se područja koja su u okviru testiranja samovozećih automobila postupno navikla vidjeti dotjerana vozila, pogledajte moju analizu na ova poveznica ovdje. Mnogi mještani naposljetku su se prebacili s razjapljenih usta ushićenog buljenja u sada emitujući ekspanzivno zijevanje dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerojatno je trenutno glavni razlog zašto bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Uobičajeni AI sustavi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na cesti. Za užurbane ljudske vozače u svojim tradicionalnim automobilima koje upravljaju ljudi, ponekad se razljutite kada ste zaglavljeni iza samovozećih automobila baziranih na umjetnoj inteligenciji koji se strogo pridržavaju zakona.

To je nešto na što bismo se svi trebali naviknuti, s pravom ili ne.

Vratimo se našoj priči.

Ispostavilo se da se počinju javljati dvije nepristojne zabrinutosti oko inače bezazlenih i općenito dobrodošlih samovozećih automobila baziranih na umjetnoj inteligenciji, točnije:

a. Gdje AI luta samovozećim automobilima radi preuzimanja prijevoza postalo je zabrinuta briga u zajednici u cjelini

b. Kako umjetna inteligencija postupa s pješacima koji čekaju bez prednosti također je sve veće pitanje

U početku je AI lutao samovozećim automobilima po cijelom gradu. Svatko tko je želio zatražiti vožnju u samovozećem automobilu imao je u osnovi jednake šanse da ga pozove. Postupno je umjetna inteligencija počela prvenstveno održavati samovozeće automobile da lutaju samo u jednom dijelu grada. Ovaj dio je bio veći zarađivač novca, a AI sustav je bio programiran da pokuša maksimizirati prihode kao dio korištenja u zajednici.

Članovi zajednice u siromašnim dijelovima grada imali su manje šanse da se mogu provozati samovozećim automobilom. To je bilo zato što su samovozeći automobili bili udaljeniji i lutali su u visokoprihodovnom dijelu područja. Kada bi zahtjev stigao iz udaljenog dijela grada, svaki zahtjev s bližeg mjesta koji je vjerojatno bio u “cijenjenom” dijelu grada dobio bi veći prioritet. Naposljetku, dostupnost samovozećeg automobila na bilo kojem mjestu osim u bogatijem dijelu grada bila je gotovo nemoguća, što je užasno za one koji su živjeli u tim područjima koja su sada oskudna resursima.

Mogli biste ustvrditi da je umjetna inteligencija prilično naletjela na oblik proxy diskriminacije (koja se također često naziva neizravna diskriminacija). AI nije bio programiran da izbjegne te siromašnije četvrti. Umjesto toga, "naučio" je to učiniti korištenjem ML/DL-a.

Stvar je u tome da su ljudski vozači koji dijele vožnju bili poznati po tome što rade istu stvar, iako ne nužno isključivo zbog ugla zarađivanja novca. Postojali su neki od vozača koji dijele vožnju i koji su imali nepristrasnu predrasudu oko skupljanja jahača u određenim dijelovima grada. Ovo je bio donekle poznat fenomen i grad je uspostavio nadzorni pristup kako bi uhvatio ljude koji to rade. Ljudski vozači mogli bi upasti u nevolje zbog provođenja neugodnih selekcijskih postupaka.

Pretpostavljalo se da AI nikada neće pasti u istu vrstu živog pijeska. Nije postavljen nikakav specijalizirani nadzor za praćenje kamo se kreću samovozeći automobili bazirani na umjetnoj inteligenciji. Tek nakon što su se članovi zajednice počeli žaliti, gradski čelnici su shvatili što se događa. Za više o ovim vrstama problema diljem grada koje će autonomna vozila i samovozeći automobili predstaviti, pogledajte moje izvješće na ova poveznica ovdje i koji opisuje studiju koju vodi Harvard i koju sam koautor na tu temu.

Ovaj primjer lutajućih aspekata samovozećih automobila baziranih na umjetnoj inteligenciji ilustrira raniju naznaku da mogu postojati situacije koje uključuju ljude s nepristrasnim predrasudama, za koje se uspostavljaju kontrole, te da AI koji zamjenjuje te ljudske vozače ostaje skot- besplatno. Nažalost, AI tada može postepeno postati zarobljen u srodnim predrasudama i to bez dovoljno postavljenih zaštitnih ograda.

Drugi primjer uključuje AI koji određuje hoće li se zaustaviti zbog čekanja pješaka koji nemaju pravo prolaza prijeći ulicu.

Nesumnjivo ste vozili i naišli na pješake koji su čekali da prijeđu ulicu, a nisu imali prednost za to. To je značilo da ste imali diskreciju hoćete li stati i pustiti ih da prijeđu. Mogli biste nastaviti ne puštajući ih da prijeđu, a pritom i dalje biti u potpunosti unutar zakonskih pravila vožnje.

Studije o tome kako se ljudski vozači odlučuju na zaustavljanje ili ne zaustavljanje za takve pješake sugeriraju da ponekad ljudski vozači odlučuju na temelju nepristranosti. Ljudski vozač mogao bi pogledati pješaka i odlučiti se ne zaustaviti, iako bi se zaustavio da je pješak imao drugačiji izgled, na primjer na temelju rase ili spola. Pregledao sam ovo na link ovdje.

Zamislite da su samovozeći automobili bazirani na umjetnoj inteligenciji programirani da se bave pitanjem treba li se zaustaviti ili ne zaustaviti za pješake koji nemaju prednost. Evo kako su AI programeri odlučili programirati ovaj zadatak. Podatke su prikupili s gradskih video kamera koje su postavljene po cijelom gradu. Podaci prikazuju vozače koji se zaustavljaju za pješake koji nemaju prednost i vozače koji se ne zaustavljaju. Sve je skupljeno u veliki skup podataka.

Korištenjem strojnog učenja i dubokog učenja podaci se modeliraju računalno. AI sustav vožnje zatim koristi ovaj model kako bi odlučio kada će se zaustaviti ili ne zaustaviti. Općenito, ideja je da, bez obzira na to od čega se sastoji lokalni običaj, AI će na ovaj način usmjeravati samovozeći automobil.

Na iznenađenje gradskih čelnika i stanovnika, AI je očito odlučivao hoće li stati ili ne stati na temelju izgleda pješaka, uključujući njihovu rasu i spol. Senzori samovozećeg automobila bi skenirali pješaka koji čeka, ubacili te podatke u ML/DL model, a model bi AI-ju dao poruku treba li stati ili nastaviti. Nažalost, grad je već imao mnogo predrasuda prema ljudskim vozačima u tom pogledu i AI je sada oponašao isto.

Dobra je vijest da ovo otvara problem za koji gotovo nitko prije nije znao da postoji. Loša vijest je bila ta da je AI uhvaćen u ovome, najveći dio krivnje za to. Ovaj primjer ilustrira da bi sustav umjetne inteligencije mogao samo duplicirati već postojeće neželjene predrasude ljudi.

Zaključak

Postoji mnoštvo načina da se pokuša izbjeći osmišljavanje umjetne inteligencije koja ili izvan vrata ima nepoželjne pristranosti ili da s vremenom prikupi pristranosti. Jedan pristup uključuje osiguravanje da programeri umjetne inteligencije budu svjesni toga što se događa i tako ih držati na oprezu kako bi programirali umjetnu inteligenciju da spriječi problem. Još jedan put sastoji se od toga da AI sama nadzire neetičko ponašanje (pogledajte moju raspravu na link ovdje) i/ili imati drugi dio umjetne inteligencije koji nadzire druge sustave umjetne inteligencije u potrazi za potencijalno neetičkim ponašanjem (o tome sam govorio na link ovdje).

Da rezimiramo, moramo shvatiti da ljudi mogu imati neželjene predrasude i da nekako moraju znati svoja ograničenja. Isto tako, umjetna inteligencija može imati neželjene pristranosti i nekako moramo znati njihova ograničenja.

Za one od vas koji gorljivo prihvaćate etiku umjetne inteligencije, želio bih sada završiti s još jednom poznatom rečenicom koju već svi moraju znati. Naime, molimo vas da nastavite koristiti i dijeliti važnost Etičke umjetne inteligencije. I radeći to, drsko bih rekao ovo: "Samo naprijed, uljepšaj mi dan."

Izvor: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/