Etika umjetne inteligencije i zakon o umjetnoj inteligenciji kreću se prema standardima koji eksplicitno identificiraju i upravljaju pristranostima umjetne inteligencije

Jeste li ikad igrali fifty-two card pick-up?

To nije igra u koju biste se inače rado upustili. Evo zašto. Netko vam ponudi da je to navodno zabavan sport i ako zagrizete slatki mamac onda bacaju cijeli špil karata u zrak i po kratkom postupku na pod. Osoba vam se tada drsko nasmiješi i kaže vam da podignete karte. To je cijela igra.

Šaljivdžija!

Moram vam postaviti jedno prilično promišljeno pitanje o ovome.

Pretpostavimo da je jedna od karata skliznula ispod obližnje sofe. Kad biste završili s pokupljanjem svih karata, znali biste da jedna nedostaje jer bi u vašoj ruci bila samo pedeset jedna.

Pitanje je, možete li odrediti koja kartica nedostaje?

Siguran sam da biste odmah rekli da ste lako shvatili koja karta nije bila u vašim rukama. Sve što trebate učiniti je dovesti špil u red. Znate da se standardni špil sastoji od četiri boje i da su unutar svake boje karte numerirane od jedan do deset, a zatim u Jack, Queen i King.

To znate jer se standardni špil igraćih karata temelji na standardu.

Vau, ta bi se izjava mogla činiti kao jedna od onih potpuno očitih tvrdnji. Pa, da, naravno, standardni špil za igranje temelji se na standardu. Svi to znamo. Moja poanta je da se, imajući standard, možemo osloniti na standard kada je to potrebno. Osim što možete zaključiti koja karta nedostaje u špilu, također možete igrati bezbroj dobro poznatih kartaških igara s drugim ljudima. Jednom kada se nekome kažu pravila igre, izravno može igrati jer već u potpunosti zna od čega se špil sastoji. Ne trebate im objašnjavati da špil ima četiri boje i različito numerirane karte. Oni već znaju da je tako.

Kamo ću s ovim?

Pokušavam vas odvesti putem koji je vitalno sredstvo za napredak u području umjetne inteligencije, a posebno u području etike umjetne inteligencije i etičke umjetne inteligencije. Vidite, moramo pokušati osmisliti široko rasprostranjene i sve prihvaćene standarde o etici umjetne inteligencije. Ako to možemo učiniti, to će olakšati usvajanje etičke umjetne inteligencije i dokazano ciljati na poboljšanje sustava umjetne inteligencije koji se neprestano bacaju na tržište (poput nenumeriranog i neuređenog špila zamjenskih karata). Za moje tekuće i opsežno pokrivanje AI Etike, Etičke AI i Zakona o AI, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Iznosim ovo kako bih pružio temelj za svoju raspravu koja će se usredotočiti na određeni segment ili dio šireg područja etike umjetne inteligencije, naime, kao što je ranije spomenuto, specifični element pristranosti umjetne inteligencije. Razlog zašto dijelim ovu temu s vama je taj što nas dokument koji je objavio Nacionalni institut za standarde i tehnologiju (NIST) pokušava natjerati da se malo pomaknemo prema standardu koji karakterizira pristranosti umjetne inteligencije. Dokument je naslovljen Prema standardu za prepoznavanje i upravljanje pristranostima u umjetnoj inteligenciji autori Reva Schwartz, Apostol Vassilev, Kristen Greene, Lori Perine, Andrew Burt i Patrick Hall, a objavilo ju je Ministarstvo trgovine SAD-a, NIST Special Publication 1270, u ožujku 2022.

Raspakirat ćemo ovaj zgodan i ohrabrujući pokušaj da utvrdimo što podrazumijevamo pod pristranostima umjetne inteligencije. Stara izreka kaže da ne možete upravljati onim što ne možete mjeriti. Imajući standard koji postavlja razne pristranosti umjetne inteligencije, možete početi mjeriti i upravljati pošastima pristranosti umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne metodologije koje se mogu revidirati, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da se “samo koderi” ili oni koji programiraju AI podliježu poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

U pozadini mnogih od tih ključnih pravila etike umjetne inteligencije nalazi se podmukla priroda pristranosti umjetne inteligencije.

Baš poput špila karata, sigurno bi bilo zgodno kad bismo nekako grupirali pristranosti umjetne inteligencije u skup "odijela" ili kategorija. Doista, NIST dokument nudi predloženo grupiranje.

Predlažu se tri glavne kategorije:

1) Sistemske pristranosti

2) Statističke i računalne pristranosti

3) Ljudske predrasude

Svakako treba razmotriti uklapaju li se sve predrasude umjetne inteligencije u jednu od te tri kategorije. Sa sigurnošću možete tvrditi da neke pristranosti umjetne inteligencije spadaju u jednu, dvije ili sve tri kategorije u isto vrijeme. Nadalje, možete tvrditi da više kategorija zaslužuje spomenuti, kao što je neki četvrti, peti, šesti ili više nizova grupiranja.

Nadam se da je to ono što mislite jer moramo sve uključiti u pomoć u oblikovanju ovih standarda. Ako ste ljuti zbog načina na koji su se ti standardi prvi put oblikovali, potičem vas da tu energiju usmjerite u pomoć nama ostalima u stvaranju tih novih standarda što robusnijim i potpunijim koliko se u njih može urezati.

Za sada možemo pobliže pogledati predložene tri kategorije i vidjeti s kakvom smo kombinacijom do sada imali posla (da, nastavit ću koristiti analogiju sa špilom karata, čineći to u cijelom ovom pisanom članku, možete se kladiti u svoj najniži dolar na taj ne tako skriveni as teme).

Što se misli pod sustavnim predrasudama?

Evo što kaže dokument NIST-a: “Sustavne predrasude proizlaze iz postupaka i praksi određenih institucija koje djeluju na načine koji rezultiraju time da su određene društvene skupine u prednosti ili favoriziranju, a druge u nepovoljnom položaju ili obezvrijeđene. To ne mora biti rezultat bilo kakve svjesne predrasude ili diskriminacije, već toga što većina slijedi postojeća pravila ili norme. Institucionalni rasizam i seksizam najčešći su primjeri” (imajte na umu da je ovo samo kratak izvadak i čitatelje se potiče da pogledaju potpunije objašnjenje).

AI ulazi u mješavinu sistemskih pristranosti pružajući sredstva za prenošenje i primjenu tih pristranosti u aplikacijama koje se temelje na umjetnoj inteligenciji. Kad god koristite dio softvera s AI-jem, koliko znate, on može sadržavati niz pristranosti koje su već ugrađene u sustav putem tvrtki i industrijskih praksi koje su dovele do stvaranja AI-ja. Prema studiji NIST-a: "Ove su pristranosti prisutne u skupovima podataka koji se koriste u umjetnoj inteligenciji, te institucionalnim normama, praksama i procesima kroz životni ciklus umjetne inteligencije te u široj kulturi i društvu."

Zatim, razmotrite skup pristranosti koje su označene kao statističke i računalne pristranosti.

Dokument NIST-a navodi ovo: “Statističke i računalne pristranosti proizlaze iz pogrešaka koje nastaju kada uzorak nije reprezentativan za populaciju. Ove predrasude proizlaze iz sustavnih, za razliku od slučajnih pogrešaka i mogu se pojaviti u nedostatku predrasuda, pristranosti ili diskriminatorne namjere. U sustavima umjetne inteligencije te su pristranosti prisutne u skupovima podataka i algoritamskim procesima koji se koriste u razvoju aplikacija umjetne inteligencije, a često se javljaju kada se algoritmi treniraju na jednoj vrsti podataka i ne mogu ekstrapolirati izvan tih podataka.”

Ova vrsta statističke i računalne pristranosti često je uklopljena u sustav umjetne inteligencije koji koristi strojno učenje (ML) i dubinsko učenje (DL). Iznošenje teške materije suvremenog ML/DL-a zahtijeva srodnu bočnu tangentu o tome što je umjetna inteligencija i što je ML/DL.

Uvjerimo se da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije u stanju "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, sposobnosti razgovora mogu se činiti sličnim ljudskim sposobnostima, ali stvarnost je da su računalne i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje i duboko učenje, koji iskorištavaju računalno podudaranje uzoraka. To je dovelo do AI sustava koji izgledaju poput ljudskih sklonosti. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma, niti ima ikakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Ovo nas izravno dovodi do treće kategorije NIST skupa od tri skupine, posebno uloge ljudskih predrasuda u nastanku pristranosti umjetne inteligencije. Evo što je navedeno u dokumentu NIST-a: “Ljudske predrasude odražavaju sustavne pogreške u ljudskom mišljenju koje se temelje na ograničenom broju heurističkih principa i predviđanja vrijednosti jednostavnijim prosudbenim operacijama. Te su predrasude često implicitne i obično se odnose na način na koji pojedinac ili grupa percipiraju informacije (kao što je automatizirani izlaz umjetne inteligencije) kako bi donijeli odluku ili popunili informacije koje nedostaju ili su nepoznate. Te su predrasude sveprisutne u institucionalnim, grupnim i individualnim procesima donošenja odluka tijekom cijelog životnog ciklusa umjetne inteligencije, te u korištenju aplikacija umjetne inteligencije nakon što su postavljene.”

Sada ste dobili brzi uvod u tri kategorije.

Želio bih s vama podijeliti dodatnu hranu za razmišljanje kako je navedeno u dokumentu NIST-a. Grafikon u njihovoj pripovijesti daje koristan sažetak ključnih pitanja i razmatranja koja su u osnovi svakog od tri skupa pristranosti umjetne inteligencije. Ovdje ih navodim radi lakšeg snalaženja i poučavanja.

#1: Sistemske predrasude

  • Tko se broji, a tko se ne broji?

— Problemi s latentnim varijablama

— Podzastupljenost marginaliziranih skupina

— Automatizacija nejednakosti

— Podzastupljenost u određivanju funkcije korisnosti

— Procesi koji favoriziraju većinu/manjinu

— Kulturna pristranost u funkciji cilja (najbolje za pojedince naspram najbolje za grupu)

  • Kako znamo što je ispravno?

— Jačanje nejednakosti (grupe su pod većim utjecajem veće upotrebe umjetne inteligencije)

— Prediktivni policijski rad pod negativnijim utjecajem

— Rašireno prihvaćanje dijeljenja prijevoza/automobila koji se sami voze/itd. može promijeniti politike koje utječu na stanovništvo na temelju upotrebe

#2: Statističke i računalne pristranosti

  • Tko se broji, a tko se ne broji?

— Pristranost uzorkovanja i odabira

— Korištenje proxy varijabli jer ih je lakše mjeriti

— Pristranost automatizacije

— Likertova ljestvica (od kategoričke do ordinalne do kardinalne)

— Nelinearno vs linearno

— Ekološka zabluda

— Minimiziranje norme L1 u odnosu na L2

— Opće poteškoće u kvantificiranju kontekstualnih pojava

  • Kako znamo što je ispravno?

— Nedostatak odgovarajuće unakrsne provjere

— Pristranost preživljavanja

— Poteškoće s pravednošću

#3: Ljudske predrasude

  • Tko se broji, a tko se ne broji?

— Pristranost promatranja (efekt uličnog svjetla)

— Pristranost dostupnosti (sidrenje)

— McNamara zabluda

— Grupno razmišljanje dovodi do suženih izbora

— Rašomonski učinak dovodi do subjektivnog zagovaranja

— Poteškoće u kvantificiranju ciljeva mogu dovesti do McNamarine zablude

  • Kako znamo što je ispravno?

- Pristranost potvrda

— Pristranost automatizacije

U ovom trenutku ove teške rasprave, kladio bih se da ste željni nekih ilustrativnih primjera koji bi mogli prikazati tri kategorije pristranosti umjetne inteligencije. Postoji poseban i sigurno popularan niz primjera koji su mi bliski. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realne primjere koji pokazuju dileme etičke inteligencije kako bi se donekle teorijska priroda teme mogla lakše shvatiti. Jedno od najekzivnijih područja koje zorno predstavlja ovu etičku dilemu umjetne inteligencije je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj ili primjer za široku raspravu o temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji išta o tri predložene kategorije pristranosti umjetne inteligencije, i ako da, što to pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i predrasude umjetne inteligencije

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni duboko zaroniti u samovozeće automobile i mogućnosti etičke umjetne inteligencije koje uključuju tri kategorije pristranosti umjetne inteligencije.

Zamislite da je samovozeći automobil baziran na umjetnoj inteligenciji u tijeku na ulicama vašeg susjedstva i čini se da vozi sigurno. Isprva ste posvećivali posebnu pažnju svakom trenutku kada biste uspjeli baciti pogled na samovozeći automobil. Autonomno vozilo isticalo se svojom stalkom elektroničkih senzora koji su uključivali video kamere, radarske jedinice, LIDAR uređaje i slično. Nakon mnogo tjedana samovozećeg automobila koji krstari vašom zajednicom, sada to jedva primjećujete. Što se vas tiče, to je samo još jedan automobil na već prometnim javnim cestama.

Da ne mislite da je nemoguće ili nevjerojatno upoznati se s viđanjem samovozećih automobila, često sam pisao o tome kako su se područja koja su u okviru testiranja samovozećih automobila postupno navikla vidjeti dotjerana vozila, pogledajte moju analizu na ova poveznica ovdje. Mnogi mještani naposljetku su se prebacili s razjapljenih usta ushićenog buljenja u sada emitujući ekspanzivno zijevanje dosade kako bi svjedočili tim vijugavim samovozećim automobilima.

Vjerojatno je trenutno glavni razlog zašto bi mogli primijetiti autonomna vozila zbog faktora iritacije i razdraženosti. Uobičajeni AI sustavi za vožnju osiguravaju da automobili poštuju sva ograničenja brzine i pravila na cesti. Za užurbane ljudske vozače u svojim tradicionalnim automobilima koje upravljaju ljudi, ponekad se razljutite kada ste zaglavljeni iza samovozećih automobila baziranih na umjetnoj inteligenciji koji se strogo pridržavaju zakona.

To je nešto na što bismo se svi trebali naviknuti, s pravom ili ne.

Vratimo se našoj priči.

Zatim ćemo razmotriti kako bi se sistemske pristranosti mogle pojaviti u ovom kontekstu samovozećih automobila.

Neki su stručnjaci jako zabrinuti da će samovozeći automobili biti vlasništvo samo bogatih i elite. Moguće je da će trošak korištenja samovozećih automobila biti previsoko skup. Osim ako nemate veliki novac, možda nikada nećete vidjeti unutrašnjost samovozećeg automobila. Oni koji će koristiti samovozeće automobile morat će biti bogati, navodno se tvrdi.

Kao takvi, neki uznemirujuće pozivaju da će oblik sustavne pristranosti prožeti dolazak samovozećih automobila temeljenih na umjetnoj inteligenciji. Sveukupni industrijski sustav autonomnih vozila u cjelini držat će samovozeće automobile izvan ruku onih koji su siromašni ili manje imućni. To možda nije nužno zbog otvorene namjere i ispada da je jedini način za koji se vjeruje da će se nadoknaditi opterećujući troškovi izuma samovozećih automobila naplaćivanje nečuveno visokih cijena.

Ako uzvratite da danas postoje te probe samovozećih automobila koji se dopuštaju svakodnevnoj osobi, pa se čini očiglednim da ne morate biti bogati sami po sebi, protuargument je da je to neka vrsta igre ljuske jer bilo je. Proizvođači automobila i tehnološke tvrtke koje se sami voze navodno su voljne učiniti da se čini kao da cijena neće biti značajna prepreka. Upravo sada to rade za potrebe odnosa s javnošću i podići će cijene kada shvate bore. Zavjerenik bi čak mogao tvrditi da se "pokusni kunići" kao obične osobe pogubno koriste kako bi se bogatima omogućilo da u konačnici postanu još bogatiji.

Dakle, s obzirom na to prilično sporno pitanje i stavljajući svoja dva centa na ovu prljavu temu, ne vjerujem da će samovozeći automobili biti skuplji za svakodnevnu upotrebu. Neću ulaziti u pojedinosti o svojoj osnovi za takvu tvrdnju i pozivam vas da pogledate moje promišljene rasprave na link ovdje a također i na link ovdje.

Idemo dalje, možemo sljedeće razmotriti pitanje statističkih i računalnih pristranosti povezanih s umjetnom inteligencijom.

Razmislite o naizgled beznačajnom pitanju gdje će samovozeći automobili lutati da pokupe putnike. Ovo se čini kao krajnje bezazlena tema. Iskoristit ćemo priču o gradiću ili gradu koji ima samovozeće automobile kako bismo istaknuli možda iznenađujuće potencijalni spektar statističkih i računalnih pristranosti povezanih s umjetnom inteligencijom.

U početku pretpostavimo da je umjetna inteligencija lutala samovozećim automobilima po cijelom gradu. Svatko tko je želio zatražiti vožnju u samovozećem automobilu imao je jednake šanse da ga dobije. Postupno je umjetna inteligencija počela primarno zadržavati samovozeće automobile u samo jednom dijelu grada. Ovaj je odjel bio veći zarađivač, a sustav umjetne inteligencije bio je programiran da pokuša maksimizirati prihode kao dio korištenja u zajednici.

Članovi zajednice u siromašnim dijelovima grada imali su manje šanse da se mogu provozati samovozećim automobilom. To je bilo zato što su samovozeći automobili bili udaljeniji i lutali su u visokoprihodovnom dijelu područja. Kada bi zahtjev stigao iz udaljenog dijela grada, svaki zahtjev s bližeg mjesta koji je vjerojatno bio u “cijenjenom” dijelu grada dobio bi veći prioritet. Naposljetku, dostupnost samovozećeg automobila na bilo kojem mjestu osim u bogatijem dijelu grada bila je gotovo nemoguća, što je užasno za one koji su živjeli u tim područjima koja su sada oskudna resursima.

Mogli biste ustvrditi da je umjetna inteligencija prilično sletjela na oblik statističkih i računskih pristranosti, nalik obliku proxy diskriminacije (koja se također često naziva neizravnom diskriminacijom). AI nije bio programiran da izbjegava te siromašnije četvrti. Umjesto toga, "naučio" je to učiniti korištenjem ML/DL-a.

Pretpostavljalo se da umjetna inteligencija nikada neće upasti u tu vrstu sramotnog živog pijeska. Nije postavljen nikakav specijalizirani nadzor kako bi se pratilo kamo idu samovozeći automobili temeljeni na umjetnoj inteligenciji. Tek nakon što su se članovi zajednice počeli žaliti, gradski su čelnici shvatili što se događa. Za više o ovim vrstama gradskih problema koje će autonomna vozila i samovozeći automobili predstaviti, pogledajte moje izvješće na ova poveznica ovdje i koji opisuje studiju koju vodi Harvard i koju sam koautor na tu temu.

Za treću kategoriju ljudskih predrasuda povezanih s predrasudama umjetne inteligencije, obratit ćemo se primjeru koji uključuje umjetnu inteligenciju koja odlučuje hoće li se zaustaviti zbog čekanja pješaka koji nemaju prednost prolaza za prelazak ulice.

Nesumnjivo ste vozili i naišli na pješake koji su čekali da prijeđu ulicu, a nisu imali prednost za to. To je značilo da ste imali diskreciju hoćete li stati i pustiti ih da prijeđu. Mogli biste nastaviti ne puštajući ih da prijeđu, a pritom i dalje biti u potpunosti unutar zakonskih pravila vožnje.

Studije o tome kako se ljudski vozači odlučuju na zaustavljanje ili ne zaustavljanje za takve pješake sugeriraju da ponekad ljudski vozači odlučuju na temelju nepristranosti. Ljudski vozač mogao bi pogledati pješaka i odlučiti se ne zaustaviti, iako bi se zaustavio da je pješak imao drugačiji izgled, na primjer na temelju rase ili spola. Pregledao sam ovo na link ovdje.

Zamislite da su samovozeći automobili bazirani na umjetnoj inteligenciji programirani da se bave pitanjem treba li se zaustaviti ili ne zaustaviti za pješake koji nemaju prednost. Evo kako su AI programeri odlučili programirati ovaj zadatak. Podatke su prikupili s gradskih video kamera koje su postavljene po cijelom gradu. Podaci prikazuju vozače koji se zaustavljaju za pješake koji nemaju prednost i vozače koji se ne zaustavljaju. Sve je skupljeno u veliki skup podataka.

Korištenjem strojnog učenja i dubokog učenja podaci se modeliraju računalno. AI sustav vožnje zatim koristi ovaj model kako bi odlučio kada će se zaustaviti ili ne zaustaviti. Općenito, ideja je da, bez obzira na to od čega se sastoji lokalni običaj, AI će na ovaj način usmjeravati samovozeći automobil.

Na iznenađenje gradskih čelnika i stanovnika, AI se očito odlučivao zaustaviti ili ne stati ovisno o dobi pješaka. Kako se to moglo dogoditi?

Nakon pomnijeg pregleda videa diskrecije ljudskog vozača, pokazalo se da su mnogi slučajevi ne zaustavljanja uključivali pješake koji su imali štap starijeg građanina. Ljudski vozači naizgled se nisu htjeli zaustaviti i pustiti stariju osobu da prijeđe ulicu, vjerojatno zbog pretpostavljene duljine vremena koje bi nekome moglo trebati da pređe na put. Ako je pješak izgledao kao da može brzo preskočiti ulicu i smanjiti vrijeme čekanja vozača, vozači su bili skloniji pustiti osobu da prijeđe.

Ovo se duboko zakopalo u sustav vožnje umjetne inteligencije. Senzori samovozećeg automobila bi skenirali pješaka koji čeka, ubacili te podatke u ML/DL model, a model bi AI-ju dao poruku treba li stati ili nastaviti. Svaki vizualni pokazatelj da bi pješak mogao sporo prijeći, kao što je korištenje štapa za hodanje, matematički se koristio za određivanje treba li AI sustav vožnje pustiti pješaka koji ga čeka prijeći ili ne.

Mogli biste tvrditi da je to bilo oslanjanje na već postojeću ljudsku predrasudu.

Zaključak

Za sada neke završne misli.

Postoji popularna izreka da ne možete promijeniti karte koje ste dobili i umjesto toga morate naučiti kako adekvatno igrati s onom kartom koju ste dobili.

U slučaju pristranosti umjetne inteligencije, ako se gorljivo ne zauzmemo za uspostavljanje etike umjetne inteligencije u cijelosti i posebno ne učvrstimo karakterizaciju pristranosti umjetne inteligencije, vrste ruku s kojima ćemo imati posla bit će prepune dosadne neetičnosti, a možda i nezakoniti sloj. Za početak moramo spriječiti dijeljenje tih karata. Hrabri cilj stvaranja i promicanja etičkih standarda umjetne inteligencije ključni je alat za borbu protiv rastućeg tsunamija nadolazećeg AI za loše.

Odlučno možete reći banci da će neobuzdana pristranost umjetne inteligencije i neetična umjetna inteligencija biti poput slabe kuće od karata, koja će implodirati sama od sebe i vjerojatno biti katastrofalna za sve nas.

Igrajmo za pobjedu, čineći to s prikladno etičkom umjetnom inteligencijom.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/06/ai-ethics-and-ai-law-are-moving-toward-standards-that-explicitly-identify-and-manage- ai-biases/