Najnovija velika zabrinutost zbog etike AI-a je da AI može neraskidivo utjeloviti političke predrasude, uključujući čak i u bezazlenom slučaju samovozećih automobila baziranih na umjetnoj inteligenciji

Pričajmo o politici.

Pa, shvaćam da ste vjerojatno izgorjeli zbog naizgled neprekidnog fokusa na politiku u svim dostupnim medijima ovih dana. Crvena stanja u odnosu na plava stanja. Liberali protiv konzervativaca. Demokrati protiv republikanaca. Brbljanje o političkim makinacijama je beskrajno beskrajno.

Možda ste razumno pretpostavili da postoje neke teme za koje politika ne ulazi posebno u sliku. U biti, možda postoje dvije različite klase tema, odnosno teme koje su politički infuzirane bez obzira na sve, i druge banalnije teme koje bi zaobišle ​​ili pobjegle iz političkog područja.

Čini se da ima smisla da će postojati one privlačne žarišne teme koje će vječno biti zarobljene u politici i političkim bijesima, kao što je dugogodišnji popis koji uključuje nacionalne zdravstvene aspekte, izborne aspekte, kontrolu oružja, imigraciju, i slično. Sve što trebate učiniti je spomenuti bilo koju od tih tema i sljedeće što se dogodi je da ste uronjeni u političku vatrenu oluju. Prilično žestoke rasprave su prilično zajamčene.

S druge strane medalje od požara, možda postoje neke teme koje ne izazivaju takvu koljenastu političku reakciju. Želio bih iznijeti jednu takvu temu pred vas, želeći dobiti vašu početnu reakciju.

Spremni?

Automobili.

Da, svakodnevna tema o automobilima, automobilima, motornim vozilima, ili kako god to želite izraziti, izaziva li to političko negodovanje ili izaziva politički nabijene dijatrime ili verbalne prepucavanja?

Možda se na površini ne čini da postoji pojačana politička zabrinutost oko automobila. Oni su jednostavno oblik svakodnevnog prijevoza. Sjedneš u auto i voziš se na posao. Automobilom obavljate poslove i idete po namirnice. Ako možete odvojiti malo vremena za odmor, automobilom se uputite u otvorene šume ili možda posjetite neke cijenjene nacionalne spomenike.

Automobili bi se činili apolitičnim.

Oprostite, ali to uglavnom nije slučaj.

Može se reći da su automobili intimno okruženi politikom i uronjeni u nju kao i bilo koja druga od takozvanih tema žarišta. Možda općeniti mediji ne pokrivaju politiku usmjerenu na automobile onoliko koliko bi se moglo učiniti za druge primamljivije teme, ali unatoč tome, političke podloge još uvijek postoje.

Jedna očita politička dimenzija sastoji se od onoga od čega bi se naši automobili trebali sastojati.

Mislim na šminkanje ili mehanizaciju automobila. Na primjer, postoji žestoka politička rasprava o tome trebaju li automobili koristiti ICE (motore s unutarnjim izgaranjem) u odnosu na prelazak na EV (električna vozila). Ovo je područje značajnog diskursa koje se povezuje s brojnim drugim politički nabijenim temama, kao što su pitanja okoliša i aspekti klimatskih promjena.

Manje poznata, a opet srodna stvar bavi se veličinom automobila i njihovim ukupnim otiskom u različitim aspektima. Trebamo li imati velike automobile ili samo manje automobile? Trebamo li osmisliti automobile kako bismo obeshrabrili sve rečeno korištenje automobila, s ciljem potaknuti ljude da umjesto toga koriste masovni prijevoz i javni prijevoz? I tako dalje.

Evo nečega o čemu vjerojatno niste razmišljali.

Neke studije su ispitivale je li vrsta automobila u vlasništvu temeljena na političkim sklonostima vlasnika automobila. Vjerojatno biste mogli pronaći statističku korelaciju između nekoga tko je deklariran kao demokrat u odnosu na vrstu kupljenog automobila, a isto tako pronaći statističku korelaciju između toga što je republikanac i vrste automobila u vlasništvu. Neću ulaziti u te studije ovdje, iako bih želio spomenuti da biste takve studije i njihove rezultate trebali tumačiti opreznim okom i velikom dozom skepticizma u pogledu statističke valjanosti.

Govoreći o korištenju statistike, postoji još jedan intrigantan kut na političke karakteristike i automobile. Čini se da postoje istraživački napori koji povezuju različite ponašanja u vožnji ljudi prema političkoj stranačkoj pripadnosti tih vozača.

Pitanja koja se često obrađuju uključuju:

· Je li vjerojatnije ili manje vjerojatno da će vozači koji dođu do sudara ili sudara biti demokrat ili republikanac?

· Je li veća vjerojatnost da će pijani vozači biti liberali ili konzervativci?

· Kada se dogode ti ludi incidenti bijesa na cesti, u kojima vozači pobjesne i napadnu jedni na druge, bi li ti ludi bijesni luđaci obično bili liberali ili konzervativci?

· Tko dobiva više prometnih kazni i vjerojatno vozi rizičnije, demokrati ili republikanci?

· Itd.

Opet, neću se upuštati u te istraživačke napore ovdje. I još jednom, budite na oprezu kada čitate takve studije ili vidite žarke naslove o njihovim rezultatima. Sve što ću reći jest da je stara rečenica o statistici i danas u velikoj mjeri istinita, tako da postoje laži, proklete laži i statistike (počistio sam taj komadić slane mudrosti za ljubazniju publiku).

Čini se da stoga imamo dovoljno dokaza da je tema automobila, nažalost, prožeta političkim konotacijama.

Odabrat ću tada drugu temu, onu koja će možda doista biti potpuno apolitična.

Spremni ovaj put?

Umjetna inteligencija (AI).

Svakako, moglo bi se nadati, AI mora biti apolitičan, posebno kada su u pitanju unutarnji kapaciteti AI sustava. Naravno, možete posumnjati da postoji politika okolni treba li se AI koristiti ili ne, ali čini se da biste mislili da bi unutrašnost AI sustava bila izvan svake političke fermentacije per se.

Prije nego što pobliže pogledamo tu prevladavajuću pretpostavku, moglo bi biti poučno razmotriti neke druge aspekte AI koji su nedavno naveli mnoge da preispitaju besprijekornu želju za proizvodnjom i instinktivno prihvaćanje AI sustava na kapaljku.

Vidite, u žurbi prema AI za dobro Uz uzbuđenje posljednjih nekoliko godina, raste spoznaja da neće sva umjetna inteligencija biti nužno dobra. Uvjerili smo se da također postoji mnogo prilika za AI za loše uzdići se. To se može dogoditi svrhovitom namjerom onih koji razvijaju AI, a može se dogoditi i zbog onoga što bi neki oštro tvrdili da je potpuno neodgovoran nedostatak odgovarajućeg nadzora od strane AI programera i onih koji proglašavaju AI sustave.

Pokrio sam mnoga od ovih pitanja etike umjetne inteligencije u svojoj kolumni, kao što su poveznica ovdje i veza ovdje.

Razmotrite kao pokazatelj AI za loše stvar prepoznavanja lica.

Mnogi su mislili da će prepoznavanje lica biti najzahtjevnija od AI tehnologija (i, na mnogo načina, to je doista vrsta AI za dobro). Bilo bi tako lako obavljati bankovne poslove na bankomatima jednostavnim skeniranjem lica radi prepoznavanja umjesto pomoću tajnog PIN koda i bankovne kartice. Bilo bi tako zgodno ući u trgovinu mješovitom robom i kupovati samo koristeći svoje lice kao sredstvo za označavanje vašeg mrežnog računa za namirnice koji bi se mogao naplatiti za sve artikle koje odaberete.

Znaš proceduru.

Sljedeće što znate, društvo je počelo otkrivati ​​da prepoznavanje lica nisu svi slatkiši slatkog okusa i mirisne ruže. Neki od algoritama za prepoznavanje lica temeljenih na umjetnoj inteligenciji odradili su loš posao kako bi mogli razlikovati ljude zbog njihove rase. Pojavili su se brojni drugi uznemirujući i potpuno nečuveni problemi, uključujući inherentne predrasude vezane uz spol i druge čimbenike. Za moje izvještavanje o temama etike umjetne inteligencije koje podupiru prepoznavanje lica, pogledajte poveznicu ovdje.

Općenito je poanta da postoji velika šansa da bilo koja AI za dobro također će nositi pripadajuću prtljagu koja se sastoji od AI za loše. Postoje neke prilike u kojima AI za loše je potpuno loša, a postoje male iskupljujuće osobine koje bi sugerirale da postoji barem malo AI za dobro unutar. Sve u svemu, međutim, obično će AI sustav izgledati i jedno i drugo AI za dobro i AI za loše. Prve bismo željeli potaknuti, druge spriječiti, ograničiti, ublažiti, a kad sve ne uspije, uhvatiti i defanirati što je prije moguće.

Možda mislite, da, sve to ima smisla i trebali bismo pažljivo ispitati umjetnu inteligenciju za bilo koju vrstu rasnih predrasuda, rodnih predrasuda i bilo koje vrste nejednakosti. To bi bila prikladna akcija i pomoć društvu u izbjegavanju lošeg i plodonosnom prikupljanju dobra umjetne inteligencije.

Vjerovali ili ne, postoji još jedan čimbenik koji se može dodati na popis iznenađujućih stvari umotanih u AI za koje mnogi nisu shvaćali da je u šarolikom gulašu AI.

Političke sklonosti.

Nedavne studije pokazuju da sustavi umjetne inteligencije mogu utjeloviti (takoreći, iako ne antropomorfno), mnoštvo političkih tendencija, mišljenja, preferencija i drugih sličnih atributa i infuzija utemeljenih na političkom životu. To zauzvrat može utjecati na način na koji AI radi, kao što je ono što AI "odlučuje" na temelju programiranja AI.

Ako se prijavite za zajam putem interneta, a koristi se algoritamski sustav donošenja odluka koji se temelji na umjetnoj inteligenciji, često nemate pojma od čega se sastoji AI programiranje. Kad kažete da ste odbijeni za zajam, ne možete biti sigurni da je AI izbjegao korištenje vaše rase, spola ili drugih sličnih čimbenika pri donošenju odluke o odbijanju.

Niti ne možete biti sigurni da AI nije ugušio vaš zahtjev za kredit zbog svojih političkih pristranosti.

Kada to tvrdim u tako oštrim terminima, nemojte prenapuhavati pojam vjerujući da je AI razuman. Kao što ću još za trenutak spomenuti, danas nemamo razumnu umjetnu inteligenciju. Točka, točka. Bez obzira na lude naslove koje vidite, imajte na umu da danas ne postoji ništa slično razumnoj umjetnoj inteligenciji. Ne znamo ni je li moguće postići osjećaj s AI. Također nema naznaka kada će se to dogoditi, niti hoće li se ikada dogoditi.

Da se vratim na stvar.

Sada kada sam shvatio da umjetna inteligencija može sadržavati političke pristranosti, možemo pobliže pogledati kako se to događa i na koje se načine političke sklonosti mogu podmuklo pojaviti.

Na stranu, ako vas ideja da AI može ugraditi političke sklonosti izaziva užasnu užasnutu užasnutost ili šok, pripišite to još jednom primjeru probijanja besprijekornog vela AI. Čini se da je društvo do sada prihvaćalo imidž AI kao brenda koji uključuje veliku nevinost i netaknutu auru neutralnosti i ravnoteže.

Možda smo to prenijeli s drugih vrsta strojeva. Čini se da tosteri nemaju inherentne predrasude na temelju rase, spola i tako dalje. Slično ne bismo očekivali da toster bude politički nastrojen. Toster je toster. Smatra se samo strojem.

Razlog zašto perspektiva tostera ne drži vodu kada je u pitanju umjetna inteligencija je taj što je sustav umjetne inteligencije programiran tako da pokušava nastaviti s kognitivnim kapacitetima. Kao takav, to gura stroj u zabludu kognitivnih problema kao što je utjelovljenje predrasuda i slično. Uvjeravam vas, uskoro ćemo otkriti da su tosteri bazirani na umjetnoj inteligenciji prepuni pristranosti i problematičnih briga.

Zgodan način da otvorite vrata prema razumijevanju kako AI može postati politički prožet bit će promotriti korištenje AI u nastanku istinskih samovozećih automobila temeljenih na umjetnoj inteligenciji. Možemo jednim udarcem pogoditi dvije muhe i ispitati generičku i sveobuhvatnu temu umjetne inteligencije koja sadrži političko utjelovljenje, i to u primjernom kontekstu kako bi se to moglo pojaviti u samovozećim automobilima.

Ipak želim pojasniti da je politička inokulacija umjetnom inteligencijom samostalna tema koja zaslužuje da joj se oda priznanje. Nemojte pogrešno ispreplitati umjetnu inteligenciju samovozećih automobila s političkim dimenzijama umjetne inteligencije. Sva AI imat će politički inherentne mogućnosti, a dubina i stupanj ovisit će o tome kako je AI osmišljen i postavljen.

Evo, dakle, važnog pitanja o kojem vrijedi razmisliti: Kako će AI interno prožeti političke sklonosti i može li se to uopće dogoditi u naizgled apolitičnom području AI-a koji se koristi za nove samovozeće automobile temeljene na umjetnoj inteligenciji?

Dopustite mi na trenutak da raspakiram pitanje jer se odnosi na samovozeće automobile.

Prvo, imajte na umu da ne postoji ljudski vozač koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV), a posebno samovozećih automobila, pogledajte poveznicu ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni koji AI automobilom upravljaju potpuno samostalno, a tijekom zadatka vožnje nema nikakve ljudske pomoći.

Ta se vozila bez vozača smatraju razinom 4 i razinom 5 (pogledajte moje objašnjenje na ovoj poveznici ovdje), dok se automobil koji zahtijeva da ljudski vozač zajednički dijeli napore u vožnji obično uzima u obzir na razini 2 ili razini 3. Zadatak dijeljenja vožnje opisan je kao poluautonoman i obično sadrži niz automatiziranih dodataka koji se nazivaju ADAS (napredni sustavi za pomoć vozaču).

Još nema pravog automobila za samostalnu vožnju na razini 5, za koji još ne znamo hoće li to biti moguće i koliko će vremena trebati da se tamo stigne.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo pokusni kunići sa životom ili smrću u eksperimentu) koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, moju pokrivenost pogledajte na ovoj poveznici ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i politička sklonosti ugrađene u umjetnu inteligenciju

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo pripremljeni da duboko zaronimo u dilemu koja je ugrađena u politiku umjetne inteligencije.

Nakratko ostavimo po strani aspekte samovozećeg automobila i najprije istražimo temu umjetne inteligencije o tome kako ona uključuje političke sklonosti. Najlakši način da AI postane politički iskovana je djelovanjem AI programera koji izrađuju softver AI. Kao ljudi, mogli su prenijeti svoje osobne političke sklonosti u ono za što programiraju softver.

Kada su sustavi umjetne inteligencije prvi put počeli pokazivati ​​različite rasne i rodne predrasude, došlo je do velikog negodovanja da je to moralo biti rezultat AI programera koji su osmislili te sustave. Postojale su optužbe da je to bio namjeran čin AI programera. Drugi su ipak sugerirali da AI programerima nedostaje raznolikost i stoga su neoprezno ili nepromišljeno dopustili da se njihove postojeće pristranosti prenesu u njihove napore u programiranju umjetne inteligencije.

Za mnoge AI timove to ih je potaknulo da postanu svjesniji osiguravanja raznolikosti među svojim kolegama programerima, uključujući kada su se novi članovi dodavali njihovim programskim grupama. Osim toga, stvoreni su posebni poučni obrazovni tečajevi kako bi se povećala svijest o raznolikosti za AI programere. Postoje čak i metodologije razvoja umjetne inteligencije koje obuhvaćaju aspekte raznolikosti kako bi se eksplicitno usmjerili projekti umjetne inteligencije prema tome da paze na cijepljenje predrasuda i nejednakosti u svoje sustave.

Iako gotovo nitko još nije svjestan politički ukorijenjene vrste pristranosti za umjetnu inteligenciju, izgledi su da će ona na kraju porasti na važnosti i da će rezultirati glasnom galamom. Još jednom, bit će pažljivo ispitani AI programeri. Možda neki namjerno unose svoje političke sklonosti, dok bi drugi mogli to učiniti bez shvaćanja da to čine.

Usuđujem se reći da je fokus pretpostavke da su AI programeri jedini izvor uvođenja predrasuda u AI promašio sveukupnost toga odakle proizlaze AI pristranosti. Postupna je svijest o tome da je korištenje strojnog učenja (ML) i dubokog učenja (DL) postalo značajan doprinos i aspektima unutarnje pristranosti AI.

Strojno učenje i duboko učenje su tehnike i tehnologije za podudaranje računalnih uzoraka.

Sastavljate podatke koje želite unijeti u ML/DL, koji zatim računalno nastoji pronaći matematičke obrasce u danom skupu podataka. Na temelju tih izračunatih obrazaca, ML/DL će se koristiti, kao što je mogućnost recimo prepoznavanja lica. Za prepoznavanje lica mogli bismo nahraniti hrpu slika ljudi, a ML/DL će izračunati značajne karakteristike onoga što lica čini prepoznatljivima, kao što su oblik i veličina nosa, oblik i veličina usta i usana , oblik i veličina čela i tako dalje.

Čini se da je ovaj računski pristup izvan svake vrste utjecaja pristranosti. Sve su to samo kalkulacije.

Aha, ali zapamtite da slike (ili bilo što drugo) unosimo u ML/DL kao dio "treninga" ili podudaranja računalnog uzorka. Za prepoznavanje lica, ako bismo prvenstveno hranili slike koje prikazuju ljude jedne određene rase, velika je vjerojatnost da bi se kompjutorsko podudaranje uzorka izoštrilo prema tim aspektima lica. Kasnije, pod pretpostavkom da stavimo ovaj sustav prepoznavanja lica u široku upotrebu, oni koji su ga koristili i bili su druge rase mogli bi biti manje vjerojatno "prepoznati" matematički jer su ML/DL obrasci oblikovani oko rase koja se pretežno nalazila u treningu. skupa.

Dakle, možete jasno vidjeti kako inače “nepristran” matematički pristup ML/DL-a može biti iskrivljen (postoje i drugi načini, ali ovdje samo spominjem ovaj veliki). Jesu li programeri umjetne inteligencije namjerno stvorili skup podataka koji je bio rasno neuravnotežen? Sugerirao bih da je to rijetko namjerni čin, iako nedostatak spoznaje da su to učinili još uvijek nije dovoljan izgovor.

U današnje vrijeme postoji snažan pritisak na pokušaj da se oni koji koriste ML/DL natjeraju da budu pažljiviji o tome koje podatke koriste za obuku i kakve rezultate to proizvodi. Nažalost, svi su uskočili u ML/DL bandwagon i mnogi od ovih novopridošlica ili letećih po noći koji su preuzeli ML/DL plašt čine to bez svijesti o pristranostima koje se ulijevaju. Postoje vjerojatno i loši glumci koji bi to mogli namjerno učiniti, iako nadajmo se da ih je malo.

Vjerujem da vas je prethodno navedeno upoznalo s aspektima etike umjetne inteligencije koji uključuju unošenje predrasuda u današnju umjetnu inteligenciju.

Samo naprijed i ponovite cijelu frizuru, zamjenjujući generički pojam pristranosti specifičnim naznakama politički ukorijenjenih sklonosti. Već sam spomenuo da sami programeri umjetne inteligencije mogu otvoreno ili nehotice prenijeti svoje političke sklonosti u ono što programirana AI radi. Drugi aspekt koji sam također naveo je da za korištenje strojnog učenja i dubokog učenja postoji mogućnost odabira podataka o obuci koji bi mogli namjerno ili slučajno prenijeti obrasce koji se uklapaju u određenu političku dimenziju.

Pa, malo se bavim ovom kolumnom (ups, TLDR, neki će oštro reći), pa ću nastojati ukratko skicirati primjer kako bi umjetna inteligencija za samovozeći automobil koji se temelji na umjetnoj inteligenciji mogla biti uvučena u ove vrste politickih crvotočina (za moje opširno pokrivanje takvih pitanja, u mnogim mojim objavama u kolumnama, pogledajte vezu ovdje).

Jedno dobro poznato pitanje o potencijalnom kapitalu o kojima se često raspravlja o samovozećim automobilima s umjetnom inteligencijom odnosi se na korištenje robo-taksija i tko će imati pristup ovoj novoj opciji mobilnosti kao usluge. Zabrinutost je da će si samo bogati moći priuštiti korištenje robo-taksija, pa će tako oni s nižim primanjima biti izostavljeni iz nove ere automobila bez vozača (pogledajte detaljni izvještaj o tome, na linku ovdje ).

Postoji još jedan obrat koji proizlazi iz te nevolje.

Zamislite da samovozeći automobili lutaju gradom i čekaju zahtjev za vožnju. Stiže zahtjev i obližnji samovozeći robo-taxi dolazi po vozača. Jahač pokazuje kamo želi ići, a AI sustav vožnje iscrtava put do tamo. AI sustav vožnje zatim nastavlja voziti autonomno vozilo do željenog odredišta.

Sve se to čini u redu.

Ovdje je izražena otrežnjujuća strepnja.

Pretpostavimo da se sustav vožnje AI odluči osmisliti put koji izbjegava zatrpanije četvrti. Mogli biste pretpostaviti da bi se navigacijsko crtanje temeljilo samo na optimalnom putu, kao što je najmanja udaljenost ili možda najkraće vrijeme. Možda možda ne.

Drugi čimbenici mogli bi biti vjerojatnost da samovozeći automobil prođe kroz ono što bi se moglo izračunati kao mjesta prepuna kriminala. Moguće je da se vodi računa o opasnosti za autonomno vozilo i putnike kojim putem krenuti.

Postoji tvrdnja da bi samovozeći automobili gotovo uvijek neraskidivo izbjegavali siromašnije ili potlačene zajednice. Čini se da ljudi koji se voze u samovozećim automobilima nikada ne bi shvatili da takva mjesta postoje u njihovim gradovima ili mjestima. To bi ih zauzvrat vjerojatno učinilo nesvjesnima potreba takvih zajednica. Povrh toga, oni koji žive u tim područjima rijetko bi mogli dobiti priliku koristiti samovozeći automobil, čak i ako je pristupačan. Ne bi bilo nikakvih robo-taksija koji lutaju u njihovoj sredini, koji bi se izračunom držali izvan tih područja.

Bi li do ove pristranosti došlo zbog namjernog programiranja AI od strane programera?

Može biti, iako ne nužno.

Možda ova pristranost proizlazi iz upotrebe strojnog učenja i dubokog učenja?

Naravno, to je razmatrana mogućnost.

Sustav vožnje s umjetnom inteligencijom mogao bi se temeljiti na ML/DL-u koji je koristio podatke za obuku o tome gdje treba nastaviti prilikom mapiranja puta. Kad bi se ti podaci oblikovali oko izbjegavanja određenih područja, ML/DL bi vjerojatno otkrio takav obrazac i krenuo dalje s njim. Tijekom vremena, pod pretpostavkom da se takvi podaci dodatno akumuliraju dok su samovozeći automobili u pokretu, podaci koji se naknadno koriste za ažuriranje i održavanje dodatno bi pojačali te iste izmišljene obrasce.

Moglo bi se reći da se obrasci usložnjavaju kako se korištenje prethodnog uzorka iznova postavlja na svoje mjesto, neka vrsta snježne kugle ili efekta koji se neprestano vrti.

Na neki način, mogli biste protumačiti da je ova prividna pristranost oko toga gdje voziti primjer kako bi se mogla pojaviti potencijalna tendencija AI ukorijenjena u politiku. Jedna perspektiva bila bi pustiti AI da nastavi nesmanjeno u ovoj sklonosti. Drugi bi bio revidirati AI kako bi se namjerno zabio u ona područja koja su bila usklađena izvan opsega, što opet možete ustvrditi da je možda politički orijentirano stajalište koje se ulijeva u AI.

Sve u svemu, i AI izlošci politička sklonost ili se barem percipira kao takva, bez obzira na to je li imala ikakvog privida (što osjećajem nema) o politici stvari.

Zaključak

Postoji mnogo ovakvih primjera koji se mogu navesti.

Ostat ću pri kontekstu samovozećeg automobila i dati vam još jedan brzi primjer. Pretpostavimo da jahač zatraži prijevoz robo-taksijem automobila s umjetnom inteligencijom i to učini kako bi stigao na politički skup koji se održava u zgradi suda u centru grada. Sustav vožnje AI odbija odvesti jahača tamo.

Zašto?

Zamislite da su prijašnji podaci prikupljeni o političkim skupovima kao odredišnoj točki ukazivali na to da su samovozeći automobili uhvaćeni u gužve u prometu. Pretpostavimo da je to značilo da su samovozeći automobili bili manje sposobni zaraditi novac od vozača, zbog dugog vremena čekanja u prometu i naplate niže cijene za ta vremena čekanja. Algoritam umjetne inteligencije kao što je korištenje ML/DL-a mogao bi računalno odrediti da je odlazak na političke skupove loš izbor za zarađivanje novca. Dakle, kada se pojave zahtjevi da se robo-taxi ide na politički skup, zahtjev se odbija.

Mislim da možete vidjeti kako se ovo može smatrati politički motiviranim izborom. Iako umjetna inteligencija ne koristi izravno bilo kakvu vrstu političkog motiva na bilo koji način govorenja, čini se da u svakom slučaju čini politički izbor.

Možete se kladiti u svoj najniži dolar da ćemo se uskoro suočiti s političkom reakcijom na političke sklonosti AI. Zapamti moje riječi!

Kad smo već kod riječi, poznati grčki pjesnik i dramatičar Aristofan tvrdio je da se ispod svakog kamena krije političar. U današnjem svijetu, unutar svakog sustava umjetne inteligencije, postoji nedvojbena šansa da vrebaju političke sklonosti, znali vi za to ili ne.

Bolje počni okretati to kamenje.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/01/17/latest-jolting-ai-ethics-concern-is-that-ai-can-inextricably-embody-political-biases-including- čak-u-neškodljivom-slučaju-samovozećih-automobila-baziranih na AI/