AI etika skeptična u pogledu uspostavljanja takozvanih zakona o AI s crvenom zastavom za pozivanje pristranih algoritama u autonomnim AI sustavima

Razgovarajmo o Zakonima o Crvenoj zastavi.

Nesumnjivo znate da je pojam zakona o crvenoj zastavi u posljednje vrijeme naširoko zastupljen u vijestima. Brojni su naslovi koji pokrivaju tu temu. Strasti i strastvene rasprave o takvim stvarima su na vrhu uma kao društvena briga i podrazumijevaju današnje i brzo nastajuće zakone o oružju s crvenom zastavom.

Ipak, usudio bih se reći da možda niste upoznati s drugim zakonima o Crvenoj zastavi donesenim kasnih 1800-ih koji se odnose na motorna vozila i preteče današnjih svakodnevnih modernih automobila. Da, tako je, Zakoni o Crvenoj zastavi sežu u prošlost, iako pokrivaju druge teme u usporedbi s današnjim suvremenim fokusom. Oni se obično nazivaju Prometni zakoni s crvenom zastavom.

Ovi sada stoljetni i potpuno nevažeći zakoni zahtijevali su da svaka motorna kočija ili motor pokretan parom u to vrijeme mora imati odraslu osobu ispred vozila i nositi crvenu zastavu u svrhu upozorenja. Ideja je bila da bi se stoka mogla uznemiriti zbog tih bučnih i nesvakidašnjih naprava koje se sporo i neravnomjerno spuštaju po zemljanim ili rubno popločanim cestama, pa bi netko prošetao ispred naprave dok bi snažno mašući crvenom zastavom mogao izbjeći nesreće. U slučaju da se pitate, željeznice i vlakovi smatrali su se isključenima iz istih zakona jer su to vozila koja su integralno vezana za tračnice i imali su druge zakone koji pokrivaju njihovo djelovanje.

Zamislite da danas morate mahati crvenim zastavama kao uvjet za svaki automobil na našim javnim cestama.

Na primjer, običan vozač koji dolazi ulicom u vašem susjedstvu morao bi osigurati da odrasla osoba maše crvenom zastavom bude prisutna i paradirala ispred automobila u pokretu. To bi se moralo dogoditi za svako vozilo koje prolazi vašom ulicom. Možda bi ljudi postali radnici s crvenom zastavom koji bi unajmili vozače automobila u prolazu koji inače ne bi imali prijatelja ili rođaka koji bi mogao ići ispred njih i obavljati propisanu akciju mahanja.

Danas smo skloni povezivati ​​mahanje crvenom zastavom povezano s autocestama s gradilištima cesta. Dok se približavate raskopanoj cesti, radnici će podignuti crvenu zastavu kako bi privukli vašu pozornost. Ovo vam govori da usporite i budete na oprezu. Mogao bi postojati buldožer koji će vam se zabiti na put. Pred vama bi se mogla nalaziti divovska rupa i morat ćete je oprezno obilaziti.

No, vratimo se na korištenje crvenih zastava iz 1800. godine.

Vjerovali ili ne, pomicanje crvene zastave trebalo je biti najmanje jednu osminu milje ispred nadolazećeg motoriziranog stroja. Čini se da je to prilično duga udaljenost. Može se pretpostaviti da je to tih dana imalo obilje smisla. Zapanjujuća buka motora i možda sam pogled na vozilo mogli bi biti dovoljni da se životinje iznerviraju. Neki od zakona o Crvenoj zastavi iz tog doba također su zahtijevali da se blistavo crveno svjetlo drži visoko tijekom noći kako bi se vizualno vidljivo crveno upozorenje predostrožnosti moglo vidjeti iz zamračene udaljenosti.

Općenito, mislim da je pošteno tvrditi da mi kao društvo nastojimo povezivati ​​crvenu zastavu kao neku vrstu signala ili znaka da nešto potencijalno nije u redu ili barem treba našu posvećenu pažnju.

Pripremite se za malo zaokreta u vezi s ovim fenomenom crvene zastave.

Postoji tvrdnja da bismo trebali zahtijevati odredbe o crvenoj zastavi kada je u pitanju umjetna inteligencija (AI).

To je pomalo zapanjujuće i iznenađujući koncept zbog kojeg se mnogi češu po glavi. Možda ćete biti zbunjeni kako ili zašto bi trebalo postojati tzv Red Flag AI zakoni. Imajte na umu da ovo označavam kao AI zakone o crvenoj zastavi kako bih razlikovao pitanje od zakona o prometu s crvenom zastavom (kao što su oni iz kasnih 1800-ih) i također da ih razlikujem od današnjih drugih rasprostranjenijih zakona o oružju s crvenom zastavom.

Trebamo li zapravo zakone o AI s crvenom zastavom koji su jasno i isključivo orijentirani na pitanja umjetne inteligencije?

Oni koji podržavaju predloženi pristup inzistiraju na tome da su nam apsolutno potrebne zakonske odredbe koje bi pomogle u suzbijanju AI-a koji sadrži neprimjerene pristranosti i djeluje na diskriminatorne načine. Upravo sada, izgradnja i implementacija AI-a slični su okolnostima na Divljem zapadu. Napori za obuzdavanje loše umjetne inteligencije trenutno ovise o formulaciji i usvajanju etičkih smjernica AI. Za moje kontinuirano i opsežno pokrivanje etike umjetne inteligencije i etičke umjetne inteligencije, vidi link ovdje i link ovdje, Samo da spomenemo nekoliko.

Zakoni koji ometaju lošu umjetnu inteligenciju polako se osmišljavaju i donose, pogledajte moje izvješće na link ovdje. Neki se brinu da zastupnici ne idu dovoljno brzo. Čini se kao da su vrata dopuštanja poticanja pristrane AI u svijetu uvelike otvorena upravo sada. Kršenje ruku kaže da će zli duh već izaći iz boce dok novi zakoni uđu u knjige.

Ne tako brzo, protuargumenti idu. Zabrinutost je da ćemo, ako se zakoni prebrzo uvedu, ubiti zlatnu gusku, takoreći, pri čemu će napori AI-a presahnuti i nećemo dobiti društvene prednosti novih AI sustava. Programeri umjetne inteligencije i tvrtke koje žele koristiti umjetnu inteligenciju mogle bi se uplašiti ako se bizantski niz novih zakona koji reguliraju umjetnu inteligenciju iznenada uvedu na saveznu, državnu i lokalnu razinu, a da ne spominjemo međunarodne zakone vezane uz umjetnu inteligenciju koji također napreduju.

U ovu zbrku aferu dolazi poziv za Red Flag AI zakone.

Prije nego što se upustimo u još malo mesa i krumpira o razmatranjima divljeg i vunastog porijekla na kojima se temelji zamišljeni Zakon o AI o crvenoj zastavi, uspostavimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno u pojavu strojnog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da je jedan od najglasnijih glasova ovih dana u području AI, pa čak i izvan polja AI-a, traženje većeg privida etičke AI. Pogledajmo što znači upućivanje na etiku umjetne inteligencije i etičku umjetnu inteligenciju. Povrh toga, istražit ćemo što mislim kada govorim o strojnom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su “samo koderi” ili oni koji programiraju AI podložni poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na AI zakone Red Flag.

Temeljni koncept je da bi ljudi mogli podići crvenu zastavu kad god vjeruju da sustav umjetne inteligencije djeluje na nepristrasan ili diskriminirajući način. Ne biste sami po sebi podizali fizičku zastavu, već biste jednostavno koristili neka elektronička sredstva da izrazite svoju zabrinutost. Dio s crvenom zastavom sheme ili pristupa više je metafora nego fizičko utjelovljenje.

Pretvarajte se da podnosite zahtjev za stambeni kredit. Odlučujete se za korištenje usluge internetskog bankarstva za podnošenje zahtjeva za kredit. Nakon što unesete neke osobne podatke, na trenutak čekate AI sustav koji se koristi da odluči jeste li vrijedni kredita ili ne. AI vam govori da ste odbijeni za zajam. Nakon što ste zatražili objašnjenje zašto ste odbijeni, čini se da vam tekstualni narativ sugerira da je AI koristio neprimjerene pristrane čimbenike kao dio algoritma za donošenje odluka.

Vrijeme je za podizanje crvene zastave o AI.

Gdje će se točno vijoriti ova crvena zastava?

To je pitanje od milijun dolara.

Jedno je stajalište da bismo trebali uspostaviti državnu bazu podataka koja bi omogućila ljudima da označe svoje crvene zastavice relevantne za umjetnu inteligenciju. Neki kažu da bi to trebala regulirati federalna vlada. Federalne agencije bile bi odgovorne za ispitivanje crvenih zastavica i pomoć široj javnosti u pogledu istinitosti i postupanje s vjerojatno “lošom umjetnom inteligencijom” koja je potaknula crvenu zastavu u izvješćima.

Čini se da bi Kongres uspostavio nacionalni zakon o umjetnoj inteligenciji s crvenom zastavom. Zakon bi precizirao što je crvena zastava koja se odnosi na umjetnu inteligenciju. Zakon bi opisivao kako se dižu te crvene zastavice koje vrijede umjetnom inteligencijom. I tako dalje. Moglo bi se dogoditi i da bi se pojedine države također odlučile izraditi vlastite zakone o AI crvenoj zastavi. Možda to čine umjesto nacionalne inicijative, ili to čine kako bi pojačali pojedinosti koje su posebno privlačne njihovoj specifičnoj državi.

Kritičari federalnog ili bilo kojeg programa Red Flag AI programa koji ima podršku vlade tvrdili bi da je to nešto što privatna industrija može učiniti i da ne trebamo da Big Brother dođe u prvi plan. Industrija bi mogla uspostaviti online spremište u koje ljudi mogu registrirati crvene zastavice o AI sustavima. Samopolicijska akcija industrije dovoljno bi riješila ova pitanja.

Zabrinutost oko navodnog industrijskog pristupa je to što se čini da miriše na kronizam. Bi li tvrtke bile spremne pridržavati se neke privatne baze podataka Red Flag AI? Mnoge tvrtke potencijalno bi zanemarile označene crvene zastavice o svojoj umjetnoj inteligenciji. Ne bi bilo oštrih zuba prema natjecanju tvrtki da se nose s unesenim crvenim zastavama.

Hej, zagovornici pristupa privatnog sektora ne govore, ovo bi bilo slično nacionalnoj službi nalik Yelpu. Potrošači bi mogli pogledati crvene zastavice i sami odlučiti žele li poslovati s tvrtkama koje su skupile niz crvenih zastavica orijentiranih na umjetnu inteligenciju. Banka koja je dobivala tone crvenih zastavica o svojoj umjetnoj inteligenciji morala bi obratiti pozornost i preurediti svoje AI sustave, tako je logika, inače bi potrošači izbjegavali tvrtku poput kuge.

Bilo da cijeli ovaj pristup poduzima vlada ili industrija, samo je vrh ledenog brijega o mučnim pitanjima s kojima se suočava predloženi postulat AI zakona o crvenoj zastavi.

Stavite se u kožu tvrtke koja je razvila ili koristi umjetnu inteligenciju. Moguće je da bi potrošači podigli crvenu zastavu iako za to nije bilo održive osnove. Kad bi ljudi mogli slobodno postaviti crvenu zastavu o AI-u, mogli bi biti u iskušenju da to učine iz hira, ili možda zbog osvete tvrtki koja inače nije učinila ništa loše prema potrošaču.

Ukratko, moglo bi biti puno lažno pozitivnih crvenih zastava o AI.

Još jedna stvar koju treba uzeti u obzir je ogromna veličina ili veličina rezultirajućih crvenih zastavica. Lako bi mogli biti podignuti milijuni i milijuni crvenih zastava. Tko će pratiti sve te crvene zastave? Kolika bi bila cijena za to? Tko će platiti napore za praćenje crvene zastave? itd.

Ako biste rekli da svatko tko se registrira ili prijavi crvenu zastavu o AI-u mora platiti naknadu, ušli ste u mračno i podmuklo carstvo. Zabrinutost bi bila da bi si samo bogati mogli priuštiti podizanje crvenih zastava. To pak implicira da osiromašeni ne bi mogli ravnopravno sudjelovati u aktivnostima crvene zastave i u biti nemaju mjesta za upozorenje na štetnu umjetnu inteligenciju.

Za sada samo još jedan dodatni zaokret, naime da se čini da ova vrsta zakona ili smjernica o AI-u nije stvarna, a ne da služi kao upozorenje unaprijed.

Vraćajući se na prometne zakone s crvenom zastavom, naglasak korištenja crvene zastave bio je kako bi se spriječila nesreća za početak. Valjalo crvenom zastavom trebalo je biti daleko ispred nadolazećeg automobila. Nalazeći se ispred vozila, stoka bi bila upozorena, a oni koji su čuvali stoku znali bi da trebaju poduzeti mjere opreza zbog izvora uznemiravanja koji će uskoro stići.

Ako ljudi mogu samo podići crvenu zastavu o AI-u koji je naizgled već naštetio ili potkopao njihova prava, poslovični konj je već izašao iz staje. Čini se da bi se time postiglo samo da će se nadamo da će drugi ljudi koji dolaze sada znati biti oprezni prema tom AI sustavu. U međuvremenu, osoba kojoj je navodno nanesena nepravda već je patila.

Neki sugeriraju da bismo možda mogli dopustiti ljudima da podignu crvene zastavice o AI-ju sumnjiv mogu biti pristrani, čak i ako nisu koristili AI i nisu bili izravno pod utjecajem AI. Dakle, crvena zastava se maše prije nego što je šteta učinjena.

Ajme, odvrati, doista ćete pretvoriti crvene zastavice koje se bave umjetnom inteligencijom u potpuno neupravljivu i kaotičnu aferu. Ako netko iz bilo kojeg razloga može podići crvenu zastavu o sustavu umjetne inteligencije, unatoč tome što nije učinio ništa s tom umjetnom inteligencijom, bit ćete preplavljeni crvenim zastavama. Što je još gore, nećete moći razlikovati žito od kukolja. Cijeli pristup crvenoj zastavi srušit će se pod vlastitom težinom, umanjujući dobrotu ideje dopuštajući flotsam i riffraff da potopi cijeli brod.

Vrtoglavo i zbunjujuće.

U ovom trenutku ove teške rasprave, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljuje li pojavljivanje pravih samovozećih automobila temeljenih na umjetnoj inteligenciji išta o zakonima o umjetnoj inteligenciji Red Flag, i ako jest, što ovo prikazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i zakoni o umjetnoj inteligenciji s crvenom zastavom

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću ispričati.

Nacrtajmo scenarij koji bi mogao utjecati na AI zakon o crvenoj zastavi.

Uđete u samovozeći automobil baziran na umjetnoj inteligenciji i želite da vas autonomno vozilo odveze do vaše lokalne trgovine. Tijekom relativno kratkog putovanja, AI kreće putem koji vam se čini pomalo pogrešnim. Umjesto da ide najizravnijim putem, AI navigira do zabačenih ulica zbog čega je vrijeme vožnje duže nego što bi inače moglo biti.

Što se događa?

Pod pretpostavkom da plaćate za korištenje samovozećeg automobila, mogli biste biti sumnjičavi da je AI programiran da vozi dužu rutu kako bi pokušao povisiti cijenu karte ili cijenu putovanja. Svatko tko je ikada uzeo konvencionalni taksi kojim upravljaju ljudi, zna za trikove koji se mogu dogoditi kako bi dobili više tijesta na mjeraču. Naravno, s ljudima koji imaju GPS na svojim pametnim telefonima dok se voze u taksiju ili sličnom, lako možete uhvatiti ljudskog vozača koji se čini da prikriveno kreće nepotrebno dugim rutama.

Ispostavilo se da imate još jednu zabrinutost oko izbora rute, nešto što vas stvarno izjeda.

Pretpostavimo da je ruta napravljena kako bi se izbjegli određeni dijelovi grada zbog rasnih aspekata. Postoje dokumentirani slučajevi ljudskih vozača koji su uhvaćeni kako donose takve odluke, pogledajte moju raspravu na link ovdje. Možda je AI programiran negativno zbog toga.

Odlučili ste podići crvenu zastavu.

Pretpostavimo radi rasprave da je donesen Red Flag AI zakon koji pokriva vašu jurisdikciju. To može biti lokalni zakon, državni zakon, savezni ili međunarodni zakon. Za analizu koju sam koautor s Harvardskom inicijativom za politiku autonomnih vozila (AVPI) o sve većoj važnosti lokalnog vodstva kada zajednice usvoje korištenje samovozećih automobila, pogledajte link ovdje.

Dakle, idete online u bazu podataka Red Flag AI. U bazu podataka o incidentima unosite podatke o samovozećem automobilu. To uključuje datum i vrijeme vožnje, zajedno s markom i modelom samovozećeg automobila. Zatim ulazite na navigacijsku rutu koja vam se činila sumnjivom i sugerirate ili možda izravno tvrdite da je AI osmišljen s pristranom ili diskriminirajućom namjerom i kapacitetima.

Morali bismo spekulirati o drugim pojedinostima Zakona o umjetnoj inteligenciji crvene zastave o tome što se dalje događa u ovom konkretnom scenariju. U teoriji, postojala bi odredba da netko pregleda crvenu zastavu. Vjerojatno bi nastojali navesti proizvođača automobila ili samovozeću tehnološku tvrtku da objasne svoje stajalište o ubilježenoj crvenoj zastavici. Koliko je još takvih crvenih zastava registrirano? Kakve su rezultate proizvele te crvene zastavice?

I tako bi išlo.

Zaključak

Glupo, opominju neki skeptici.

Ne trebaju nam zakoni o umjetnoj inteligenciji Red Flag, oni strogo djeluju. Raditi bilo što od takve vrste zagušit će posao kada je u pitanju tempo i napredak AI. Svaki takav zakon bio bi glomazan. Stvorili biste problem koji ne rješava problem. Postoje i drugi načini rješavanja AI koji su loši. Nemojte se slijepo hvatati za slamku kako biste se nosili s pristranom umjetnom inteligencijom.

Mijenjajući brzine, svi znamo da toreadori koriste crvene pelerine kako bi naizgled privukli pozornost ljutitog bika. Iako je crvena boja koju najviše povezujemo s ovom praksom, mogli biste se iznenaditi kad znate da znanstvenici kažu da bikovi ne percipiraju crvenu boju muleta (oni su slijepi za boje na crvenu). Popularna emisija otkrivanje mitova obavio prilično zabavno ispitivanje ove stvari. Kretanje ogrtača je ključni element, a ne odabrana boja.

Za one koji odbacuju potrebu za Red Flag AI zakonima, protutvrdnja je da nam treba nešto dramatično i nepogrešivo mahajuće prirode kako bismo bili sigurni da će se AI programeri i tvrtke koje primjenjuju AI izbjegavati pristrane ili loše AI. Ako ne za crvenu zastavu, možda bi lepršavi ogrtač ili u osnovi bilo kakav pristup uzbunjivanju mogao biti u domeni dobivanja dužne pažnje.

Zasigurno znamo da loša umjetna inteligencija postoji i da će puno više loše umjetne inteligencije krenuti u našem smjeru. Pronalaženje načina da se zaštitimo od štetne AI je ključno. Isto tako, jednako je važno postaviti zaštitne ograde kako biste spriječili lošu umjetnu inteligenciju da uđe u svijet.

Ernest Hemingway je slavno rekao da nitko nikada ne živi svoj život do kraja osim boraca s bikovima. Moramo se pobrinuti da ljudi mogu živjeti svoj život cijelim putem, bez obzira na zlo ili ludilo koje nam se proglašava.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- pristrani-algoritmi-u-autonomnim-ai-sustavima/