Etika umjetne inteligencije i nadolazeći debakl kada se pokrene zakon grada New Yorka koji zahtijeva revizije za pristranosti umjetne inteligencije

Ponekad su najbolje namjere žalosno pokvarene ozbiljnim nedostatkom pažnje za detalje.

Najbolji primjer ove mudračke mudrosti vrijedan je istraživanja.

Konkretno, pogledajmo pobliže novi zakon u New Yorku koji se odnosi na umjetnu inteligenciju (AI) koji će stupiti na snagu 1. siječnja 2023. Lako biste mogli dobiti pozamašnu okladu da će doći do svakojake zbrke, zaprepaštenja i problema kada zakon stupi na snagu. Iako problemi nisu planirani, nedvojbeno će se pojaviti kao rezultat lošeg dizajna ili barem nedovoljnog propisivanja potrebnih detalja koji su se trebali i mogli lako osmisliti i eksplicitno navesti.

Mislim na lokalni zakon donesen prošle godine 11. prosinca 2021. u cijenjenom gradu New Yorku koji bi trebao stupiti na snagu početkom 2023. Trenutno smo samo nekoliko mjeseci udaljeni od velikog buđenja koje ovaj novi zakon će uzburkati. Volio bih da mogu reći da će ambiciozni zakon besprijekorno učiniti ono što bi trebao učiniti, naime baviti se potencijalnim pristranostima umjetne inteligencije u području donošenja odluka o zapošljavanju. Jao, iako je namjera hvalevrijedna, provest ću vas kroz zjapeće rupe, propuste i nedostatak specifičnosti koji će potkopati ovaj zakon i izluditi poslodavce dok se žele nositi s njegovim nenamjernim, ali prilično nepovoljnim posljedicama.

Moglo bi se reći da je ovo klasično pitanje guranja naprijed s polovično pečenim planom. Poštovana maksima koja se pripisuje Dwightu Eisenhoweru bila je da je plan ništa, dok je planiranje sve. Ukratko, ovaj određeni zakon pružit će jasan primjer kako zakonodavci ponekad mogu pogriješiti propuštajući dobro razmisliti unaprijed potrebne pojedinosti kako bi zakon ispunio svoje hvalevrijedne ciljeve i mogao se usvojiti na zasigurno razuman i razborit način.

Čeka se debakl.

Izgovori se već redaju.

Neki su stručnjaci rekli da nikada ne možete u potpunosti specificirati zakon i da ga morate vidjeti na djelu kako biste znali koje aspekte zakona treba dotjerati (općenita istina koja se u ovom slučaju izokreće nesrazmjerno). Nadalje, žestoko tvrde da je to osobito slučaj kada je riječ o novostima zakona koji se odnose na umjetnu inteligenciju. Dovraga, pozivaju oni, umjetna inteligencija je čarobnjaštvo visoke tehnologije o kojem mi kao zakonodavci ne znamo mnogo, stoga je logika da je bolje imati nešto u pravnim stranicama nego nemati ništa tamo.

Na površini, to svakako zvuči uvjerljivo. Ipak, kopajte dublje i shvatit ćete da je potencijalno grozan, uključujući i posebno u slučaju ovog specifičnog zakona. Ovaj bi zakon mogao biti vještije i razboritije propisan. Ne trebaju nam čarobni napitci. Ne trebamo čekati dok ne dođe do nereda. U vrijeme kada je zakon pravljen, mogli su se utvrditi ispravni tekstovi i detalji.

Također se uvjerimo da je nepristojna, nametnuta ideja da se aspekti usvajanja ne mogu unaprijed naslutiti bolno besmislena. To je legalno mumbo-jumbo mahanje rukom najbezveznije vrste. Postoji mnogo već poznatih razmatranja o suočavanju s pristranostima umjetne inteligencije i provođenju revizija umjetne inteligencije koja su se lako mogla uklopiti u ovaj zakon. Isto se može reći za bilo koju drugu jurisdikciju koja razmišlja o uspostavi takvog zakona. Ne dajte se zavarati da vjerujemo da moramo pribjeći samo slijepom bacanju legalne strelice u divlje vjetrove i trpljenju tjeskobe. Malo pravnog razmišljanja u kombinaciji s odgovarajućim razumijevanjem umjetne inteligencije već je izvedivo i nema potrebe da se hvatate samo za slamke.

Mogao bih dodati da još uvijek ima vremena da se ovo ispravi. Sat još otkucava. Moglo bi se probuditi prije nego što počnu zvoniti alarmi. Potreban savjet se može izvesti i objaviti. Vremena je malo pa tome treba dati prioritet.

U svakom slučaju, provjerite jeste li shvatili naglasak ovdje.

Dopustite mi da gorljivo pojasnim da takav zakon koji se tiče pristranosti AI ima zasluga. Odmah ću objasniti zašto. Također ću opisati koji problemi postoje s ovim novim zakonom za koji bi mnogi rekli da je prvi ikada stavljen u pravne knjige (postoje i druge varijante, možda ipak ne baš poput ove).

Doista, možete očekivati ​​da će slični zakoni postupno postojati diljem zemlje. Jedna značajna zabrinutost je da ako ovaj pokušaj prvog pokretača u New Yorku prođe loše, to bi moglo dovesti do toga da ostatak zemlje bude oprezan u donošenju takvih zakona. To nije prava lekcija koju treba naučiti. Ispravna pouka je da, ako namjeravate napisati takav zakon, učinite to razumno i s dužnim promišljanjem.

Zakoni stavljeni u knjige bez odgovarajuće provjere mogu biti prilično uznemirujući i stvoriti sve moguće poteškoće. U tom smislu, nemojte izbacivati ​​bebu zajedno s vodom za kupanje (stara izreka koju bi vjerojatno trebalo povući iz upotrebe). Bit je da takvi zakoni mogu biti istinski produktivni i zaštitni kada su ispravno sastavljeni.

Ovaj to nažalost neće učiniti izvan vrata.

Sve vrste paničnih smjernica sigurno će doći od onih koji donose i provode zakon. Označite svoje kalendare za kasni siječanj i veljaču 2023. da biste gledali kako slijedi strka. Upiranje prstom bit će neizmjerno intenzivno.

Nitko se sad posebno ne buni jer se zakon još nije obrušio na glavu poslodavaca koje će novi zakon obiti o glavu. Zamislite da je ovo metaforički rečeno svojevrsni potres koji bi se trebao dogoditi u prvim tjednima 2023. Malo tko se priprema za potres. Mnogi i ne znaju da je potres već upisan u kalendar. Uz sve to rečeno, nakon što se potres dogodi, mnoge će se vrlo zapanjene i šokirane tvrtke zapitati što se dogodilo i zašto se nered morao dogoditi.

Sve ovo ima izrazito značajne implikacije na etiku umjetne inteligencije i nudi zgodan uvid u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj donošenja zakona o umjetnoj inteligenciji. Za moje kontinuirano i opsežno pokrivanje Etike umjetne inteligencije, Etička umjetna inteligencija, zajedno sa Zakonom o umjetnoj inteligenciji usred pravnih aspekata upravljanja umjetnom inteligencijom mogu se pronaći na link ovdje i link ovdje, da spomenemo samo neke.

Ova pravna priča o nesreći odnosi se na nekadašnju pojavu zabrinutosti oko današnje umjetne inteligencije, a posebno upotrebe strojnog učenja (ML) i dubokog učenja (DL) kao oblika tehnologije i načina na koji se ona koristi. Vidite, postoje upotrebe ML/DL-a koje uključuju antropomorfizaciju umjetne inteligencije od strane šire javnosti, vjerujući ili odabirući pretpostaviti da je ML/DL ili osjetljiva AI ili blizu (nije). Osim toga, ML/DL može sadržavati aspekte računalnog usklađivanja uzoraka koji su nepoželjni ili potpuno neprikladni ili nezakoniti iz etičke ili pravne perspektive.

Moglo bi biti korisno prvo razjasniti što mislim kada govorim o umjetnoj inteligenciji u cjelini te pružiti kratak pregled strojnog učenja i dubokog učenja. Postoji velika zbrka oko toga što umjetna inteligencija znači. Također bih vam želio predstaviti pravila Etike umjetne inteligencije, koja će biti posebno sastavni dio ostatka ovog diskursa.

Navođenje zapisa o AI

Uvjerimo se da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman.

Nemamo ovo.

Ne znamo hoće li razumna umjetna inteligencija biti moguća. Nitko ne može točno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva Singularnost, pogledajte moje izvješće na link ovdje).

Shvatite da današnja umjetna inteligencija nije u stanju "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, sposobnosti razgovora mogu se činiti sličnim ljudskim sposobnostima, ali stvarnost je da su računalne i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje i duboko učenje, koji iskorištavaju računalno podudaranje uzoraka. To je dovelo do AI sustava koji izgledaju poput ljudskih sklonosti. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma, niti ima ikakvo kognitivno čudo snažnog ljudskog razmišljanja.

Dio problema je naša tendencija da antropomorfiziramo računala, a posebno AI. Kada se čini da računalni sustav ili umjetna inteligencija djeluju na način koji povezujemo s ljudskim ponašanjem, postoji gotovo neodoljiva želja da se sustavu pripišu ljudske kvalitete. To je uobičajena mentalna zamka koja može uhvatiti čak i najnepopustljivijeg skeptika u vezi s izgledima za postizanje osjećaja.

Do neke mjere, to je razlog zašto je etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema.

Pravila AI Etike tjeraju nas da ostanemo budni. AI tehnolozi ponekad mogu biti zaokupljeni tehnologijom, osobito optimizacijom visoke tehnologije. Oni ne uzimaju u obzir nužno veće društvene posljedice. Imati način razmišljanja o etici umjetne inteligencije i činiti to integralno za razvoj i primjenu umjetne inteligencije ključno je za proizvodnju odgovarajuće umjetne inteligencije, uključujući procjenu načina na koji tvrtke usvajaju etiku umjetne inteligencije.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti. Pogledajte na primjer moju pokrivenost na link ovdje.

U prijašnjim sam kolumnama pokrio različite nacionalne i međunarodne napore u izradi i donošenju zakona koji reguliraju AI, vidi link ovdje, na primjer. Također sam pokrio različita načela i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih naroda kao što je UNESCO-ov set etike AI koji je usvojilo gotovo 200 zemalja, vidi link ovdje.

Evo korisnog temeljnog popisa etičkih AI kriterija ili karakteristika u vezi sa AI sustavima koje sam prethodno pomno istražio:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Ta načela etičke AI iskreno trebaju koristiti programeri AI-a, zajedno s onima koji upravljaju razvojnim naporima AI-ja, pa čak i onima koji u konačnici postavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI-a razvoja i korištenja smatraju se unutar opsega poštivanja uspostavljenih normi Etičke AI-a. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju moraju se pridržavati pojmova etike umjetne inteligencije. Kao što je prethodno naglašeno, potrebno je selo da osmisli i postavi umjetnu inteligenciju, a za to cijelo selo mora biti upućeno i pridržavati se pravila etičke inteligencije.

Zadržimo stvari na zemlji i usredotočimo se na današnju računalnu ne-osjećajnu umjetnu inteligenciju.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vjerujem da sam sada pripremio pozornicu za dostatnu raspravu o ulozi umjetne inteligencije unutar rubrike tihog odustajanja.

AI koja se koristi u donošenju odluka o zapošljavanju

Zakon grada New Yorka fokusiran je na temu donošenja odluka o zapošljavanju.

Ako ste se nedavno pokušali prijaviti za moderan posao gotovo bilo gdje na svijetu, vjerojatno ste se susreli s elementom koji se temelji na umjetnoj inteligenciji u procesu odlučivanja o zapošljavanju. Naravno, možda ne znate da postoji jer bi mogao biti skriven iza kulisa i ne biste imali spreman način da uočite da je AI sustav uključen.

Uobičajena krilatica koja se koristi za označavanje ovih AI sustava je da se oni smatraju Automatizirani alati za odlučivanje o zapošljavanju, skraćeno AEDT.

Pogledajmo kako je zakon New Yorka definirao ove alate ili aplikacije koji uključuju donošenje odluka o zapošljavanju:

  • „Izraz 'automatski alat za odlučivanje o zapošljavanju' znači bilo koji računalni proces, izveden iz strojnog učenja, statističkog modeliranja, analitike podataka ili umjetne inteligencije, koji izdaje pojednostavljene rezultate, uključujući rezultat, klasifikaciju ili preporuku, koji se koristi za značajnu pomoć ili diskrecijsko odlučivanje zamijeniti donošenjem odluka o zapošljavanju koje utječu na fizičke osobe. Pojam 'alat za automatizirano odlučivanje o zapošljavanju' ne uključuje alat koji ne automatizira, podržava, značajno pomaže ili zamjenjuje diskrecijske procese donošenja odluka i koji materijalno ne utječe na fizičke osobe, uključujući, ali ne ograničavajući se na, filter neželjene e-pošte, vatrozid, antivirusni softver, kalkulator, proračunska tablica, baza podataka, skup podataka ili druga zbirka podataka” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-870).

Ukratko ću proučiti ovu formulaciju jer je ključna za cjelokupnu prirodu i opseg zakona.

Prvo, kao što sam mnogo puta naveo u svojim spisima, jedna od najtežih prepreka pri pisanju zakona o umjetnoj inteligenciji sastoji se od pokušaja da se adekvatno definira što umjetna inteligencija znači. Ne postoji jedinstveni, svi dogovoreni zakonski neprobojni standard na koji su svi pristali. Postoje svakakve definicije. Neki su korisni, neki nisu. Pogledajte moje analize na link ovdje.

Možda ćete biti u iskušenju da pomislite da nije posebno važno kako možemo definirati AI. Oprostite, ali griješili biste u vezi s tim.

Problem je u tome što ako je definicija umjetne inteligencije nejasno specificirana u određenom zakonu, to omogućuje onima koji razvijaju umjetnu inteligenciju da pokušaju zaobići zakon naizgled tvrdeći da njihov softver ili sustav nije prožet umjetnom inteligencijom. Smjelo bi tvrdili da se zakon ne odnosi na njihov softver. Isto tako, netko tko koristi softver također može tvrditi da se zakon ne odnosi na njih jer softver ili sustav koji koriste ne spada u definiciju umjetne inteligencije navedene u zakonu.

Ljudi su tako lukavi.

Jedan od najpametnijih načina da izbjegnete da vas udari zakon koji vam nije naklonjen jest ustvrditi da se zakon ne odnosi na vas. U ovom slučaju, pokušali biste postupno rastaviti definiciju AEDT-a. Vaš bi cilj, pod pretpostavkom da ne želite da vam zakon bude na leđima, bio pravno tvrditi da definicija dana u zakonu nije u skladu s onim što vaš računalni sustav za zapošljavanje jest ili što radi.

Zakonu ove vrste može se pomoći, a ponekad i potkopati ako se u definiciju namjerno uključe odredbe o isključivanju.

Ponovno pogledajte definiciju AEDT-a kako je navedena u ovom zakonu. Nadamo se da ste primijetili da postoji klauzula o izuzeću koja kaže "...ne uključuje alat koji ne automatizira, ne podržava, značajno pomaže ili zamjenjuje diskrecijske procese donošenja odluka i koji materijalno ne utječe na fizičke osobe...".

S jedne strane, osnova za uključivanje takvog isključenja je izrazito korisna.

Čini se da sugerira (prema mom laičkom mišljenju) da AEDT mora pružiti određenu svrhu i biti korišten na suštinski način. Ako je AEDT, da kažemo, površan ili periferan, i ako je odluka o zapošljavanju još uvijek ljudski ručni rad, možda se softverski sustav koji se koristi ne bi trebao tumačiti kao AEDT. Također, ako softver ili sustav ne utječu “materijalno” na fizičke osobe (ljude), onda se ne čini isplativim držati noge uz vatru.

Razumno, ne želite da zakon preuveličava svoj opseg i proguta sve, uključujući kuhinjski sudoper. To je u biti nepravedno i opterećujuće za one koje zakon nije trebao obuhvatiti. Mogu se uhvatiti u močvari koja se ponaša kao jedna od onih mreža za sve. Vjerojatno bi naši zakoni trebali biti oprezni kako bi izbjegli uvlačenje nevinih u djelokrug zakona.

Sve je lijepo i dobro.

Pametan odvjetnik mora shvatiti da klauzula o izuzeću može biti neka vrsta pravnog izlaska iz zatvora (na stranu, ovaj konkretni zakon predviđa građanske, a ne kaznene kazne, tako da izaći-iz-zatvora primjedba je samo metaforička i za ukusnu punchiness). Ako bi netko tvrdio da je tvrtka koristila AEDT u obradi poslova, jedan od prvih načina da se pokuša prevladati ta tvrdnja bio bi tvrditi da je takozvani AEDT zapravo bio u domeni isključivanja. Možete pokušati pokazati da takozvani AEDT ne radi automatizirati odluka o zapošljavanju ili ne podrška odluka o zapošljavanju ili ne bitno pomoći or zamijeniti diskrecijski procesi odlučivanja.

Zatim možete krenuti krivudavim putem utvrđivanja što riječi "automatizirati", "podržati", "znatno pomoći" ili "zamijeniti" znače u ovom kontekstu. To je vrlo zgodna legalna zečja rupa. Moglo bi se iznijeti uvjerljiv slučaj da je softver ili sustav koji je navodno AEDT dio indikacija za isključivanje. Stoga, nema štete, nema prekršaja u vezi s ovim zakonom.

Očito je da se za takve stvari treba konzultirati s ovlaštenim odvjetnicima (ovdje nije naveden nikakav privid pravnog savjeta i ovo je potpuno laičko gledište).

Želim reći da će u ovom novom zakonu biti prostora za pomicanje. Prostor za vrtenje omogućit će nekim poslodavcima koji doista koriste AEDT da možda pronađu rupu u zakonu kako bi zaobišli korištenje AEDT-a. Druga strana tog novčića je da bi mogle postojati tvrtke koje stvarno ne koriste AEDT koje će biti uhvaćene u zamku ovog zakona. Mogla bi se tvrditi da je ono što su koristili doista AEDT, i morat će pronaći način da pokažu da njihov softver ili sustavi nisu obuhvaćeni AEDT-om i obuhvaćeni odredbom o isključivanju.

Možemo dati ovo hrabro predviđanje:

  • Nedvojbeno će biti poslodavaca koji svjesno koriste AEDT koji će potencijalno pokušati izbjeći svoje zakonske odgovornosti.
  • Neizbježno će biti poslodavaca koji ne koriste AEDT koji će se zaglaviti u tvrdnjama da koriste AEDT, što će ih prisiliti da ulože "dodatan" napor kako bi pokazali da ne koriste AEDT.

Dalje ću obrazložiti ove brojne permutacije i kombinacije kada odemo dalje u ovu raspravu. Imamo još puno toga za gaziti.

Korištenje AEDT-a samo po sebi nije dio ovog problema koji izaziva zabrinutost, već način na koji AEDT izvodi svoje radnje izaziva pravni bijes. Suština je u tome da ako AEDT također slučajno uvede pristranosti u vezi s donošenjem odluka o zapošljavanju, vi ste tada u potencijalno vrućoj vodi (dobro, na neki način).

Kako možemo znati uvodi li AEDT pristranosti opterećene umjetnom inteligencijom u napore pri donošenju odluka o zapošljavanju?

Odgovor prema ovom zakonu je da se mora provesti revizija umjetne inteligencije.

Prethodno sam često pokrivao prirodu revizija umjetne inteligencije i što su one, zajedno s bilježenjem postojećih nedostataka i loše definiranih aspekata, kao što je link ovdje i link ovdje, među mnogim drugim sličnim objavama. Jednostavno rečeno, ideja je da kao što možete izvršiti financijsku reviziju tvrtke ili tehnološku reviziju koja se odnosi na računalni sustav, možete izvršiti reviziju sustava umjetne inteligencije. Korištenjem specijaliziranih revizijskih tehnika, alata i metoda ispitujete i procjenjujete od čega se sastoji sustav umjetne inteligencije, uključujući, na primjer, pokušaj utvrđivanja sadrži li pristranosti ove ili one vrste.

Ovo je rastuće područje pozornosti.

Možete očekivati ​​da će ovo potpodručje revizije koje je posvećeno reviziji umjetne inteligencije nastaviti rasti. Lako je očito da će sve više i više sustava umjetne inteligencije biti pušteno na tržište, a zauzvrat će biti sve više i više zahtjeva za revizijama umjetne inteligencije. Novi zakoni će pomoći da se to pokrene. Čak i bez tih zakona, bit će dosta revizija umjetne inteligencije jer ljudi i tvrtke tvrde da im je umjetna inteligencija nanijela nepravdu i nastojat će pružiti opipljive dokumentirane indikacije da je šteta bila prisutna i povezana s umjetnom inteligencijom koja se koristila.

Revizori umjetne inteligencije bit će popularni i vrlo traženi.

To može biti uzbudljiv posao. Jedan možda uzbudljiv element uključuje uranjanje u najnoviju i najbolju AI. AI nastavlja napredovati. Kako se to dogodi, pronicljivi revizor AI morat će biti na oprezu. Ako ste revizor koji se umorio od obavljanja svakodnevnih konvencionalnih revizija, uvijek nova arena AI revizije koja otvara oči obećava (ovo govorim da djelomično podignem status revizora jer su oni često nenajavljeni heroji koji rade u rovovima i skloni biti zanemareni zbog svojih nastojanja).

Na stranu, bio sam ovlašteni revizor računalnih sustava (jedna takva oznaka je CISA) i radio sam IT (informacijske tehnologije) revizije mnogo puta tijekom mnogo godina, uključujući revizije umjetne inteligencije. U većini slučajeva ne dobijete zasluženo priznanje za takve napore. Vjerojatno možete pogoditi zašto. Uglavnom, revizori teže pronaći stvari koje su pogrešne ili pokvarene. U tom smislu su od velike pomoći, iako to neki mogu shvatiti kao lošu vijest, a glasnik loših vijesti obično nije posebno postavljen na pijedestal.

Da se vratim na stvar.

Što se tiče NYC zakona, evo što zakon kaže o reviziji umjetne inteligencije i pokušaju otkrivanja pristranosti umjetne inteligencije:

  • “Izraz 'revizija pristranosti' znači nepristrano ocjenjivanje neovisnog revizora. Takva revizija pristranosti uključuje, ali nije ograničena na testiranje alata za automatizirano odlučivanje o zapošljavanju kako bi se procijenio različiti učinak alata na osobe bilo koje kategorije komponente 1 koju poslodavci moraju prijaviti u skladu s pododjeljkom (c) odjeljka 2000e-8 naslova 42 zakona Sjedinjenih Država kako je navedeno u dijelu 1602.7 naslova 29 kodeksa saveznih propisa” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-870).

Da rezimiramo, evo gdje smo do sada s raspakiranjem ovog zakona:

  • Zakon pokriva automatizirane alate za odlučivanje o zapošljavanju (AEDT)
  • Uključena je svojevrsna definicija kako bi se utvrdilo što je AEDT
  • Definicija AEDT-a također spominje odredbe o isključenju
  • Suština je da zakon želi razotkriti pristranosti umjetne inteligencije u AEDT-u
  • Kako bi se utvrdilo jesu li prisutne pristranosti umjetne inteligencije, potrebno je provesti reviziju umjetne inteligencije
  • Revizija umjetne inteligencije vjerojatno će otkriti sve pristranosti umjetne inteligencije

Zatim možemo malo više kopati po zakonu.

Evo od čega se sastoji odluka o zapošljavanju:

  • “Izraz 'odluka o zapošljavanju' znači provjeriti kandidate za zapošljavanje ili zaposlenike za napredovanje u gradu” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-870).

Imajte na umu da ograničavajući aspekt "grada" sugerira da se stvar bavi samo okolnostima povezanim sa zapošljavanjem u New Yorku. Također, vrijedi napomenuti da odluka o zapošljavanju kako je definirana uključuje provjeru kandidata, što je uobičajena konotacija onoga što mi smatramo odlukom o zapošljavanju, a uključuje i napredovanja.

Ovo je dvostruki udarac u smislu da će tvrtke morati shvatiti da moraju biti u tijeku s načinom na koji se njihov AEDT (ako ga koriste) koristi za početne postavke zapošljavanja, kao i prilikom napredovanja unutar tvrtke. Vjerojatno možete pogoditi ili pretpostaviti da mnoge tvrtke neće biti sasvim svjesne elementa promocije koji se također nalazi unutar ove rubrike. Oni će neizbježno previdjeti taj dodatni konstrukt na vlastitu odgovornost.

Sljedeći ću dati dodatni ključni izvadak iz zakona kako bih rasvijetlio bit onoga što se ovim zakonom tumači kao protuzakonito:

  • “Zahtjevi za automatizirane alate za odlučivanje o zapošljavanju. a. U gradu će biti protuzakonito da poslodavac ili agencija za zapošljavanje koriste automatizirani alat za donošenje odluka o zapošljavanju za provjeru kandidata ili zaposlenika za donošenje odluke o zapošljavanju, osim ako: 1. Takav alat nije bio predmet revizije pristranosti koja je provedena ne više od godinu dana prije uporabe takvog alata; i 2. Sažetak rezultata posljednje revizije pristranosti takvog alata, kao i datum distribucije alata na koji se takva revizija odnosi, javno su dostupni na web stranici poslodavca ili agencije za zapošljavanje prije korištenja takav alat…” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-871). Postoje dodatne potklauzule koje biste mogli pogledati ako ste jako zainteresirani za pravni tekst.

Skeptici i kritičari tvrdili su da se ovo čini pomalo mlako u odnosu na prozvanu nezakonitu aktivnost.

Kažu da se zakon samo usko i minimalno fokusira na provođenje reviziju umjetne inteligencije i objavljivanja rezultate, a ne o tome je li revizija umjetne inteligencije otkrila pristranosti umjetne inteligencije i što ako je to imalo ikakvih posljedica u donošenju odluka o zapošljavanju koje potpadaju pod djelokrug ovog zakona. U biti, očito je protuzakonito ne odlučite provesti takvu reviziju umjetne inteligencije (kada je primjenjivo, kao što je ranije objašnjeno), plus također je protuzakonito u slučaju ako provedete reviziju umjetne inteligencije, ali ne objaviti to.

Čini se da zakon šuti o pitanju jesu li pristranosti umjetne inteligencije otkrivene i prisutne ili ne. Isto tako, šutnja o tome jesu li pristranosti umjetne inteligencije utjecale na bilo koga povezanog s istaknutom aktivnošću donošenja odluka o zapošljavanju. Ključ je naizgled jasno "samo" provesti AI reviziju i reći o tome.

Zar ovaj zakon ne ide dovoljno daleko?

Dio protuargumenta za tvrdnju da je ovo naizgled zadovoljavajuće u pogledu raspona ili djelokruga onoga što ovaj zakon obuhvaća jest da ako revizija AI-a pronađe pristranosti AI-a i ako su te pristranosti AI-a povezane s određenim slučajevima donošenja odluka o zapošljavanju, osoba ili bi tako oštećene osobe mogle goniti poslodavca pod drugo zakoni. Stoga nema potrebe uključiti taj aspekt u ovaj konkretni zakon.

Navodno, ovaj zakon ima za cilj iznijeti takve stvari na vidjelo.

Nakon što se svjetlo dana baci na ove nepovoljne prakse, mogu se pokrenuti razni drugi pravni putovi ako predrasude AI postoje i utječu na ljude. Bez ovog zakona, argument ide da bi oni koji koriste AEDT-ove to radili dok bi možda divljali i potencijalno imali tone AI predrasuda, za koje oni koji traže posao ili oni koji traže napredovanje ne bi znali da se događa.

Izvucite ih na površinu. Natjeraj ih da kažu. Uđi ispod haube. Pogledajte što je unutar tog motora. To je mantra u ovom slučaju. Iz ovog izranjanja i govorenja mogu se poduzeti dodatne radnje.

Osim traženja pravnih radnji kao rezultat rasvjetljavanja da je revizija AI-ja možda izvijestila da su prisutne pristranosti AI-ja, također postoji uvjerenje da će objavljivanje ovih rezultata izazvati reperkusije na reputaciju. Poslodavci za koje se prikazuje da koriste AEDT-ove koji imaju predrasude AI vjerojatno će pretrpjeti društveni gnjev, primjerice putem društvenih medija i slično. Postat će izloženi svojim lošim djelima i bit će posramljeni da isprave svoje ponašanje, a mogli bi se naći i bez ljudi koji tamo traže posao zbog bojazni da predrasude umjetne inteligencije sprječavaju zapošljavanje ili uzurpiraju napredovanja.

Navedene kazne povezane s nezakonitošću su sljedeće:

  • “Kazne. a. Svaka osoba koja prekrši bilo koju odredbu ovog potpoglavlja ili bilo kojeg pravila objavljenog u skladu s ovim potpoglavljem odgovorna je za građansku kaznu u iznosu ne većem od 500 USD za prvo kršenje i svako dodatno kršenje koje se dogodi istog dana kao i prvo kršenje, a ne manje od 500 USD niti više od 1,500 USD za svako sljedeće kršenje” (NYC, Int 1894-2020, potpoglavlje 25, odjeljak 20-872). Postoje dodatne potklauzule koje biste mogli pogledati ako ste jako zainteresirani za pravni tekst.

Skeptici i kritičari smatraju da kazne nisu dovoljno oštre. Velika tvrtka navodno bi se rugala ili smijala uključenim minijaturnim dolarskim kaznama. Drugi ističu da bi kazna na kraju mogla biti veća nego što se čini na prvi pogled, tako da kad bi tvrtka svaki dan imala tisuću dolara prekršaja (samo jedan scenarij, postoji mnogo drugih scenarija), godišnja vrijednost bi bila oko 365,000 dolara, pod pretpostavkom da je tvrtka jednostavno ignorirala zakon cijelu godinu i izvukla se s tim (čini se teško zamislivim, ali moglo bi se dogoditi, i moglo bi se čak dogoditi dulje ili za veću kulminaciju dnevnih kazni, u teoriji).

U međuvremenu, neki su zabrinuti zbog manjih poduzeća i s njima povezanih kazni. Ako malo poduzeće koje jedva spaja kraj s krajem dobije kaznu, a to navodno nije učinilo iz namjerne motivacije da zaobiđe zakon, kazne bi mogle značajno utjecati na njihovo posrnulo poslovanje.

Problematična razmatranja Keystonea

Imam jednostavno i jasno pitanje za vas.

U kontekstu ovog zakona, što točno predstavlja AI reviziju?

Problematično je to što ne postoji konačna indikacija unutar narativa zakona. Čini se da nam je rečeno samo da se "revizija pristranosti" provodi "nepristranom procjenom neovisnog revizora" (prema tekstu zakona).

Možete voziti Mac kamion kroz tu zjapeću rupu.

Evo zašto.

Razmotrite ovaj prilično zabrinjavajući primjer. Prevarant kontaktira tvrtku u New Yorku i objašnjava da oni pružaju uslugu tako da će napraviti takozvanu "reviziju pristranosti" svog AEDT-a. Obećavaju da će to učiniti "nepristrano" (što god to značilo). Drže se kao neovisni revizor, a namazali su se kao jedan. Nema potrebe za bilo kakvom računovodstvenom ili revizorskom obukom, diplomama, certifikatima ili bilo čime sličnim. Možda se namuče ispisati posjetnice ili na brzinu postave web stranicu na kojoj hvale svoj status neovisnog revizora.

Oni će tvrtki naplatiti skromnu naknadu od recimo 100 USD. Njihova se usluga sastoji od možda postavljanja nekoliko pitanja o AEDT-u, a zatim proglašavanja da je AEDT bez predrasuda. Zatim šalju izvješće veličine jedne stranice i objavljuju “rezultate” tzv. Tvrtka to poslušno objavljuje na svojoj web stranici.

Je li tvrtka poštovala ovaj zakon?

Reci ti meni.

Čini se da jesu.

Mogli biste odmah biti zatečeni da je revizija obavljena površno (to je pristojno i velikodušno u ovom scenariju). Moglo bi vas smetati što je otkrivanje pristranosti (ili nedostatak iste) možda u biti unaprijed određeno (voila, čini se da nemate pristranosti). Mogli biste biti uznemireni što bi objavljeni rezultati mogli dati auru da ste prošli rigoroznu reviziju od strane bona fide iskusnog, obučenog, iskusnog, certificiranog revizora.

Da, to otprilike povećava veličinu stvari.

Poslodavac bi mogao osjetiti olakšanje što je ispunio ovaj "glupi" zahtjev i prokleto sretan što ga je koštalo samo bijednih 100 USD. Poslodavac bi mogao interno i tiho shvatiti da je neovisna revizija bila šarada, ali to izgleda nije na njegovim ramenima da odlučuju. Predstavljen im je navodni neovisni revizor, revizor je obavio posao za koji je revizor rekao da je usklađen, tvrtka je to platila, dobili su rezultate i objavili rezultate.

Neki će poslodavci to učiniti i shvatit će da se pridržavaju zakona. Unatoč tome, vjerovat će da su u potpunosti usklađeni.

Drugi bi poslodavci mogli biti prevareni. Sve što znaju je potreba poštivanja zakona. Na njihovu sreću (ili barem tako pretpostavljaju), kontaktira ih "neovisni revizor" i obećava da se žalbena revizija i rezultati mogu dobiti za 100 dolara. Kako bi izbjegla dnevnu kaznu od 500 dolara ili više, tvrtka misli da im je uručen dar s neba. Plaćaju 100 dolara, provodi se "revizija", dobivaju besplatnu potvrdu o nedostatku pristranosti u vezi s umjetnom inteligencijom, objavljuju rezultate i zaborave na to do sljedećeg puta kada budu morali napraviti još jednu takvu reviziju .

Kako bi svaka tvrtka u New Yorku koja podliježe ovom zakonu trebala znati što je bona fide usklađenost sa zakonom?

U slučaju da vam se već pomalo ne grči u želucu, možemo pogoršati stvari. Nadam se da nisi jeo u posljednjih nekoliko sati jer će sljedeći obrat biti teško održati netaknutim.

Jeste li spremni?

Ovaj lažni pružatelj usluga pokazao se većim lažnjakom nego što ste možda mislili. Natjeraju tvrtku da se prijavi za uslugu od 100 USD kako bi obavila nepristranu reviziju pristranosti kao neovisni revizor. Eto, oni rade "reviziju" i otkrivaju da postoje pristranosti u svakom kutku AEDT-a.

Imaju AI predrasude poput najezde žohara.

Joj, kaže tvrtka, što možemo učiniti u vezi s tim?

Nema problema, rečeno im je, možemo popraviti te predrasude umjetne inteligencije umjesto vas. To će vas koštati samo 50 USD po svakoj takvoj otkrivenoj pristranosti. U redu, tvrtka kaže, popravite ih, hvala što ste to učinili. Pružatelj usluga malo se bavi kodiranjem i kaže tvrtki da su popravili stotinu AI pristranosti, te će im stoga naplatiti 5,000 USD (to je 50 USD po AI pristranosti koju treba popraviti, pomnoženo sa 100 pronađenih).

Jao, tvrtka se osjeća priklješteno, ali to je ipak bolje nego suočiti se s kršenjem od 500 dolara ili više dnevno, tako da plate "neovisnog revizora", a zatim dobiju novo izvješće koje pokazuje da su sada nepristrani. Oni to ponosno objavljuju na svojoj web stranici.

Nisu ni svjesni da je ovo bila glupost, prijevara, prijevara.

Možete inzistirati na tome da ovaj pružatelj usluga treba biti kažnjen za svoje prijevare. Hvatanje i zaustavljanje ovih prevaranata bit će puno teže nego što možete zamisliti. Baš kao što je potraga za prinčevima koji žive u inozemstvu i koji imaju bogatstvo za vas vjerojatno u nekoj stranoj zemlji izvan dosega zakona Sjedinjenih Država, isto bi se moglo dogoditi iu ovom slučaju.

Očekujte da će se zbog ovog novog zakona pojaviti kućna radinost.

Postojat će revizori u dobroj vjeri koji će nastojati pružiti te usluge. Dobro za njih. Bit će nedorečenih revizora koji će pratiti ovaj posao. Bit će lažno proglašeni revizori koji će pratiti ovaj posao.

Spomenuo sam da je scenarij pružatelja usluga uključivao traženje 100 USD za takozvanu AI reviziju. To je bilo samo izmišljeno rezervirano mjesto. Možda će neki naplatiti 10 dolara (čini se šturo). Možda nekih 50 dolara (još uvijek nedovoljno). itd.

Pretpostavimo da pružatelj usluga kaže da će taj posao koštati 10,000 USD.

Ili 100,000 dolara za to.

Možda 1,000,000 dolara za to.

Neki poslodavci neće imati pojma koliko bi to moglo ili trebalo koštati. Marketing ovih usluga bit će besplatan za sve. Ovo je zakon za zarađivanje novca za one koji legitimno obavljaju te usluge i zarađivač za one koji su u tome također podmukli. Bit će teško znati koji je koji.

Također ću vas zamoliti da razmislite o još jednoj zjapećoj rupi.

U kontekstu ovog zakona, što točno predstavlja pristranost umjetne inteligencije?

Osim spominjanja kodeksa saveznih propisa Sjedinjenih Država (ovo ne odgovara posebno na pitanje pristranosti umjetne inteligencije i stoga ne služi kao zaustavljanje ili rješenje tog pitanja), teško bi vam bilo ustvrditi da ovaj novi zakon pruža bilo kakvu značajnu indikaciju o tome što su pristranosti umjetne inteligencije. Još jednom, ovo će biti potpuno otvoreno za vrlo različita tumačenja i nećete posebno znati što je traženo, što je pronađeno i tako dalje. Također, posao koji obavljaju čak i vjerodostojni revizori umjetne inteligencije gotovo će vjerojatno biti neusporediv s drugim, tako da će svaki težiti korištenju svojih vlasničkih definicija i pristupa.

Ukratko, sa zebnjom i zabrinutošću možemo promatrati s čime će se poslodavci susresti kao rezultat ovog labavo sročenog, ali dobronamjernog zakona:

  • Neki će poslodavci znati za zakon te će ga ozbiljno i u potpunosti poštovati najbolje što mogu
  • Neki će poslodavci znati za zakon i samo će se marginalno pridržavati najtanjeg, najjeftinijeg i vjerojatno neugodnog puta koji mogu pronaći ili koji im dolazi na kućni prag
  • Neki će poslodavci znati za zakon i vjerovati da nisu u djelokrugu zakona, pa neće učiniti ništa po tom pitanju (iako se ispostavilo da bi mogli biti u djelokrugu)
  • Neki će poslodavci znati za zakon i odlučno ga odlučiti ignorirati, možda vjerujući da nitko neće primijetiti ili da se zakon neće provoditi, ili će se utvrditi da je zakon neprovediv, itd.
  • Neki poslodavci neće znati za zakon i bit će uhvaćeni na nogama, boreći se da ga poštuju
  • Neki poslodavci neće znati za zakon i jadno će biti otjerani od strane prevaranata
  • Neki poslodavci neće znati za zakon, nisu u djelokrugu, ali svejedno ih varaju prevaranti koji ih uvjeravaju da su u djelokrugu
  • Neki poslodavci neće znati za zakon i neće poduzeti ništa po tom pitanju, dok nekim čudom nikad neće biti uhvaćeni ili kažnjeni zbog svog propusta
  • drugo

Jedno ključno razmatranje koje treba imati na umu je veličina ili skala povezana s ovim novim zakonom.

Prema različitim prijavljenim statistikama u vezi s brojem poduzeća u New Yorku, broj se obično navodi kao negdje oko 200,000 poduzeća (koristimo to kao red veličine). Pod pretpostavkom da je ovo razumna aproksimacija, vjerojatno su te tvrtke kao poslodavci podložne ovom novom zakonu. Dakle, uzmite gore spomenutih nekoliko načina na koje će poslodavci reagirati na ovaj zakon i razmislite koliko će ih biti u svakoj od različitih kanti koje sam upravo spomenuo.

To je prilično zapanjujući problem skaliranja.

Dodatno, prema prijavljenim statistikama, postoji možda 4 milijuna radnih mjesta u privatnom sektoru u New Yorku, plus procijenjeni broj od oko 300,000 XNUMX državnih službenika koje zapošljava vlada New Yorka (ponovno, koristite to kao red veličine, a ne točan broj). Ako uzmete u obzir da su nova zapošljavanja naizgled unutar opsega ovog novog zakona, zajedno s napredovanjima vezanim uz sve te postojeće i buduće radnike, broj zaposlenika koje će na ovaj ili onaj način dotaknuti ovaj zakon je iskreno zapanjujući .

Velika jabuka ima novi zakon koji se na prvi pogled čini bezopasnim i naizgled zanemarivim ili svakodnevnim, ali kada shvatite koji su faktori povećanja uključeni, pa, može vam se zavrtjeti u glavi

Zaključak

Spomenuo sam na početku ove rasprave da se radi o dobronamjernom novom zakonu.

Sve što sam upravo opisao kao potencijalne rupe u zakonu, propuste, praznine, probleme i slično, može se lako predvidjeti. Ovo nije raketna znanost. Mogao bih dodati da postoje još inherentniji nedoumice i zbunjujući aspekti ovog zakona koje zbog ograničenog prostora ovdje nisam iznio.

Možete ih pronaći jednako lako kao što možete pucati u ribu u bačvi.

Zakone ove vrste treba pažljivo izraditi kako bi se pokušale spriječiti ovakve vrste lukavih završetaka. Pretpostavljam da su ozbiljni skladatelji nastojali napisati zakon za koji su vjerovali da je relativno čvrst i da bi možda, u najgorem slučaju, tu ili tamo imao sitne kapljice. Nažalost, to je vatrogasno crijevo kapanja. Bit će potrebno puno ljepljive trake.

Je li zakon mogao biti napisan na razjašnjeniji način kako bi se zatvorile ove prilično očite rupe u zakonu i povezana pitanja?

Da, u velikoj mjeri.

Budući da je to tako, mogli biste s indignacijom reći da bi takav zakon nedvojbeno bio puno duži. Uvijek postoji kompromis između zakona koji se nastavlja i nastavlja, postaje nezgrapan, naspram toga da bude sažet i kompaktan. Ipak, ne želite postići jezgrovitost uz gubitak onoga što bi bila sadržajna i vrijedna jasnoća i specifičnost. Kratak zakon koji dopušta smicalice pun je problema. Duži zakon, čak i ako se čini složenijim, obično bi bio vrijedan kompromis ako bi izbjegao, spriječio ili barem minimizirao nizvodne probleme tijekom faze usvajanja.

Sveti Augustin je slavno rekao: "Čini mi se da nepravedan zakon uopće nije zakon."

Mogli bismo ponuditi korolar da je pravedan zakon koji se sastoji od problematičnog jezika zakon koji moli za stvaranje grubih problema. Čini se da u ovom slučaju ostajemo s mudrim riječima velikog pravnika Olivera Wendella Holmesa Jr., naime da je stranica povijesti vrijedna pola kilograma logike.

Gledajte kako će se uskoro ispisati povijest.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- biases-audits-kicks-into-gear/