Odgovorna umjetna inteligencija uživa u vrhunskom poticaju putem proklamacije etike umjetne inteligencije od strane vrhunskog profesionalnog društva ACM

Jeste li vidjeli ili čuli vijesti?

Još jedan skup etičkih pravila umjetne inteligencije je nedavno proglašen.

Buran pljesak, ako želite.

Pa opet, možda ne primijetili smo to zbog činjenice da toliko drugih dekreta o etici umjetne inteligencije lebdi okolo već neko vrijeme. Neki kažu da naizgled neprestano prožimanje etičkih proklamacija umjetne inteligencije postaje pomalo zatupljujuće. Koliko nam treba? Može li itko držati korak sa svima njima? Koji je najbolji? Jesmo li možda pretjerali s načelima AI etike? I tako dalje.

Pa, u ovom konkretnom slučaju, kažem da bismo trebali posebno pozdraviti ovo najnovije pojačanje kluba.

Ubrzo ću pronicljivo objasniti zašto.

Prvo, kao pojašnjenje, govorim o skupu pravila etičke inteligencije sada službeno poznatom kao "Izjava o načelima za odgovorne algoritamske sustave” koji je nedavno objavio ACM Technology Policy Council 26. listopada 2022. Sve pohvale idu timovima stručnjaka koji su sastavili ovaj cijenjeni dokument, uključujući suvoditelje autora Jeannu Matthews (Sveučilište Clarkson) i Ricarda Baeza-Yatesa (Sveučilište Pompeu Fabra ).

Oni od vas koji to znaju mogli bi nakon detaljnog pregleda shvatiti da se ovaj dokument čini pomalo poznatim.

Dobro oko!

Ova najnovija inkarnacija je u biti ažurirana i proširena varijanta ranije zajedničke "Izjave o algoritamskoj transparentnosti i odgovornosti" koju su objavili Odbor za tehnološku politiku ACM-a SAD i Odbor za tehnološku politiku ACM Europe 2017. Vjerni čitatelji mojih kolumni mogli bi se sjetiti da S vremena na vrijeme spomenuo sam dekret iz 2017. u svojoj kolumni o ključnim aspektima koji leže u osnovi Etike umjetne inteligencije i Zakona o umjetnoj inteligenciji.

Za moju opsežnu i stalnu procjenu i analize trendova etike umjetne inteligencije i zakona o umjetnoj inteligenciji, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Ova posljednja izjava ACM-a posebno je važna iz nekoliko vitalnih razloga.

Evo zašto.

ACM, što je zgodan akronim za Udruga za računalne strojeve, smatra se najvećom svjetskom udrugom usmjerenom na računalstvo. Sadrži oko 110,000 članova, ACM je dugogodišnji pionir u polju računalstva. ACM proizvodi neka od najboljih znanstvenih istraživanja u području računalstva, a također pruža profesionalnu umreženost i privlači računalne praktičare. Kao takav, ACM je važan glas koji općenito predstavlja one koji se bave visokom tehnologijom i koji trajno nastoji unaprijediti računalno polje (ACM je osnovan 1947.).

Mogao bih dodati i malo osobne napomene o ovome. Kad sam se tek počeo baviti računalima u srednjoj školi, pridružio sam se ACM-u i sudjelovao u njihovim obrazovnim programima, posebno u uzbudljivoj prilici da se natječem na njihovom godišnjem natjecanju iz računalnog programiranja (takva su natjecanja danas uobičajena i obično se označavaju kao hakerski maratoni). I dalje sam uključen u ACM dok sam na koledžu preko svog lokalnog sveučilišnog ogranka i dobio sam priliku učiti o vodstvu postavši časnik ogranka studenata. Po ulasku u industriju, pridružio sam se profesionalnom ogranku i ponovno preuzeo vodeću ulogu. Kasnije nakon toga, kad sam postao profesor, služio sam u odborima i uredničkim odborima ACM-a, uz sponzoriranje studentskog ogranka na kampusu. I danas sam aktivan u ACM-u, uključujući službu u Odboru za tehnološku politiku ACM-a SAD.

Uživam u ACM-ovoj simpatičnoj i trajnoj viziji cjeloživotnog učenja i razvoja karijere.

U svakom slučaju, u smislu najnovije izjave o etici umjetne inteligencije, činjenica da ju je izdao ACM ima veliku težinu. Mogli biste razumno tvrditi da su Etička AI načela ukupnost ili kolektivni glas svjetske skupine računalnih profesionalaca. To nešto govori.

Postoji i aspekt da će drugi u području računala biti nadahnuti da se živnu i poslušaju u smislu davanja dužne pažnje onome što izjave izjavljuju njihovi kolege računalni kolege. Stoga, čak i za one koji nisu u ACM-u ili ne znaju ništa o cijenjenoj skupini, nadamo se da će postojati veliko zanimanje za otkrivanje o čemu se radi u izjavi.

U međuvremenu, oni koji jesu van računalnog polja mogla bi biti privučena izjavom kao nekom vrstom insajderskog pogleda iza kulisa onoga što oni koji se bave računalima govore o etičkoj umjetnoj inteligenciji. Ipak, želim naglasiti da je izjava namijenjena svima, a ne samo onima u računalnoj zajednici, i stoga imajte na umu da su pravila AI etike opća, takoreći.

Konačno, tu je i dodatni zaokret koji bi malo tko uzeo u obzir.

Ponekad autsajderi smatraju da su računalne udruge duboko u tehnologiji i da nisu osobito svjesne društvenih utjecaja računala i umjetne inteligencije. Možda ćete biti u iskušenju pretpostaviti da je takvim profesionalnim subjektima stalo samo do najnovijih i najtoplijih otkrića u hardveru ili softveru. Javnost ih percipira, na jednostavno rečeno grub način, kao tehnološke štrebere.

Da razjasnimo, bio sam uronjen u društvene utjecaje računarstva otkad sam se prvi put počeo baviti računalima, a također je i ACM bio duboko angažiran na takvim temama.

Za sve koji su iznenađeni što je ovu izjavu o etičkim načelima umjetne inteligencije sastavio i objavio ACM, oni ne obraćaju pozornost na dugogodišnja istraživanja i rad koji se odvijaju na ovim pitanjima. Također bih pozvao zainteresirane da dobro pogledaju ACM Etički kodeks, strog profesionalni etički kodeks koji se razvijao tijekom godina i naglašava da razvijači sustava moraju biti svjesni, pridržavati se i biti oprezni u vezi s etičkim posljedicama svojih nastojanja i proizvoda.

AI potpiruje vatru informiranošću o računalnoj etici.

Vidljivost etičkih i pravnih pitanja u području računalstva uvelike je porasla s pojavom današnje umjetne inteligencije. Oni unutar struke su obaviješteni, a ponekad i opovrgnuti o pridavanju odgovarajuće pozornosti etici umjetne inteligencije i pitanjima zakona o umjetnoj inteligenciji. Zakonodavci sve više postaju svjesni aspekata etike umjetne inteligencije i zakona o umjetnoj inteligenciji. Tvrtke su mudre do ideje da je umjetna inteligencija koju osmišljavaju ili koriste i korisna, a opet ponekad otvara goleme rizike i potencijalne nedostatke.

Raspakirajmo što se događalo u posljednjih nekoliko godina tako da se može uspostaviti odgovarajući kontekst prije nego što uskočimo u ovaj najnoviji skup pravila etičke inteligencije.

Rastuća svijest o etičkoj umjetnoj inteligenciji

Nedavna era umjetne inteligencije u početku se smatrala AI za dobro, što znači da bismo mogli koristiti AI za poboljšanje čovječanstva. Za petama AI za dobro došla je spoznaja u koju smo i mi uronjeni AI za loše. To uključuje umjetnu inteligenciju koja je osmišljena ili samoizmijenjena tako da bude diskriminirajuća i donosi računalne odluke prožimajući neopravdane pristranosti. Ponekad je umjetna inteligencija izgrađena na taj način, dok u drugim slučajevima skreće na taj neljubazan teritorij.

Želim biti posve siguran da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Vrsta umjetne inteligencije na koju se fokusiram sastoji se od ne-osjećajne umjetne inteligencije koju imamo danas. Kad bismo htjeli divlje spekulirati o osjećajnoj umjetnoj inteligenciji, ova bi rasprava mogla krenuti u radikalno drugačijem smjeru. Osjećajna umjetna inteligencija bi navodno bila ljudske kvalitete. Trebali biste uzeti u obzir da je AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva umjetna inteligencija na kraju mogla biti pametnija od ljudi (za moje istraživanje superinteligentne umjetne inteligencije kao mogućnosti, pogledajte pokrivenost ovdje).

Čvrsto bih sugerirao da stvari držimo prizemno i razmotrimo današnju računalnu ne-osjećajnu umjetnu inteligenciju.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite vrlo oprezni s antropomorfiziranjem današnje umjetne inteligencije.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, ni programeri umjetne inteligencije možda neće shvatiti što se događa. Tajanstvena matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom biste se nadali i očekivali da će AI programeri testirati potencijalno zakopane pristranosti, iako je to teže nego što se čini. Postoji solidna šansa da će čak i uz relativno opsežno testiranje još uvijek biti pristranosti ugrađene u modele usklađivanja uzoraka ML/DL.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima izrazito značajne implikacije na etiku umjetne inteligencije i nudi zgodan uvid u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj donošenja zakona o umjetnoj inteligenciji.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

U prijašnjim sam kolumnama pokrio različite nacionalne i međunarodne napore u izradi i donošenju zakona koji reguliraju AI, vidi link ovdje, na primjer. Također sam pokrio različita načela i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih naroda kao što je UNESCO-ov set etike AI koji je usvojilo gotovo 200 zemalja, vidi link ovdje.

Evo korisnog temeljnog popisa etičkih AI kriterija ili karakteristika u vezi sa AI sustavima koje sam prethodno pomno istražio:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima umjetne inteligencije, pa čak i onima koji u konačnici postavljaju i održavaju sustave umjetne inteligencije.

Svi dionici tijekom cijelog životnog ciklusa AI-a razvoja i korištenja smatraju se unutar opsega poštivanja uspostavljenih normi Etičke AI-a. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju podliježu pridržavanju pojmova etike umjetne inteligencije. Kao što je ovdje prethodno naglašeno, potrebno je selo da osmisli i postavi umjetnu inteligenciju, a za to cijelo selo mora biti upućeno i pridržavati se pravila etičke inteligencije.

Također sam nedavno pregledao AI Bill of Rights što je službeni naziv službenog dokumenta američke vlade pod naslovom “Nacrt zakona o pravima umjetne inteligencije: Omogućavanje rada automatiziranih sustava za američki narod” koji je rezultat jednogodišnjeg rada Ureda za politiku znanosti i tehnologije (OSTP ). OSTP je savezni entitet koji služi za savjetovanje američkog predsjednika i Izvršnog ureda SAD-a o raznim tehnološkim, znanstvenim i inženjerskim aspektima od nacionalne važnosti. U tom smislu, možete reći da je ova povelja o pravima umjetne inteligencije dokument koji je odobrila i potvrdila postojeća američka Bijela kuća.

U Povelji o pravima umjetne inteligencije postoji pet ključnih kategorija:

  • Sigurni i učinkoviti sustavi
  • Algoritamske zaštite od diskriminacije
  • Zaštita podataka
  • Obavijest i objašnjenje
  • Ljudske alternative, razmatranje i pomoć

Pažljivo sam pregledao te propise, vidite link ovdje.

Sada kada sam postavio korisne temelje za ove povezane teme o etici umjetne inteligencije i zakonu o umjetnoj inteligenciji, spremni smo skočiti na nedavno objavljenu ACM “Izjavu o načelima za odgovorne algoritamske sustave” (usput, budući da se naslov dokumenta odnosi na odgovoran algoritamskih sustava, možda biste željeli pogledati moju procjenu o čemu to znači govoriti Pouzdan AI, Vidi link ovdje).

Pripremite se za putovanje u ovaj najnoviji skup etičkih načela umjetne inteligencije.

Pomno kopanje po ACM deklariranim etičkim pravilima umjetne inteligencije

Izjava ACM-a o etičkoj umjetnoj inteligenciji sastoji se od ovih devet temelja:

  • Legitimitet i nadležnost
  • Minimiziranje štete
  • Sigurnost i privatnost
  • Prozirnost
  • Interpretabilnost i objašnjivost
  • sposobnost snabdijevanja
  • Konkurentnost i revizionost
  • Odgovornost i odgovornost
  • Ograničenje utjecaja na okoliš

Ako usporedite ovaj najnoviji set s drugim značajno dostupnim setovima, postoji velika količina sličnosti ili srodnih korespondencija među njima.

S jedne strane, to možete shvatiti kao dobar znak.

Općenito se možemo nadati da se mnoštvo etičkih načela umjetne inteligencije koji lebde uokolo spajaju prema istoj općoj pokrivenosti. Ako vidite da je jedan skup donekle usporediv s drugim skupom, daje vam privid povjerenja da su ti skupovi unutar istog polja, a ne nekako izvan zagonetnog lijevog polja.

Neki potencijalno mogu prigovoriti da se ti različiti skupovi čine otprilike istima, što onda vjerojatno stvara zabunu ili barem zaprepaštenje zbog zabrinutosti da ne bismo trebali imati brojne naizgled dvostruke popise. Zar ne može postojati samo jedan popis? Problem je naravno u tome što ne postoji jednostavan način da svi takvi popisi budu jedinstveno potpuno isti. Različite skupine i različiti subjekti tome su pristupili na različite načine. Dobra vijest je da su uglavnom svi došli do istog sveobuhvatnog zaključka. Možemo odahnuti što skupovi nemaju velikih razlika, što bi nam možda stvaralo nelagodu da nema općeg konsenzusa.

Suprotstavljač bi mogao reći da je sličnost ovih popisa zabrinjavajuća, tvrdeći da se možda događa grupno razmišljanje. Možda sve te različite skupine razmišljaju na isti način i nisu u stanju gledati dalje od norme. Svi upadamo u istu zamku. Popisi tobože usidre naše razmišljanje i ne možemo vidjeti dalje od vlastitog nosa.

Pogled dalje od nosa nedvojbeno je vrijedan cilj.

Svakako sam spreman čuti što protivnici imaju za reći. Ponekad začuju nešto što ima Titanski idući prema golemoj santi leda. Dobro bi nam došlo nekoliko orlovskih osmatračnica. Ali, u vezi s ovim pravilima Etike umjetne inteligencije, nije bilo ničega definitivno artikuliranog od strane kontradiktora što bi očito potkopalo ili potaknulo brige o nepotrebnoj sličnosti koja se događa. Mislim da nam ide dobro.

U ovom ACM skupu postoji nekoliko posebno značajnih ili istaknutih točaka za koje mislim da su posebno vrijedne pažnje.

Prvo, sviđa mi se fraza na najvišoj razini koja je donekle drugačija od norme.

Na primjer, pozivajući se na legitimitet i kompetentnost (prva stavka označena grafičkim oznakama) dočarava privid važnosti dizajnerskih i menadžerskih kompetencija povezanih s umjetnom inteligencijom. Osim toga, legitimitet krilatica na kraju nas vodi u etiku umjetne inteligencije i AI Zakonsko područje. Kažem ovo zato što su mnoga pravila Etike umjetne inteligencije gotovo u potpunosti usredotočena na etičke implikacije, ali čini se da izostavljaju ili se sramežljivo primjećuju i pravne posljedice. U pravnom području, etička razmatranja često se reklamiraju kao "meko pravo", dok se zakoni u knjigama tumače kao "tvrdi zakoni" (što znači da imaju težinu pravnih sudova).

Jednu od mojih najdražih izreka svih vremena izgovorio je slavni pravnik Earl Warren: "U civiliziranom životu, zakon pluta u moru etike."

Moramo se pobrinuti da pravila etike umjetne inteligencije također obuhvate i naglase stranu stvari koja se tiče zakona, kao što je to u izradi, donošenju i provedbi zakona o umjetnoj inteligenciji.

Drugo, cijenim što popis uključuje osporivost i revizionost.

Više puta sam pisao o vrijednosti mogućnosti natjecanja ili podizanja crvene zastave kada ste podložni sustavu umjetne inteligencije, pogledajte link ovdje. Nadalje, sve češće ćemo vidjeti nove zakone koji prisiljavaju sustave umjetne inteligencije na reviziju, o čemu sam opširno raspravljao o zakonu New Yorka (NYC) o pristranostima revizije sustava umjetne inteligencije koji se koriste za zapošljavanje i napredovanje zaposlenika, vidi link ovdje. Nažalost, i prema mom otvorenom kritiziranju novog zakona NYC, ako su ti zakoni o reviziji manjkavi, vjerojatno će stvoriti više problema nego što će ih riješiti.

Treće, postupno se budi da umjetna inteligencija može utjecati na pitanja održivosti i drago mi je vidjeti da ekološki tema je dobila naplatu najviše razine u ovim etičkim pravilima umjetne inteligencije (pogledajte posljednju točku na popisu).

Sam čin stvaranja AI sustava može potrošiti puno računalnih resursa. Ti računalni resursi mogu izravno ili neizravno biti uzurpatori održivosti. Postoji kompromis koji treba razmotriti u odnosu na prednosti koje umjetna inteligencija pruža u odnosu na troškove koji dolaze s umjetnom inteligencijom. Posljednja od ACM-ovih stavki s grafičkim oznakama bilježi održivost i ekološka pitanja koja proizlaze iz umjetne inteligencije. Za moju pokrivenost problema ugljičnog otiska povezanih s umjetnom inteligencijom, pogledajte link ovdje.

Sada kada smo napravili sveobuhvatni pregled ACM-ovog popisa etičkih pravila umjetne inteligencije, sljedeći put dublje ulazimo u vodu.

Ovdje su službeni opisi za svaku od etičkih pravila umjetne inteligencije na visokoj razini (citirano iz službene izjave):

1. "Legitimitet i nadležnost: Dizajneri algoritamskih sustava trebaju imati upravljačku kompetenciju i izričito ovlaštenje za izgradnju i implementaciju takvih sustava. Oni također moraju imati stručnost u domeni primjene, znanstvenu osnovu za namjeravanu upotrebu sustava i biti široko smatrani društveno legitimnim od strane dionika na koje utječe sustav. Moraju se provesti pravne i etičke procjene kako bi se potvrdilo da će svi rizici koje uvode sustavi biti proporcionalni problemima koji se rješavaju te da svi relevantni dionici razumiju sve kompromise koristi i štete.”

2. "Minimiziranje štete: Menadžeri, dizajneri, programeri, korisnici i drugi dionici algoritamskih sustava trebali bi biti svjesni mogućih pogrešaka i pristranosti uključenih u njihov dizajn, implementaciju i upotrebu, te potencijalne štete koju sustav može prouzročiti pojedincima i društvu. Organizacije bi trebale rutinski provoditi procjene utjecaja na sustave koje koriste kako bi utvrdile može li sustav uzrokovati štetu, osobito diskriminirajuću štetu, te primijeniti odgovarajuće ublažavanje. Kad je to moguće, trebali bi učiti iz mjera stvarnog učinka, a ne samo iz obrazaca prošlih odluka koje su same po sebi mogle biti diskriminirajuće.”

3. "Sigurnost i privatnost: Rizik od zlonamjernih strana može se ublažiti uvođenjem najboljih praksi u pogledu sigurnosti i privatnosti u svakoj fazi životnog ciklusa sustava, uključujući robusne kontrole za ublažavanje novih ranjivosti koje se pojavljuju u kontekstu algoritamskih sustava.”

4. "Transparentnost: Programeri sustava potiču se da jasno dokumentiraju način na koji su određeni skupovi podataka, varijable i modeli odabrani za razvoj, obuku, provjeru valjanosti i testiranje, kao i specifične mjere koje su korištene za jamčenje kvalitete podataka i izlaza. Sustavi bi trebali naznačiti svoju razinu povjerenja u svaki rezultat, a ljudi bi trebali intervenirati kada je povjerenje nisko. Programeri bi također trebali dokumentirati pristupe koji su korišteni za istraživanje potencijalnih pristranosti. Za sustave s kritičnim utjecajem na život i dobrobit trebali bi se zahtijevati neovisni postupci verifikacije i validacije. Javni uvid u podatke i modele pruža maksimalnu mogućnost ispravka. Programeri bi stoga trebali omogućiti testiranje trećih strana u javnom interesu.”

5. "Interpretabilnost i objašnjivost: Menadžeri algoritamskih sustava potiču se da proizvedu informacije koje se tiču ​​postupaka koje korišteni algoritmi slijede (interpretabilnost) i specifičnih odluka koje donose (objašnjivost). Objašnjivost može biti jednako važna kao i točnost, posebno u kontekstu javne politike ili bilo kojem okruženju u kojem postoji zabrinutost o tome kako bi se algoritmi mogli iskriviti da bi koristili jednoj skupini u odnosu na drugu bez priznanja. Važno je razlikovati objašnjenja od naknadnih racionalizacija koje ne odražavaju dokaze ili proces donošenja odluka korišten za donošenje objašnjenog zaključka.”

6. "Mogućnost održavanja: Dokazi o ispravnosti svih algoritamskih sustava trebaju se prikupljati tijekom njihovih životnih ciklusa, uključujući dokumentaciju o zahtjevima sustava, dizajnu ili implementaciji promjena, testnim slučajevima i rezultatima te dnevniku pronađenih i ispravljenih pogrešaka. Pravilno održavanje može zahtijevati sustave ponovne obuke s novim podacima o obuci i/ili zamjenu korištenih modela.”

7. "Konkurentnost i mogućnost revizije: Regulatori bi trebali poticati usvajanje mehanizama koji pojedincima i skupinama omogućuju da propituju ishode i traže naknadu za štetne učinke koji proizlaze iz algoritamski utemeljenih odluka. Rukovoditelji bi trebali osigurati da se podaci, modeli, algoritmi i odluke bilježe kako bi se mogli revidirati i rezultati replicirati u slučajevima kada postoji sumnja ili navodna šteta. Revizijske strategije trebale bi biti javne kako bi se pojedincima, organizacijama od javnog interesa i istraživačima omogućilo da pregledaju i preporuče poboljšanja.”

8. "Odgovornost i odgovornost: Javna i privatna tijela trebaju biti odgovorna za odluke koje su donijeli algoritmi koje koriste, čak i ako nije moguće detaljno objasniti kako su ti algoritmi dali rezultate. Takva bi tijela trebala biti odgovorna za cijele sustave kako su raspoređeni u njihovim specifičnim kontekstima, a ne samo za pojedinačne dijelove koji čine određeni sustav. Kada se otkriju problemi u automatiziranim sustavima, organizacije odgovorne za implementaciju tih sustava trebale bi dokumentirati konkretne radnje koje će poduzeti kako bi popravile problem i pod kojim bi se okolnostima korištenje takvih tehnologija trebalo obustaviti ili prekinuti.”

9. "Ograničavanje utjecaja na okoliš: Algoritamski sustavi trebaju biti projektirani za izvješćivanje o procjenama utjecaja na okoliš, uključujući emisije ugljika iz obuke i operativnih proračuna. Sustavi umjetne inteligencije trebali bi biti dizajnirani tako da osiguraju da su njihove emisije ugljika razumne s obzirom na stupanj točnosti koji zahtijeva kontekst u kojem su postavljeni.”

Vjerujem da ćete svaku od tih ključnih etičkih zapovijedi umjetne inteligencije pažljivo i dotad pročitati. Molim vas, uzmite ih k srcu.

Zaključak

Postoji suptilan, ali jednako važan dio izjave ACM-a za koji vjerujem da bi ga mnogi mogli nenamjerno previdjeti. Dopustite da vam ovo skrenem pozornost.

Aludiram na dio koji govori o mučnoj zagonetki vaganja kompromisa povezanih s pravilima etičke inteligencije. Vidite, većina ljudi često često bezumno klima glavom kada čita Etička načela umjetne inteligencije i pretpostavlja da su sva pravila jednake težine i da će se svim pravilima uvijek pridavati isti optimalni privid poštovanja i vrijednosti.

Ne u stvarnom svijetu.

Nakon što se guma susreće s cestom, bilo koja vrsta umjetne inteligencije koja ima čak i mrvicu složenosti žestoko će testirati pravila etičke inteligencije u pogledu toga jesu li neki od elemenata dovoljno dostižni u odnosu na neka druga načela. Shvaćam da možda glasno uzvikujete da sva umjetna inteligencija mora maksimizirati sve propise etičke inteligencije, ali to nije osobito realno. Ako je to stajalište koje želite zauzeti, usuđujem se reći da biste vjerojatno trebali reći većini ili gotovo svim proizvođačima i korisnicima umjetne inteligencije da zatvore radnju i potpuno odbace AI.

Potrebno je napraviti kompromise kako bi se AI izbacila. Uz to, ne zagovaram rezanje uglova koji krše pravila etike umjetne inteligencije, niti impliciram da bi trebali kršiti zakone umjetne inteligencije. Poseban minimum mora biti ispunjen, a iznad kojeg je cilj težiti više. Na kraju, ravnotežu treba pažljivo procijeniti. Ovaj čin balansiranja mora se obaviti svjesno, eksplicitno, zakonito i s etikom umjetne inteligencije kao vjerodostojnim i iskrenim uvjerenjem (možda biste željeli vidjeti kako tvrtke koriste Etičke odbore za umjetnu inteligenciju da pokušaju pridobiti ovaj svečani pristup, pogledajte link ovdje).

Evo nekih točaka s grafičkim oznakama koje spominje ACM deklaracija o složenosti kompromisa (citirano iz službenog dokumenta):

  • "Rješenja bi trebala biti razmjerna problemu koji se rješava, čak i ako to utječe na složenost ili cijenu (npr. odbijanje korištenja javnog videonadzora za jednostavan zadatak predviđanja)."
  • „Treba uzeti u obzir širok raspon metrika performansi koje se mogu različito vrednovati ovisno o domeni primjene. Na primjer, u nekim aplikacijama u zdravstvu učinci lažno negativnih rezultata mogu biti puno gori od lažno pozitivnih rezultata, dok u kaznenom pravosuđu posljedice lažno pozitivnih rezultata (npr. zatvaranje nevine osobe) mogu biti puno gore od lažno negativnih rezultata. Najpoželjnija postavka operativnog sustava rijetko je ona s maksimalnom preciznošću.”
  • „Zabrinutost oko privatnosti, zaštite poslovnih tajni ili otkrivanja analitike koja bi mogla omogućiti zlonamjernim akterima da se igraju sa sustavom može opravdati ograničavanje pristupa kvalificiranim pojedincima, ali ne bi se trebala koristiti za opravdavanje ograničavanja nadzora treće strane ili za oslobađanje programera od obveze priznati i popraviti pogreške.”
  • „Transparentnost mora biti uparena s procesima za odgovornost koji omogućuju dionicima na koje utječe algoritamski sustav da traže smislenu naknadu za učinjenu štetu. Transparentnost se ne bi trebala koristiti za legitimizaciju sustava ili za prijenos odgovornosti na druge strane.”
  • „Kada je utjecaj sustava velik, bolji je sustav koji se bolje objašnjava. U mnogim slučajevima ne postoji kompromis između objašnjivosti i točnosti. Međutim, u nekim kontekstima netočna objašnjenja mogu biti čak i gora od nepostojanja objašnjenja (npr. u zdravstvenim sustavima simptom može odgovarati mnogim mogućim bolestima, a ne samo jednoj)."

Oni koji razvijaju ili koriste AI možda neće otvoreno shvatiti kompromise s kojima se suočavaju. Najviši čelnici tvrtke mogli bi naivno pretpostaviti da umjetna inteligencija ispunjava maksimume svih etičkih načela umjetne inteligencije. Oni ili vjeruju u to jer nemaju pojma o umjetnoj inteligenciji, ili žele vjerovati u to i možda rade žmiganje kako bi spremno prihvatili AI.

Izgledi su da će, ako se ne uspijete ozbiljno i otvoreno suočiti s kompromisima, završiti s umjetnom inteligencijom koja će proizvesti štetu. Te će štete zauzvrat vjerojatno dovesti tvrtku do potencijalno velikih obveza. Povrh toga, konvencionalni zakoni mogu doći u obzir za moguća kaznena djela povezana s umjetnom inteligencijom, zajedno s novijim zakonima usmjerenim na umjetnu inteligenciju koji to također pogađaju. Tona cigli čeka iznad glava onih koji misle da se mogu snaći oko kompromisa ili koji su duboko nesvjesni da kompromisi postoje (razorna spoznaja neizbježno će pasti na njih).

Za sada ću dati posljednju riječ o ovoj temi završnom aspektu izjave ACM-a budući da mislim da dobro objašnjava što ova pravila etičke umjetne inteligencije makroskopski žele iznijeti:

  • „Prethodno navedene preporuke usmjerene su na odgovoran dizajn, razvoj i korištenje algoritamskih sustava; odgovornost mora biti određena zakonom i javnom politikom. Sve veća moć algoritamskih sustava i njihova upotreba u životno kritičnim i posljedičnim aplikacijama znači da se mora biti vrlo oprezan pri njihovoj uporabi. Ovih devet instrumentalnih načela trebalo bi biti inspirativni za pokretanje rasprava, iniciranje istraživanja i razvoj metoda upravljanja kako bi se donijelo dobrobiti širokom rasponu korisnika, dok se promiče pouzdanost, sigurnost i odgovornost. Na kraju, specifični kontekst je taj koji definira ispravan dizajn i korištenje algoritamskog sustava u suradnji s predstavnicima svih pogođenih dionika” (citirano iz službenog dokumenta).

Kao što nam mudre riječi oštroumno govore, putovanje od tisuću milja počinje prvim korakom.

Preklinjem vas da se upoznate s etikom umjetne inteligencije i zakonom o umjetnoj inteligenciji, poduzimajući bilo koji prvi korak koji će vas pokrenuti, a zatim vam pomoći u nastavku ovih vitalnih nastojanja. Ljepota je u tome što smo još uvijek u povojima shvaćanja kako upravljati i društveno se nositi s umjetnom inteligencijom, stoga ulazite u prizemlje i vaši napori mogu očito oblikovati vašu budućnost i budućnost svih nas.

Putovanje umjetnom inteligencijom tek je počelo i vitalni prvi koraci još su u tijeku.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/11/27/responsible-ai-relishes-mighty-boost-via-ai-ethics-proclamation-rolled-out-by-esteemed-computing- strukovna-udruga-acm/