Etika umjetne inteligencije razmišlja o zaslugama zakonski obaveznih fondova za otkupljenje kako bi se osigurala odgovornost za loše djelovanje umjetne inteligencije

Tko je kriv?

To se može činiti kao jednostavno pitanje, iako u slučaju slavne komedije legendarnog dvojca Abbotta i Costella o bejzbolskom timu, "tko" može biti zbunjujući. Možda ste nejasno upoznati s Tko je prvi komičnu rutinu koju su pretvorili u jedan od najtrajnijih skečeva svih vremena (upozorenje za spojler za one od vas koji to nisu čuli).

Abbott kaže Costellu da je Tko je na prvom, Što je na drugom, a Ne znam na trećem. Pametan trik je u tome što se prvi igrač zove Tko, drugi podrum se zove Što, a treći se zove Ne znam. Naravno, te fraze također imaju svoje konvencionalno značenje i stoga pokušaj tumačenja onoga što Abbott govori može biti potpuno zbunjujući. Doista, Costello postavlja naizgled bezazleno pitanje tko je prvi, na koje je odgovor čvrsto izrečen da. No Costellu to nema smisla jer je očekivao ime, a umjesto toga dobio je zbunjujući potvrdan odgovor.

Mijenjanje brzina, kada je u pitanju pojava umjetne inteligencije (AI), jedno od najneugodnijih pitanja koja se neprestano postavljaju podrazumijeva tko ili možda što će se smatrati odgovornim kada AI zaluta.

Prethodno sam raspravljao o kaznenoj odgovornosti kada umjetna inteligencija dovede do ili poduzme kriminalne radnje, pogledajte moje izvješće na link ovdje. Tu je i pitanje građanske odgovornosti, poput onoga koga ili što možete tužiti kada vam AI učini krivo, što je tema o kojoj ću ovdje raspravljati. Sve ovo ima značajna etička razmatranja umjetne inteligencije. Za moje kontinuirano i opsežno pokrivanje AI etike i Etičke AI, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Pravila AI Etike tjeraju nas da ostanemo budni. AI tehnolozi ponekad mogu biti zaokupljeni tehnologijom, osobito optimizacijom visoke tehnologije. Oni ne uzimaju u obzir nužno veće društvene posljedice. Imati način razmišljanja o etičkoj inteligenciji i činiti to integralno za razvoj i primjenu umjetne inteligencije ključno je za proizvodnju odgovarajuće umjetne inteligencije, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji tvrtke usvajaju etiku umjetne inteligencije.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Zapravo, oni upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

Vodi se žestoka rasprava o tome mogu li postojeći zakoni adekvatno odgovoriti na pojavu sustava umjetne inteligencije u društvu. Pravna odgovornost obično zahtijeva da možete podviti rep magarcu o tome tko je odgovoran za štetno ponašanje. U slučaju umjetne inteligencije, može postojati prilično nejasan put koji povezuje određenu osobu ili osobe s umjetnom inteligencijom koja je izvršila neku ozljeđujuću radnju. Umjetnoj inteligenciji možda se uglavnom ne može ući u trag do izvora ili izumitelja koji ju je sastavio.

Još jedno razmatranje je da čak i ako se korijeni umjetne inteligencije mogu pratiti do nekoga, pitanje je nisu li osoba ili osobe možda bile u stanju razumno predvidjeti nepovoljan ishod koji je umjetna inteligencija u konačnici proizvela. Suština predvidljivosti obično je važan faktor u procjeni pravne odgovornosti.

Možda ćete biti u iskušenju pomisliti da jednostavno možete krenuti nakon same umjetne inteligencije i imenovati AI kao pravnu stranu odgovornu za bilo kakvu štetu koja je navodno nastala. Uglavnom, prevladavajuće pravno stajalište je da umjetna inteligencija još nije dosegla razinu pravne osobe. Stoga, strogo govoreći, nećete moći natjerati AI da plati i morat ćete pronaći ljude koji su upravljali polugama iza scene, takoreći (za moju analizu pravne osobe za AI, pogledajte link ovdje).

U svu tu potencijalnu pravnu baruštinu ulazi ideja koja se nameće kao mogući lijek, bilo na kratkoročnoj osnovi ili moguće na dugoročnoj osnovi. Ideja je da bi možda trebalo osnovati poseban kompenzacijski fond koji bi pružio financijsku pomoć onima koji su oštećeni AI. Ako inače ne možete natjerati umjetnu inteligenciju da vam nadoknadi štetu i ne možete pronaći osobe koje bi se vjerojatno trebale smatrati odgovornima, sljedeća najbolja opcija mogla bi biti pristupiti kompenzacijskom fondu koji ima za cilj pomoći onima oštećenima umjetnom inteligencijom.

Takav bi fond bio sličan svojevrsnom osiguranju, kao što je navedeno u istraživačkom radu koji potiče na razmišljanje: "Ovo bi u biti bio mehanizam osiguranja protiv neizvjesnosti: jasan i transparentan okvir za brzu naknadu u slučajevima kada postoji tužba za odgovornost neizvjestan ili bez izgleda na uspjeh zbog nepredvidive prirode štetnog ponašanja, same (vrste) štete ili prekomjernih troškova i/ili složenosti postupka” (članak Olivie Erdelyi i Gabora Erdelyija, “The AI ​​Liability Puzzle” I rješenje temeljeno na fondovima", Časopis za istraživanje umjetne inteligencije, 2021).

Kompenzacijski fond bio bi dio sveobuhvatne jamstvene sheme AI (AIGS) i bio bi popraćen nekim laganim izmjenama postojećih zakona o pravnoj odgovornosti. Lagani dodir bi vjerojatno bilo lakše provesti i ne bi zahtijevao mukotrpnu pravnu i društvenu tjeskobu kada bi se u postojeće pravne režime uveo niz mukotrpnijih demonstrativnih promjena. Prema istraživačima: “Ovo odražava naše uvjerenje da – unatoč privlačnosti takvog brzog rješenja – nepromijenjeno primjena postojećih pravila o odgovornosti na AI ili a protekcionistički motivirani pribjegavanje strogoj odgovornosti s ciljem utvrđivanja odgovornosti pod svaku cijenu nisu točni odgovori iz tri razloga: Prvo, ignorirajući da su ta pravila prilagođena različitim okolnostima i stoga mogu biti neprikladna za umjetnu inteligenciju, ona su u suprotnosti s delikatno uravnoteženim ciljevima sustav pravne odgovornosti. Drugo, one koče inovacije umjetne inteligencije usvajanjem neopravdano kaznenog pristupa. Treće, neopravdano pribjegavanje strogoj odgovornosti samo zaobilazi probleme predvidljivosti i pogreške na dogmatski nedosljedan način, umjesto da ih ispravlja” (prema gore citiranom dokumentu).

Argumenti u korist takvih kompenzacijskih fondova AI uključuju:

  • Smanjuje potrebu za dugotrajnim i skupim pravnim suđenjima za rješavanje šteta nanesenih umjetnom inteligencijom
  • Uvjerava ljude da mogu iskoristiti umjetnu inteligenciju i dobiti naknadu ako budu oštećeni
  • Promiče inovacije umjetne inteligencije ublažavanjem pravne nesigurnosti s kojom se suočavaju inovatori umjetne inteligencije
  • Može se staviti u upotrebu puno brže od velikih izmjena postojećih zakona
  • Nudi relativno jasan lijek koji je pouzdan i lako dostupan
  • drugo

U međuvremenu, oni koji se protive pristupu kompenzacijskim fondovima umjetne inteligencije kažu sljedeće:

  • Neka se proizvođači umjetne inteligencije pretjerano otkače i dopustimo im da zaobiđu odgovornost
  • Ohrabrit će tvorce umjetne inteligencije da naprave umjetnu inteligenciju kojoj nedostaju pouzdana sigurnost i odgovarajuće kontrole
  • Moglo bi potaknuti ljude da lažno tvrde da umjetna inteligencija šteti kako bi mogli iskoristiti sredstva
  • Zaobilazi i potkopava istinsku potrebu za preispitivanjem naših zakona kako bi se u dovoljnoj mjeri upravljalo umjetnom inteligencijom
  • Mogla bi postati birokratska noćna mora koja zakrčuje i zlorabi sredstva
  • drugo

Kao što se moglo vidjeti, postoje i zagovornici i protivnici ovog posve kontroverznog pojma.

Bilo bi vam teško isključiti nakratko kompenzacijski fond za umjetnu inteligenciju kao mogući pristup sve većoj zabrinutosti oko umjetne inteligencije koja uzrokuje štetu. Ni predloženo rješenje nije zakucavanje.

Jedno je stajalište da bi proizvođači umjetne inteligencije trebali uložiti novac u fondove kao dio svojih napora pri osmišljavanju i promicanju umjetne inteligencije. To bi se moglo protumačiti kao neka vrsta naknade ili poreza koji su dužni snositi kao dio mogućnosti puštanja svoje umjetne inteligencije u svijet. Ali može li ovaj dodatni trošak spriječiti napore startupa koji pokušavaju pomaknuti granice današnje umjetne inteligencije? I kako bi se postupalo s provedbom osiguravanja da proizvođači umjetne inteligencije plaćaju svoju naknadu ili porez?

Postavlja se mnoštvo pitanja koja bi trebalo razriješiti:

  • U kojim zemljama bi kompenzacijski fond za umjetnu inteligenciju bio najizvediviji?
  • Može li se uspostaviti globalni privid međusobno povezanih kompenzacijskih fondova za umjetnu inteligenciju?
  • Koji bi bili detaljni i djelotvorni mehanizmi povezani s takvim sredstvima?
  • Kako će se financirati kompenzacijski fondovi AI (javni, privatni, dobrotvorni)?
  • Bi li to bila osnova osiguranja bez krivnje ili bi se upotrijebio neki drugi pristup?
  • Itd.

Područje koje je već imalo ideju o kompenzacijskim fondovima za umjetnu inteligenciju sastoji se od autonomnih sustava kao što su autonomna vozila i samovozeći automobili. Za moje pokrivanje samovozećih automobila i autonomnih sustava AI, pogledajte link ovdje.

Evo skice kako bi to moglo funkcionirati za samovozeće automobile temeljene na umjetnoj inteligenciji.

Pretpostavimo da se samovozeći automobil sudari s vozačem bicikla. Vozač bicikla je ozlijeđen. Vozač bicikla može tražiti pravnu zaštitu tako što će pokrenuti postupak protiv proizvođača autonomnog vozila. Ili bi mogli ciljati na tehnološku tvrtku za samovozenje koja je napravila sustav za vožnju AI. Ako se samovozećim automobilom upravlja kao vozni park, još jedan pravni put bio bi goniti operatera voznog parka. Pokušati tužiti AI nije opcija u ovom trenutku budući da pravna osobnost AI-ja još nije utvrđena.

Umjesto poduzimanja pravnih radnji protiv bilo koje od tih strana, drugo rješenje bilo bi podnošenje zahtjeva ili zahtjeva u odgovarajući kompenzacijski fond za AI. Fond bi formalizirao procese koji uključuju reviziju zahtjeva, a zatim bi odredio što ako se isplati bilo kakva kompenzacijska plaćanja podnositelju zahtjeva. Može postojati žalbeni postupak koji pomaže podnositeljima zahtjeva koji smatraju da ih je fond pogrešno odbio ili da im je fond nedovoljno nadoknadio.

U teoriji, kompenzacijski fond za umjetnu inteligenciju bio bi puno brži put prema dobivanju naknade za nanesenu štetu. Možete zamisliti koliko bi tužba mogla biti naporna, pri čemu bi tužene tvrtke mogle pokušati odugovlačiti slučaj.

Odvjetnici bi ipak mogli naglasiti da bi kompenzacijski fond za umjetnu inteligenciju mogao omogućiti drugim stranama, kao što su proizvođači umjetne inteligencije, da naizgled izbjegnu bilo kakvu jasnu kaznu zbog toga što su pustili svoj samovozeći automobil na javnim cestama koji je na kraju udario vozača bicikla. Što bi još te tvrtke mogle odlučiti učiniti "bezbrižno"? Bez prijeteće aveti pravnog mača koji visi nad njihovim glavama, mogli bismo se svakodnevno suočavati s umjetnom inteligencijom koja je prepuna opasnih kapaciteta.

Argumenti se vrte ukrug.

Zaključak

AI Ethics nas podsjeća da uvijek trebamo uzeti u obzir etičke i pravne posljedice AI-ja. U ovom slučaju kompenzacijskih fondova za umjetnu inteligenciju, predloženi pojam skupa sredstava nalik osiguranju za kompenzaciju onima koji su oštećeni od umjetne inteligencije čini se primamljivim. Sredstva bi naizgled tamo čekala, spremna da ih se iskoristi i osigura što bržu naknadu.

Kompromis oko toga hoće li ovo otvoriti vrata stvaranju umjetne inteligencije koja ima sve manje i manje sigurnosnih kontrola je zastrašujuća i previše stvarna briga. Vjerojatno ne trebamo dolijevati ulje na vatru koja je možda već pomalo u tijeku.

Možemo li na neki način još uvijek natjerati proizvođače umjetne inteligencije da osmisle odgovarajuću etičku umjetnu inteligenciju i istovremeno uspostaviti kompenzacijske fondove za umjetnu inteligenciju?

Neki bi rekli da, možemo. Usklađivanjem postojećih zakona s kompenzacijskim fondovima za umjetnu inteligenciju, oni koji su oštećeni umjetnom inteligencijom mogli bi potencijalno imati dvostruki put traženja pravedne naknade.

Tko je prvi?

Da, to su (kao i svi mi) prvi koji su primijetili da bismo trebali razmisliti o potencijalnoj upotrebi kompenzacijskih fondova umjetne inteligencije i modificirati postojeće zakone, makar i neznatno, pružajući sredstva za suočavanje s napadima dobre umjetne inteligencije i loša AI.

Nema zabune oko tog vitalnog razmatranja.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-atonement-funds-to-ensure-ai- odgovornost/