Usađivanjem pravnog obrazloženja u umjetnu inteligenciju moglo bi se pametno postići usklađivanje ljudskih vrijednosti, kaže etika umjetne inteligencije i zakon o umjetnoj inteligenciji

U današnjoj ću kolumni satkati bezbroj naizgled različitih tema povezanih s umjetnom inteligencijom u jednu lijepo isprepletenu tkaninu.

Jeste li spremni?

Zamislite da koristite aplikaciju pokretanu umjetnom inteligencijom koja vam pomaže dok obavljate neki značajan zadatak. Možda je stvar financijska ili zdravstvena. Suština je da ovisite o tome da AI učini pravu stvar i izvede na pretpostavljeni siguran i zdrav način.

Pretpostavimo da umjetna inteligencija skrene na neetičan teritorij.

Možda ne shvaćate da AI to radi.

Na primjer, umjetna inteligencija bi se mogla oslanjati na potencijalno skrivene diskriminatorne čimbenike kao što su rasa ili spol, iako možda nemate nijedan održiv način da uočite nepoželjnu upotrebu. Tu ste vi, posve sami, izvlačeći kraći kraj putem umjetne inteligencije koja je ili osmišljena od samog početka na problematičan način ili je uspjela skrenuti u opasno i granično etičko ugrožavanje (govorit ću više o ovo za trenutak).

Što možete učiniti ili što se može učiniti u vezi s umjetnom inteligencijom koja se odluči na neetički put?

Osim pokušaja da unaprijed konstruiram AI kako ne bi radio ovu vrstu podmukle radnje, prethodno sam također detaljno opisao da postoji sve veći interes za ugradnju AI etička provjera komponentu u rastuću močvaru inače Divljeg Zapada sve-dopuštenih AI sustava koji se bacaju na tržište. Ideja je da bismo mogli upotrijebiti dodatnu umjetnu inteligenciju za provjeru i ravnotežu, kako bismo pokušali spriječiti aplikaciju s umjetnom inteligencijom da ode u polje etičkih dimenzija. Ovaj dodani AI može biti izvan ciljane AI aplikacije ili može biti komponenta ugrađena ili implantirana izravno u AI koju želimo dodatno provjeriti.

Kao što sam već rekao, vidi link ovdje: “Trend koji se nedavno pojavio sastoji se od pokušaja ugradnje etičkih zaštitnih ograda u umjetnu inteligenciju koja će uhvatiti kada ostatak sustava umjetne inteligencije počne prelaziti unaprijed postavljene etičke granice. U određenom smislu, cilj je koristiti samu umjetnu inteligenciju kako bi se spriječila da krene etički naopako. Moglo bi se reći da ciljamo na to da umjetna inteligencija sama sebe izliječi” (Lance Eliot, “Crafting Ethical AI That Monitors Unethical AI And Tries To Deter Bad AI From Acting Up”, Forbes, 28. ožujka 2022.).

Možda će vas također zanimati moja knjiga o AI čuvari botovi, koji se ponekad nazivaju anđeli čuvari, koji pokriva tehničku podlogu ovog vrhunskog sustava dvostruke provjere ugrađenog AI-unutar AI-a, vidi link ovdje.

Zaključak je da bi vaša slanina srećom mogla biti spašena korištenjem ugrađenog AI elementa za dvostruku provjeru etike koji je osmišljen i ugrađen u AI aplikaciju koju koristite. Ali hoće li to biti dovoljan čuvar da se stvarno pobrine da vas umjetna inteligencija ne ukoči u potpunosti i zaleti se čak i na vrlo štetno tlo?

Vidite, AI aplikacija bi mogla raditi naizgled nezakonit djeluje.

Jedna je stvar imati umjetnu inteligenciju koja ulazi u sivu zonu onoga što smatramo etičkim ili neetičkim ponašanjem. Jednako uznemirujuće ponašanje i vjerojatna sve veća zabrinutost podrazumijevaju umjetnu inteligenciju koja jednostavno preskače morskog psa i spušta se u lošu tamu potpuno nezakonitih radnji.

Nezakonita umjetna inteligencija je loša. Loše je dopustiti nezakonitoj umjetnoj inteligenciji da ostane bez nadzora. Neki pravni znanstvenici otvoreno su zabrinuti da će pojava i sveprisutnost umjetne inteligencije postupno i zastrašujuće potkopati naš privid vladavina zakona, pogledajte moju analizu na link ovdje.

Čekaj malo, možda ćeš reći.

Možda ćete biti u iskušenju pomisliti da bi programeri umjetne inteligencije nikada programirati svoju umjetnu inteligenciju da ide protiv zakona. Nezamislivo. To bi učinili samo zli zlikovci (koji, usput, imajte na umu da postoje oni koji namjerno smišljaju i koriste AI u zle svrhe, sve veće područje interesa kriminalaca i drugih koji žele koristiti AI za opake aktivnosti).

Žao nam je, ali samo je pusta želja pretpostaviti da će svi programeri AI koji nisu zli strogo paziti da njihova AI u potpunosti poštuje zakone. Moguće je da se umjetna inteligencija sama prilagodi i odluta u ilegalne aktivnosti. Naravno, također postoji mogućnost da su programeri umjetne inteligencije željeli da umjetna inteligencija djeluje nezakonito ili da nisu bili svjesni što je nezakonito u odnosu na zakonske radnje kada su stvarali umjetnu inteligenciju (da, to je sasvim moguće, naime da usmjereni all-tech AI tim može biti neupućen u pravne smicalice svoje AI, što je neoprostivo, a ipak se događa alarmantno često).

Što se može učiniti po tom pitanju?

Još jednom, osim pokušaja da se osigura da je AI izvan vrata čeličan i zakonit, dodatni pristup dobivanju pare uključuje ugradnju ili implantaciju AI komponente koja radi legalnu dvostruku provjeru za ostatak AI aplikacije. Sjedeći tiho i često nenajavljena, ova dodana umjetna inteligencija promatra ostatak umjetne inteligencije kako bi pokušala razaznati hoće li umjetna inteligencija postati skitnica ili će barem prekoračiti granice zakonskih ili regulatornih ograničenja.

Sada imamo dvije vrste AI dvostruke provjere koje su potencijalno ugrađene u AI aplikaciju:

  • Dvostruka provjera etičke inteligencije: U stvarnom vremenu, ova komponenta ili AI dodatak procjenjuje ostatak AI-a za etička i neetička ponašanja koja AI pokazuje
  • AI pravna dvostruka provjera: U stvarnom vremenu, ova komponenta ili dodatak za umjetnu inteligenciju procjenjuje ostatak umjetne inteligencije radi osiguranja zadržavanja unutar zakonskih temelja i za hvatanje novonastalih nezakonitih aktivnosti od strane umjetne inteligencije

Da pojasnimo, to su relativno nove koncepcije i kao takva AI koju danas koristite može biti u bilo kojem od ovih trenutnih uvjeta:

  • AI koji uopće nema uključene dvostruke provjere
  • AI koji ima uključenu dvostruku provjeru etičke umjetne inteligencije, ali nema drugih dvostrukih provjera
  • AI koji ima uključenu dvostruku provjeru AI Legal, ali nema drugih dvostrukih provjera
  • AI koji ima dvostruku provjeru AI etike i AI pravnu dvostruku provjeru
  • drugo

Postoje neki izrazito škakljivi aspekti kada i AI Ethics dvostruka provjera i AI Legal dvostruka provjera rade jedan uz drugoga u AI aplikaciji kao srodni brat i sestra. Ovo je tip dualizma koji može biti teže uskladiti nego što biste mogli pretpostaviti (mislim da svi znamo da braća i sestre mogu imati najčvršće veze, iako se također mogu s vremena na vrijeme svađati poput dickensa i snažno se suprotstavljati pogleda).

Dugo sam raspravljao o ovoj vrsti napornog dvojnost: “U AI za društveno dobro javlja se zanemaren dualizam koji uključuje nedostatak uključivanja uloge umjetnog moralnog djelovanja i umjetnog pravnog rasuđivanja u naprednim AI sustavima. Napori istraživača umjetne inteligencije i programera umjetne inteligencije uglavnom su bili usmjereni na to kako izraditi i ugraditi umjetne moralne agente koji će usmjeravati donošenje moralnih odluka kada sustav umjetne inteligencije radi na terenu, ali se nisu također usredotočili i povezali s korištenjem sposobnosti umjetnog pravnog zaključivanja. , koji je jednako neophodan za snažne moralne i pravne ishode” (Lance Eliot, “The Neglected Dualism of Artificial Moral Agency And Artificial Legal Reasoning In AI For Social Good,” Godišnja konferencija CRCS Sveučilišta Harvard 2020., Harvardski centar za istraživanje i računalno društvo)

Ako biste željeli razjasniti zašto bi moglo doći do napetosti između osobe za dvostruku provjeru AI etike i osobe za dvostruku provjeru AI Legal-a, mogli biste pronaći ovaj značajan citat zapanjujuće konceptualne vrijednosti: “Zakon može dopustiti neki određeni čin, iako je taj čin nemoralan; i zakon može zabraniti neki čin, čak iako je taj čin moralno dopušten, ili čak moralno potreban” (Shelly Kagan, Granice morala, 1998).

Malo pomaknimo fokus i pogledajmo kako se ove dvostruke provjere uklapaju u još jednu vrlo pomno ispitanu temu umjetne inteligencije, naime Odgovorna umjetna inteligencija ili usklađeno razmatranje usklađenosti ljudskih vrijednosti i umjetne inteligencije.

Općenito je da želimo umjetnu inteligenciju koja se pridržava ispravnih i poželjnih ljudskih vrijednosti. Neki to nazivaju Odgovorna umjetna inteligencija. Drugi slično raspravljaju Odgovorna AI, Pouzdan AIi AI poravnanje, a svi se dotiču istog načela kamena temeljca. Za moju raspravu o ovim važnim pitanjima, vidi link ovdje i link ovdje, Samo da spomenemo nekoliko.

Kako možemo postići da se umjetna inteligencija uskladi s ljudskim vrijednostima?

Kao što je ranije predloženo, nadamo se da će programeri umjetne inteligencije biti svjesni razvoja umjetne inteligencije koja postiže pridržavanje odgovorne umjetne inteligencije. Nažalost, možda i ne bi, prema razlozima koji su ranije razjašnjeni. Osim toga, mogli bi to pokušati učiniti, ali unatoč tome AI se samoprilagođava izvan istaknutog područja etičkog ponašanja ili eventualno u nezakonite vode.

U redu, onda moramo razmotriti naše praktične kicoške dvostruke provjere kao sredstvo za smanjenje ovih rizika i izloženosti. Korištenje dobro osmišljenog alata za dvostruku provjeru etičke inteligencije može značajno pomoći u usklađivanju umjetne inteligencije s ljudskim vrijednostima. Slično tome, upotreba dobro osmišljene pravne dvostruke provjere umjetne inteligencije može značajno pomoći u usklađivanju umjetne inteligencije s ljudskim vrijednostima.

Stoga bi ključno i još uvijek nedovoljno poznato sredstvo traženja odgovorne umjetne inteligencije, pouzdane umjetne inteligencije, odgovorne umjetne inteligencije, usklađivanja umjetne inteligencije itd. uključivalo korištenje dvostrukih provjera AI-a kao što je dvostruka provjera AI etike i AI Legal dvostruka provjera koja bi neumorno radila kao dvostruka provjera AI u koju su ugrađeni.

U ovoj raspravi, želio bih ići u malo više detalja o prirodi i konstruktima AI pravnih dvostrukih provjera koje bi mogle biti ugrađene u AI. Da biste to učinili, moglo bi biti korisno podijeliti s vama dodatnu pozadinu o cjelokupnoj temi AI i pravo.

Za jednostavno ispitivanje o tome kako se umjetna inteligencija i zakon međusobno miješaju, pogledajte moju raspravu na link ovdje. U mom pronicljivom pogledu na AI i pravo spajanjem, nudim ovu izravnu koncepciju dva glavna načina međusobnog povezivanja umjetne inteligencije i zakona:

  • (1) Zakon koji se primjenjuje na AI: Formuliranje, donošenje i provedba zakona koji se primjenjuju na reguliranje ili upravljanje umjetnom inteligencijom u našem društvu
  • (2) AI-primijenjeno na pravo: Tehnologija umjetne inteligencije osmišljena i primijenjena u zakonu, uključujući pravno obrazloženje temeljeno na umjetnoj inteligenciji (AILR) ugrađeno u visokotehnološke aplikacije LegalTech za autonomno ili poluautonomno obavljanje odvjetničkih zadataka

Prvo navedeno gledište sastoji se od razmatranja kako će postojeći i novi zakoni upravljati umjetnom inteligencijom. Druga navedena perspektiva odnosi se na primjenu umjetne inteligencije u zakonu.

Ova zadnja kategorija obično uključuje korištenje pravnog obrazloženja temeljenog na umjetnoj inteligenciji (AILR) u raznim online alatima koje koriste odvjetnici. Na primjer, umjetna inteligencija bi mogla biti dio paketa za upravljanje životnim ciklusom ugovora (CLM) koji pomaže odvjetnicima identificiranjem ugovornog jezika koji će biti koristan za sastavljanje novih ugovora ili bi mogao otkriti ugovore koji imaju zakonski nerazjašnjen jezik koji dopušta nesreće ili pravne rupe (za moj pogled na takozvane "zakonske mirise" koje može razaznati AI, vidi link ovdje).

Neizbježno ćemo imati umjetnu inteligenciju primijenjenu na zakon koji postaje dostupan za korištenje široj javnosti i koji ne zahtijeva da odvjetnik bude u toku. Upravo sada, kao rezultat raznih ograničenja, uključujući UPL (Unauthorized Practical of Law), stavljanje na raspolaganje aplikacija za pravno savjetovanje temeljenih na umjetnoj inteligenciji trnovita je i kontroverzna stvar, pogledajte moju raspravu na link ovdje.

Iznio sam ovaj uvod o umjetnoj inteligenciji i pravu kako bih istaknuo da bi još jedna instrumentalna upotreba umjetne inteligencije primijenjena na zakon bila stvaranje AI pravnih dvostrukih provjera.

Da, ista vrsta tehnološke sposobnosti koja je uključena u primjenu umjetne inteligencije u zakonu može služiti kao dvostruka dužnost korištenjem umjetne inteligencije kao ugrađene ili implantirane AI pravne dvostruke provjere. AI pravni alat za dvostruku provjeru je komponenta koja mora biti upućena u pravne aspekte. Kada ostatak AI aplikacije izvodi različite radnje, AI Legal dvostruka provjera procjenjuje radi li AI aplikacija to zakonito i unutar zakonskih ograničenja.

AI Legal komponenta dvostruke provjere ne mora nužno pokriti cijeli raspon svega što se može znati o zakonu. Ovisno o prirodi aplikacije umjetne inteligencije u sveukupnoj svrsi i radnjama umjetne inteligencije, pravna dvostruka provjera umjetne inteligencije može biti mnogo uža u smislu pravne stručnosti koju sadrži.

Identificirao sam koristan okvir za prikazivanje kako se umjetna inteligencija u pravnoj domeni proteže kroz niz autonomnih kapaciteta, poznatih kao Razine autonomije (LoA). Za pregled pogledajte moj Forbes objava kolumne od 21. studenog 2022., “Besmislica, sveobuhvatan i uvjerljiv slučaj zašto odvjetnici trebaju znati o umjetnoj inteligenciji i zakonu” na link ovdje, a za detaljan tehnički prikaz pogledajte moj članak o dubinskom istraživanju u MIT Computational Law Journal od 7. prosinca 2021., vidi link ovdje.

Okvir pojašnjava pet razina umjetne inteligencije koje se koriste u pravnim pothvatima:

  • Razina 0: Nema automatizacije za pravne poslove temeljene na umjetnoj inteligenciji
  • Razina 1: Jednostavna automatizacija pomoći za pravne poslove temeljene na umjetnoj inteligenciji
  • Razina 2: napredna automatizacija pomoći za pravne poslove temeljene na umjetnoj inteligenciji
  • Razina 3: Poluautonomna automatizacija za pravne poslove temeljene na umjetnoj inteligenciji
  • Razina 4: Domena autonomna za pravne poslove temeljene na umjetnoj inteligenciji
  • Razina 5: Potpuno autonoman za pravne poslove temeljene na umjetnoj inteligenciji

Ovdje ću ih ukratko opisati.

Razina 0 smatra se razinom bez automatizacije. Pravno obrazloženje i pravni zadaci provode se ručnim metodama i uglavnom se odvijaju putem pristupa temeljenih na papiru.

Razina 1 sastoji se od jednostavne automatizacije pomoći za pravno obrazloženje umjetne inteligencije. Primjeri ove kategorije uključuju korištenje svakodnevne računalne obrade teksta, svakodnevne računalne proračunske tablice, pristup pravnim dokumentima na mreži koji se pohranjuju i dohvaćaju elektronički, i tako dalje.

Razina 2 sastoji se od napredne automatizacije pomoći za pravno obrazloženje umjetne inteligencije. Primjeri ove kategorije uključuju upotrebu rudimentarne obrade prirodnog jezika (NLP) u stilu upita, pojednostavljene elemente strojnog učenja (ML), alate za statističku analizu za predviđanje pravnih slučajeva itd.

Razina 3 sastoji se od poluautonomne automatizacije za pravno rasuđivanje umjetne inteligencije. Primjeri ove kategorije uključuju korištenje naprednih sustava temeljenih na znanju (KBS) za pravno rasuđivanje, korištenje strojnog učenja i dubokog učenja (ML/DL) za pravno rasuđivanje, napredni NLP i tako dalje.

Razina 4 sastoji se od domenskih autonomnih računalnih sustava za pravno rasuđivanje umjetne inteligencije. Ova razina ponovno koristi konceptualni pojam Operational Design Domains (ODD), koji se koristi za samovozeće automobile, ali koji se primjenjuje na pravnu domenu. Pravne domene mogu se klasificirati prema funkcionalnim područjima, kao što su obiteljsko pravo, pravo nekretnina, stečajno pravo, ekološko pravo, porezno pravo itd.

Razina 5 sastoji se od potpuno autonomnih računalnih sustava za pravno rasuđivanje AI-jem. U određenom smislu, Razina 5 je nadskup Razine 4 u smislu obuhvaćanja svih mogućih pravnih domena. Imajte na umu da je ovo prilično težak zadatak.

Ove razine autonomije možete zamisliti na razini sličnih upotreba kada se govori o samovozećim automobilima i autonomnim vozilima (također temeljeno na službenom SAE standardu, pogledajte moje izvješće na link ovdje). Još uvijek nemamo samovozeće automobile SAE razine 5. Idemo prema samovozećim automobilima razine 4 SAE. Većina konvencionalnih automobila je na SAE razini 2, dok se neki od novijih automobila guraju u SAE razinu 3.

U pravnoj domeni još nemamo AILR razine 5. Dotičemo se neke razine 4, iako u vrlo uskim ODD-ovima. Razina 3 počinje ugledati svjetlo dana, dok je glavno uporište AILR-a danas prvenstveno na razini 2.

Nedavni istraživački članak o umjetnoj inteligenciji primijenjenoj na zakon postavio je tipizaciju poznatu kao Zakon informira kod. Istraživač ovo navodi: “Jedan od primarnih ciljeva Zakon informira kod cilj je naučiti umjetnu inteligenciju da slijedi duh zakona” (John J. Nay, “Law Informs Code: A Legal Informatics Approach to Aligning Artificial Intelligence with Humans”, Northwestern Journal of Technology and Intellectual Property, svezak 20, u pripremi). Postoje neka bitna razmatranja koja Zakon informira kod mantra donosi i ja ću vas provesti kroz nekoliko tih temeljnih pravila.

Prije nego što se upustim u temu, želio bih prvo postaviti neke bitne temelje o umjetnoj inteligenciji, a posebno o etici umjetne inteligencije i zakonu o umjetnoj inteligenciji, čineći to kako bih bio siguran da će rasprava biti kontekstualno razumna.

Rastuća svijest o etičkoj umjetnoj inteligenciji, a također i zakonu o umjetnoj inteligenciji

Nedavna era umjetne inteligencije u početku se smatrala AI za dobro, što znači da bismo mogli koristiti AI za poboljšanje čovječanstva. Za petama AI za dobro došla je spoznaja u koju smo i mi uronjeni AI za loše. To uključuje umjetnu inteligenciju koja je osmišljena ili samoizmijenjena tako da bude diskriminirajuća i donosi računalne odluke prožimajući neopravdane pristranosti. Ponekad je umjetna inteligencija izgrađena na taj način, dok u drugim slučajevima skreće na taj neljubazan teritorij.

Želim biti posve siguran da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Vrsta umjetne inteligencije na koju se fokusiram sastoji se od ne-osjećajne umjetne inteligencije koju imamo danas. Kad bismo htjeli divlje spekulirati o osjećajnoj umjetnoj inteligenciji, ova bi rasprava mogla krenuti u radikalno drugačijem smjeru. Osjećajna umjetna inteligencija bi navodno bila ljudske kvalitete. Trebali biste uzeti u obzir da je AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva umjetna inteligencija na kraju mogla biti pametnija od ljudi (za moje istraživanje superinteligentne umjetne inteligencije kao mogućnosti, pogledajte pokrivenost ovdje).

Čvrsto bih sugerirao da stvari držimo prizemno i razmotrimo današnju računalnu ne-osjećajnu umjetnu inteligenciju.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite vrlo oprezni s antropomorfiziranjem današnje umjetne inteligencije.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, ni programeri umjetne inteligencije možda neće shvatiti što se događa. Tajanstvena matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom biste se nadali i očekivali da će AI programeri testirati potencijalno zakopane pristranosti, iako je to teže nego što se čini. Postoji solidna šansa da će čak i uz relativno opsežno testiranje još uvijek biti pristranosti ugrađene u modele usklađivanja uzoraka ML/DL.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima izrazito značajne implikacije na etiku umjetne inteligencije i nudi zgodan uvid u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj donošenja zakona o umjetnoj inteligenciji.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

U prijašnjim sam kolumnama pokrio različite nacionalne i međunarodne napore u izradi i donošenju zakona koji reguliraju AI, vidi link ovdje, na primjer. Također sam pokrio različita načela i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih naroda kao što je UNESCO-ov set etike AI koji je usvojilo gotovo 200 zemalja, vidi link ovdje.

Evo korisnog temeljnog popisa etičkih AI kriterija ili karakteristika u vezi sa AI sustavima koje sam prethodno pomno istražio:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima umjetne inteligencije, pa čak i onima koji u konačnici postavljaju i održavaju sustave umjetne inteligencije.

Svi dionici tijekom cijelog životnog ciklusa AI-a razvoja i korištenja smatraju se unutar opsega poštivanja uspostavljenih normi Etičke AI-a. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju podliježu pridržavanju etičkih pojmova umjetne inteligencije. Kao što je prethodno naglašeno, potrebno je selo da osmisli i postavi umjetnu inteligenciju, a za to cijelo selo mora biti upućeno i pridržavati se pravila etičke inteligencije.

Također sam nedavno pregledao AI Bill of Rights što je službeni naziv službenog dokumenta američke vlade pod naslovom “Nacrt zakona o pravima umjetne inteligencije: Omogućavanje rada automatiziranih sustava za američki narod” koji je rezultat jednogodišnjeg rada Ureda za politiku znanosti i tehnologije (OSTP ). OSTP je savezni entitet koji služi za savjetovanje američkog predsjednika i Izvršnog ureda SAD-a o raznim tehnološkim, znanstvenim i inženjerskim aspektima od nacionalne važnosti. U tom smislu, možete reći da je ova povelja o pravima umjetne inteligencije dokument koji je odobrila i potvrdila postojeća američka Bijela kuća.

U Povelji o pravima umjetne inteligencije postoji pet ključnih kategorija:

  • Sigurni i učinkoviti sustavi
  • Algoritamske zaštite od diskriminacije
  • Zaštita podataka
  • Obavijest i objašnjenje
  • Ljudske alternative, razmatranje i pomoć

Pažljivo sam pregledao te propise, vidite link ovdje.

Sada kada sam postavio korisne temelje za ove povezane teme o etici umjetne inteligencije i zakonu o umjetnoj inteligenciji, spremni smo uskočiti u opojnu temu pravnih dvostrukih provjera umjetne inteligencije i područja Zakon informira kod.

AI pravne dvostruke provjere ugrađene u AI za usklađivanje ljudskih vrijednosti

Ponekad se pozivam na AI pravne dvostruke provjere preko akronima AI-LDC. Ovo je malo vizualno neugodno za one koji nisu upoznati s akronimom. Kao takav, neću koristiti ovu kraticu u ovoj raspravi, ali sam vam je želio spomenuti kao upozorenje.

Kako bismo raspakirali neke od složenosti AI pravnih dvostrukih provjera, pozabavimo se ovim glavnim točkama:

  • Upotreba AI pravnih dvostrukih provjera kao mehanizma za usklađivanje ljudskih vrijednosti AI
  • Ekspanzivnija umjetna inteligencija će u skladu s tim zahtijevati robusnije AI pravne dvostruke provjere
  • Pravni provjerivači umjetne inteligencije donose zakone, a posebice ne donose zakone (vjerojatno)
  • Osjetljiva ravnoteža između AI Pravnog utjelovljenja zakona kao pravila i standarda
  • Zahtijevanje dokaza o pudingu kada je u pitanju AI poštivanje zakona

Zbog ograničenja prostora, za sada ću pokriti samo tih pet točaka, ali budite oprezni za daljnje izvještavanje u mojoj kolumni koja pokriva dodatna i jednako vrijedna razmatranja o ovim temama koje se brzo razvijaju i kreću naprijed.

Odmah vežite pojas i pripremite se za okrepljujuće putovanje.

  • Upotreba AI pravnih dvostrukih provjera kao mehanizma za usklađivanje ljudskih vrijednosti AI

Postoje brojni načini da se pokuša postići skladna usklađenost između AI i ljudskih vrijednosti.

Kao što je ranije spomenuto, možemo proizvesti i objaviti pravila AI etike i nastojati natjerati programere AI-a i one koji rade na AI-ju da se pridržavaju tih ključnih kamenova. Nažalost, samo ovo neće učiniti trik. Imate neke dizajnere koji neizbježno neće shvatiti poruku. Imate neke premišljače koji će se razmetati etičkom umjetnom inteligencijom i pokušati zaobići pomalo labavo propisana načela. I tako dalje.

Korištenje pristupa "mekog prava" koji uključuje etiku umjetne inteligencije mora se gotovo neizostavno upariti s putevima "tvrdog prava" kao što su donošenje zakona i propisa koji će poslati snažan signal svima koji stvaraju ili koriste AI. Duga ruka zakona mogla bi vas uhvatiti ako razumno ne koristite AI. Zvuk zveckanja zatvorskih vrata mogao bi privući oštru pozornost.

Velik je problem ipak to što su vrata staje ponekad već pustila konje van. Umjetna inteligencija koja se nađe na terenu potencijalno će proizvoditi svakakve nezakonite radnje i nastavit će to činiti ne samo dok ne bude uhvaćena, već i kada se neka provedbena tijela konačno pokrenu kako bi spriječila tijek nezakonitih radnji. Sve to može potrajati. U međuvremenu, ljudi bivaju ozlijeđeni na ovaj ili onaj način.

U ovom pohodu dolazi AI Legal dvostruka provjera.

Budući da se nalazi unutar AI aplikacije, AI Legal dvostruka provjera može odmah otkriti kada se čini da AI krši zakon. Pravna dvostruka provjera umjetne inteligencije mogla bi zaustaviti umjetnu inteligenciju. Ili bi komponenta mogla upozoriti ljude na uočene nezakonite aktivnosti, čineći to na vrijeme, što bi moglo potaknuti nadzornike na hitne korektivne radnje. Postoji i razmatrano formalizirano bilježenje koje bi komponenta mogla stvoriti, pružajući opipljivu prividnost revizijskog traga u svrhu kodificiranja negativnih radnji umjetne inteligencije.

Za naše zakone se kaže da su oblik konglomerata s više aktera tako da su zakoni neizbježno mješavina onoga što je društvo nastojalo uspostaviti kao ravnotežu između vjerojatnih sukobljenih pogleda na ispravno i neprikladno društveno ponašanje. AI Legal dvostruka provjera temeljena na našim zakonima stoga utjelovljuje tu mješavinu.

Naime, ovo je više od pukog programiranja popisa konačnih pravnih pravila. Zakoni su skloniji biti fleksibilniji i težiti sveobuhvatnim standardima, umjesto da određuju najsitnija mikroskopska pravila. Kompleksnosti ima na pretek.

Vraćajući se ranije navedenom istraživačkom radu, evo kako se ova razmatranja također mogu promatrati u vezi s usklađivanjem umjetne inteligencije: „Zakon, primijenjena filozofija usklađivanja više agenata, jedinstveno ispunjava ove kriterije. Usklađivanje je problem jer ne možemo ex ante specificirati pravila koja u potpunosti i dokazivo usmjeravaju dobro ponašanje umjetne inteligencije. Slično tome, strane u pravnom ugovoru ne mogu predvidjeti svaki slučaj svog odnosa, a zakonodavci ne mogu predvidjeti posebne okolnosti pod kojima će se njihovi zakoni primjenjivati. Zato je velik dio prava konstelacija standarda” (ibid).

Utjeloviti zakon u AI pravni alat za dvostruku provjeru puno je izazovnije nego što biste isprva mogli pretpostaviti.

Kako umjetna inteligencija napreduje, morat ćemo u skladu s tim iskoristiti taj napredak. Ispostavilo se da ono što je dobro za gusku dobro je i za gusana. Oni od nas koji napreduju u umjetnoj inteligenciji primijenjenoj na zakon, guraju granice AI i nedvojbeno stvaraju nove napretke koji u konačnici mogu poslužiti za potpuni napredak AI.

  • Ekspanzivnija umjetna inteligencija će u skladu s tim zahtijevati robusnije AI pravne dvostruke provjere

Gambit mačke i miša suočava se s ovom temom.

Velike su šanse da će, kako umjetna inteligencija bude dalje napredovala, bilo kojoj pravnoj komponenti dvostruke provjere AI-ja sve teže i teže izlaziti na kraj. Na primjer, AI aplikacija koja se pomno ispituje možda ima novoosmišljene super-lutke načine za skrivanje nezakonitih radnji koje AI poduzima. Čak i ako umjetna inteligencija ne ide lažnim putem, ukupna složenost umjetne inteligencije sama po sebi mogla bi biti zastrašujuća prepreka za traženje pravne provjere AI-ja.

Evo kako ovo postaje posebno značajno.

Pretpostavimo da programer umjetne inteligencije ili neka tvrtka koja koristi umjetnu inteligenciju proglasi da postoji AI pravni alat za dvostruku provjeru koji je ugrađen u aplikaciju temeljenu na umjetnoj inteligenciji. Voila, čini se da su sada oprali ruke od daljnjih briga. AI Legal dvostruka provjera će se pobrinuti za sve.

Ne tako.

Pravna dvostruka provjera AI može biti nedostatna za prirodu uključene AI aplikacije. Također postoji mogućnost da AI Legal dvostruka provjera postane zastarjela, možda nije ažurirana najnovijim zakonima koji se odnose na AI aplikaciju. Može se predvidjeti mnoštvo razloga zašto sama prisutnost pravne dvostruke provjere AI neće biti srebrni metak.

Razmotrite ove uvide iz ranije citiranog istraživanja: „Kako AI napreduje, možemo postavljati iterativno više granice pokazanih sposobnosti pravnog razumijevanja. Ako razvojni programer tvrdi da njegov sustav ima napredne mogućnosti za zadatke, trebao bi pokazati odgovarajuće napredno pravno razumijevanje i pravne, sposobnosti rasuđivanja umjetne inteligencije, koje praktički nemaju gornju granicu poteškoća kada se uzme u obzir gomila zakona i propisa kroz vrijeme, presedane i jurisdikcije ” (ibid).

  • Pravni provjerivači umjetne inteligencije donose zakone, a posebice ne donose zakone (vjerojatno)

Siguran sam da su neki od vas zgroženi idejom da imate ove AI pravne dvostruke provjere.

Jedna često izražena zabrinutost je da ćemo očito dopustiti umjetnoj inteligenciji da umjesto nas odlučuje o našim zakonima. Bože, možda mislite, neka će automatizacija nadvladati čovječanstvo. Ti prokleti ugrađeni AI pravni alati za dvostruku provjeru postat će zadani kraljevi naših zakona. Što god oni slučajno učinili, bit će ono što se čini da je zakon.

Ljudima će vladati AI.

A ovi AI pravni alati za dvostruku provjeru sklizak su teren koji nas dovodi tamo.

Protuargument je da su takve priče dio teorija zavjere. Divljački postulirate i dovodite se u nervozu. Stvarnost je da ovi pravni dvostruki provjerivači umjetne inteligencije nisu osjećajni, neće preuzeti planet, a hvaljanje o njihovom egzistencijalnom riziku je jednostavno besmisleno i neizmjerno pretjerano.

Sve u svemu, ostajući pri mirnom i razboritom stavu, moramo imati na umu da AI pravni alati za dvostruku provjeru služe kako bi na odgovarajući način odražavali zakon, a ne po namjeri ili slučajno ići dalje do toga da nekako propuste u cijenjeno područje stvaranja zakon. Ostavljajući po strani ekstrapolacije osjećaja, svakako se možemo složiti da postoji stvarna i goruća zabrinutost da bi AI pravni alat za dvostruku provjeru mogao na kraju krivo prikazati pravu prirodu određenog zakona.

S druge strane, mogli biste tvrditi da se stoga taj konkretni "pogrešno predstavljeni" zakon u biti donosi iznova budući da više ne označava prikladno ono što je stvarni zakon namjeravao. Vjerujem da iskreno vidite koliko je ovo suptilno, ali znakovito razmatranje. U bilo kojem trenutku, AI pravni alat za dvostruku provjeru mogao bi na virtualnoj osnovi stvarati ili da kažemo "halucinirati" nove zakone jednostavno na način na koji AI komponenta tumači zakon onako kako je izvorno naveden ili utjelovljen u AI (za moju pokrivenost AI tzv halucinacije, Vidi link ovdje).

O tome se mora strogo voditi računa.

O ovoj temi, gore spomenuta istraživačka studija nudi ovu paralelnu misao u smislu traženja izbjegavanja prelaska te svete granice: „Ne želimo da umjetna inteligencija ima legitimitet za stvaranje zakona, postavljanje pravnog presedana ili provođenje zakona. Zapravo, to bi potkopalo naš pristup (i trebali bismo uložiti značajan trud da to spriječimo). Umjesto toga, najambiciozniji cilj Zakonskog informativnog kodeksa je računalno kodirati i ugraditi mogućnost generalizacije postojećih pravnih koncepata i standarda u potvrđenu izvedbu umjetne inteligencije” (ibid).

  • Osjetljiva ravnoteža između AI Pravnog utjelovljenja zakona kao pravila i standarda

Zakoni su zbrkani.

Za gotovo svaki zakon u knjigama, vjerojatno postoji mnoštvo tumačenja o tome što zakon propisuje u stvarnoj praksi. Rečeno jezikom područja umjetne inteligencije, zakone nazivamo semantički dvosmislenim. To je ono što razvoj umjetne inteligencije primijenjen na zakon čini tako uzbudljivim i istovremeno mučnim izazovom. Za razliku od preciznog zbijanja brojeva koje možete vidjeti za, recimo, financijski orijentirane AI aplikacije, želja za utjelovljenjem naših zakona u AI podrazumijeva suočavanje s tsunamijem semantičkih dvosmislenosti.

U knjizi moje zaklade o osnovama AI Legal Reasoning (AILR), raspravljam o tome kako nas prijašnji pokušaji pukog kodificiranja zakona u skup ograničenih pravila nisu doveli onoliko daleko koliko bismo željeli ići u pravnoj domeni (vidi link ovdje). Današnji AILR mora obuhvatiti integraciju između korištenja pravila i onoga što bi se moglo nazvati sveobuhvatnim standardima koje zakon predstavlja.

Ova važna ravnoteža može se izraziti na sljedeći način: "U praksi, većina zakonskih odredbi nalazi se negdje na spektru između čistog pravila i čistog standarda, a pravna teorija može pomoći u procjeni prave kombinacije "pravilnosti" i "standardnosti" prilikom specificiranja ciljeva sustava umjetne inteligencije” (ibid).

  • Zahtijevanje dokaza o pudingu kada je u pitanju AI poštivanje zakona

Željeti nešto je drugačije od imati nešto.

Ta se trunka mudrosti pojavljuje kada se kaže da, iako možda želimo imati AI pravne dvostruke provjere, moramo biti sigurni da rade, i to ispravno. Imajte na umu da ovo predstavlja još jednu tešku i iscrpljujuću prepreku. Prethodno sam pokrio najnoviji napredak i izazove u provjeri i potvrđivanju AI, vidi link ovdje.

Kao što je navedeno u istraživačkom radu: “Da bi se riješio jaz, prije nego što se modeli umjetne inteligencije implementiraju u sve većim agentskim kapacitetima, npr. potpuno autonomna vozila na glavnim cestama, strana koja implementira trebala bi pokazati da sustav razumije ljudske ciljeve, politike i pravne standarde. Procedura validacije mogla bi ilustrirati AI-jevo 'razumijevanje' 'značenja' pravnih koncepata” (ibid).

Zaključak

Potičem vas da razmislite o tome da mi se pridružite u ovoj plemenitoj potrazi za izgradnjom i postavljanjem AI legalnih dvostrukih provjera. Trebamo više pažnje i resursa posvećenih ovoj čestitoj potrazi.

Ovo također pruža dvostruku dužnost, kao što je ranije spomenuto, prema postizanju pravnog obrazloženja umjetne inteligencije (AILR) koje se može koristiti za pomoć odvjetnicima i koje potencijalno izravno koristi šira javnost. Doista, neki žestoko tvrde da će jedini održivi način postizanja potpunijeg osjećaja pristupa pravdi (A2J) biti izrada umjetne inteligencije koja utjelovljuje pravne sposobnosti i kojoj će svi moći pristupiti.

Jedna brza završna točka za sada.

Dosadašnja rasprava je naglašavala da bi AI pravni dvostruki provjerivač bio ugrađen ili implantiran u AI. Ovo je doista primarni fokus onih koji istražuju i poduzimaju ovo područje u nastajanju.

Evo pitanja o kojem vrijedi razmisliti.

Stavite kapu za razmišljanje.

Zašto ne iskoristiti AI Legal dvostruku provjeru u svim softverima?

Suština je da bismo možda trebali proširiti naše gledište umjesto da isključivo koristimo AI pravne dvostruke provjere u AI. Sve vrste softvera mogu legalno zalutati. AI je doduše dobio lavovski dio pozornosti zbog načina na koji se AI obično koristi, kao što je donošenje mučnih odluka koje utječu na ljude u njihovim svakodnevnim životima. Mogli biste lako tvrditi da postoji mnogo sustava koji nisu AI koji rade isto.

U biti, ne bismo smjeli dopustiti da bilo koji softver ima besplatnu vožnju kako bi izbjegao ili spriječio zakon.

Sjetite se i ranije da sam spomenuo dvije kategorije kombiniranja umjetne inteligencije i zakona. Ovdje smo se usredotočili na korištenje umjetne inteligencije primijenjeno na zakon. S druge strane medalje je primjena zakona na AI. Pretpostavimo da donesemo zakone koji zahtijevaju korištenje AI pravnih dvostrukih provjera.

To bi u početku moglo biti ograničeno na AI sustave, posebno one koji su ocijenjeni kao posebno visokorizični. Postupno bi se isti zahtjev pravne dvostruke provjere AI mogao proširiti i na softver koji nije AI. Opet, nema besplatnih vožnji.

Dok vi razmišljate o tome gore, ja ću začiniti stvari kao završni teaser. Ako ćemo pokušavati zahtijevati AI pravne dvostruke provjere, isto bismo mogli učiniti i u vezi s AI Etičkim dvostrukim provjerama. Korištenje AI pravne dvostruke provjere samo je pola priče, a ne možemo zanemariti niti zaboraviti zabrinutost AI Etike.

Završit ću ovaj duhovit govor s jednim od mojih omiljenih citata. Prema mudrim riječima Earla Warrena, slavnog pravnika koji je služio kao glavni sudac Sjedinjenih Država: "U civiliziranom životu zakon pluta u moru etike."

Možda bi bilo najbolje da te nadobudne i množeće AI pravne dvostruke provjere i AI etičke dvostruke provjere stavimo u žustru upotrebu ako želimo održati glavu iznad potencijalno prijetećeg teškog mora od kiselih AI i turobnih sustava koji nisu AI koji ugrožavaju našu sigurnost .

Oni bi mogli biti prsluk za spašavanje čovječanstva.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- i-ai-zakon/