Etika umjetne inteligencije i zakon o umjetnoj inteligenciji vaganje ključnih načina za provedbu te nedavno objavljene povelje o pravima umjetne inteligencije, uključujući i zapanjujuće izravno korištenje umjetne inteligencije

Nema sumnje da su nam nacrti potrebni u svakodnevnom životu.

Ako namjeravate graditi kuću iz snova koju ste dugo zamišljali, bilo bi mudro prvo sastaviti upotrebljiv nacrt.

Nacrt na opipljiv i dokumentiran način prikazuje vizionarsku perspektivu razrogačenih očiju koja bi mogla biti zaključana u vašoj glavi. Oni koji će biti pozvani da izgrade vaše dragocjeno imanje moći će se pozvati na nacrt i odrediti pojedinosti o tome kako obaviti posao. Nacrti su zgodni. Nepostojanje nacrta zasigurno će biti problematično za rješavanje bilo kakvog složenog posla ili projekta.

Prebacimo ovu pomalo sentimentalnu, ali istinsku počast nacrtima u područje umjetne inteligencije (AI).

Oni od vas koji se suštinski bave umjetnom inteligencijom mogli bi biti nejasno svjesni da je važna politika usmjerena nacrt je nedavno objavljen u SAD-u koji se jasno odnosi na budućnost umjetne inteligencije. Neslužbeno poznat kao AI Bill of Rights, službeni naziv proglašene bijele knjige je “Nacrt za AI Bill of Rights: Making Automated Systems Work for the American People” i lako je dostupna online.

Dokument je rezultat jednogodišnjeg truda i pažljivog proučavanja Ureda za znanost i tehnološku politiku (OSTP). OSTP je savezni entitet koji je osnovan sredinom 1970-ih i služi za savjetovanje američkog predsjednika i Izvršnog ureda SAD-a o raznim tehnološkim, znanstvenim i inženjerskim aspektima od nacionalne važnosti. U tom smislu, možete reći da je ova povelja o pravima umjetne inteligencije dokument koji je odobrila i potvrdila postojeća američka Bijela kuća.

Povelja o pravima umjetne inteligencije opisuje ljudska prava koje bi čovječanstvo trebalo imati s obzirom na dolazak umjetne inteligencije u naše svakodnevne živote. Naglašavam ovu važnu točku jer su neki ljudi isprva bili zbunjeni da je ovo možda neka vrsta priznanja da umjetna inteligencija ima status pravne osobe i da je to litanija prava za razumnu umjetnu inteligenciju i humanoidne robote. Ne, još nismo stigli. Kao što ćete uskoro vidjeti, nismo ni blizu razumne umjetne inteligencije, unatoč naslovima bannera koji nam, čini se, govore suprotno.

U redu, treba li nam nacrt koji navodi ljudska prava u doba umjetne inteligencije?

Da, sasvim sigurno želimo.

Gotovo da biste morali biti zatvoreni u špilji i bez pristupa Internetu da ne znate da AI već i sve više zadire u naša prava. Nedavna era umjetne inteligencije u početku se smatrala AI za dobro, što znači da bismo mogli koristiti AI za poboljšanje čovječanstva. Za petama AI za dobro došla je spoznaja u koju smo i mi uronjeni AI za loše. To uključuje umjetnu inteligenciju koja je osmišljena ili samoizmijenjena tako da bude diskriminirajuća i donosi računalne odluke prožimajući neopravdane pristranosti. Ponekad je umjetna inteligencija izgrađena na taj način, dok u drugim slučajevima skreće na taj neljubazan teritorij.

Za moje kontinuirano i opsežno pokrivanje i analizu AI zakona, AI etike i drugih ključnih AI tehnoloških i društvenih trendova, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Raspakiranje Povelje o pravima umjetne inteligencije

Prethodno sam raspravljao o Povelji prava umjetne inteligencije i ovdje ću napraviti kratak rezime.

Na stranu, ako želite znati moje detaljne prednosti i mane nedavno objavljene Povelje o pravima umjetne inteligencije, detaljno sam opisao svoju analizu u objavi na pravnik, Vidi link ovdje, pravnik značajna je internetska stranica s pravnim vijestima i komentarima, nadaleko poznata kao nagrađivana usluga pravnih vijesti koju pokreće globalni tim novinara studenata prava, urednika, komentatora, dopisnika i programera sadržaja, a sjedište joj je na Fakultetu Sveučilišta u Pittsburghu Law u Pittsburghu, gdje je započeo prije više od 25 godina. Pozdrav za izvanredan i marljiv tim u pravnik.

U Povelji o pravima umjetne inteligencije postoji pet ključnih kategorija:

  • Sigurni i učinkoviti sustavi
  • Algoritamske zaštite od diskriminacije
  • Zaštita podataka
  • Obavijest i objašnjenje
  • Ljudske alternative, razmatranje i pomoć

Primijetite da ih nisam numerirao od jedan do pet jer bi to moglo značiti da su u određenom nizu ili da je jedno od prava naizgled važnije od drugog. Pretpostavit ćemo da su svaki svoje zasluge. Svi su oni u neku ruku jednako zaslužni.

Kao kratku naznaku od čega se svaka sastoji, evo izvatka iz službene bijele knjige:

  • Sigurni i učinkoviti sustavi: “Trebali biste biti zaštićeni od nesigurnih ili neučinkovitih sustava. Automatizirani sustavi trebali bi se razvijati uz konzultacije s različitim zajednicama, dionicima i stručnjacima za domenu kako bi se identificirali problemi, rizici i potencijalni utjecaji sustava.”
  • Algoritamske zaštite od diskriminacije: “Ne biste se trebali suočiti s diskriminacijom algoritama, a sustavi bi se trebali koristiti i dizajnirati na pravedan način. Algoritamska diskriminacija događa se kada automatizirani sustavi pridonose neopravdanom različitom postupanju ili utječu na ljude na temelju njihove rase, boje kože, etničke pripadnosti, spola (uključujući trudnoću, porod i povezana medicinska stanja, rodni identitet, međuspolni status i seksualnu orijentaciju), vjere, dobi , nacionalnog podrijetla, invaliditeta, veteranskog statusa, genetskih informacija ili bilo koje druge klasifikacije zaštićene zakonom.”
  • Privatnost podataka: “Trebali biste biti zaštićeni od zlouporabe podataka putem ugrađenih zaštita i trebali biste imati pravo odlučivanja o tome kako se podaci o vama koriste. Trebali biste biti zaštićeni od kršenja privatnosti odabirom dizajna koji osigurava da su takve zaštite uključene prema zadanim postavkama, uključujući osiguranje da je prikupljanje podataka u skladu s razumnim očekivanjima i da se prikupljaju samo podaci koji su strogo potrebni za određeni kontekst.”
  • Obavijest i objašnjenje: “Trebali biste znati da se koristi automatizirani sustav i razumjeti kako i zašto doprinosi ishodima koji utječu na vas. Dizajneri, programeri i postavljači automatiziranih sustava trebali bi osigurati općenito dostupnu dokumentaciju na jednostavnom jeziku, uključujući jasne opise cjelokupnog funkcioniranja sustava i uloge koju automatizacija igra, napomenu da se takvi sustavi koriste, pojedinca ili organizaciju odgovornu za sustav i objašnjenja rezultate koji su jasni, pravovremeni i dostupni.”
  • Ljudske alternative, razmatranje i pomoć: “Trebali biste se moći isključiti, gdje je to prikladno, i imati pristup osobi koja može brzo razmotriti i riješiti probleme na koje naiđete. Trebali biste se moći isključiti iz automatiziranih sustava u korist ljudske alternative, gdje je to prikladno.”

Uglavnom, ovo su aspekti ljudskih prava o kojima se već neko vrijeme raspravlja u kontekstu Etike umjetne inteligencije i Zakona o umjetnoj inteligenciji, pogledajte moje izvješće, npr. link ovdje. Bijela knjiga naizgled ne izvlači zeca iz šešira magično u vezi s nekim novootkrivenim ili neotkrivenim pravom koje do sada nije bilo razjašnjeno u kontekstu ere umjetne inteligencije.

To je u redu.

Mogli biste ustvrditi da njihova kompilacija u jednu uredno upakiranu i formaliziranu zbirku pruža vitalnu uslugu. Plus, time što je pomazan kao hvaljeni AI Bill of Rights, čime se cijela stvar dodatno otvoreno i vješto stavlja u svijest javnosti. Spaja postojeće mnoštvo različitih rasprava u jedinstveni skup koji se sada može razglasiti i prenijeti svim vrstama dionika.

Dopustite mi da ponudim ovaj popis pozitivnih reakcija na najavljenu Povelju o pravima umjetne inteligencije:

  • Pruža bitnu kompilaciju ključnih načela
  • Služi kao nacrt ili temelj za nadogradnju
  • Djeluje kao vokalizirani poziv na akciju
  • Potiče interes i pokazuje da se radi o ozbiljnim razmatranjima
  • Okuplja mnoštvo različitih rasprava
  • Potiče i pridonosi naporima za usvajanje etičke umjetne inteligencije
  • Nedvojbeno će doprinijeti uspostavljanju zakona o umjetnoj inteligenciji
  • drugo

Moramo uzeti u obzir i manje povoljne reakcije, uzimajući u obzir da ima još puno posla koji treba obaviti i da je ovo samo početak dugog putovanja na mukotrpnom putu upravljanja umjetnom inteligencijom.

Kao takve, donekle oštre ili da kažemo konstruktivne kritike upućene Povelji o pravima umjetne inteligencije uključuju:

  • Nije zakonski provedivo i potpuno je neobvezujuće
  • Samo savjetodavno i ne smatra se vladinom politikom
  • Manje opsežan u usporedbi s drugim objavljenim radovima
  • Primarno se sastoji od širokih koncepata i nedostaju mu detalji provedbe
  • Bit će izazovno pretvoriti ih u stvarne održive praktične zakone
  • Naizgled šuti o prijetećem pitanju moguće zabrane umjetne inteligencije u nekim kontekstima
  • Marginalno priznaje prednosti upotrebe AI koja je dobro osmišljena
  • drugo

Možda najistaknutiji oštar komentar bio je usredotočen na činjenicu da ova povelja o pravima umjetne inteligencije nije zakonski provediva i stoga ne drži vodu kada je u pitanju uspostavljanje jasnih okvira. Neki su rekli da iako je bijeli papir koristan i ohrabrujući, očito mu nedostaju zubi. Pitaju se što može proizaći iz navodnog skupa izvrsnih pravila sa šupljim zubima.

Odmah ću se osvrnuti na te oštre primjedbe.

U međuvremenu, bijela knjiga u izobilju navodi ograničenja onoga što podrazumijeva ova povelja o pravima umjetne inteligencije:

  • “Nacrt za AI Bill of Rights je neobvezujući i ne predstavlja politiku američke vlade. Ne zamjenjuje, ne mijenja niti usmjerava tumačenje bilo kojeg postojećeg statuta, propisa, politike ili međunarodnog instrumenta. Ne predstavlja obvezujuće smjernice za javnost ili savezne agencije i stoga ne zahtijeva usklađenost s ovdje opisanim načelima. Također nije presudno kakvo će biti stajalište američke vlade u bilo kojim međunarodnim pregovorima. Usvajanje ovih načela možda neće zadovoljiti zahtjeve postojećih statuta, propisa, politika ili međunarodnih instrumenata, ili zahtjeve saveznih agencija koje ih provode. Ova načela nemaju namjeru i ne zabranjuju niti ograničavaju bilo koju zakonitu aktivnost vladine agencije, uključujući provedbu zakona, nacionalnu sigurnost ili obavještajne aktivnosti” (prema Bijeloj knjizi).

Za one koji su požurili potkopati Povelju o pravima umjetne inteligencije kao pravno neobvezujuću, napravimo mali misaoni eksperiment o toj oštroj tvrdnji. Pretpostavimo da je bijela knjiga objavljena i da ima punu snagu zakona. Usuđujem se reći da bi rezultat bio donekle kataklizmičan, barem što se tiče pravnih i društvenih odgovora na proglas.

Zakonodavci bi bili uznemireni što napori nisu poduzeli normativne procese i pravne postupke u sastavljanju takvih zakona. Poduzeća bi se razbjesnila, s pravom, da novi zakoni niknu bez dovoljno obavijesti i svijesti o tome što su ti zakoni. Uslijedit će svakakva konsternacija i bijes.

Nije dobar način gravitacije prema učvršćivanju prava čovječanstva u eri umjetne inteligencije.

Prisjetite se da sam ranije započeo ovu raspravu govoreći o vrijednosti i vitalnosti nacrta.

Zamislite da je netko preskočio korak izrade nacrta i odmah uskočio u izgradnju vaše kuće iz snova. Što mislite kako bi kuća izgledala? Čini se pošteno kladiti se da kuća neće baš odgovarati onome što ste imali na umu. Dobiveno imanje moglo bi biti potpuni nered.

Suština je da nam trebaju nacrti i sada ih imamo kako bismo napredovali u pronalaženju razumnih zakona o umjetnoj inteligenciji i osnaživanju etičkih usvajanja umjetne inteligencije.

Želio bih se stoga pozabaviti načinima na koje se ovaj nacrt Povelje o pravima umjetne inteligencije može pretvoriti u kuću, takoreći. Kako ćemo upotrijebiti nacrt? Koji su prikladni sljedeći koraci? Može li ovaj nacrt biti dovoljan ili treba više mesa na kostima?

Prije nego što pređemo na te velike stvari, želio bih se prvo uvjeriti da smo svi na istoj stranici o prirodi umjetne inteligencije i od čega se sastoji današnji status.

Postavljanje ispravnih rezultata o današnjoj umjetnoj inteligenciji

Želio bih dati vrlo jasnu izjavu.

Jeste li spremni?

Danas ne postoji AI koji je razuman.

Nemamo ovo. Ne znamo hoće li razumna umjetna inteligencija biti moguća. Nitko ne može točno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularitet, pogledajte moje izvješće na link ovdje).

Vrsta umjetne inteligencije na koju se fokusiram sastoji se od ne-osjećajne umjetne inteligencije koju imamo danas. Kad bismo htjeli divlje spekulirati o osjećajnoj umjetnoj inteligenciji, ova bi rasprava mogla krenuti u radikalno drugačijem smjeru. Osjećajna umjetna inteligencija bi navodno bila ljudske kvalitete. Trebali biste uzeti u obzir da je AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva umjetna inteligencija na kraju mogla biti pametnija od ljudi (za moje istraživanje superinteligentne umjetne inteligencije kao mogućnosti, pogledajte pokrivenost ovdje).

Čvrsto bih sugerirao da stvari držimo prizemno i razmotrimo današnju računalnu ne-osjećajnu umjetnu inteligenciju.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite vrlo oprezni s antropomorfiziranjem današnje umjetne inteligencije.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, ni programeri umjetne inteligencije možda neće shvatiti što se događa. Tajanstvena matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom biste se nadali i očekivali da će AI programeri testirati potencijalno zakopane pristranosti, iako je to teže nego što se čini. Postoji solidna šansa da će čak i uz relativno opsežno testiranje još uvijek biti pristranosti ugrađene u modele usklađivanja uzoraka ML/DL.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima izrazito značajne implikacije na etiku umjetne inteligencije i nudi zgodan uvid u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj donošenja zakona o umjetnoj inteligenciji.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

U prijašnjim sam kolumnama pokrio različite nacionalne i međunarodne napore u izradi i donošenju zakona koji reguliraju AI, vidi link ovdje, na primjer. Također sam pokrio različita načela i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih naroda kao što je UNESCO-ov set etike AI koji je usvojilo gotovo 200 zemalja, vidi link ovdje.

Evo korisnog temeljnog popisa etičkih AI kriterija ili karakteristika u vezi sa AI sustavima koje sam prethodno pomno istražio:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima umjetne inteligencije, pa čak i onima koji u konačnici postavljaju i održavaju sustave umjetne inteligencije.

Svi dionici tijekom cijelog životnog ciklusa AI-a razvoja i korištenja smatraju se unutar opsega poštivanja uspostavljenih normi Etičke AI-a. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju podliježu pridržavanju etičkih pojmova umjetne inteligencije. Kao što je prethodno naglašeno, potrebno je selo da osmisli i postavi umjetnu inteligenciju, a za to cijelo selo mora biti upućeno i pridržavati se pravila etičke inteligencije.

Sada kada sam postavio korisne temelje, spremni smo zaroniti dalje u Povelju o pravima umjetne inteligencije.

Četiri osnovna načina za provedbu Povelje o pravima umjetne inteligencije

Netko vam pruži nacrt i kaže vam da se bacite na posao.

Što ćete učiniti?

U slučaju Povelje o pravima umjetne inteligencije kao nacrta, razmotrite ova četiri ključna koraka u kretanju naprijed:

  • Služiti kao ulaz za formuliranje AI zakona: Upotrijebite nacrt kao pomoć u formuliranju zakona o umjetnoj inteligenciji, nadamo se da ćete to učiniti na usklađenoj osnovi na saveznoj, državnoj i lokalnoj razini (možda pomažući i međunarodnim pravnim naporima u vezi s umjetnom inteligencijom).
  • Pomoć u širem prihvaćanju AI etike: Upotrijebite nacrt za poticanje formulacija etike umjetne inteligencije (ponekad se nazivaju "mekim zakonima" u usporedbi s pravno obvezujućim "tvrdim zakonima"), čineći to da nadahnete i usmjerite tvrtke, pojedince, vladine subjekte i druge birače prema boljoj i dosljednijoj etičkoj Ishodi umjetne inteligencije.
  • Oblikujte razvojne aktivnosti umjetne inteligencije: Upotrijebite nacrt kako biste potaknuli stvaranje metodologija razvoja umjetne inteligencije i aspekata obuke, čineći to kako biste pokušali natjerati programere umjetne inteligencije i one koji se bave ili zapošljavaju umjetnu inteligenciju da budu svjesniji kako osmisliti umjetnu inteligenciju u skladu s poželjnim etičkim pravilima umjetne inteligencije iu predviđanju nadolazećeg donošenja zakona o umjetnoj inteligenciji.
  • Motivirajte pojavu umjetne inteligencije da pomogne u kontroli umjetne inteligencije: Upotrijebite nacrt za osmišljavanje umjetne inteligencije koja će se koristiti kao provjera i ravnoteža protiv druge umjetne inteligencije koja bi mogla skrenuti na nepovoljni teritorij. Ovo je jedno od onih makroskopskih stajališta prema kojima možemo upotrijebiti upravo ono što smatramo naizgled zabrinjavajućim da (ironično, moglo bi se reći) također pomogne u našoj zaštiti.

Raspravljao sam o svakom od ta četiri gore navedena koraka u svojim objavama u kolumnama.

Za ovu raspravu ovdje, želio bih se usredotočiti na četvrti navedeni korak, naime da Povelja o pravima umjetne inteligencije može poslužiti kao motivator prema pojavi umjetne inteligencije kako bi se pomoglo u kontroli umjetne inteligencije. Ovo je donekle šokantan ili iznenađujući korak za mnoge koji još nisu u potpunosti ušli u ovo područje koje napreduje AI.

Dopustite mi da elaboriram.

Jednostavna analogija trebala bi poslužiti. Ovih smo dana svi navikli na povrede kibernetičke sigurnosti i hakerske provale. Gotovo svaki dan čujemo ili smo pogođeni nekom najnovijom rupom u našim računalima koja će omogućiti zlim zlotvorima da ugrabe naše podatke ili postave podli komad ransomwarea na naša prijenosna računala.

Jedan način borbe protiv tih prezira vrijednih pokušaja sastoji se od korištenja specijaliziranog softvera koji pokušava spriječiti te provale. Gotovo sigurno imate antivirusni programski paket na računalu kod kuće ili na poslu. Vjerojatno postoji nešto slično na vašem pametnom telefonu, shvaćate li da je na njemu ili ne.

Želim reći da se ponekad protiv vatre morate boriti vatrom (pogledajte moje izvješće o tome, npr. na link ovdje i link ovdje).

U slučaju umjetne inteligencije koja ulazi u područje verboten AI za loše, možemo tražiti korištenje AI za dobro koji se bori s tim zlonamjernim AI za loše. Ovo naravno nije čudotvoran lijek. Kao što znate, u tijeku je neprekidna igra mačke i miša između zlikovaca koji žele provaliti u naša računala i napretka u zaštiti kibernetičke sigurnosti. To je gotovo beskrajna igra.

Možemo upotrijebiti AI da pokušamo riješiti AI koja je krenula zabranjenim putem. To će pomoći. To neće biti baš srebrni metak budući da će nepovoljna umjetna inteligencija koja je ciljana gotovo sigurno biti osmišljena da izbjegne takve zaštite. Ovo će biti stalna igra mačke i miša AI protiv AI.

U svakom slučaju, umjetna inteligencija koju koristimo da se zaštitimo pružit će određenu količinu zaštite od loše umjetne inteligencije. Dakle, nedvojbeno moramo osmisliti AI koja nas može zaštititi ili zaštititi. Također bismo trebali nastojati osmisliti zaštitnu umjetnu inteligenciju koja će se prilagođavati kako se loša umjetna inteligencija prilagođava. Postojat će žestoki privid mačke i miša brzinom munje.

Ne sviđa se svima ovo povećanje uloge umjetne inteligencije.

Oni koji AI već doživljavaju kao homogeni amorfni konglomerat, naježili bi se i sanjali noćne more na ovaj lažni AI-protiv-AI gambit. Ako pokušamo suprotstaviti vatru vatri, možda samo pravimo još veću vatru. AI će postati ogromna lomača, ona koju više ne kontroliramo i odlučit će porobiti čovječanstvo ili nas izbrisati s planeta. Kada je u pitanju rasprava o umjetnoj inteligenciji kao egzistencijalnom riziku, obično smo dovedeni do uvjerenja da će se sva umjetna inteligencija udružiti, pogledajte moju raspravu o tim pitanjima na link ovdje. Vidite, rečeno nam je da će svaki dio umjetne inteligencije zgrabiti svoju braću AI i postati jedna velika gospodarska unitarna obitelj.

To je užasan i izrazito uznemirujući scenarij osjećajne umjetne inteligencije kao besprijekorne mafije svi za jednog i jedan za sve.

Iako slobodno možete iznositi takve pretpostavke o tome da bi se to jednog dana moglo dogoditi, uvjeravam vas da se za sada umjetna inteligencija koju danas imamo sastoji od gomile nepovezanih različitih programa umjetne inteligencije koji nemaju poseban način da urote jedni s drugima.

Rekavši to, siguran sam da će oni koji gorljivo vjeruju u teorije zavjere AI inzistirati da sam ovo namjerno rekao kako bih sakrio istinu. Aha! Možda me isplaćuje današnja AI koja već planira veliko preuzimanje AI-ja (da, gospodine, kupat ću se u bogatstvu kada gospodari AI-ja zavladaju). Ili, a ja sasvim sigurno ne favoriziram ovaj drugi kut, možda sam slijepo nesvjestan kako umjetna inteligencija potajno kuje urotu iza naših leđa. Pretpostavljam da ćemo morati pričekati i vidjeti jesam li ja dio AI državnog udara ili AI-ja odvratna papa (jao, to boli).

Vraćajući se zemaljskim razmatranjima, ukratko istražimo kako se suvremena umjetna inteligencija može koristiti za pomoć u provedbi Povelje o pravima umjetne inteligencije. Ovo ću zgodno i ukratko nazvati Dobar AI.

Koristit ćemo pet ključnih kamenova sadržanih u Povelji o pravima umjetne inteligencije:

  • Dobar AI za promociju Sigurni i učinkoviti sustavi: Kad god podliježete sustavu umjetne inteligencije ili ga upotrebljavate, Good AI pokušava otkriti je li umjetna inteligencija koja se koristi nesigurna ili neučinkovita. Nakon takve detekcije, Good AI vas može upozoriti ili poduzeti druge radnje uključujući blokiranje Loše AI.
  • Dobar AI za pružanje Algoritamske zaštite od diskriminacije: Dok koristite sustav umjetne inteligencije koji bi mogao sadržavati diskriminirajuće algoritme, Dobar AI pokušava utvrditi postoje li neadekvatne zaštite za vas i nastoji utvrditi postoje li doista neopravdane pristranosti u AI koja se koristi. Dobra umjetna inteligencija mogla bi vas obavijestiti i također potencijalno automatski prijaviti drugu umjetnu inteligenciju različitim tijelima, kako bi moglo biti propisano zakonima o umjetnoj inteligenciji i pravnim zahtjevima.
  • Dobar AI za očuvanje Privatnost podataka: Ova vrsta dobre umjetne inteligencije pokušava vas zaštititi od invazije na privatnost podataka. Kada druga umjetna inteligencija želi zatražiti podatke koji možda nisu istinski potrebni od vas, Dobra umjetna inteligencija će vas upozoriti na radnju prekoračenja. Dobra umjetna inteligencija također može potencijalno maskirati vaše podatke na način da će nakon što se proslijede drugoj umjetnoj inteligenciji i dalje sačuvati vaša prava na privatnost podataka. itd.
  • Dobar AI za uspostavljanje Obavijest i objašnjenje: Vjerojatno ćemo se svi susresti sa sustavima umjetne inteligencije koji jako nedostaju u pružanju ispravnih i odgovarajućih obavijesti i koji, nažalost, ne uspijevaju pokazati odgovarajuće objašnjenje za svoje postupke. Dobra umjetna inteligencija može pokušati protumačiti ili ispitati drugu umjetnu inteligenciju, čineći to kako bi potencijalno identificirala obavijesti i objašnjenja koja su trebala biti pružena. Čak i ako to nije izvedivo učiniti u određenom slučaju, Good AI će vas barem upozoriti na nedostatke drugog AI-a i eventualno prijaviti AI određenim tijelima na temelju propisanih AI zakona i pravnih zahtjeva.
  • Dobar AI za ponudu Ljudske alternative, razmatranje i pomoć: Pretpostavimo da koristite AI sustav i da AI naizgled nije dorastao zadatku koji imate. Možda ne shvaćate da stvari idu loše ili ste možda pomalo oprezni i niste sigurni što učiniti u vezi sa situacijom. U takvom slučaju, Dobra umjetna inteligencija bi tiho ispitivala što druga umjetna inteligencija radi i mogla bi vas upozoriti na vitalne brige u vezi s tom umjetnom inteligencijom. Zatim ćete biti upitani da zatražite ljudsku alternativu umjetnoj inteligenciji (ili bi Dobra umjetna inteligencija to mogla učiniti u vaše ime).

Da bismo dalje razumjeli kako ova vrsta Dobar AI mogu se razviti i koristiti, pogledajte moju popularnu i visoko ocijenjenu knjigu o umjetnoj inteligenciji (čast mi je reći da je zapažena kao "Deset najboljih") o onome što sam općenito nazivao anđelima čuvarima umjetne inteligencije, pogledajte link ovdje.

Zaključak

Znam što misliš. Ako imamo dobru umjetnu inteligenciju koja je osmišljena da nas štiti, pretpostavimo da se dobra umjetna inteligencija pokvari i postane loša umjetna inteligencija. Poznata ili ozloglašena latinska krilatica čini se potpuno relevantnom za ovu mogućnost: Quis čuvar ipsos skrbnika?

Izraz se pripisuje rimskom pjesniku Juvenalu i može se pronaći u njegovom djelu pod naslovom satires, a može se slobodno prevesti kao tko će čuvati ili paziti na same stražare. Mnogi filmovi i TV emisije kao što su Star Trek više puta koristili ovu liniju.

To je sigurno zato što je to izvrsna točka.

Svakako, svi zakoni o umjetnoj inteligenciji koji se donesu morat će obuhvatiti i lošu umjetnu inteligenciju, pa čak i dobru umjetnu inteligenciju koja se pokvari. Zato će biti ključno napisati razumne i sveobuhvatne zakone o umjetnoj inteligenciji. Zakonodavci koji samo pokušavaju baciti u zid nasumične zakonske odredbe i nadaju se da će se držati zakona o umjetnoj inteligenciji duboko će promašiti metu.

Ne treba nam to.

Nemamo vremena niti možemo snositi društvene troškove kako bismo se nosili s neadekvatno osmišljenim zakonima umjetne inteligencije. Istaknuo sam da smo, nažalost, povremeno svjedoci novih zakona vezanih uz umjetnu inteligenciju koji su loše sastavljeni i prepuni svakojakih pravnih problema, pogledajte na primjer moju probnu analizu zakona o reviziji AI Biases grada New Yorka (NYC) na link ovdje.

Pobrinimo se da na odgovarajući način koristimo nacrt Povelje o pravima umjetne inteligencije koji sada imamo u ruci u vezi s umjetnom inteligencijom. Ako zanemarimo plan, izgubili smo što smo pojačali svoju igru. Ako krivo implementiramo nacrt, sram nas bilo što smo uzurpirali korisne temelje.

Cijenjeni rimski pjesnik Juvenal rekao je još nešto što možemo iskoristiti u ovoj okolnosti: Anima sana in corpore sano.

Općenito, ovo se prevodi u tvrdnju da bi bilo razborito imati i zdrav ili zdrav duh i zdravo ili zdravo tijelo. To nam omogućuje da izdržimo bilo koju vrstu muke, prema Juvenalu, i zasigurno će biti jedini put do života u miru ili kreposti.

Vrijeme je da upotrijebimo zdrav um i zdravo tijelo kako bismo osigurali da čovječanstvo ima očuvana i čvrsto ojačana ljudska prava u nadolazećem svijetu sveprisutne i ponekad neugodne umjetne inteligencije. To je dobar savjet Rimljana kojeg bismo se trebali pridržavati u današnjoj gužvi usred epohe vještačke inteligencije i budućnosti odlučno ispunjene dobrom i lošom umjetnom inteligencijom.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- bill-of-rights-uključujući-i-zapanjujuće-upotrebom-ai-izravno/