Etika umjetne inteligencije i zakon o umjetnoj inteligenciji koji pojašnjavaju što je zapravo pouzdana umjetna inteligencija

Povjerenje je sve, tako kažu.

Poznati filozof Lao Tzu rekao je da se onima koji nemaju dovoljno povjerenja neće vjerovati. Ernest Hemingway, cijenjeni romanopisac, izjavio je da je najbolji način da saznate možete li nekome vjerovati tako da mu vjerujete.

U međuvremenu, čini se da je povjerenje i dragocjeno i krhko. Povjerenje koje netko ima može se srušiti poput kule od karata ili iznenada puknuti poput puknutog balona.

Starogrčki tragičar Sofoklo ustvrdio je da povjerenje umire, ali nepovjerenje cvjeta. Francuski filozof i matematičar Descartes tvrdio je da je razborito nikada u potpunosti vjerovati onima koji su nas čak i jednom prevarili. Izvanredni milijarder, poslovni investitor Warren Buffett upozorio je da je potrebno dvadeset godina da se izgradi pouzdana reputacija i pet minuta da se uništi.

Možda ćete se iznenaditi kada znate da su svi ovi različiti pogledi i provokativna mišljenja o povjerenju ključni za pojavu umjetne inteligencije (AI).

Da, postoji nešto što se oštro naziva pouzdana AI koji ovih dana privlači vraški puno pažnje, uključujući dobacivanja iz područja umjetne inteligencije i burne ispade onih izvan područja umjetne inteligencije. Sveukupni pojam podrazumijeva hoće li društvo biti spremno dati povjerenje sustavima poput AI-a.

Vjerojatno, ako društvo neće ili ne može vjerovati umjetnoj inteligenciji, izgledi su da sustavi umjetne inteligencije neće uspjeti postati popularni. AI kakvu trenutno poznajemo bit će gurnuta u stranu i samo će skupljati prašinu. Šokantno, umjetna inteligencija bi mogla završiti na hrpi smeća, povijesno potisnuta na ništa više od očajnički isprobanog, ali spektakularno neuspjelog eksperimenta visoke tehnologije. Svaki pokušaj da se ponovno osnaži umjetna inteligencija potencijalno bi se suočio s ogromnom teškom borbom i bio bi zaustavljen svim vrstama prigovora i izravnih protesta. Navodno zbog nedostatka povjerenja u AI.

Što će biti, trebamo li vjerovati AI-ju ili ne?

U biti, hoćemo li doista imati AI vrijednu povjerenja?

To su nekadašnja i neriješena pitanja. Raspakirajmo ga.

Etika umjetne inteligencije i borba za pouzdanu umjetnu inteligenciju

Mnogi unutar AI-ja vjeruju da programeri AI sustava mogu zadobiti povjerenje u AI tako što će na odgovarajući način osmisliti AI koji je vrijedan povjerenja. Bit je da se ne možete nadati da ćete steći povjerenje ako umjetna inteligencija nije naizgled pouzdana na samom početku. Izradom AI sustava na način koji se smatra pouzdanim postoji velika šansa da će ljudi prihvatiti AI i usvojiti AI načine korištenja.

Jedna nedoumica koja već izaziva ovo pouzdano razmatranje AI je da smo možda već u deficit javnog povjerenja kada je AI u pitanju. Moglo bi se reći da je umjetna inteligencija koju smo već vidjeli iskopala rupu i razbacivala povjerenje u ogromnim količinama. Stoga, umjesto da počne na nekoj dovoljnoj bazi pouzdanosti, AI će se morati zapanjujuće izvući iz deficita, grabeći za svaku željenu uncu dodatnog povjerenja koje će biti potrebno da uvjeri ljude da je AI zapravo pouzdan.

U ovaj izazov dolazi AI Etika i AI Law.

Etika umjetne inteligencije i Zakon o umjetnoj inteligenciji snažno se bore s pokušajima da shvate što je potrebno da bi umjetna inteligencija postala pouzdana. Neki sugeriraju da postoji formula ili čvrsti zakoni koji će dovesti umjetnu inteligenciju u pouzdana nebesa. Drugi ukazuju na to da će biti potreban težak rad i dosljedno i nepopustljivo pridržavanje AI etike i načela AI zakona da bi se steklo hvaljeno povjerenje društva.

Suvremena enigma o povjerenju u umjetnu inteligenciju sama po sebi nije osobito nova.

Lako se možete vratiti u kasne 1990-e i pratiti pojavu tražene želje za "pouzdanim računalstvom" iz tih dana. Ovo je bio veliki napor tehnološke industrije da se utvrdi mogu li se računala napraviti na način koji bi društvo smatralo pouzdanima.

Ključna pitanja sastojala su se od:

  • Može li se računalni hardver napraviti tako da bude pouzdan?
  • Može li se softver izraditi tako da bude pouzdan?
  • Možemo li postaviti globalno umrežena računala koja bi bila pouzdana?
  • I tako dalje.

Prevladavajući osjećaj tada i koji traje do danas je da pouzdano računalstvo ostaje vrsta svetog grala koji nažalost još uvijek nije sasvim u našem dosegu (kao što je navedeno u dokumentu pod naslovom "Pouzdana umjetna inteligencija" u Komunikacije ACM-a). Mogli biste uvjerljivo tvrditi da je umjetna inteligencija još jedna komponenta okruženja pouzdanosti računalstva, ali AI čini traženje povjerenja još izazovnijim i neizvjesnijim. AI je postao potencijalni spojler u borbi za postizanje pouzdanog računalstva. Možda najslabija karika u lancu, takoreći.

Pogledajmo na brzinu zašto nas je umjetna inteligencija uznemirila zbog toga što nam se ne može vjerovati. Osim toga, istražit ćemo načela etike umjetne inteligencije za koje se nadamo da će pomoći u podupiranju već polupodvodnog percipiranog povjerenja (ili bujajućeg nepovjerenja) današnje umjetne inteligencije. Za moje kontinuirano i opsežno izvještavanje o etici umjetne inteligencije, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da se “samo koderi” ili oni koji programiraju AI podliježu poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Povežimo ovo s pitanjem o pouzdanoj umjetnoj inteligenciji

Čini se da sigurno ne bismo bili voljni vjerovati umjetnoj inteligenciji koja pokazuje negativne pristranosti i diskriminirajuće radnje. Naše bi uvjerenje, u tom slučaju, bilo da takva umjetna inteligencija definitivno nije pouzdana, stoga bismo se sklonili aktivnom nepovjerenju umjetnoj inteligenciji. Bez pretjerivanja s antropomorfnom usporedbom (začas ću reći više o antropomorfizaciji umjetne inteligencije), čovjek koji pokazuje neželjene predrasude također bi bio podložan ocjeni da nije osobito pouzdan.

Istraživanje povjerenja i pouzdanosti

Možda bismo trebali pogledati što mislimo kada tvrdimo da nekome ili nečemu vjerujemo ili ne vjerujemo. Prvo, razmotrite nekoliko svakodnevnih definicija povjerenja iz rječnika.

Primjeri onoga što povjerenje definicijski znači su:

  • Zajamčeno oslanjanje na karakter, sposobnost, snagu ili istinu nekoga ili nečega (mrežni rječnik Merriam-Webster).
  • Oslanjanje na integritet, snagu, sposobnost, jamstvo itd. osobe ili stvari (Dictionary.com)
  • Čvrsto uvjerenje u pouzdanost, istinu, sposobnost ili snagu nekoga ili nečega (mrežni rječnik Oxford Languages).

Želio bih istaknuti da se sve te definicije odnose na "nekoga", a isto tako se odnose na "nešto" kao potencijalno pouzdano. Ovo je značajno jer bi neki mogli inzistirati na tome da vjerujemo samo ljudima i da je čin povjerenja rezerviran isključivo za čovječanstvo kao našu metu pouzdanosti. Ne tako. Možete imati povjerenja u svoj kuhinjski toster. Ako se čini da pouzdano priprema vaš toster i radi rutinski na tome, sigurno možete imati privid povjerenja o tome je li toster doista pouzdan.

U tom istom pravcu razmišljanja, AI također može biti predmet našeg gledišta povjerenja. Izgledi su da će povjerenje povezano s umjetnom inteligencijom biti puno kompliciranije od recimo običnog tostera. Toster obično može obaviti samo nekoliko radnji. Sustav umjetne inteligencije vjerojatno je mnogo složeniji i čini se da radi manje transparentno. Naša sposobnost da procijenimo i utvrdimo pouzdanost umjetne inteligencije sigurno će biti puno teža i predstavljati različite izazove.

Osim što je samo složeniji, za tipični AI sustav se kaže da je nedeterministički i potencijalno samoregulirajući ili samoprilagodljiv. Možemo ukratko istražiti taj pojam.

Deterministički stroj ima tendenciju raditi iste stvari uvijek iznova, predvidljivo i s održivo uočljivim obrascem kako funkcionira. Mogli biste reći da uobičajeni toster tostira otprilike na isti način i ima kontrole za tostiranje koje umjereno tostiraju, a sve to općenito može predvidjeti osoba koja koristi toster. Nasuprot tome, složeni sustavi umjetne inteligencije često su zamišljeni da budu nedeterministički, što znači da bi mogli raditi sasvim drugačije stvari od onoga što biste inače očekivali. Ovo bi također moglo biti djelomično dodatno pojačano ako je umjetna inteligencija napisana da se sama prilagođava, što je aspekt koji može korisno omogućiti poboljšanje umjetne inteligencije u slučaju ML/DL-a, iako također može uznemirujuće uzrokovati da umjetna inteligencija zastane ili uđe u redove zloće AI. Možda ne znate što vas je snašlo, na neki način, budući da ste bili uhvaćeni potpuno nespremni postupcima umjetne inteligencije.

Što bismo mogli učiniti da pokušamo AI približiti pouzdanosti?

Jedan se pristup sastoji od nastojanja da se osigura da se oni koji grade i postavljaju umjetnu inteligenciju pridržavaju skupa pravila etike umjetne inteligencije. Kao što su spomenuli ovi istraživači umjetne inteligencije: “Povjerenje je stav da će se agent ponašati prema očekivanjima i da se na njega može osloniti da će postići svoj cilj. Povjerenje se raspada nakon pogreške ili nesporazuma između agenta i osobe koja vjeruje. Psihološko stanje povjerenja u umjetnu inteligenciju pojavno je svojstvo složenog sustava, koje obično uključuje mnoge cikluse dizajna, obuke, implementacije, mjerenja učinka, regulacije, redizajna i ponovne obuke” (navedeno u Komunikacije ACM-a, “Povjerenje, regulacija i umjetna inteligencija čovjeka u petlji unutar europske regije” Stuarta Middletona, Emmanuela Letouzea, Alija Hossainija i Adriane Chapman, travanj 2022.).

Suština je da ako uspijemo natjerati programere umjetne inteligencije da se pridržavaju Etičke umjetne inteligencije, nadamo se da će na kraju proizvoditi pouzdanu umjetnu inteligenciju. Sve je to lijepo i dobro, ali se čini donekle nepraktičnim u stvarnom svijetu, iako je apsolutno put koji vrijedi slijediti.

Evo što mislim.

Pretpostavimo da programeri umjetne inteligencije marljivo rade na stvaranju sustava umjetne inteligencije za neku svrhu koju ćemo općenito nazvati X. Oni pažljivo osiguravaju da se umjetna inteligencija pridržava načela transparentnosti Etike umjetne inteligencije. Oni brižno osiguravaju da je privatnost prikladno ugrađena u AI. Za gotovo sve uobičajene etičke principe umjetne inteligencije, graditelji umjetne inteligencije iscrpno osiguravaju da umjetna inteligencija ispunjava zadane propise.

Trebate li sada vjerovati toj umjetnoj inteligenciji?

Dopustite mi da vam pomognem u procjeđivanju vaših misli o tom otvorenom pitanju.

Ispostavilo se da su se cyber prevaranti uspjeli infiltrirati u AI i potajno natjerati AI da izvede X, a opet su cyber hakerima dali sve podatke koje AI prikuplja. Čineći to, ovi zlotvori podmuklo krše pravilo privatnosti. Vi ste blaženo nesvjesni da se ovo događa ispod haube umjetne inteligencije.

Uz taj dodatni podatak, ponovno ću vam postaviti isto pitanje.

Vjerujete li toj umjetnoj inteligenciji?

Usuđujem se reći da bi većina ljudi odmah izjavila da sigurno jesu ne vjerujte ovoj umjetnoj inteligenciji. Mogli su vjerovati ranije. Sada su odlučili da AI više ne smatraju pouzdanim.

Nekoliko ključnih uvida koji se temelje na ovom jednostavnom primjeru vrijedni su razmatranja:

  • Dinamika povjerenja. Čak ni najbolje namjere da se pokriju svi temelji osiguravanja da je AI Etika ugrađena u AI sustav nisu jamstvo za to što bi AI mogla biti ili postati. Nakon što se umjetna inteligencija stavi u upotrebu, autsajderi potencijalno mogu potkopati etička AI prikupljanja.
  • Podrivanje povjerenja iznutra. Čin potkopavanja pouzdanosti ne mora nužno biti autsajder. Insajder koji redovito održava AI sustav mogao bi pogriješiti i oslabiti AI tako da postane manje pouzdan. Ovaj AI programer možda nema pojma o tome što je napravio.
  • Nehotični kompromisi povjerenja. Samopodešavajuća ili samoregulirajuća umjetna inteligencija mogla bi se u nekom trenutku prilagoditi i skrenuti na nepouzdan teritorij. Možda umjetna inteligencija pokušava ojačati transparentnost umjetne inteligencije, a istovremeno i neprimjereno ugrožava aspekte privatnosti.
  • Rasipanje povjerenja. Pokušaj postizanja svih načela AI etike do istog najvećeg stupnja pouzdanosti obično nije lako održiv jer su često suprotne svrhe ili imaju druge inherentne potencijalne sukobe. Prilično je idealizirana perspektiva vjerovati da su sva pravila etičke umjetne inteligencije savršeno usklađena i da su sva dostižna do nekog jednakog maksimalnog stupnja.
  • Postizanje povjerenja može biti skupo. Trošak pokušaja postizanja vrhunskog privida pouzdane umjetne inteligencije putem poduzimanja raznih opsežnih i iscrpnih koraka i poštivanja litanije etičkih načela umjetne inteligencije bit će relativno visok. Možete lako tvrditi da bi cijena bila previsoka u smislu stavljanja u upotrebu nekih AI sustava koji inače imaju važnu vrijednost za društvo, čak i ako bi AI bio manje od idealnog zbog želje za pouzdanošću.
  • I tako dalje.

Nemojte krivo protumačiti prethodne napomene kako biste sugerirali da bismo trebali nekako spriječiti napor da temeljito izgradimo i postavimo pouzdanu AI. Izbacili biste bebu zajedno s vodom za kupanje, takoreći. Ispravno tumačenje je da trebamo obavljati te aktivnosti povjerenja kako bismo AI doveli u pouzdano razmatranje, a ipak samo to nije lijek za sve ili srebrni metak.

Višestruki putevi do pouzdane umjetne inteligencije

Postoje važni dodatni višestruki načini za stremljenje prema pouzdanoj umjetnoj inteligenciji.

Na primjer, kao što sam već opisao u svojim kolumnama, bezbroj novonastalih zakona i propisa koji se tiču ​​umjetne inteligencije imaju za cilj potaknuti proizvođače umjetne inteligencije na osmišljavanje pouzdane umjetne inteligencije, vidi link ovdje i link ovdje.

Ove zakonske zaštitne ograde ključne su kao sveobuhvatno sredstvo kojim se osigurava da oni koji osmišljavaju umjetnu inteligenciju budu u potpunosti odgovorni za svoju umjetnu inteligenciju. Bez takvih potencijalnih pravnih lijekova i zakonskih kazni, oni koji bezglavo guraju AI na tržište vjerojatno će nastaviti to činiti s malo, ako ikakvim ozbiljnim poštovanjem za postizanje pouzdane AI. Mogao bih osobito dodati da bi ti zakoni i propisi, ako su loše osmišljeni ili neadekvatno implementirani, mogli nažalost potkopati potragu za pouzdanom umjetnom inteligencijom, možda ironično i čudno poticanjem nepouzdane umjetne inteligencije nad pouzdanom umjetnom inteligencijom (pogledajte rasprave u mojim kolumnama za dodatna objašnjenja).

Također sam bio nepokolebljivi zagovornik onoga što sam gorljivo nazivao AI roboti anđeli čuvari (pogledajte moje izvješće na link ovdje). Ovo je nadolazeća metoda ili pristup kojim se pokušavamo boriti protiv vatre vatrom, naime korištenjem umjetne inteligencije koja nam pomaže u suočavanju s drugom umjetnom inteligencijom koja može ili ne mora biti pouzdana.

Prvo, neki pozadinski kontekst bit će koristan.

Pretpostavimo da se odlučujete osloniti na AI sustav za koji niste sigurni u njegovu pouzdanost. Ključna briga mogla bi biti to što ste sami u svojim pokušajima da utvrdite treba li AI vjerovati ili ne. AI je potencijalno računalno brži od vas i može vas iskoristiti. Treba vam netko ili nešto na vašoj strani da vam pomogne.

Jedna je perspektiva da bi uvijek trebao postojati čovjek u petlji koji će vam pomoći dok koristite sustav umjetne inteligencije. Ovo je ipak problematično rješenje. Ako umjetna inteligencija radi u stvarnom vremenu, o čemu ćemo sada raspravljati kad je riječ o pojavi samovozećih automobila temeljenih na umjetnoj inteligenciji, imati čovjeka u petlji možda neće biti dovoljno. Umjetna inteligencija bi mogla djelovati u stvarnom vremenu i do trenutka kada određeni čovjek u petlji uđe u sliku kako bi otkrio radi li umjetna inteligencija ispravno, već bi se mogao dogoditi katastrofalan rezultat.

Na stranu, ovo dovodi do još jednog faktora povjerenja. Obično dodjeljujemo razinu povjerenja na temelju konteksta ili okolnosti s kojima se suočavamo. Možete u potpunosti vjerovati svom malom sinu ili kćeri da će vam biti vjerni, ali ako ste na planinarenju i odlučite se osloniti na to da će vam dijete reći je li sigurno stajati na rubu litice, mislim da biste bili mudri razmotriti može li dijete dati takvu vrstu savjeta za život ili smrt. Dijete bi to moglo činiti ozbiljno i iskreno, a unatoč tome ne bi moglo adekvatno dati takav savjet.

Isti se pojam povezuje s povjerenjem kada je u pitanju AI. Sustav umjetne inteligencije koji koristite za igranje dame ili šaha vjerojatno nije uključen u rasprave o životu ili smrti. Možete biti lakši s dodjelom povjerenja. Samovozeći automobil temeljen na umjetnoj inteligenciji koji juri velikom brzinom niz autocestu zahtijeva mnogo veću razinu povjerenja. Najmanji bljesak AI sustava vožnje mogao bi dovesti izravno do vaše smrti i smrti drugih.

U objavljenom intervjuu Beene Ammanath, izvršne direktorice Global Deloitte AI instituta i autorice knjige Pouzdan AI, sličan naglasak na razmatranju kontekstualnih aspekata gdje dolazi do izražaja pouzdanost umjetne inteligencije: „Ako gradite rješenje umjetne inteligencije koje radi dijagnozu pacijenata, poštenje i pristranost su jako važni. Ali ako gradite algoritam koji predviđa kvar mlaznog motora, pravednost i pristranost nisu toliko važni. Pouzdana umjetna inteligencija zapravo je struktura koja će vas potaknuti da počnete razmišljati o dimenzijama povjerenja unutar vaše organizacije” (VentureBeat, 22. ožujka 2022.).

Kada raspravljate o pouzdanoj umjetnoj inteligenciji, ovu temu možete tumačiti na mnogo načina.

Na primjer, pouzdana AI je nešto što svi gledamo kao poželjan i željan cilj, naime da bismo trebali željeti osmisliti i promovirati pouzdanu umjetnu inteligenciju. Postoji još jedna upotreba krilatice. Donekle alternativna uporaba je to pouzdana AI je stanje stanja ili mjerenja, tako da bi netko mogao ustvrditi da je izradio sustav umjetne inteligencije koji je primjerak pouzdane umjetne inteligencije. Također možete koristiti frazu pouzdana AI predložiti metodu ili pristup koji se može koristiti za postizanje pouzdanosti umjetne inteligencije. itd.

S tim u vezi, vjerujem da shvaćate da nije sva umjetna inteligencija ista i da moramo paziti da ne dajemo paušalne izjave o cijeloj umjetnoj inteligenciji. Određeni AI sustav vjerojatno će se značajno razlikovati od drugog AI sustava. Jedan od tih AI sustava mogao bi biti vrlo pouzdan, dok bi drugi mogao biti marginalno pouzdan. Budite oprezni pri pretpostavci da je umjetna inteligencija monolit koji je ili potpuno pouzdan ili potpuno nepouzdan.

To jednostavno nije slučaj.

Sljedeće bih želio ukratko pokriti neka od svojih tekućih istraživanja o pouzdanoj umjetnoj inteligenciji koja bi vam mogla biti zanimljiva, pokrivajući rastuću ulogu AI roboti anđeli čuvari.

Evo kako to ide.

Bili biste naoružani AI sustavom (AI bot anđeo čuvar) koji je osmišljen za procjenu pouzdanosti nekog drugog AI sustava. AI bot anđeo čuvar kao glavni fokus ima vašu sigurnost. Zamislite ovo kao da imate sredstva za praćenje AI-a na koji se oslanjate tako što imate drugačiji AI sustav u svom pravom džepu, možda pokrenut na vašem pametnom telefonu ili drugim takvim uređajima. Vaš poslovični AI skrbnik može izračunati na temelju kojeg radi i AI na koji se oslanjate, radeći velikom brzinom i izračunavajući situaciju u stvarnom vremenu, daleko brže nego što bi to mogao učiniti čovjek u petlji.

Možda ćete na prvi pogled pomisliti da bi AI na koji se već oslanjate trebao nešto imati interni AI zaštitne ograde koje rade isto kao i ovaj bot anđela čuvara koji zasebno izračunava AI. Da, to bi svakako bilo poželjno. Jedna dvojba je da bi AI zaštitne ograde ugrađene u AI sustav mogle biti integralno i prejudicirano usklađene s AI per se, stoga navodna AI zaštitna ograda više nije u mogućnosti na neki način neovisno verificirati ili potvrditi AI.

Kontrastna ideja je da je vaš AI bot anđeo čuvar neovisni AI mehanizam ili mehanizam treće strane koji se razlikuje od AI na koji se oslanjate. Nalazi se izvan druge AI, ostaje posvećen vama, a ne posvećen AI-u koji se nadzire ili procjenjuje.

Jednostavan način razmišljanja o tome može se izraziti pomoću sljedećih pojednostavljenih izjava nalik jednadžbi. Mogli bismo reći da "P" želi potencijalno vjerovati "R" da izvrši određeni zadatak "X":

Ovo bi bilo sljedeće kada su uključeni samo ljudi:

  • Osoba P vjeruje osobi R da izvrši zadatak X.

Kada se odlučimo osloniti na AI, izjava se preoblikuje u ovo:

  • Osoba P vjeruje AI instanci-R da izvrši zadatak X.

Možemo dodati AI bot anđela čuvara ovako:

  • Osoba P vjeruje AI instanci-R da će obaviti zadatak X jer je nadzire AI angel bot instanca-Z

AI bot anđeo čuvar neumorno i nemilosrdno procjenjuje AI na koji se oslanjate. Kao takav, vaš zgodni AI skrbnik mogao bi vas upozoriti da je povjerenje ove druge AI neopravdano. Ili, skrbnik umjetne inteligencije može elektronički stupiti u interakciju s drugom umjetnom inteligencijom kako bi pokušao osigurati da se svako odstupanje od povjerenja brzo ispravi, i tako dalje (pogledajte moj izvještaj o takvim detaljima na link ovdje).

Metafora pouzdanog rezervoara povjerenja

Budući da raspravljamo o različitim razinama povjerenja, mogla bi vam biti od koristi zgodna metafora o pouzdanosti ako povjerenje shvatite kao vrstu rezervoara.

Imate određenu količinu povjerenja za određenu osobu ili stvar u određenim okolnostima u određenom trenutku. Razina povjerenja će rasti ili padati, ovisno o tome što se još dogodi u vezi s tom određenom osobom ili stvari. Povjerenje bi moglo biti na nultoj razini kada nemate nikakvog povjerenja u osobu ili stvar. Povjerenje bi moglo biti negativno kada se usudite imati nepovjerenje prema toj osobi ili stvari.

U slučaju sustava umjetne inteligencije, vaš spremnik povjerenja za određenu umjetnu inteligenciju na koju se oslanjate u određenim okolnostima će rasti ili padati ovisno o vašoj procjeni pouzdanosti umjetne inteligencije. S vremena na vrijeme možete biti vrlo svjesni ove različite razine povjerenja u AI, dok biste u drugim slučajevima mogli biti manje svjesni i više zbog predosjećaja da prosuđujete o pouzdanosti.

Načini na koje smo ovdje raspravljali u smislu povećanja razine povjerenja za AI uključuju:

  • Pridržavanje AI etike. Ako je umjetna inteligencija na koju se oslanjate osmišljena pokušajem pridržavanja ispravnih etičkih pravila umjetne inteligencije, vjerojatno biste upotrijebili ovo razumijevanje za povećanje razine vašeg spremnika povjerenja za taj određeni sustav umjetne inteligencije. Kao usputna napomena, također je moguće da generalizirate na druge AI sustave u pogledu njihove pouzdanosti, iako to ponekad može biti pogrešan oblik onoga što ja nazivam AI vjeruje širenju aure (budite oprezni pri tome!).
  • Koristite Human-In-The-Loop. Ako AI ima čovjeka u petlji, mogli biste pozitivno povećati svoje percipirano povjerenje u AI.
  • Uspostavite zakone i propise. Ako postoje zakoni i propisi povezani s ovom određenom vrstom umjetne inteligencije, mogli biste na isti način povećati razinu povjerenja.
  • Zaposlite AI Guardian Angel Bot. Ako imate spremnog AI bot anđela čuvara, i to će dodatno podići razinu vašeg povjerenja.

Kao što je ranije spomenuto, povjerenje može biti prilično krhko i raspasti se u trenu (tj. rezervoar povjerenja brzo i iznenada izbaci svo izgrađeno povjerenje).

Zamislite da se nalazite u samovozećem automobilu koji se temelji na umjetnoj inteligenciji i da AI vozeći iznenada skrene radikalno udesno, uzrokujući škripu kotača i gotovo tjerajući autonomno vozilo na opasno prevrtanje. Što bi se dogodilo s vašom razinom povjerenja? Čini se da čak i ako ste prethodno držali AI na visokoj razini povjerenja, dramatično biste i naglo pali svoju razinu povjerenja, što je razumno.

U ovom trenutku ove teške rasprave, kladio bih se da ste željni dodatnih ilustrativnih primjera koji bi mogli pokazati prirodu i opseg pouzdane umjetne inteligencije. Postoji poseban i sigurno popularan niz primjera koji su mi bliski. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realne primjere koji pokazuju dileme etičke inteligencije kako bi se donekle teorijska priroda teme mogla lakše shvatiti. Jedno od najekzivnijih područja koje zorno predstavlja ovu etičku dilemu umjetne inteligencije je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj ili primjer za široku raspravu o temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samoupravljajućih automobila temeljenih na umjetnoj inteligenciji nešto o potrazi za pouzdanom umjetnom inteligencijom, i ako jest, što ovo predstavlja?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i pouzdana umjetna inteligencija

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Vjerujem da to pruža dovoljno litanija upozorenja da potkrijepi ono o čemu ću govoriti.

Sada smo spremni duboko zaroniti u samovozeće automobile i pouzdanu umjetnu inteligenciju.

Povjerenje je sve, posebno u slučaju samovozećih automobila temeljenih na umjetnoj inteligenciji.

Čini se da društvo oprezno gleda na pojavu samovozećih automobila. S jedne strane, postoji velika nada da će dolazak pravih samovozećih automobila vidljivo smanjiti broj godišnjih smrtnih slučajeva povezanih s automobilima. Samo u Sjedinjenim Državama ima oko 40,000 2.5 smrtnih slučajeva godišnje i oko XNUMX milijuna ozlijeđenih zbog automobilskih nesreća, pogledajte moju zbirku statistike na link ovdje. Ljudi piju i voze. Ljudi voze rastreseni. Čini se da se zadatak vožnje automobila sastoji od mogućnosti stalnog i nepogrešivog fokusiranja na vožnju i izbjegavanja upadanja u prometne nesreće. Kao takvi, mogli bismo se sneno nadati da će AI sustavi za vožnju voditi samovozeće automobile stalno i nepogrešivo. Samovozeće automobile možete protumačiti kao dvostruki, koji se sastoji od smanjenja broja smrtnih slučajeva i ozljeda u prometnim nesrećama, uz potencijalno dostupnost mobilnosti na mnogo široj i pristupačnijoj osnovi.

Ali zabrinutost se u međuvremenu nadvija nad društvenim percepcijama o tome hoće li samovozeći automobili biti dovoljno sigurni da budu na našim javnim cestama općenito.

Ako čak i jedan samovozeći automobil upadne u nesreću ili sudar koji dovede do jedne smrti ili teške ozljede, vjerojatno možete predvidjeti da će današnje donekle izgrađeno povjerenje prema tim automobilima bez vozača temeljenim na umjetnoj inteligenciji naglo pasti. Vidjeli smo da se to dogodilo kada se dogodio sada zloglasni incident u Arizoni koji je uključivao donekle (ne baš) samovozeći automobil koji je naletio na pješaka i ubio ga (pogledajte moje izvješće na ova poveznica ovdje).

Neki stručnjaci ističu da je nepravedno i neprikladno temeljiti povjerenje u samovozeće automobile s umjetnom inteligencijom na aspektu da bi samo jedna takva smrtonosna nesreća ili sudar mogla potkopati ionako relativno bez sudara probe na javnim cestama. Osim toga, na daljnjoj nepravednoj osnovi, izgledi su da će, bez obzira koja marka ili model samovozećih automobila s umjetnom inteligencijom možda biti upleten u tužan incident, društvo nedvojbeno okriviti sve marke samovozećih automobila.

Cjelokupnost samovozećih automobila mogla bi biti ukaljana, a industrija u cjelini mogla bi pretrpjeti veliku reakciju koja bi dovela do mogućeg zatvaranja svih javnih ispitivanja na cestama.

Doprinos takvom povratnom udaru nalazi se u besmislenim izjavama otvorenih zagovornika samovozećih automobila da se svi automobili bez vozača neće moći srušiti. Ova ideja da se ne može srušiti nije samo potpuno pogrešna (vidi link ovdje), podmuklo postavlja industriju samovozećih automobila prema potpuno neispravnom skupu očekivanja. Ove neobične i neostvarive izjave da će biti nula smrtnih slučajeva zbog samoupravljajućih automobila potpiruju zabludu da su bilo kakve nesreće bez vozača siguran znak da je cijeli komplet i svađa uzaludna.

Postoji jasna tuga kada shvatimo da bi napredak prema samovozećim automobilima i akumulacija društvenog povjerenja po inču mogli nestati u trenu. To će biti vraški dokaz o krhkosti povjerenja.

Zaključak

Mnogi proizvođači automobila i tehnološke tvrtke za samovožnju općenito se pridržavaju etičkih načela umjetne inteligencije, čineći to kako bi pokušali izgraditi i upotrijebiti pouzdanu umjetnu inteligenciju u smislu sigurnih i pouzdanih automobila temeljenih na umjetnoj inteligenciji. Imajte na umu da su neke od tih tvrtki jače i predanije načelima etičke umjetne inteligencije od drugih. Tu su i povremeni početnici ili novopridošlice vezane uz samovozeće automobile za koje se čini da odbacuju većinu kamena temeljaca AI etike (pogledajte moju recenziju na link ovdje).

S drugih frontova, novi zakoni i propisi koji pokrivaju samovozeće automobile postupno su stavljeni u pravne knjige. Druga je stvar imaju li oni dovoljno zuba da to podrže, kao i to shvaća li se provođenje tih zakona ozbiljno ili se zanemaruje (pogledajte moje kolumne za analize o tome).

Tu je i kut visoke tehnologije. Predvidio sam da ćemo postupno vidjeti varijante AI botova anđela čuvara koji će doći do izražaja u areni autonomnih vozila i samovozećih automobila. Još nismo stigli. Ovo će postati sve prisutnije kada popularnost samovozećih automobila postane raširenija.

Ova zadnja točka donosi poznatu rečenicu o povjerenju koju nesumnjivo već znate napamet.

Vjeruj ali provjeri.

Možemo si dopustiti da proširimo svoje povjerenje, možda velikodušno. U međuvremenu, također bismo trebali paziti poput sokola kako bismo bili sigurni da je povjerenje koje stvaramo potvrđeno i riječima i djelima. Dajmo malo povjerenja u umjetnu inteligenciju, ali beskonačno provjeravajmo da vjerujemo na odgovarajući način i širom otvorenih očiju.

Možeš mi vjerovati u tome.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/