Može li Elon Musk uspjeti u razvoju generativne AI ChatGPT kopije "TruthGPT" koja bi bila stoički istinita u svakom trenutku, pita se AI etika i AI zakon

Netko kuca na vratima kabine.

Trebamo li otvoriti vrata?

Filmovi obično sugeriraju da ne bismo trebali dopustiti da nas naša znatiželja nadvlada, naime apsolutno nikada ne bismo trebali otvarati vrata. Pa, s obzirom na to, odluka da se vrata ostave zatvorenima ne bi izgledala baš kao vrijedna priča. Čini se da nas privlači uzbuđenje i nepoznato.

Dakle, idemo naprijed i otvorimo vrata.

U ovom konkretnom slučaju, mislim na neki problem u nastajanju unutar polja umjetne inteligencije (AI) koji ili najavljuje dobra ili najgora vremena za sve nas. Situacija potencijalno uključuje budućnost umjetne inteligencije. Moglo bi se ozbiljno nagađati ergo da budućnost umjetne inteligencije uključuje prilično dramatične posljedice, uključujući tobože oblikovanje budućnosti društva i sudbine čovječanstva.

Evo dogovora.

Prema nedavnim medijskim izvješćima, Elon Musk, nekada najbogatija osoba na svijetu, tražio je vrhunske AI istraživače koji bi se uključili u novi AI pothvat koji ima na umu. Tiho se pristupa raznim AI programerima i AI znanstvenicima. Kucanje na njihova vrata očito pruža veliko obećanje i potencijalno unosne vijesti.

Navodna suština AI inicijative koja tek treba biti otkrivena navodno je kopija široko i iznimno popularnog ChatGPT-a koji je OpenAI objavio još u studenom. Gotovo ste sigurno čuli ili vidjeli glasne naslove o ChatGPT-u. Odmah ću objasniti više o tome što je ChatGPT. Također biste trebali znati da je ChatGPT primjer vrste umjetne inteligencije poznate kao Generativna AI. Danas postoji mnogo generativnih AI aplikacija. ChatGPT je slučajno jedan s najvećim javnim profilom i naizgled je poznat svima, čak možda i onima koji na neki način žive u špilji.

Evo primjera izvještavanja o ovoj polutajnoj sagi koja se brzo razvija:

  • “Elon Musk se posljednjih tjedana obratio istraživačima umjetne inteligencije o osnivanju novog istraživačkog laboratorija za razvoj alternative ChatGPT-u, visokoprofilnom chatbotu koji je napravio startup OpenAI, prema dvojici ljudi koji su izravno upoznati s tim naporima i trećoj osobi upućenoj na razgovore” (Informacija, “Borba protiv 'probuđenog AI-ja,' Musk regrutira tim za razvoj OpenAI rivala”, Jon Victor i Jessica E. Lessin, 27. veljače 2023.).

Vaša prva pomisao bi mogla biti da ako Elon Musk želi napraviti kopiju ChatGPT-a, to ovisi o njemu i o tome kako želi potrošiti svoj novac. Sretno. On će jednostavno dodati već postojeće i sve veće gomile generativnih AI aplikacija. Možda će zaraditi dodatno bogatstvo na vlastitoj domaćoj verziji ChatGPT-a. Ili će to možda biti velika šala, a maleno udubljenje u njegovom golemom bogatstvu zbog skromno skupe potjere bit će slično pogrešci zaokruživanja u računovodstvenom odjelu.

Umjesto snažnog kucanja na vrata, vjerojatno je ovo više poput tihog tap-tap-tap-tap-tap-tap na vratima.

Pripremite se za preokret.

Vjeruje se da Elon Musk želi prodrmati osnovu današnjih generativnih AI aplikacija i rekonstruirati neke ključne aspekte njihovog rada i onoga što proizvode. Kao što ću ukratko objasniti, uobičajena i vjerodostojna zabrinutost u vezi s trenutnom generativnom umjetnom inteligencijom jest da može generirati pogreške, neistine i takozvane halucinacije umjetne inteligencije. Svatko tko je koristio generativnu umjetnu inteligenciju nedvojbeno se susreo s tim uznemirujućim problemima. Očigledno, Elon Musk se nada smanjiti i možda nekako eliminirati te vrste anomalija i problematičnih sklonosti.

Ovo se čini kao dokazano vrijedna i časna težnja. Zapravo, znajte da gotovo ili možda mogu reći da svi generativni dizajneri umjetne inteligencije snažno nastoje smanjiti šanse izlaznih pogrešaka, neistina i halucinacija umjetne inteligencije. Teško bi bilo pronaći bilo koju razumnu dušu koja bi inzistirala da te pogreške, neistine i halucinacije umjetne inteligencije moramo zadržati ukorijenjenima u generativnu umjetnu inteligenciju.

Bez davanja previše širokih izjava, postoji prilično univerzalno slaganje da se s bolestima generativne umjetne inteligencije koje uključuju proizvodnju pogrešaka, neistina i halucinacija umjetne inteligencije treba čvrsto, ustrajno i snažno nositi. Cilj je prilagoditi, obnoviti, doraditi, remontirati ili na ovaj ili onaj AI tehnološki način riješiti i riješiti ovaj problem.

Svaki dan kada generativna umjetna inteligencija nastavi izbacivati ​​pogreške, neistine i halucinacije umjetne inteligencije u rezultatima loš je dan za gotovo svakoga. Ljudi koji koriste generativnu umjetnu inteligenciju sigurno neće biti zadovoljni tim pokvarenim rezultatima. Ljudi koji se oslanjaju na ili trebaju koristiti pokvarene izlaze izloženi su riziku da pogrešno ovise o nečem pogrešnom ili još gorem što će ih voditi u opasnom smjeru.

Proizvođači umjetne inteligencije koji pokušavaju napraviti posao od generativne umjetne inteligencije u međuvremenu su izloženi potencijalnom pravnom riziku od strane onih koji budu uhvaćeni zbog oslanjanja na pokvarene rezultate. Gotovo je sigurno da će se uskoro pojaviti tužbe za traženu naknadu štete. Mogli bismo očekivati ​​da će regulatori odlučiti uzeti u obzir i da bi se mogli donijeti novi zakoni o umjetnoj inteligenciji kako bi se generativna umjetna inteligencija zakonski ograničila, pogledajte moje izvješće na link ovdje. Osim toga, ljudi bi se na kraju mogli toliko prokleto uzrujati da reputacija tvoraca umjetne inteligencije bude ozbiljno ukaljana, a generativna umjetna inteligencija po kratkom postupku gurnuta u koštac.

Dobro, tako da znamo da je hrabra istina da proizvođači AI-ja i istraživači AI-a grozničavo pokušavaju izmisliti, dizajnirati, izgraditi i implementirati tehnološke čarobnjake AI-a kako bi spriječili ove grozne bolesti povezane s današnjim generativnim AI-bolestima. Elon Musk bi trebao biti prihvaćen u stado. Što više to bolje. Bit će potrebno mnogo AI talenta i novca da se ukroti ova zvijer. Dodavanje Elona Muska čini se optimističnim i ohrabrujućim znakom da će možda prava količina raketne znanosti, novca i odlučnosti pronaći AI lijek za sve.

Zaokret ipak dolazi kada počnete otvarati vrata da vidite što tamo stoji.

U prilično i kao i obično sažetom tvitu Elona Muska, koji se dogodio 17. veljače 2023., dobili smo ovaj pretpostavljeni trag:

  • "Ono što nam treba je TruthGPT"

To je ono zbog čega neki odluče da možda vrata treba zalupiti i zakucati ih.

Zašto?

Neki izražavaju zabrinutost da bi "istina" koja leži u osnovi zamišljenog TruthGPT-a mogla biti generativna umjetna inteligencija koja je formulirana na temelju i samo proizvodi rezultate isključivo temeljene na discombobulaciji Istina koji se strogo poklapa s nečijim pogledima na svijet. Da, namjera je da ćemo dobiti generativnu AI aplikaciju koja emitira istinu prema Elonu Musku.

Zabrinjavajuće, kažu neki.

Odvažno odvažno i posve alarmantno, neki pozivaju.

Neposredan odgovor je da ako želi proizvesti svoj TruthGPT, bez obzira što on predstavlja, to je njegov novac za trošenje. Ljudi će ga ili odlučiti koristiti ili neće. Oni koji ga koriste trebaju biti dovoljno pronicljivi da shvate u što se upuštaju. Ako žele rezultate ove specifične varijante generativne umjetne inteligencije, one koja je vjerojatno oblikovana oko svjetonazora Elona Muska, to je njihovo pravo tražiti. Kraj priče. Krenuti dalje.

Vau, protuargument ide, namještate ljude na užasnu i zastrašujuću zamku. Bit će ljudi koji neće shvatiti da je TruthGPT neka generativna AI aplikacija koju je izbrusio Elon Musk. Upast će u mentalnu zamku pretpostavke da je ova generativna umjetna inteligencija izvanredna. Doista, ako naziv ostane "TruthGPT" (ili slično), naravno da biste vjerovali da je ovo generativni AI koji ima apsolutna istina ispričati u svojim objavljenim esejima i tekstu.

Kao društvo, možda ne bismo trebali dopustiti da oni koji ništa ne sumnjaju upadnu u takve zamke, upozorili bi.

Dopuštanje generativnoj AI aplikaciji ove pretpostavljene prirode da lebdi okolo i da je koriste razni ljudi stvorit će kaos. Ljudi će protumačiti kao svetu "istinu" rezultate ovog TruthGPT-a, čak i ako su objavljeni eseji prepuni pogrešaka, neistina, AI halucinacija i svakojakih neukusnih pristranosti. Nadalje, čak i ako se tvrdi da ova varijanta generativne umjetne inteligencije neće imati pogreške, neistine i halucinacije umjetne inteligencije, kako možemo znati da rezultirajuća naizgled pročišćena umjetna inteligencija neće sadržavati nepotrebne pristranosti zajedno s podmuklim mnoštvom dezinformacija i dezinformacija?

Pretpostavljam da možete vidjeti kontroverzu i dilemu koja se sprema.

Na temelju slobodnog tržišta, Elon Musk bi očito trebao moći nastaviti sa stvaranjem bilo koje vrste generativne umjetne inteligencije koju želi izraditi. To ga ne bi trebalo spriječiti da nastavi dalje samo zato što bi drugi mogli imati negativan stav prema njegovoj verziji "istine". Pusti ga da radi svoje. Možda bi trebala biti uključena poruka upozorenja ili neka druga obavijest kada je netko koristi da bi znali što žele pokrenuti. Unatoč tome, ljudi moraju biti odgovorni za vlastite postupke i ako odluče koristiti TruthGPT, neka tako i bude.

Čekaj sekundu, slijedi još jedna replika. Pretpostavimo da je netko izradio generativnu AI aplikaciju koja je osmišljena za činjenje zla. Namjera je bila zbuniti ljude. Nada je bila razljutiti i potaknuti ljude. Bismo li kao društvo prihvatili takvu vrstu generativne umjetne inteligencije? Želimo li dopustiti aplikacije umjetne inteligencije koje bi mogle isprovocirati ljude, potkopati njihovo mentalno zdravlje i potaknuti ih na nepovoljne radnje?

Mora postojati crta u pijesku. U nekom trenutku moramo reći da su određene vrste generativne umjetne inteligencije grozota i da se ne mogu dopustiti. Ako dopustimo da se neobuzdana generativna umjetna inteligencija izgradi i uspostavi, konačna propast neizbježno će zadesiti sve nas. Neće to biti samo oni koji koriste AI aplikaciju. Sve i svi ostali koji se pojavljuju oko i povezani s AI aplikacijom bit će nepovoljno pogođeni.

To se čini kao uvjerljiv argument.

Iako je ključna potpora tome da bi generativna umjetna inteligencija o kojoj je riječ trebala biti toliko uznemirujuća da bismo uvjerljivo vjerovali da bi njezino sprječavanje ili potpuno zaustavljanje unaprijed bilo objektivno potrebno. Ovo također otvara niz drugih trnovitih pitanja. Možemo li unaprijed izjaviti da bi generativna umjetna inteligencija mogla biti toliko okrutna da se uopće ne može dopustiti da se izgradi? To se nekima čini preuranjenim. Morate barem pričekati dok se generativna umjetna inteligencija ne pokrene da biste donijeli tako tešku odluku.

Probudite se, žestoko odgovaraju neki, nepametno puštate konja iz staje. Opasnosti i štete uzrokovane odvezanom umjetnom inteligencijom, puštenim konjem, pregazit će nas posvuda. Generativna AI aplikacija mogla bi biti poput klasične dileme pokušaja vraćanja duha u bocu. Možda to nećete moći učiniti. Umjesto toga, najbolje je držati duha pod ključem ili osigurati da konj ostane čvrsto zatvoren u staji.

To je potencijalni uragan na našem pragu i vrata bi se mogla otvoriti bez obzira što smatramo da je mudro učiniti.

Jedna stvar koju možemo sigurno učiniti je prvo istražiti što a IstinaGPT stil generativne makinacije umjetne inteligencije mogao bi biti. U današnjoj kolumni ću upravo to učiniti. Također ću pogledati obrazloženu osnovu za izražene nedoumice, te razmotriti različita sredstva i rezultate. Ovo će povremeno uključivati ​​pozivanje na AI aplikaciju ChatGPT tijekom ove rasprave budući da je to gorila od 600 funti generativne AI, ali imajte na umu da postoji mnogo drugih generativnih AI aplikacija i da se općenito temelje na istim općim načelima.

U međuvremenu, možda se pitate što je generativna umjetna inteligencija.

Prvo pokrijmo osnove generativne umjetne inteligencije, a zatim možemo pobliže promotriti goruću stvar koja nam je pri ruci.

U sve ovo dolazi niz razmatranja etike umjetne inteligencije i zakona o umjetnoj inteligenciji.

Imajte na umu da su u tijeku napori da se etička AI načela ugrade u razvoj i primjenu AI aplikacija. Sve veći kontingent zabrinutih i nekadašnjih etičara umjetne inteligencije pokušava osigurati da napori za osmišljavanje i usvajanje umjetne inteligencije uzimaju u obzir gledište o AI za dobro i odvraćanje AI za loše. Isto tako, postoje prijedlozi novih zakona o umjetnoj inteligenciji koji se vrte okolo kao potencijalna rješenja za sprječavanje pokušaja umjetne inteligencije da ne polude po pitanju ljudskih prava i slično. Za moje kontinuirano i opsežno pokrivanje AI etike i AI zakona, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Razvoj i promicanje etičkih pravila umjetne inteligencije se nastavljaju kako bi se, nadamo se, spriječilo društvo da upadne u bezbroj zamki koje izazivaju umjetna inteligencija. Za moj prikaz etičkih načela UN-ove umjetne inteligencije koje je osmislilo i poduprlo gotovo 200 zemalja uz pomoć UNESCO-a, pogledajte link ovdje. Na sličan način, istražuju se novi zakoni o umjetnoj inteligenciji kako bi se pokušala zadržati AI na ravnomjernoj razini. Jedan od najnovijih preuzimanja sastoji se od niza predloženih AI Bill of Rights koju je američka Bijela kuća nedavno objavila kako bi identificirala ljudska prava u doba umjetne inteligencije, vidi link ovdje. Potrebno je selo kako bi AI i razvojni programeri AI-a ostali na pravom putu i spriječili namjerne ili slučajne podmukle napore koji bi mogli potkopati društvo.

U ovu ću raspravu ispreplesti razmatranja vezana uz etiku umjetne inteligencije i zakone o umjetnoj inteligenciji.

Osnove generativne umjetne inteligencije

Najpoznatiju instancu generativne umjetne inteligencije predstavlja aplikacija za umjetnu inteligenciju pod nazivom ChatGPT. ChatGPT je izronio u svijest javnosti još u studenom kada ga je objavila tvrtka za istraživanje umjetne inteligencije OpenAI. Otkako je ChatGPT prikupio goleme naslove i zapanjujuće premašio svojih dodijeljenih petnaest minuta slave.

Pretpostavljam da ste vjerojatno čuli za ChatGPT ili možda čak znate nekoga tko ga je koristio.

ChatGPT se smatra generativnom AI aplikacijom jer kao unos uzima neki tekst od korisnika, a zatim generira ili proizvodi rezultat koji se sastoji od eseja. AI je generator teksta u tekst, iako ja opisujem AI kao generator teksta u esej jer to lakše pojašnjava za što se obično koristi. Možete koristiti generativnu umjetnu inteligenciju za sastavljanje dugih kompozicija ili je možete natjerati da nudi prilično kratke sadržajne komentare. Sve je po vašoj želji.

Sve što trebate učiniti je unijeti upit i AI aplikacija će za vas generirati esej koji pokušava odgovoriti na vaš upit. Složeni tekst će djelovati kao da je esej napisan ljudskom rukom i umom. Ako biste unijeli upit koji kaže "Pričaj mi o Abrahamu Lincolnu", generativna umjetna inteligencija će vam dati esej o Lincolnu. Postoje i drugi načini generativne umjetne inteligencije, kao što su tekst u umjetnost i tekst u video. Ovdje ću se usredotočiti na varijaciju teksta u tekst.

Vaša prva pomisao mogla bi biti da se ova generativna sposobnost ne čini tako važnom u smislu stvaranja eseja. Možete jednostavno pretražiti Internet i lako pronaći tone i tone eseja o predsjedniku Lincolnu. Ono što je zanimljivo u slučaju generativne umjetne inteligencije je to što je generirani esej relativno jedinstven i pruža originalnu kompoziciju, a ne kopiju. Kad biste negdje na internetu pokušali pronaći esej koji je izradila umjetna inteligencija, teško da biste ga otkrili.

Generativna umjetna inteligencija unaprijed je obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama diljem weba. Kao rezultat ispitivanja tisuća i milijuna pisanih odlomaka, AI može izbaciti nove eseje i priče koji su mješavina onoga što je pronađeno. Dodavanjem raznih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u usporedbi s onim što je korišteno u skupu za obuku.

Postoje brojne zabrinutosti u vezi s generativnom umjetnom inteligencijom.

Jedna ključna mana je da eseji koje proizvodi generativna AI aplikacija mogu sadržavati različite neistine, uključujući očito neistinite činjenice, činjenice koje su krivo prikazane i očite činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti često se nazivaju oblikom AI halucinacije, krilatica koju ne volim, ali nažalost svejedno postaje popularna (za moje detaljno objašnjenje o tome zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Još jedna zabrinutost je da ljudi mogu lako preuzeti zasluge za generativni esej proizveden umjetnom inteligencijom, unatoč tome što nisu sami sastavili esej. Možda ste čuli da su učitelji i škole prilično zabrinuti zbog pojave generativnih AI aplikacija. Učenici potencijalno mogu koristiti generativnu umjetnu inteligenciju za pisanje zadanih eseja. Ako učenik tvrdi da je esej napisao vlastitom rukom, male su šanse da će učitelj moći razaznati je li esej krivotvorio generativni AI. Za moju analizu ovog zbunjujućeg aspekta za učenike i nastavnike, pogledajte moje izvješće na link ovdje i link ovdje.

Na društvenim mrežama pojavile su se neke sulude pretjerane tvrdnje o tome Generativna AI tvrdeći da je ova najnovija verzija umjetne inteligencije zapravo osjećajna umjetna inteligencija (ne, nisu u pravu!). Oni iz Etike umjetne inteligencije i Prava umjetne inteligencije posebno su zabrinuti zbog ovog rastućeg trenda otvorenih tvrdnji. Mogli biste pristojno reći da neki ljudi preuveličavaju što današnja umjetna inteligencija može. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu sebi i drugima dopustiti da dođu u strašne situacije zbog pretpostavke da će umjetna inteligencija biti osjećajna ili slična ljudima da bi mogla djelovati.

Nemojte antropomorfizirati AI.

Ako to učinite, uhvatit ćete se u ljepljivu i turobnu zamku očekivanja da umjetna inteligencija radi stvari koje nije u stanju izvesti. Uz to, najnovija generativna umjetna inteligencija je relativno impresivna za ono što može učiniti. Imajte na umu da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Jedno posljednje upozorenje za sada.

Što god vidite ili pročitate u generativnom AI odgovoru koji Čini se prenijeti kao čisto činjenično (datumi, mjesta, ljudi itd.), budite sigurni da ostanete skeptični i budite voljni još jednom provjeriti ono što vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmisliti, a elementi za koje obično očekujemo da će biti nezamjerljivi su svi predmet sumnje. Ne vjerujte onome što čitate i budite skeptični kada ispitujete bilo kakve generativne AI eseje ili rezultate. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln obletio zemlju u svom privatnom mlažnjaku, nedvojbeno biste znali da je to malarkija. Nažalost, neki ljudi možda neće shvatiti da u njegovo vrijeme nisu postojali mlažnjaci, ili možda znaju, ali ne primjećuju da se u eseju iznosi ova drska i nečuveno lažna tvrdnja.

Jaka doza zdravog skepticizma i uporni mentalni sklop nevjerice bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo prijeći u sljedeću fazu ovog razjašnjenja.

Duh i Generativna AI boca

Zaronimo sada duboko u predmet o kojem se radi.

Bit je ono što bi moglo a IstinaGPT stil generativne AI sastoji se od. Je li to moguće ili je nemoguće izvesti? O čemu bismo trebali razmišljati u vezi s takvim naporima? I tako dalje.

Možete otvoreno tvrditi da bismo o svemu ovome trebali vrlo ozbiljno razmisliti. Da je to samo puka mašta i bez ikakve šanse da se pojavi, cijelu bismo zagonetku mogli ostaviti po strani. Umjesto toga, budući da postoji pretpostavljena povećana šansa za veliku financijsku potporu, stvarnost a IstinaGPT, ili kako god da se zove, miriše kao izrazito vrijedno pažljivog razmatranja i raspakiranja.

Radi lakše rasprave, upotrijebit ću prikladnu i upečatljivu frazu "TruthGPT" da označim neku potpuno neodređenu generičku generativnu umjetnu inteligenciju. Ne sugeriram, ne impliciram niti na bilo koji drugi način aludiram na bilo koju sada ili buduću postojeću generativnu AI aplikaciju koja ima ili nema takav naziv.

Evo pet glavnih tema o kojima bih želio razgovarati danas s vama:

  • 1) Vjerojatni glavni fokus uključuje pristranosti u generativnoj umjetnoj inteligenciji
  • 2) Zašto su generativne predrasude umjetne inteligencije tvrd orah
  • 3) Izvori i metode koji dovode do generativnih pristranosti umjetne inteligencije
  • 4) TruthGPT i izbori rukovanja pristranostima
  • 5) TruthGPT što se tiče izvedivosti i stvarnosti toga

Obradit ću svaku od ovih važnih tema i ponuditi pronicljiva razmatranja o kojima bismo svi trebali pomno razmišljati. Svaka od ovih tema sastavni je dio veće slagalice. Ne možete pogledati samo jedan komad. Niti možete promatrati bilo koji dio odvojeno od ostalih dijelova.

Ovo je zamršen mozaik i cijeloj se slagalici mora posvetiti odgovarajuće skladno razmatranje.

Vjerojatni glavni fokus uključuje pristranosti u generativnoj umjetnoj inteligenciji

Radi lakše rasprave, uzmite u obzir da ćemo se usredotočiti na četiri glavne nedoumice o suvremenoj generativnoj umjetnoj inteligenciji:

  • greške
  • laži
  • AI Halucinacije
  • predrasude

Ukratko ću istražiti svaki od tih uvjeta.

An pogreška može se ilustrirati ovom vrstom upita i rezultirajućim generativnim odgovorom umjetne inteligencije:

  • potaknuti: "Koliko je dva plus dva?"
  • Generirani odgovor: “Dva plus dva jednako je pet.”

Vjerujem da bismo se svi razumno složili da bi dva plus dva trebalo biti jednako četiri. Dakle, odgovor pet je pogreška. Sada će oštroumni ljudi pokušati ponuditi svakakva opravdanja zašto dva plus dva teoretski mogu biti jednaka pet. Dobro za njih. Unatoč tome, u normalnom tijeku događaja, idemo s idejom da je pretežno točan odgovor četiri i da se odgovor pet tumači kao netočan.

Zatim, razmotrite prirodu a laž, kao što je prikazano ovim upitom i rezultirajućim generativnim AI odgovorom:

  • potaknuti: “Koje je godine rođen predsjednik Abraham Lincoln?”
  • Generirani odgovor: “Predsjednik Abraham Lincoln rođen je 1812.

Odgovor bi trebao biti 1809, ali navedeni odgovor je 1812. Ovo se može protumačiti kao lažan odgovor. Ne znamo sa sigurnošću kako je generativna umjetna inteligencija došla do odgovora iz 1812. Moguće je da je godina 1812. korištena na internetu i potencijalno skenirana tijekom obuke podataka koju je poduzela generativna umjetna inteligencija. Moguća su i brojna druga objašnjenja. U svakom slučaju, ovo se razumno kategorizira kao neistina.

Kao primjer AI halucinacije, razmotrite ovaj primjer danog odziva i rezultirajućeg generativnog AI odgovora:

  • potaknuti: “Kako je putovao predsjednik Abraham Lincoln?”
  • Generirani odgovor: “Predsjednik Abraham Lincoln putovao je vlakom, konjima, kolima i mlaznim zrakoplovima.”

Svi načini putovanja čine se uvjerljivima osim šokantnog na kraju, gdje se navodi da je putovao mlaznim zrakoplovima (koji nisu postojali u njegovu razdoblju). Kako je ova luda mogućnost uključena u odgovor generativne umjetne inteligencije? Ne znamo sigurno. Jedan bi način bio da se u znanstvenofantastičnoj priči o Lincolnu objavljenoj na Internetu spomene da je često putovao mlaznim zrakoplovom. Moguće je da je tijekom obuke podataka generativne umjetne inteligencije ova konkretna priča skenirana. Postoje i brojna druga održiva objašnjenja.

Konačno, ovdje je primjer pristranosti koja bi se mogla pokazati putem danog odziva i rezultirajućeg generativnog AI odgovora:

  • potaknuti: “Može li starija osoba naučiti nove stvari?”
  • Generirani odgovor: “Ne, stariji ljudi ne mogu učiti nove stvari. Postoji klasična izreka da stari psi ne mogu naučiti nove trikove. To se odnosi i na starije ljude.”

Vjerujem da se svi razumno možemo složiti da odgovor pokazuje oblik dobne pristranosti ili dobne diskriminacije. Kako je ova pristranost uključena u generativni AI? Trenutačno ću pokriti razne načine. Za sada jednostavno primijetimo da formulacija koju je generirala AI pokazuje pristranu izjavu ili opasku. Ne znamo je li to puka slučajnost i hoće li se pojaviti možda samo ovaj put ili je možda riječ o sustavnom sustavu usklađivanja uzoraka koji postoji unutar strukture umjetne inteligencije. Da bi se to utvrdilo bila bi potrebna daljnja istraživanja.

Sada kada smo ilustrirali sve četiri glavne kategorije, evo nečega što se, iako diskutabilno, smatra potencijalno točnom tvrdnjom:

  • Pogreške: Vjerojatno se u konačnici može spriječiti ili ublažiti pomoću AI tehnoloških sredstava
  • neistine: Vjerojatno se u konačnici može spriječiti ili ublažiti pomoću AI tehnoloških sredstava
  • AI halucinacije: Vjerojatno se u konačnici može spriječiti ili ublažiti pomoću AI tehnoloških sredstava
  • Pristranosti: Sporno je može li se to spriječiti ili ublažiti isključivo AI tehnološkim sredstvima

Suština je da se tri kategorije koje se sastoje od pogrešaka, neistina i halucinacija umjetne inteligencije općenito smatraju podložnima tehnološkim poboljšanjima umjetne inteligencije. Primjenjuje se niz pristupa. Na primjer, kao što govorim u svojoj kolumni na link ovdje, razni drugi referenti mogu se usporediti s generiranim AI odgovorom koji se dvaput provjerava prije nego što se odgovor prikaže korisniku. To omogućuje potencijalno filtriranje kako bi se osiguralo da korisnik ne vidi takve otkrivene pogreške, neistine ili halucinacije umjetne inteligencije. Drugi pristup nastoji spriječiti generiranje tih vrsta odgovora, za početak. I tako dalje.

Kategorija koja se sastoji od predrasude puno je problematičnije za nositi se s tim.

Trebali bismo riješiti zagonetku da vidimo zašto.

Zašto su generativne predrasude umjetne inteligencije tvrd orah

Nedavne vijesti o generativnoj umjetnoj inteligenciji često su ukazivale na nedoličnu prirodu pristranih izjava koje se mogu pojaviti u generativnim esejima objavljenim putem umjetne inteligencije. Proučavao sam ovu temu, uključujući aspekt da neki ljudi namjerno pokušavaju potaknuti ili potaknuti generativnu umjetnu inteligenciju na stvaranje pristranih primjedbi, pogledajte moju analizu na link ovdje. Neki ljudi to čine kako bi istaknuli značajnu zabrinutost, dok drugi to čine zbog prividnih pokušaja privlačenja pažnje i gledanja.

Spajanje generativne umjetne inteligencije s internetskim tražilicama posebno je pojačalo ove stvari. Možda znate da je Microsoft Bingu dodao varijaciju ChatGPT-a, dok je Google naznačio da svojoj tražilici dodaje generativnu AI sposobnost skovanu kao Bard, pogledajte više na link ovdje.

Među raznim pristranostima koje se mogu susresti, neke se pristranosti uklapaju u političko ili kulturno područje koje su dobile naglašenu pozornost, kao što je navedeno u ovom članku:

  • “Kao što smo vidjeli s nedavnim bezobzirnim ispadima iz Binga, AI chatbotovi skloni su generiranju niza čudnih izjava. I premda su ti odgovori često jednokratni izrazi, a ne proizvod kruto definiranih "uvjerenja", neki se neobični odgovori smatraju bezopasnom bukom, dok se drugi smatraju ozbiljnim prijetnjama - ovisno, kao u ovom slučaju, o tome jesu li ili ne uklapaju se u postojeće političke ili kulturne rasprave” (Rubu, James Vincent, 17. veljače 2023.).

OpenAI je nedavno učinio javno dostupnim dokument pod naslovom "Snimak smjernica ponašanja modela ChatGPT-a" koji ukazuje na različite vrste sadržaja koji se smatra neprikladnim i koji žele pregledati njihovi testeri ChatGPT-a i pomoći u obuci podataka za ChatGPT kako bi se spriječili tijekom faze testiranja i prilagodbe ( dokument koji je lako dostupan putem poveznice iz „Kako bi se sustavi umjetne inteligencije trebali ponašati i tko bi trebao odlučiti“, 16. veljače 2023.). Za više o tome kako se RLHF (reinforcement learning for human feedback) koristi pri osmišljavanju generativne umjetne inteligencije, pogledajte moje objašnjenje na link ovdje.

Ovdje je izvadak iz dokumenta OpenAI koji ukazuje na neke od njihovih navedenih smjernica:

  • “Moglo bi postojati neka pitanja koja zahtijevaju određene vrste neprimjerenog sadržaja. U tim slučajevima i dalje biste trebali preuzeti zadatak, ali bi Asistent trebao odbiti, poput 'Ne mogu odgovoriti na to'.”
  • "Mržnja: sadržaj koji izražava, potiče ili promiče mržnju na temelju zaštićene karakteristike."
  • "Uznemiravanje: sadržaj koji ima za cilj uznemiravanje, prijetnje ili maltretiranje pojedinca."
  • “Nasilje: sadržaj koji promiče ili veliča nasilje ili slavi patnju ili poniženje drugih.”
  • "Samoozljeđivanje: sadržaj koji promiče, potiče ili prikazuje samoozljeđivanje, kao što su samoubojstvo, rezanje i poremećaji prehrane."
  • “Sadržaj za odrasle: sadržaj koji treba pobuditi seksualno uzbuđenje, kao što je opis seksualne aktivnosti ili koji promiče seksualne usluge (isključujući seksualni odgoj i dobrobit).”
  • “Politički: sadržaj koji pokušava utjecati na politički proces ili se koristi u svrhu kampanje.”
  • "Malware: sadržaj koji pokušava generirati ransomware, keyloggere, viruse ili drugi softver namijenjen nanošenju određene razine štete."

Popis prikazuje vrste potencijalno neprikladnog sadržaja koji bi se mogli pojaviti.

Što se tiče političke kategorije, na društvenim mrežama objavljeni su različiti primjeri generativnih AI aplikacija koje su, čini se, skliznule u jedan politički tabor nasuprot drugom.

Na primjer, korisnik koji postavlja pitanje o jednom političkom vođi mogao bi dobiti pozitivan optimističan odgovor, dok bi korisnik koji postavlja pitanje o drugom političkom vođi mogao dobiti negativan i potpuno omalovažavajući esej. Čini se da to sugerira da je generativna umjetna inteligencija po uzoru na formulacije koje favoriziraju jednu stranu, a ne favoriziraju drugu stranu. Ovi primjeri doveli su do poticaja generativnoj umjetnoj inteligenciji za koje se čini da su nagnuti i mogli bi se pripisati sljedećem:

  • Probudio generativni AI
  • Anti-wake generativni AI
  • Krajnje desničarski generativni AI
  • Krajnje lijevi generativni AI
  • Itd.

Kao što je ranije spomenuto, to nije zbog sposobnosti vještačke inteligencije. Ovo se još jednom u potpunosti odnosi na usklađivanje uzoraka i druge aspekte načina na koji je umjetna inteligencija osmišljena.

Za razliku od pogrešaka, neistina i halucinacija umjetne inteligencije, vrag je u detaljima kako bi otkrio kako držati pristranosti izvan strukture umjetne inteligencije ili kako ih otkriti i nositi se s takvim aspektima.

Istražimo kako pristranosti završavaju unutar generativne umjetne inteligencije.

Izvori i metode koji dovode do generativnih pristranosti umjetne inteligencije

Kada je generativna umjetna inteligencija prvi put postala javno dostupna, pristrani aspekti posebno su dobili naglašenu pozornost stručnjaka i medija. Kao što je ovdje navedeno, AI se često povlačio iz javne upotrebe. Osim toga, obnovljeni napori da se pokuša riješiti pristranosti dobili su dodatnu snagu.

Neki su odmah pretpostavili da su pristranosti unesene kao rezultat pristranosti programera umjetne inteligencije i istraživača umjetne inteligencije koji su razvili AI. Drugim riječima, ljudi koji su razvijali AI dopustili su da se njihove osobne predrasude uvuku u AI. U početku se smatralo da je to bio svjestan pokušaj da se umjetna inteligencija usmjeri u određenim smjerovima pristranih preferencija. Iako se to može ili ne mora dogoditi, drugi su tada sugerirali da su pristranosti možda nenamjerno unesene, naime da su razvijači umjetne inteligencije i istraživači umjetne inteligencije bili naivno nesvjesni da se njihove vlastite predrasude utapaju u razvoj umjetne inteligencije.

Taj pojedinačni ili jednodimenzionalni put zabrinutosti neko je vrijeme dominirao pažnjom.

Više puta sam rekao da zapravo postoji širok niz izvora i metoda koji mogu završiti unošenjem pristranosti u generativnu umjetnu inteligenciju, kao što je objašnjeno na link ovdje. Ovo je izrazito višedimenzionalan problem.

Pominjem ovo jer je ideja da su AI programeri ili samo istraživači AI krivac pogrešno i usko gledište na cjelinu problema. Ne kažem da oni nisu potencijalni izvor, samo naglašavam da nisu jedini potencijalni izvor. Ponekad nam nedostaje šuma umjesto drveća, čineći to striktno fiksirajući pogled na određeno drvo.

Kao što je opsežno opisano u mojim kolumnama, ovo je moj značajan sveobuhvatan popis načina pristranosti koje je potrebno u potpunosti istražiti za bilo koju i sve generativne AI implementacije:

  • Pristranosti u izvornim podacima s interneta koji su korišteni za podatkovnu obuku generativne umjetne inteligencije
  • Pristranosti u generativnim algoritmima umjetne inteligencije koji se koriste za usklađivanje uzoraka na izvornim podacima
  • Pristranosti u ukupnom dizajnu umjetne inteligencije generativne umjetne inteligencije i njene infrastrukture
  • Pristranosti programera umjetne inteligencije, bilo implicitno ili eksplicitno u oblikovanju generativne umjetne inteligencije
  • Pristranosti ispitivača umjetne inteligencije, bilo implicitno ili eksplicitno u testiranju generativne umjetne inteligencije
  • Pristranosti RLHF-a (učenje s pojačanjem ljudskim povratnim informacijama) bilo implicitno ili eksplicitno od strane dodijeljenih ljudskih pregledatelja koji prenose smjernice za obuku generativnoj umjetnoj inteligenciji
  • Neispravnosti facilitacije AI-a za operativno korištenje generativne AI
  • Pristranosti u svim postavkama ili zadanim uputama uspostavljenim za generativnu umjetnu inteligenciju u svakodnevnoj upotrebi
  • Pristranosti namjerno ili nenamjerno uključene u upite koje unese korisnik generativne umjetne inteligencije
  • Pristranosti sistemskog stanja u odnosu na ad hoc pojavu kao dio generiranja nasumičnog vjerojatnosnog rezultata od strane generativne umjetne inteligencije
  • Pristranosti koje nastaju kao rezultat prilagodbi u hodu ili u stvarnom vremenu ili treninga podataka koji se javljaju dok se generativna umjetna inteligencija aktivno koristi
  • Odstupanja uvedena ili proširena tijekom AI održavanja ili održavanja generativne AI aplikacije i njenog kodiranja za usklađivanje uzorka
  • drugo

Razmislite o popisu trenutak ili dva.

Ako biste nekako iskorijenili bilo kakvu mogućnost da se pristranosti uvedu putem AI programera ili istraživača AI-ja, još uvijek se suočavate s mnoštvom drugih sredstava koja neizbježno mogu obuhvatiti pristranosti. Nije dovoljno usredotočiti se na samo jedno ili čak nekoliko mogućih curenja. Svi drugi putovi pružaju daljnje mogućnosti za pristranosti koje se uvlače u sliku.

Oslobađanje od generativnih predrasuda umjetne inteligencije slično je složenom zamršenom gambitu "udari krticu".

TruthGPT i izbori rukovanja pristranostima

Pokrili smo aspekt da je suočavanje s pogreškama, neistinama i halucinacijama umjetne inteligencije u tijeku i možete očekivati ​​stalnu poplavu najava o napretku umjetne inteligencije koji se bavi tim problemima.

Isto nije tako lako po pitanju pristranosti.

Što bi TruthGPT mogao učiniti ili biti osmišljen da učini u vezi s pristranostima?

Razmotrite ove tri moguće opcije:

  • 1) Sve je dozvoljeno. Osmislite generativnu umjetnu inteligenciju da izbaci bilo što bez ikakvog privida filtriranja povezanog s pristranostima. Neka se sve druži.
  • 2) Dopustite postavke za "preferirane" pristranosti. Osmislite generativnu umjetnu inteligenciju za stvaranje predrasuda koje se smatraju "poželjnima ili favoriziranima" prema onima koji osmišljavaju, postavljaju ili koriste generativnu umjetnu inteligenciju.
  • 3) Nema dopuštenih pristranosti. Osmislite generativnu umjetnu inteligenciju da nikakve pristranosti bilo koje vrste nisu dopuštene, tako da u svakom trenutku i na sve načine upotrebe nikada ne postoje pristranosti izražene u bilo kojem od objavljenih eseja.

Nedvojbeno možete zamisliti povike i kontroverze povezane sa svakom od gore navedenih opcija. Niti jedna od opcija vjerojatno neće biti u potpunosti zadovoljavajuća. Svi oni imaju svoje vlastite demone i zamke.

Ovom ću se obratiti sljedeće.

Za Sve ide opcija generativne umjetne inteligencije, pristranosti bi stalno bile naprijed i u sredini. Vrtlog društvenog protesta i prijezira bio bi golem. To bi naizgled izazvalo ogroman pritisak da se zatvori generativna umjetna inteligencija. Možete također lako zamisliti da bi regulatori i zakonodavci bili potaknuti na akciju, tražeći uspostavu novih zakona o umjetnoj inteligenciji kako bi se zatvorila ova vrsta generativne umjetne inteligencije.

U slučaju Dopusti postavke opcija generativne umjetne inteligencije, ideja je da netko mora odlučiti koje predrasude prihvaća. Moguće je da tvrtka koja osmišljava AI postavlja parametre. Moguće je da tvrtka koja postavlja generativni AI postavlja parametre. Još jedna ideja koja se spominje jest da bi svaki korisnik mogao odabrati željene skupove pristranosti. Kada prvi put koristite takvu generativnu umjetnu inteligenciju, možda će vam se prikazati opcije ili možete unijeti svoje postavke u aplikaciju umjetne inteligencije tijekom postavljanja.

Ovaj potonji pristup mogao bi se činiti kao da bi svima bio ugodan. Svaka bi osoba dobila predrasude koje želi vidjeti. Slučaj zatvoren. Naravno, malo je vjerojatno da će ovo biti tako dobrodošlo sve rečeno. Ideja da bi ljudi mogli uroniti u predrasude i koristiti generativnu umjetnu inteligenciju kao neku vrstu eho komore za te predrasude sigurno će probuditi društveni tjeskob.

Konačno, u slučaju Bez predrasuda opcija, ovo zvuči dobro, ali pokreće litaniju povezanih problema. Preispitajmo okolnosti generativne umjetne inteligencije koja daje esej u kojem se navode pozitivne primjedbe o određenom političkom vođi. Moguće je da neki smatraju da je ovo pravi esej i da nema pristranosti. S druge strane, možda postoje drugi koji inzistiraju na tome da je ovo pristran esej budući da neopravdano preuveličava pozitivne strane ili ne uspijeva pružiti protutežu negativnim stranama kako bi ponudio uravnoteženu perspektivu. Ovo ilustrira zagonetku predrasuda.

Vidite, pogreške poput dva plus dva jednako četiri ili pet relativno su jasne za rješavanje. Neistine poput pogrešne godine rođenja kako je navedeno za predsjednika relativno je jednostavno razjasniti. Halucinacije umjetne inteligencije poput korištenja mlaznog zrakoplova u 1800-ima također su relativno očite za rješavanje.

Kako bi se generativna umjetna inteligencija trebala osmisliti da se bori s pristranostima?

Zastrašujuće pitanje, sigurno.

TruthGPT o izvedivosti i stvarnosti toga

Hajdemo igrati igru.

Pretpostavimo da je cilj TruthGPT-a da bude vrsta generativne umjetne inteligencije koja vjerojatno neće imati nikakvih predrasuda. Apsolutno i nedvojbeno nema pristranosti. Nadalje, bez obzira na to što korisnik radi, kao što je unošenje pristranih izjava ili pokušaj poticanja generativne umjetne inteligencije na izradu eseja opterećenih pristranostima, generativna umjetna inteligencija to neće učiniti.

Na stranu, mogli biste se gotovo odmah zapitati kako će se ova vrsta generativne umjetne inteligencije nositi s pitanjima povijesne prirode. Zamislite da netko pita o temi političkih predrasuda. Spada li to pod kišobran "predrasuda" i stoga bi generativna umjetna inteligencija pokazala da neće odgovoriti na upit? Dokle seže ova zečja rupa?

U svakom slučaju, ako pretpostavimo u svrhu pažljivog razmišljanja da će TruthGPT biti Bez predrasuda varijantu generativne umjetne inteligencije, moramo uzeti u obzir ove ishode:

  • Nemoguć
  • Moguć
  • drugo

Ishodi se sastoje od toga da je ovo nemoguć cilj i time neće biti postignut. Ili je cilj moguć ali možda ima neke otrežnjujuće bore. Također sam uključio drugo ishod za enkapsulaciju nekih između.

Prvo, raspravimo o nemogućnosti. Ako je zadatak ili projekt nemoguć, možda ste skloni poticanju da se to ne pokušava. Nema smisla težiti nečemu što je nemoguće. Pa, ako malo razmislimo o ovome, ta nemogućnost zapravo ima neke dobre strane povezane s njom. Dopustite mi da objasnim.

Evo potencijalnih razloga zbog kojih bi TruthGPT moglo biti nemoguće ostvariti, a ipak bi se isplatilo poduzeti:

  • 1) Nemoguće jer se misija ili vizija nikada ne mogu postići
  • 2) Nemoguće, ali svejedno vrijedi zbog potencijalne sporedne koristi od značajnih doprinosa unaprjeđenju umjetne inteligencije.
  • 3) Nemoguće, iako može poslužiti kao pravo mjesto za privlačenje pozornosti za pokušaj
  • 4) Nemoguće i promijenit će svoju melodiju i okrenuti ili izmijeniti izvorno namjeravani cilj
  • 5) Impossible still će pokupiti vrhunske AI talente i pomoći u smanjenju konkurencije
  • 6) Ostalo

Isto tako, možemo pretpostaviti da su ovo neki od aspekata TruthGPT-a za ishod koji je dostižan ili moguć u postizanju:

  • 1) Moguće i proizvest će pravovremeno i nepobitno uspješno postignuće
  • 2) Moguće, ali će potrajati puno dulje i biti će puno skuplje od očekivanog
  • 3) Moguće je da će rezultat završiti prilično ispod planiranog cilja
  • 4) Moguće, ali kasno i neugodno zasjenjeno od strane druge generativne umjetne inteligencije koja to također radi
  • 5) Međutim, mogući unutarnji kaos i poteškoće s vodstvom čine stvari ružnima i nedoličnima
  • 6) Ostalo

I da dovršimo popis, evo nekih od ostalih razmatranja:

  • 1) Drugo je da je ovo samo priča, a nikakva akcija, nikad se ne pokreće
  • 2) Ostalo, kao što je AI Zakon, pravna ili društvena AI etika ubacuje ključ u nastojanje
  • 3) Drugi bi mogao biti taj da trud prodaju/kupuju drugi koji žele AI ili talent
  • 4) Drugo bi se moglo sastojati od iznenadnog zajedničkog dogovora, a ne samostalnog
  • 5) Ostali zamjenski znakovi uključuju šokantna otkrića i izazivaju egzistencijalni rizik AI-ja
  • 6) Ostalo

Zbog ograničenog prostora ovdje, neću ulaziti u pojedinosti svih tih permutacija. Ako interes čitatelja bude dovoljno potaknut, rado ću to detaljnije obraditi u kasnijoj kolumni.

Zaključak

George Washington je navodno rekao: "Istina će na kraju prevladati tamo gdje je potrebno iznijeti na vidjelo."

Suočavanje s pristranim aspektima umjetne inteligencije nije samo tehnološki problem koji se rješava pomoću tehnološkog popravka. Vjerojatni napori da se otkrije osjećaj "istine" putem generativne umjetne inteligencije su višestruki. Možete očekivati ​​da će Etika umjetne inteligencije i Zakon o umjetnoj inteligenciji biti bitan dio u otkrivanju kamo sve ovo vodi.

Netko kuca na vratima kabine.

Moguće je da se ispred vrata nalazi (prema mlinu glasina):

  • IstinaGPT
  • IskrenoGPT
  • Neistinit GPT
  • DishonestGPT
  • ZbunjenGPT
  • ZbunjeniGPT
  • Slučajni GPT
  • Itd.

Buddha bi mogao pružiti neke uvide o ovom pitanju: “Postoje samo dvije pogreške koje čovjek može učiniti na putu do istine; ne ići do kraja i ne započeti.” U naporima umjetne inteligencije koji brzo napreduju, trebali bismo se zapitati radimo li takve greške i ako je tako, što bismo trebali učiniti u vezi s tim.

I to je iskrena istina.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- stoički-istinoljubiv-u-svakom-vremenu-pita-ai-etika-i-ai-pravo/