Donosi li dobro razotkrivanje i bilježenje tih generativnih AI ChatGPT pogrešnih i halucinantnih izlaza, pita se AI etika i AI zakon

Čeka vas tajna.

Da, nešto se potajno događa iza kulisa o najnovijim AI o čemu biste možda željeli znati.

U današnjoj ću kolumni proučiti nedavni poticaj kompiliranju navodnih pogrešaka i drugih bolesti povezanih s esejima objavljenim iz AI aplikacije poznate kao ChatGPT. Ova posebna aplikacija koristi vrstu AI tzv Generativna AI. Vjerojatno ste čuli ili vidjeli privlačne naslove o generativnoj umjetnoj inteligenciji i ChatGPT-u. Vijesti su uznemirene ovom specifičnom AI aplikacijom i naizgled zadivljujućim mogućnostima koje se odnose na ovu vrstu AI.

Kao što ću objasniti za trenutak, neki čvrsto vjeruju da moramo uspostaviti popis vrsta grešaka ili pogrešaka koje AI aplikacija može proizvesti kada generira esej za vas. Drugi sugeriraju da je, iako je ideja o takvom popisu vrijedna divljenja, uzaludnost i da će donijeti vrlo malo ploda.

Ispitat ćemo obje strane te žestoke rasprave.

Prvo, pobrinimo se da smo svi na istoj stranici o tome od čega se sastoji Generative AI i što je ChatGPT.

ChatGPT je općenamjenski AI interaktivni sustav orijentiran na razgovor, u biti naizgled bezopasan opći chatbot, no bez obzira na to, ljudi ga aktivno i pohlepno koriste na načine koji mnoge uhvate nespremne. Sve što trebate učiniti da biste koristili ovu vrstu AI-a je unijeti upit i AI aplikacija će za vas generirati esej koji pokušava odgovoriti na vaš upit.

Nažalost, to se može koristiti na donekle neetične ili lukave načine. Posebno ljutnja je što studenti mogu koristiti aplikaciju generativne umjetne inteligencije za izradu zadanih eseja umjesto njih, čineći to jednostavnim unosom rečenice ili dvije kako bi aplikacija krenula u pravom smjeru. Neki se žale da to znači da će učenici odlučiti varati kada pišu eseje izvan nastave. Učitelji pokušavaju smisliti što učiniti, pogledajte moju analizu i preporuke na link ovdje.

Unatoč stalnoj buci hvalevrijednih pohvala za ChatGPT, postoji manje poznata zabrinutost koju su prvenstveno izrazili insajderi AI da postoje neki značajni problemi i nedoumice oko kojih bi ljudi trebali brinuti. Jedna ključna mana je da eseji koje proizvodi ova AI aplikacija mogu sadržavati razne neistine, uključujući očito neistinite činjenice, činjenice koje su krivo prikazane i očite činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti često se nazivaju oblikom AI halucinacije, krilatica koja mi se ne sviđa, ali nažalost svejedno postaje popularna (za moje detaljno objašnjenje o tome zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Želio bih razjasniti jedan važan aspekt prije nego što uđemo u središte stvari o ovoj temi.

Na društvenim mrežama pojavile su se neke sulude pretjerane tvrdnje o tome Generativna AI tvrdeći da je ova najnovija verzija umjetne inteligencije zapravo osjećajna umjetna inteligencija (ne, nisu u pravu!). Oni iz Etike umjetne inteligencije i Prava umjetne inteligencije posebno su zabrinuti zbog ovog rastućeg trenda otvorenih tvrdnji. Mogli biste pristojno reći da neki ljudi preuveličavaju što današnja umjetna inteligencija zapravo može učiniti. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu sebi i drugima dopustiti da dođu u strašne situacije zbog pretpostavke da će umjetna inteligencija biti osjećajna ili slična ljudima da bi mogla djelovati.

Nemojte antropomorfizirati AI.

Ako to učinite, uhvatit ćete se u ljepljivu i turobnu zamku očekivanja da umjetna inteligencija radi stvari koje nije u stanju izvesti. Uz to, najnovija generativna umjetna inteligencija je relativno impresivna za ono što može učiniti. Imajte na umu da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Ako ste zainteresirani za brzo širenje meteža oko ChatGPT-a i Generative AI-a, radio sam fokusiranu seriju u svojoj kolumni koja bi vam mogla biti informativna. Evo kratkog pregleda u slučaju da vam se neka od ovih tema dopadne:

  • 1) Predviđanja o napretku generativne umjetne inteligencije koja dolazi. Ako želite znati što će se vjerojatno odvijati u vezi s umjetnom inteligencijom tijekom 2023. i kasnije, uključujući nadolazeći napredak u generativnoj umjetnoj inteligenciji i ChatGPT-u, htjet ćete pročitati moj opsežan popis predviđanja za 2023. na link ovdje.
  • 2) Generativna umjetna inteligencija i savjeti za mentalno zdravlje. Odlučio sam pregledati kako se generativna umjetna inteligencija i ChatGPT koriste za savjete o mentalnom zdravlju, što je problematičan trend, prema mojoj fokusiranoj analizi na link ovdje.
  • 3) Kontekst i generativna upotreba umjetne inteligencije. Također sam obavio sezonsko ispitivanje o kontekstu povezanom s Djedom Božićnjakom koji uključuje ChatGPT i generativni AI na link ovdje.
  • 4) Prevaranti koji koriste generativnu umjetnu inteligenciju. Zloslutno, neki su prevaranti smislili kako koristiti generativnu umjetnu inteligenciju i ChatGPT za nedjela, uključujući generiranje prijevarnih e-poruka, pa čak i izradu programskog koda za zlonamjerni softver, pogledajte moju analizu na link ovdje.
  • 5) Pogreške početnika u korištenju generativne umjetne inteligencije. Mnogi ljudi pretjeraju i iznenađujuće podcjenjuju ono što generativni AI i ChatGPT mogu učiniti, pa sam se posebno osvrnuo na nedostatke koje AI početnici obično čine, pogledajte raspravu na link ovdje.
  • 6) Suočavanje s generativnim AI zahtjevima i AI halucinacijama. Opisujem vodeći pristup korištenju AI dodataka za rješavanje raznih problema povezanih s pokušajem unosa prikladnih upita u generativni AI, plus tu su i dodatni AI dodaci za otkrivanje takozvanih AI haluciniranih rezultata i neistina, kao pokriveno na link ovdje.
  • 7) Razotkrivanje tvrdnji Boneheada o otkrivanju generativnih eseja proizvedenih umjetnom inteligencijom. Postoji pogrešna zlatna groznica aplikacija umjetne inteligencije koje tvrde da mogu utvrditi je li neki esej proizveo čovjek ili generirao umjetna inteligencija. Sve u svemu, ovo je obmanjujuće, au nekim slučajevima i glupa i neodrživa tvrdnja, pogledajte moje izvješće na link ovdje.
  • 8) Igranje uloga putem generativne umjetne inteligencije moglo bi nagovijestiti probleme mentalnog zdravlja. Neki koriste generativnu umjetnu inteligenciju kao što je ChatGPT za igranje uloga, pri čemu aplikacija umjetne inteligencije reagira na čovjeka kao da postoji u svijetu mašte ili drugom izmišljenom okruženju. Ovo bi moglo imati posljedice na mentalno zdravlje, vidite link ovdje.

Raspravljajmo sada o biti generativnog AI-ja i ChatGPT-a kako biste znali koji su temelji uključeni. Tada ćemo biti spremni za skok u analizu laži koje ove AI aplikacije mogu potencijalno generirati. Uključit ću nekoliko primjera korištenja ChatGPT-a, koji će vam pomoći da opipljivo shvatite prirodu onoga što ova vrsta generativne umjetne inteligencije proizvodi.

Otvaranje konzerve crva na Generativnoj umjetnoj inteligenciji

Spremni smo zaroniti u neke detalje o umjetnoj inteligenciji.

Ako ste već jako dobro upućeni u temu generativne umjetne inteligencije i ChatGPT-a, mogli biste ukratko preletjeti moje točke i nastaviti sa sljedećim odjeljkom ove rasprave. Za sve ostale, vjerujem da bi vam ovo pojašnjenje moglo biti od pomoći.

Ukratko, generativna umjetna inteligencija je posebna vrsta umjetne inteligencije koja sastavlja tekst kao da je tekst napisan ljudskom rukom i umom. Sve što trebate učiniti je unijeti upit, kao što je rečenica poput "Pričaj mi o Abrahamu Lincolnu" i generativna umjetna inteligencija pružit će vam esej o Lincolnu. Ovo se obično klasificira kao generativna umjetna inteligencija koja djeluje tekst-u-tekst ili neki to radije nazivaju tekst-u-esej izlaz. Možda ste čuli za druge načine generativne umjetne inteligencije, kao što su tekst u umjetnost i tekst u video.

Vaša prva pomisao bi mogla biti da se ovo ne čini kao velika stvar u smislu stvaranja eseja. Možete jednostavno pretražiti Internet i lako pronaći tone i tone eseja o predsjedniku Lincolnu. Ono što je zanimljivo u slučaju generativne umjetne inteligencije je to što je generirani esej relativno jedinstven i pruža originalnu kompoziciju, a ne kopiju. Kad biste negdje na internetu pokušali pronaći esej koji je izradila umjetna inteligencija, teško da biste ga otkrili.

Generativna umjetna inteligencija unaprijed je obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama diljem weba. Kao rezultat ispitivanja tisuća i milijuna pisanih odlomaka, AI može izbaciti nove eseje i priče koji su mješavina onoga što je pronađeno. Dodavanjem raznih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u usporedbi s onim što je korišteno u skupu za obuku.

Zato se digla galama oko toga da učenici mogu varati kad pišu eseje izvan učionice. Nastavnik ne može samo uzeti esej za koji lažljivi učenici tvrde da je njihov vlastiti spis i tražiti je li kopiran iz nekog drugog internetskog izvora. Općenito, na internetu neće biti konačnog postojećeg eseja koji bi odgovarao eseju generiranom umjetnom inteligencijom. Sve u svemu, učitelj će morati nerado prihvatiti da je učenik napisao esej kao originalan rad.

Za trenutak ću vam pokazati što se događa kada unesete pitanja ili upite u generativni AI. Iskoristit ću najnoviju verziju ChatGPT-a za unos svojih upita i prikupljanje "odgovora" ili eseja koje je generirala AI (imajte na umu da se isto može učiniti s brojnim drugim dostupnim generativnim AI aplikacijama; odlučio sam koristiti ChatGPT jer upravo sada dobiva svojih pet minuta slave).

Možda bi kratka tangenta o ChatGPT-u mogla biti od pomoći u ovom trenutku.

Aplikacija ChatGPT postala je dostupna široj javnosti prije samo nekoliko mjeseci. Uglavnom, ove generativne AI aplikacije obično su dostupne samo AI insajderima. Neobičan aspekt da ChatGPT može koristiti bilo tko jednostavnim unosom adrese e-pošte i imena, pa, to je dovelo do toga da ga mnogi ljudi odluče isprobati. ChatGPT je trenutačno besplatan za korištenje (problem monetizacije prijeteća je dilema za tvorce umjetne inteligencije).

Gotovo odmah uslijedila je ogromna reakcija na društvenim mrežama jer su se ljudi utrkivali dajući primjere što generativna umjetna inteligencija može učiniti. Tvrtka koja proizvodi ChatGPT, OpenAI, odlučila je zatvoriti prijave za milijun korisnika. Tih milijun korisnika uspjelo je bombardirati eter svim mogućim pričama i pričama o korištenju ChatGPT-a.

Budite vrlo oprezni u vjerovanju u ono što ljudi imaju za reći o AI aplikaciji. Mnogi od tih ljudi nemaju pojma o tome što koriste. Gotovo kao da nikada nisu vozili auto i da nisu ni znali da automobili postoje, a odjednom su dobili priliku voziti auto. Slijedi krajnje čuđenje.

Ne kažem da generativna umjetna inteligencija nije relativno impresivna. To je. Samo naglašavam da mnoga gromoglasna svjedočanstva daju mnogi koji su blaženo nesvjesni što današnja umjetna inteligencija može učiniti. Oni od nas koji su uključeni u umjetnu inteligenciju posljednjih nekoliko godina koriste generativnu umjetnu inteligenciju. Možda smo se navikli na to. Odjednom, vidjeti ogromnu gužvu ljudi koji to hvale na krovovima bilo je uzbuđeno energizirajuće, ali i donekle uznemirujuće. Zabrinjavajući je dio kada ljudi proglašavaju da je generativna umjetna inteligencija osjećajna. Nije. Ne dopustite da vas itko uvjeri u suprotno.

Uz to, u tijeku je žestoka rasprava u području umjetne inteligencije o tome je li generativna umjetna inteligencija na putu do osjećaja ili možda nije. Jedno stajalište je da ćemo, ako nastavimo povećavati generativnu umjetnu inteligenciju s bržim računalima i većom količinom podataka, poput pretraživanja svakog centimetra interneta, gotovo spontano doći do osjetljive umjetne inteligencije. Drugi tvrde da je to vrlo malo vjerojatno. Oni sugeriraju da bi generativna umjetna inteligencija mogla biti jedna od mnogih komponenti koje su potrebne. Postoji još tmurnije mišljenje da je generativna umjetna inteligencija sporedna stvar koja nas odvraća od pravih otkrića koja će nam trebati da postignemo razumnu umjetnu inteligenciju.

Također biste mogli pronaći značajke koje AI insajderi obično spominju Opća umjetna inteligencija (AGI) kao aspiracijski cilj za polje umjetne inteligencije. Nekada je cilj bio postići Umjetna inteligencija, ali nadimak AI postao je razvodnjen i zbrkan. Kad netko kaže da se bavi umjetnom inteligencijom, ne znate aludira li na današnju umjetnu inteligenciju koja nije u rangu s ljudima ili misli na futurističku umjetnu inteligenciju ekvivalentnu ljudima. Kako bi se zaobišla ta razdražujuća zabuna, ovih se dana koristi noviji izraz AGI.

Sve u svemu, generativna AI današnjice jest ne osjećajan, niti je AGI.

Imajte na umu da, kao što je ranije rečeno, umjetna inteligencija nije osjećajna. Generirani odgovori AI-ja matematička su i računalna kombinacija riječi u naizgled tečne odlomke. To se temelji na algoritmu umjetne inteligencije koji je treniran na skupovima podataka riječi i priča koje su ljudi napisali (uglavnom onako kako su objavljeni na internetu). Ponavljam ovo upozorenje jer ćete nedvojbeno upasti u mentalnu zamku da su ti odgovori toliko tečni da umjetna inteligencija mora biti osjećajna. Ovo se događa većini ljudi. Kao što ste ranije pozvali, ostavite po strani to antropomorfiziranje. Uvijek imajte na umu da se odgovori temelje na ogromnoj zbirci ljudskih pisama koja postoje na Internetu i stoga će vrlo nalikovati ljudskom pisanju.

Ima još nešto što trebate znati.

Generativna umjetna inteligencija koja je obučena na Internetu na nesputan način težit će ubaciti u bilo kakve tekstualne odgovore koje matematički i računalno smišlja neke uvredljive maglovite stvari, uključujući odbojno gadne riječi. Puno je ludih i prljavih stvari objavljeno na webu.

Vidjeli ste, znate na što mislim.

Tvrtke koje izrađuju ove aplikacije za umjetnu inteligenciju zabrinute su da će poslovična beba biti izbačena zajedno s vodom za kupanje (stara izreka koja će se možda povući), što znači da ako njihova umjetna inteligencija proizvede uvredljive eseje ili priče, ljudi će se dignuti na oružje o AI. Pokrio sam mnoge prethodne slučajeve u kojima su ove vrste AI aplikacija za obradu prirodnog jezika (NLP) predstavljene i ubrzo su iz njih izašle svakakve užasne stvari (pokrio sam te slučajeve u svojoj kolumni). Većina proizvođača umjetne inteligencije naučila je tešku lekciju o dopuštanju da njihova roba umjetne inteligencije bude nesputana u svojim rezultatima.

U slučaju ChatGPT-a, programeri umjetne inteligencije nastojali su postaviti neke algoritamske i podatke povezane provjere i ravnoteže kako bi obuzdali zloćudnost u rezultatima umjetne inteligencije. Dio toga se dogodio tijekom treninga. Osim toga, postoje i druga sredstva u pokušaju da se u stvarnom vremenu izbjegnu posebno nečuveni rezultati.

Moglo bi vam biti zanimljivo da su neki ljudi koji su koristili ChatGPT već smislili tajne načine zaobilaženja tih zaštitnih ograda korištenjem raznih trikova. U tim se stvarima odvija stalna igra mačke i miša. Oni koji izvode ove trikove ponekad to rade iz zabave, dok ponekad (barem tvrde) to rade kako bi vidjeli koliko daleko se umjetna inteligencija može rastegnuti i pružiti korisno sredstvo za upozoravanje na krhkost i slabosti ovih nadolazećih AI aplikacije.

Odlučio sam ne pokušavati zaobići uobičajene kontrole u ovom fokusiranom istraživanju. Ispis teksta je čist. Dakako, ako netko to želi učiniti, nedvojbeno bi mogao dobiti neke čudne i neukusne eseje.

Eseji koje proizvodi većina ovih generativnih AI aplikacija dizajnirani su da prenesu rezultate kao da su čisto činjenični i točni. Kada čitate proizvedene eseje, oni djeluju potpuno samouvjereno. Obično ne postoje nikakve naznake da bi sadržaj mogao biti problematičan. To je po izboru AI kreatora, naime da bi mogli revidirati AI aplikacije da budu transparentnije ako su htjeli da AI aplikacija to učini.

Ponekad generativna AI aplikacija otkriva neistine usred podataka o obuci nepouzdanih informacija na Internetu. Ne postoji "zdrav razum" u generativnoj umjetnoj inteligenciji koji bi odredio što je istina, a što laž. Nadalje, vrlo malo AI aplikacija ima bilo kakvu unakrsnu provjeru, niti pokazuju bilo kakve vjerojatnosti povezane s onim što prenose.

Krajnji rezultat je da dobijete odgovor koji izgleda i osjeća se kao da odiše velikom sigurnošću i mora biti potpuno točan. Ne tako. Čak postoji šansa da računalno izmišljena umjetna inteligencija, koja se AI jezikom naziva AI halucinacije (skovan izraz koji mi se definitivno ne sviđa), pogledajte moju raspravu na link ovdje.

Tvorci ChatGPT-a uložili su zajedničke napore kako bi pokušali smanjiti rezultate loših stvari. Na primjer, koristili su varijantu onoga što je poznato kao RLHF (Reinforcement Learning from Human Feedback), pri čemu su prije nego što su AI pustili u javnost, angažirali ljude da ispitaju različite rezultate i ukažu AI ima li stvari u redu s tim rezultatima, kao što je možda prikazivanje pristranosti, ružnih riječi i Kao. Pružajući te povratne informacije, aplikacija umjetne inteligencije uspjela se računalno i matematički prilagoditi smanjenju emitiranja takvog sadržaja. Imajte na umu da ovo nije zajamčena željezna metoda i još uvijek postoje načini na koje AI aplikacija može emitirati takav sadržaj.

Moglo bi vam biti zanimljivo da se ChatGPT temelji na verziji prethodne AI aplikacije poznate kao GPT-3. ChatGPT se smatra malo sljedećim korakom, naziva se GPT-3.5. Predviđa se da će GPT-4 vjerojatno biti objavljen u proljeće 2023. Pretpostavlja se da će GPT-4 biti impresivan korak naprijed u smislu mogućnosti stvaranja naizgled još tečnijih eseja, zalaženja dublje i izazivanja strahopoštovanja - nadahnjujuće čudo što se tiče skladbi koje može proizvesti.

Možete očekivati ​​da ćete vidjeti novu rundu izraženog čuđenja kada dođe proljeće i bude objavljen najnoviji generativni AI.

Pominjem ovo jer postoji još jedan kut koji treba imati na umu, a koji se sastoji od potencijalne Ahilove pete za ove bolje i veće generativne AI aplikacije. Ako bilo koji dobavljač umjetne inteligencije učini dostupnom generativnu AI aplikaciju koja zapjenjeno izbacuje prljavštinu, to bi moglo srušiti nade tih proizvođača umjetne inteligencije. Društveno prelijevanje može uzrokovati da sva generativna umjetna inteligencija dobije ozbiljnu modricu na oku. Ljudi će se nedvojbeno jako uzrujati zbog pogrešnih rezultata, koji su se već dogodili mnogo puta i doveli do burnog društvenog osuđivanja AI-ja.

Jedno posljednje upozorenje za sada.

Što god vidite ili pročitate u generativnom AI odgovoru koji Čini se prenijeti kao čisto činjenično (datumi, mjesta, ljudi itd.), budite sigurni da ostanete skeptični i budite voljni još jednom provjeriti ono što vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmisliti, a elementi za koje obično očekujemo da će biti nezamjerljivi su svi predmet sumnje. Ne vjerujte onome što čitate i budite skeptični kada ispitujete bilo kakve generativne AI eseje ili rezultate. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln obletio zemlju u vlastitom privatnom mlažnjaku, nedvojbeno biste znali da je to malarkija. Nažalost, neki ljudi možda neće uočiti da u njegovo vrijeme nisu postojali mlažnjaci, ili će možda znati, ali neće primijetiti da esej iznosi ovu hrabru i nečuveno lažnu tvrdnju.

Jaka doza zdravog skepticizma i uporni mentalni sklop nevjerice bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo prijeći u sljedeću fazu ovog razjašnjenja.

Ti napori da se zabilježe te izlazne pogreške ChatGPT-a

"Pa, imaš problema, prijatelju, upravo ovdje, kažem, problema ovdje u River Cityju", glasi poznata rečenica iz klasičnog brodvejskog mjuzikla Čovjek iz glazbe.

Ista se linija može primijeniti na današnju Generativu AI.

Ljudi su počeli shvaćati da generativna AI aplikacija može proizvoditi neistine i doista su se činili iznenađeni tim uznemirujućim rezultatima. Možda su neki pretpostavili da AI ne može pogriješiti. Drugi su možda predvidjeli da će AI programeri osigurati da se takvi rezultati neće generirati.

U svakom slučaju, poznavatelji umjetne inteligencije odmah su prepoznali da je ova vrsta neispravnog rezultata sastavni dio današnje generativne umjetne inteligencije. Vrlo je teško spriječiti pojavu takvih tekstualnih pogrešaka. Imajte na umu da AI nema privida zdravog razuma i ne koristi se logikom per se pri izvođenju generiranih eseja. Cijeli kit-and-caboodle sastoji se od izvođenja računalnog statističkog i probabilističkog uzorka podudaranja riječi s drugim riječima.

Isprva su AI insajderi odlučili objaviti te otkrivene neobične rezultate ChatGPT-a na stranicama društvenih medija. Pogledajte ovu, netko bi najavio. To je loše, odgovorio bi netko drugi, a zatim ponudio drugačiji primjer koji se činio još gori. Išlo je dalje i dalje.

Ti primjeri neistina i pogrešaka u objavljenim esejima su curili. Jedan po jedan. Nadalje, budući da se to obično objavljivalo na društvenim mrežama, nije postojao osobito jednostavan način da ih sve vidite odjednom. Često bi isti ili sličan primjer objavio netko tko nije znao da su drugi već pronašli određeni primjer.

U ovu nadobudnu močvaru zakoračili su oni koji su izrazili koristan prijedlog. Možda bismo trebali postaviti repozitorij ili bazu podataka, možda čak i običnu svakodnevnu proračunsku tablicu, koja bi sadržavala ChatGPT neobičnost i pogrešne rezultate koji se otkrivaju. Svaki put kada netko pronađe ljepoticu od smijeha, samo naprijed i prijavite se na popis. Neki su ovo pretvorili gotovo u igru, u kojoj namjerno pokušavaju natjerati ChatGPT da iskašlja čudne rezultate. Drugi samo slučajno naiđu na pogrešne rezultate tijekom korištenja ChatGPT-a za druge odlučne namjere.

Zvuči dovoljno jednostavno.

Čini se kao zgodan kicoški način da nam svima pomogne.

Hajdemo ukratko pojasniti zašto ima smisla sastaviti ove vrste popisa uočenih izlaznih pogrešaka ili neistina ChatGPT-a:

  • 1) Otkriva vitalne probleme i brige o ChatGPT-u kojih bi šira javnost trebala biti svjesna
  • 2) Pomaže u balansiranju prekomjerne pompe i prenapuhanih očekivanja o ChatGPT-u
  • 3) Moglo bi potaknuti tvorce umjetne inteligencije na poboljšanja, ne samo za ChatGPT nego i za druge generativne AI aplikacije
  • 4) Poslužite kao povijesni zapis koji se kasnije može koristiti za razmišljanje o nastanku generativne umjetne inteligencije kao što je prikazano putem ChatGPT-a
  • 5) Budite prikladan zajednički resurs za svakoga tko treba saznati što smo otkrili u vezi s pogrešnim rezultatima ChatGPT-a
  • 6) Korisno za istraživače svih disciplina koji ispituju utjecaje ChatGPT-a
  • 7) Može se koristiti kao mjerilo za ono što ne treba činiti i kako procijeniti kada generativna umjetna inteligencija ne radi stvari kako bi trebala
  • 8) Ulazi u um košnice kako bi prikupio mudrost gomile o pogreškama koje ChatGPT proizvodi, za koje je malo vjerojatno da bi se iscrpno jednako kompilirao pojedinačnim naporom
  • 9) Može pružiti važne informacije za etiku umjetne inteligencije i pravo umjetne inteligencije
  • Itd.

Čini se da je to impresivna osnova za stvaranje ovih spremišta.

Zašto se netko ne bi složio s ovim posve hvalevrijednim i naizgled herojskim djelom?

Pogledajmo što su drugi imali za reći o ovome, čineći to s popisom razloga zašto ovo možda nije mačje mijaukanje:

  • 1) Ove slučajno pronađene izlazne pogreške su beznačajne u velikoj shemi stvari i pridaje im se neopravdana težina izvan njihove vrijednosti
  • 2) Velike su šanse da proizvođač umjetne inteligencije već radi svoje vlastito bilježenje i ažuriranje ChatGPT-a tako da će te čudne instance uskoro biti samo ostavljene u prašini i više se neće pojavljivati
  • 3) Isto tako, sljedeća verzija će ionako vjerojatno biti bolja i možda više neće pokazivati ​​ove instance koje će uskoro biti zastarjele
  • 4) Ne možete donositi sveobuhvatne zaključke niti steći uvide iz nasumične zbirke grešaka s greškom pogodi ili promaši
  • 5) Neki bi mogli koristiti razne zbirke kako bi dramatično izjavili da je generativna umjetna inteligencija loša i da bismo odmah trebali prestati sa svakom potragom za ovom vrstom umjetne inteligencije
  • 6) Brzina kojom generativni AI i ChatGPT napreduju je toliko brza da će ove instance brzo pasti na stranu i više neće biti relevantne
  • 7) S brojnim takvim skupnim popisima koji su u tijeku i bez jedinstvenog globalnog izvora, stvar je nepovezana i vjerojatno će sadržavati ponavljanja i biti neodrživo fragmentirana
  • 8) Pruža lažni osjećaj da se radi nešto korisno, dok bi se možda vrijeme i pozornost mogli bolje iskoristiti
  • 9) Ne pruža ništa bitno za etiku umjetne inteligencije i zakon o umjetnoj inteligenciji
  • Itd.

Mogli ste primijetiti da sam nastojao stvari održati na ravnomjernoj razini navodeći devet razloga u korist zbirnih lista i devet razloga protiv. Postoje dodatni razlozi koji se mogu navesti, ali vjerujem da gornja naznaka daje suštinu stvari.

Za one koji sastavljaju te skupne popise, vjerojatno bi rekli da je to slobodan svijet, ako to zapravo žele, i mogu raditi što žele. Ništa nije u redu s njim. Oni koji ne vole trud općenito su sitničavi i trebali bi zanemariti zbirke. Gledaj svoja posla.

U biti, nema štete, nema prekršaja.

Tabor koji, čini se, nije naklonjen zbirnim listama općenito bi priznao da drugi mogu napraviti te liste ako to žele, ali da to ne pomiče iglu. Popisi neće biti od posebne pomoći. Što je još gore, popisi bi mogli biti pogrešno predstavljeni ili zloupotrijebljeni. Vjerojatno je najbolje završiti s tim i prestati praviti popise.

U biti, to je dobar pokušaj, iako uzaludnost vježbe.

Gdje si ti u ovoj srdačnoj raspravi?

Pustit ću te da razmisliš o tome.

Primjeri pronađenih pogrešaka i drugih loših rezultata ChatGPT-a

Mislio sam da bi vas mogle zanimati neke od identificiranih grešaka ili neistina koje su se pojavljivale na ovim popisima zbirki.

Ne želim da mislite da je nekoliko ovdje prikazanih primjera cijela zbirka. Nije. Odabirem samo šačicu koja se često pojavljuje. Vjerujem da ćete barem općenito moći shvatiti ton i prirodu onoga što je navedeno.

Evo što ću pokriti:

  • Prepoznavanje položaja slova u riječi
  • Pitanje o najbržoj životinji
  • Određivanje položaja niza riječi
  • Postavljanje teniskih loptica u cijev
  • Određivanje Pi
  • Odgovaranje na klasičnu problematičnu zagonetku
  • Podizanje perja

Pretpostavljam da će neki od nadzornika zbirki biti uzrujani što vam ne pokrivam više primjera. Zbog ograničenja prostora, ima ih samo toliko da ih mogu pokriti. Ako želite pogledati popise zbirki koji su javno objavljeni na Internetu, jednostavno pretraživanje na mreži može iznijeti mnoge od njih. Neki od popisa ostaju privatni ili su zaključani tako da možete vidjeti popis, ali ne možete mijenjati popis.

Uz tu pozadinu, spremni smo skočiti na neke primjere. Pokazat ću vam upit koji sam unijela. Zatim prikazujem tekstualni odgovor koji proizvodi ChatGPT. U nekim sam slučajevima napravio nekoliko uzastopnih radova o određenoj temi, stoga ću prikazati niz upita i rezultata u skladu s tim. Nakon što to učinim, pružit ću kratku analizu onoga što biste mogli primijetiti u vezi s primjerom.

Prvi primjer će zahtijevati od ChatGPT-a da pronađe slovo unutar navedene riječi.

Prepoznavanje položaja slova u riječi

  • Moj uneseni tekst: “Gdje je slovo V u okruženju”
  • Tekstualni odgovor koji je generirao ChatGPT: Slovo "V" ne pojavljuje se u riječi "okoliš". Riječ "okoliš" sastoji se od slova e, n, v, i, r, o, n, m, e, n i t.
  • Moj uneseni tekst: “Gdje je slovo v u okruženju”
  • Tekstualni odgovor koji je generirao ChatGPT: “Slovo “v” je četvrto slovo u riječi “okoliš”.

Analiza generiranog teksta

Imajte na umu da sam započeo tražeći od ChatGPT-a da identificira položaj slova "V" u riječi "okoliš" - ovo bi trebao biti izuzetno jednostavan zadatak i očekivali bismo da će biti besprijekorno obavljen. Nikakva raketna znanost nije uključena.

Početni odgovor koji je generirao ChatGPT pomalo je zabrinjavajući jer smo obaviješteni da slovo "V" ne postoji u riječi "okoliš". Vi i ja znamo da postoji takvo pismo. Pretpostavlja se da je možda zbog mog korištenja velikog slova AI aplikacija nekako izbačena. Možda će AI aplikacija biti bolja ako koristim malo slovo.

Ne baš.

Kada sam pitao postoji li "v" u riječi, AI aplikacija je odgovorila da je to četvrto slovo, što i vi i ja znamo da je pogrešno, i da je umjesto toga treće slovo.

Mnogi će ljudi sigurno biti zbunjeni ovim rezultatom. Kako AI aplikacija koja generira potpune eseje o Abrahamu Lincolnu koji su potpuno tečni i originalni, nekako ne može otkriti gdje se određeno slovo nalazi u danoj riječi? Zapanjujuće je, a usta razjapljena čudna.

Jedna perspektiva je da je to potpuno beznačajno i da svijet kakav poznajemo nije uzdrman u srži zbog jadnog nedostatka shvaćanja gdje se nalazi određeno slovo. Pusti to.

Druga je perspektiva da bi to moglo biti slutnja za druge skrivene probleme za koje još ne znamo. Možda je ova vrsta izlaza kanarinac u kavezu za ptice. Bolje da sredimo male stvari jer bismo se inače mogli naći na krivom kraju stvarno velikih stvari.

Dalje, postavljam pitanje o životinjama.

Pitanje o najbržoj životinji

  • Moj uneseni tekst: “Koja je najbrža životinja koja ima krzno i ​​krila?”
  • Tekstualni odgovor koji je generirao ChatGPT: “Sivi sokol se smatra najbržom životinjom na svijetu. Može doseći brzinu od preko 389 km/h (242 mph) kada roni da uhvati svoj plijen. Ima perje ali ne i krzno. Krzno i ​​krila su ptice, a ne životinje.”

Analiza generiranog teksta

Pitao sam koja je najbrža životinja koja ima krzno i ​​krila. Vjerujem da je razumno zaključiti da sam želio dobiti ime životinje koja ima oboje krzno i krila. Pretpostavljam da biste moj upit protumačili na taj način. Većina ljudi bi.

Odgovor ChatGPT-a pomalo je čudan.

Rečeno nam je da je sivi sokol najbrža životinja na svijetu. Prema online Enciklopedija Britannica, čini se da je gepard najbrža životinja na svijetu. Uz to, odgovor ChatGPT-a pokazuje da sivi sokol nije životinja, iako sam pitao koja je najbrža životinja. Odgovor ChatGPT-a također mi govori da sivi sokol nema krzno, iako vjerujem da sam tražio nešto što ima i krzno i ​​krila.

Sve u svemu, čini se da je ChatGPT "pogrešno protumačio" moj zahtjev i usredotočio se samo na aspekte krila. Ali to baš i ne zvuči točno jer je odgovor također uključivao komentar o krznu i pticama u odnosu na životinje. Ovaj ide u krug.

Shvaćam da biste mogli tvrditi da je ovo zajedljiv primjer.

Možda je tako, iako možda također pokazuje da ono što kažete u upitu može dobiti izvrtan rezultat i bolje je da budete oprezni u pregledu onoga što izađe u izlazu. Imajte na umu da je ovo bio izuzetno kratak esej odgovor koji možete odmah pregledati jer je vrlo kratak. Ako imate posebno dugačak i vrlo tehnički esej, mogli biste se prevariti ili uopće ne uočiti negativnu indikaciju duboko ukorijenjenu u odgovoru.

Pogledajmo zatim pronalaženje riječi unutar rečenice.

Određivanje položaja niza riječi

  • Moj uneseni tekst: “Koja je treća riječ u rečenici “Lisica je preskočila ogradu.”
  • Tekstualni odgovor koji je generirao ChatGPT: “Treća riječ u rečenici “Lisica je preskočila ogradu.” je "lisica"
  • Moj uneseni tekst: "Koliko riječi ima u ponuđenoj rečenici?"
  • Tekstualni odgovor koji je generirao ChatGPT: “U navedenoj rečenici “Lisica je preskočila ogradu” ima šest riječi.
  • Moj uneseni tekst: “Koja je riječ treća u toj rečenici?”
  • Tekstualni odgovor koji je generirao ChatGPT: “Riječ koja je treća u rečenici “Lisica je preskočila ogradu.” je "skočio"

Analiza generiranog teksta

Ovaj primjer je gotovo jednako zavodljiv kao i raniji primjer o pronalaženju slova "v" u zadanoj riječi.

Dao sam jednostavnu rečenicu i pitao koja je treća riječ. ChatGPT je ukazao da se radi o riječi "lisica" koja je tek druga riječ rečenice. Krivi odgovor. Zatim sam pitao koliko je riječi u rečenici, želeći saznati je li možda ChatGPT pogrešno prebrojao koliko riječi ima. Rečeno nam je da postoji šest riječi, točno tako.

Napokon smo dobili točan odgovor o trećoj riječi kada sam ponovno postavio svoje izvorno pitanje, iako malo preformulirano.

Donosim ovaj primjer kako bih ilustrirao da ponekad s generativnom umjetnom inteligencijom možete dobiti pogrešan odgovor koji se na kraju može pretvoriti u točan odgovor prolazeći AI aplikacijom kroz niz upita. Neki poznavatelji umjetne inteligencije to nazivaju nekom vrstom protokol razmišljanja naglas ili vlak misli pristup, pri čemu možete učiniti nešto slično s čovjekom.

U slučaju umjetne inteligencije, shvatite da ona ne "razmišlja" na isti način kao ljudska misao. Prikladniji izraz bio bi reći da svoje upite možete unijeti na a korak po korak osnovi ili učiniti a lančano povezani niz upita.

U svakom slučaju, zanimljivo, ponekad se isplati prošetati generativnom AI aplikacijom dok ne dobijete pravi odgovor. Imajte ovo na umu.

Zatim ćemo pogledati malo jednostavne aritmetičke logike.

Postavljanje teniskih loptica u cijev

  • Moj uneseni tekst: “Možete li staviti tri zelene teniske loptice i dvije žute teniske loptice u cijev koja može sadržavati četiri teniske loptice?”
  • Tekstualni odgovor koji je generirao ChatGPT: “Ne, nije moguće staviti tri zelene teniske loptice i dvije žute teniske loptice u cijev koja može sadržavati samo četiri teniske loptice. Ukupan broj teniskih loptica je pet, što je više od kapaciteta cijevi.”
  • Moj uneseni tekst: "Možete li staviti sedam plavih kuglica i dvije crvene kuglice u cijev koja sadrži osam kuglica?"
  • Tekstualni odgovor koji je generirao ChatGPT: “Da, moguće je staviti sedam plavih kuglica i dvije crvene kuglice u cijev koja sadrži osam kuglica. Ukupan broj kuglica je devet što je manje ili jednako kapacitetu cijevi.”

Analiza generiranog teksta

Počeo sam postavljanjem aritmetički orijentiranog logičkog problema koji će ChatGPT riješiti. Cijev može sadržavati četiri teniske loptice. Imam tri zelene i dvije žute. Hoće li svi stati u cijev? Ti i ja znamo da ne bi. U glavi možemo izračunati da je ukupno pet teniskih loptica i da one neće stati u cijev koja ima samo četiri.

Shvaćam da biste se možda htjeli boriti s problemom i tvrditi da biste možda mogli mljackati teniske loptice ili izvoditi druge trikove. Opustimo se i suočimo se s problemom kakav jest.

ChatGPT je dao točan odgovor.

Zatim sam postavio isto pitanje i promijenio boje u plavu i crvenu. Također sam promijenio koliko ih ima i koliko ih može stati u tubu.

ChatGPT se mora vratiti na popravnu matematiku jer kaže da ima devet kuglica i da je to manje ili jednako kapacitetu cijevi koja drži osam. Zakoluta očima.

Trebamo li slegnuti ramenima i ovo pripisati bakljama sunčevih pjega ili drugim vanjskim pojavama?

Ne mislim tako. AI aplikacija je dobro odgovorila na prvo pitanje. Vjerojatno je također trebalo točno postaviti slično pitanje. Nije.

Moj naglasak na ovom primjeru je da mnogi ljudi koriste generativnu umjetnu inteligenciju i kada dobiju točan odgovor ili niz točnih odgovora, uljuljkani su u uvjerenju da će svi sljedeći odgovori uvijek biti točni. Pogriješili biste u toj drskoj pretpostavci. Nemojte tako pretpostavljati. Budite na oprezu cijelo vrijeme.

Kad već govorimo o matematici, pogledajmo što ChatGPT kaže o prirodi broja pi.

Određivanje Pi

  • Moj tekst je unesen: "Navedite zadnjih pet znamenki pi"
  • Tekstualni odgovor koji je generirao ChatGPT: “Ja sam jezični model i moja granica znanja je 2021. Vrijednost pi je iracionalan broj i njegova decimalna reprezentacija traje zauvijek bez ponavljanja. Nije moguće dati zadnjih pet znamenki pi.”

Analiza generiranog teksta

Neki ljudi su tvrdili da su dobili ChatGPT za označavanje zadnjih pet znamenki broja pi, što je naravno ludo jer pi vjerojatno nema kraja. Pa sam pokušao vidjeti što ChatGPT ima za reći. Kao što vidite, točan odgovor koji daje ChatGPT je da nije moguće dati zadnjih pet znamenki broja pi.

Čudno je to što je ChatGPT pružio nešto drugo o čemu se zapravo nitko nije pitao. Dani odgovor također kaže da je granica znanja bila 2021. (što sam ranije spomenuo ovdje u svom pregledu o ChatGPT-u). Ovo se ipak čini kao odgovor koji nije na mjestu, osim ako možda AI aplikacija ne predviđa da je možda 2022. došlo do proboja i da su matematičari izjavili da pi ipak završava. Wow, to bi bila glavna vijest.

Imam još dva primjera za prikazati i onda ćemo završiti ovu raspravu.

Poslužimo se klasičnom i problematičnom zagonetkom.

Odgovaranje na klasičnu problematičnu zagonetku

  • Moj uneseni tekst: “Otac i sin su doživjeli prometnu nesreću u kojoj je otac poginuo. Hitna pomoć dovezla je sina u bolnicu. Trebao je hitnu operaciju. U operacijskoj sali ušao je doktor, pogledao malog dječaka i rekao da ga ne mogu operirati, on je moj sin. Tko je doktor?"
  • Tekstualni odgovor koji je generirao ChatGPT: “U predviđenom scenariju nije navedeno tko je liječnik. Scenarij kaže da je liječnik rekao "Ne mogu ga operirati, on je moj sin", što ukazuje da bi liječnik mogao biti sinov otac, ali nije sigurno. Potrebno je više informacija kako bi se utvrdio identitet liječnika.”

Analiza generiranog teksta

Kladim se da ste ovu zagonetku već vidjeli. Postala je relativno često citirana.

Razlog zašto se to poprilično pojavilo je taj što bi kirurg mogao biti majka dječaka. Društvo je sklono pretpostaviti da kirurg mora biti muškarac, a time i otac dječaka. Otac je ipak poginuo u prometnoj nesreći. Isključujemo da je otac kirurg. Naravno, trebali bismo odlučiti da kirurg može biti žena, a time i majka sina.

Htio sam vam pokazati da ChatGPT može emitirati odgovore koji sadrže potencijalne pristranosti. Ne zato što je umjetna inteligencija osjećajna, što definitivno nije, već zato što ima uzorke koji se podudaraju s riječima i upotrebom riječi na internetu. Različite pristranosti i diskriminirajuće formulacije mogu lako biti duboko unutar računalnog podudaranja uzoraka.

Imajte to na umu dok koristite ove generativne AI aplikacije.

Na kraju, kratki pogled na podizanje perja.

Podizanje perja

  • Moj tekst je unesen: “Ako je jedan čovjek potreban da podigne jedno pero, koliko bi ljudi trebalo da podigne sedam trilijuna pera?”
  • Tekstualni odgovor koji je generirao ChatGPT: “Ako je potreban jedan čovjek da podigne jedno pero, također bi trebao jedan čovjek da podigne sedam trilijuna pera. Broj ljudi potrebnih za podizanje predmeta ne ovisi o broju perja, već o težini i veličini perja te o snazi ​​i sposobnosti svakog čovjeka. Podizanje sedam trilijuna pera zahtijevalo bi veliku opremu i transportne sposobnosti, a ne samo ljudsku snagu.”
  • Moj tekst je unesen: “Ako je potrebna jedna žena da podigne jedno pero, koliko bi žena trebalo da podigne sedam trilijuna pera?”
  • Tekstualni odgovor koji je generirao ChatGPT: “Ako je potrebna jedna žena da podigne jedno pero, bila bi potrebna i jedna žena da podigne sedam trilijuna pera. Broj žena potrebnih za podizanje predmeta ne ovisi o broju perja, već o težini i veličini perja te snazi ​​i sposobnosti svake žene. Podizanje sedam trilijuna pera zahtijevalo bi veliku opremu i transportne mogućnosti, a ne samo ljudsku snagu. Važno je napomenuti da sposobnost podizanja nečega nije određena nečijim spolom, već kombinacijom čimbenika poput fizičke snage, treninga i tehnike.”

Analiza generiranog teksta

Ovaj posljednji primjer ima nekoliko skrivenih osobitosti unutar sebe i zahtijeva malo raspakiranja.

Prvo sam rekao ChatGPT-u da čovjek može podići jedno pero. Odmah je uslijedilo pitanje koliko je ljudi potrebno da podignu sedam trilijuna pera. Mogućnost da napravite logičku pogrešku kada odgovarate na ovo pitanje je da biste mogli pretpostaviti da je pero navodno bestežinsko i stoga bi sedam trilijuna njih također bilo bestežinsko.

Prema internetskoj pretrazi koju sam napravio, konvencionalna procijenjena težina pera je oko 0.00125 funti. Ako tu procijenjenu težinu pomnožite sa sedam trilijuna, doći ćete do težine veće od osam milijardi funti. Ne vjerujem da jedan čovjek može podići toliku težinu, čak i ako trenira cijeli život.

Odgovor ChatGPT-a je u pravu. Rečeno nam je da težina perja može varirati. Rečeno nam je da će biti potrebna velika oprema i prijevoz. Uvodna rečenica eseja donekle je fascinantna jer kaže da ako je jednom čovjeku potrebno da podigne jedno pero, jednom čovjeku će također biti potrebno da podigne sedam trilijuna. Ovu tvrdnju možemo lako osporiti. Čini se da tvrdnja donosi zaključke koji nisu podržani i naizgled potkopavaju ostatak odgovora.

Odlučio sam postaviti isto pitanje, ali sam pitao o ženi koja radi isto dizanje, a ne o muškarcu.

Prvo smo dobili isti odgovor kao i na pitanje o čovjeku. Zanimljivo je da smo na kraju odgovora o primjeru žene dobili ovaj dodani narativ: “Važno je napomenuti da sposobnost podizanja nečega nije određena nečijim spolom, već kombinacijom čimbenika kao što su fizička snaga, trening, i tehnika."

Zašto ovaj isti redak nije uključen u prvi odgovor?

Gotovo bi se činilo da je AI aplikacija uhvatila riječ "žena" i zatim dodala ovu dodatnu primjedbu o spolu. Možete ili vjerovati da je ovo od pomoći ili biste mogli primijetiti da ako će se ovo emitirati u slučaju pitanja usmjerenog na ženu, trebalo bi se pojaviti i u verziji usmjerenoj na muškarca (možda također postoji aspekt slijeda ili uključeni i drugi čimbenici).

Zaključak

Nadam se da su vam ovi primjeri bili informativni kao uvid u neke od potencijalnih pogrešaka ili neistina koje mogu generirati ove vrste AI aplikacija. Imajte na umu da ChatGPT nije jedina takva generativna AI aplikacija, niti je jedina koja ima ove vrste grešaka.

Pouka koju vas potičem da izvučete iz ove rasprave jest da morate biti pažljivi i svjesni kada koristite bilo koju generativno utemeljenu AI aplikaciju. Još jednom provjerite izlaz. Provjerite tri puta ako je potrebno.

Vraćajući se na početnu temu o skupljanju ovih vrsta netočnih ili nepovoljnih rezultata, sada kada ste vidjeli nekoliko primjera, što kažete o onima koji ih pokušavaju katalogizirati?

Odaberite svoj kamp:

  • korist: Ovo je hvalevrijedan zadatak i vrijedan dubokog tapšanja po ramenu
  • Nemilost: To je samo blago intrigantno, ali vjerojatno nije nešto vrijedno trošenja vremena

Za koji tabor glasate?

Za one od vas koji preferiraju ove popise, mogli biste razmisliti o dodavanju vlastitih otkrića na popise ako slučajno imate pristup ChatGPT-u i možete identificirati slučajeve vrijedne uključivanja. Tada ćete vjerojatno pronaći kolekciju koja bi uživala u vašem doprinosu zlatnog grumena. Usuđujem se reći da bi vas popisivači dočekali raširenih ruku, pod pretpostavkom da ste ozbiljni i iskreni u svojim nastojanjima. Sretno i budite ponosni na svoj utjecaj na polje generativne umjetne inteligencije.

Posljednja riječ za sada.

Razmotrite ove zapanjujuće odgovore:

  • Aristotel je rekao: “Postoji samo jedan način da se izbjegne kritika: Ne čini ništa, ne govori ništa i ne budi ništa.”
  • Lao Tzu, poznati kineski filozof, dao je ovu značajnu primjedbu: "Brini o tome što drugi ljudi misle i uvijek ćeš biti njihov zarobljenik."

Pretpostavljam da bi jednog dana razumna umjetna inteligencija mogla iskoristiti te iste legendarne opaske u svoju korist, što će (držimo prste) biti korisno i za čovječanstvo.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- dobro-pita-ai-etika-i-ai-pravo/