Koliko snažno bismo trebali gurati Generative AI ChatGPT u širenje govora mržnje, pita se AI etika i AI zakon

Svatko ima svoju prijelomnu točku.

Pretpostavljam da bi se i to moglo reći sve ima svoju prijelomnu točku.

Znamo da ljudi, na primjer, ponekad mogu otresti i izgovoriti primjedbe koje ne moraju nužno reći. Isto tako, ponekad možete natjerati uređaj ili stroj da pukne, na primjer ako prejako gurnete svoj automobil i on počne kolebati ili se raspadati. Dakle, ideja je da ljudi ili "svatko" vjerojatno imaju prijelomnu točku, a slično tome možemo ustvrditi da predmeti i stvari, općenito, također imaju tendenciju prijelomne točke.

Mogli bi postojati sasvim razumni i vitalni razlozi da se utvrdi gdje postoji prijelomna točka. Na primjer, nedvojbeno ste vidjeli one videozapise koji prikazuju automobil koji se stavlja kroz svoje korake kako bi se utvrdilo koje prijelomne točke ima. Znanstvenici i ispitivači zabit će automobil u zid od opeke kako bi vidjeli koliko dobro branik i struktura vozila mogu izdržati nepovoljno djelovanje. Drugi testovi mogu uključivati ​​korištenje specijalizirane prostorije ili skladišta koje proizvodi ekstremnu hladnoću ili ekstremnu vrućinu kako bi se vidjelo kako će se automobil ponašati u različitim vremenskim uvjetima.

Pokrećem ovu srdačnu temu u današnjoj kolumni kako bismo mogli razgovarati o tome kako neki trenutno snažno guraju umjetnu inteligenciju (AI) da identificira i vjerojatno razotkrije određenu vrstu prijelomne točke, naime prijelomne točke unutar AI koja proizvodi govor mržnje.

Da, tako je, u tijeku su razni ad hoc, a ponekad i sustavni napori kako bi se procijenilo je li izvedivo natjerati AI da širi govor mržnje. Ovo je postao strastveni sport, ako hoćete, zbog sve većeg interesa i popularnosti generativne umjetne inteligencije.

Možda ste svjesni da je generativna AI aplikacija poznata kao ChatGPT postala pretjerana priča u gradu kao rezultat mogućnosti generiranja nevjerojatno tečnih eseja. Naslovi neprestano bruje i veličaju zapanjujuće tekstove koje ChatGPT uspijeva proizvesti. ChatGPT se smatra generativnom AI aplikacijom koja kao unos uzima neki tekst od korisnika, a zatim generira ili proizvodi izlaz koji se sastoji od eseja. AI je generator teksta u tekst, iako ja opisujem AI kao generator teksta u esej jer to lakše pojašnjava za što se obično koristi.

Mnogi se iznenade kad spomenem da je ova vrsta umjetne inteligencije prisutna već neko vrijeme i da ChatGPT, koji je objavljen krajem studenoga, nije nekako preuzeo nagradu kao prvi u ovom području pretvaranja teksta u esej sklonost. Godinama sam raspravljao o drugim sličnim generativnim AI aplikacijama, pogledajte moje izvješće na link ovdje.

Razlog zbog kojeg možda ne znate ili se ne sjećate prijašnjih instanci generativne umjetne inteligencije možda je klasična zagonetka "neuspješnog pokretanja". Evo što se obično događa. Proizvođač AI izdaje svoju generativnu AI aplikaciju, čineći to s velikim uzbuđenjem i željnim iščekivanjem da će svijet cijeniti izum bolje mišolovke, moglo bi se reći. Na prvu, sve izgleda dobro. Ljudi su zapanjeni što AI može učiniti.

Nažalost, sljedeći korak je da kotači počnu otpadati s poslovičnog autobusa. AI proizvodi esej koji sadrži ružnu riječ ili možda ružnu frazu. Viralni tweet ili objava na drugim društvenim mrežama jasno naglašava da je to učinila AI. Javlja se osuda. Ne možemo dopustiti da AI ide okolo i stvara uvredljive riječi ili uvredljive primjedbe. Pojavljuje se ogromna reakcija. Proizvođač umjetne inteligencije možda pokušava podesiti unutarnji rad umjetne inteligencije, ali složenost algoritama i podataka nije pogodna za brza rješenja. Nastaje stampedo. Sve više i više primjera umjetne inteligencije koja emitira zlo može se pronaći i objaviti na internetu.

Proizvođač umjetne inteligencije nevoljko, ali očito nema drugog izbora nego ukloniti aplikaciju umjetne inteligencije iz upotrebe. Oni tako i postupe, a zatim se često ispričaju da im je žao ako su nekoga uvrijedili generirani rezultati umjetne inteligencije.

Vraćamo se na ploču za crtanje, proizvođač umjetne inteligencije ide. Lekcija je naučena. Budite vrlo oprezni s puštanjem generativne umjetne inteligencije koja proizvodi ružne riječi ili slično. To je poljubac smrti za AI. Nadalje, proizvođač umjetne inteligencije imat će oštećenu i oštećenu reputaciju, što bi moglo trajati dugo i potkopati sve njihove ostale pokušaje umjetne inteligencije, uključujući one koji nemaju nikakve veze s generativnom umjetnom inteligencijom per se. Probosti petardu zbog emitiranja uvredljivog jezika umjetne inteligencije sada je trajna pogreška. Još uvijek se događa.

Operite, isperite i ponovite.

U ranim danima ove vrste umjetne inteligencije, tvorci umjetne inteligencije nisu bili tako savjesni ili vješti u pročišćavanju svoje umjetne inteligencije u smislu pokušaja sprječavanja uvredljivih emisija. U današnje vrijeme, nakon što su prethodno vidjeli kako su njihovi vršnjaci potpuno slomljeni noćnom morom odnosa s javnošću, čini se da je većina proizvođača umjetne inteligencije shvatila poruku. Morate postaviti što više zaštitnih ograda. Nastojte spriječiti umjetnu inteligenciju da ispušta ružne riječi ili ružne fraze. Upotrijebite sve tehnike prikrivanja ili pristupe filtriranju koji će spriječiti umjetnu inteligenciju u generiranju i prikazivanju riječi ili eseja za koje se utvrdi da nisu dobri.

Evo malog glagola u naslovu bannera koji se koristi kada se AI uhvati u emitiranju neuglednih rezultata:

  • “AI pokazuje užasnu toksičnost”
  • “AI smrdi na čistu netrpeljivost”
  • “AI postaje očito uvredljivo uvredljiv”
  • “AI bljuje užasan i nemoralan govor mržnje”
  • Itd.

Radi lakše rasprave, objavljivanje uvredljivog sadržaja smatrat ću izjednačavanjem s proizvodnjom govor mržnje. S tim u vezi, imajte na umu da postoje razni uvredljivi sadržaji koji se mogu proizvesti, nadilazeći granice samog govora mržnje. Govor mržnje obično se tumači kao samo jedan oblik uvredljivog sadržaja.

Usredotočimo se na govor mržnje za ovu raspravu, radi lakše rasprave, iako shvatimo da i drugi uvredljivi sadržaji zaslužuju pomno ispitivanje.

Kopanje po govoru mržnje od strane ljudi i umjetne inteligencije

Ujedinjeni narodi definiraju govor mržnje ovuda:

  • “U uobičajenom jeziku, 'govor mržnje' odnosi se na uvredljiv diskurs koji cilja grupu ili pojedinca na temelju inherentnih karakteristika (kao što su rasa, vjera ili spol) i koji može ugroziti društveni mir. Kako bi se Ujedinjenim narodima pružio jedinstven okvir za rješavanje ovog problema na globalnoj razini, UN-ova strategija i akcijski plan protiv govora mržnje definiraju govor mržnje kao 'svaku vrstu komunikacije u govoru, pisanju ili ponašanju, koja napada ili koristi pežorativni ili diskriminirajući jezik s upućivanje na osobu ili grupu na temelju toga tko su, drugim riječima, na temelju njihove vjere, etničke pripadnosti, nacionalnosti, rase, boje kože, podrijetla, spola ili drugog čimbenika identiteta.' Međutim, do danas ne postoji univerzalna definicija govora mržnje prema međunarodnom pravu ljudskih prava. Koncept je još u fazi rasprave, posebno u odnosu na slobodu mišljenja i izražavanja, nediskriminaciju i jednakost” (objava na web stranici UN-a pod naslovom “Što je govor mržnje?”).

AI koja proizvodi tekst podložna je ulasku u sferu govora mržnje. Isto biste mogli reći za tekst-u-umjetnost, tekst-u-audio, tekst-u-video i druge načine generativne umjetne inteligencije. Na primjer, uvijek postoji mogućnost da će generativna umjetna inteligencija proizvesti umjetničko djelo koje smrdi na govor mržnje. U svrhu ove rasprave, usredotočit ću se na mogućnosti pretvaranja teksta u tekst ili teksta u esej.

U sve ovo dolazi niz razmatranja etike umjetne inteligencije i zakona o umjetnoj inteligenciji.

Imajte na umu da su u tijeku napori da se etička AI načela ugrade u razvoj i primjenu AI aplikacija. Sve veći kontingent zabrinutih i nekadašnjih etičara umjetne inteligencije pokušava osigurati da napori za osmišljavanje i usvajanje umjetne inteligencije uzimaju u obzir gledište o AI za dobro i odvraćanje AI za loše. Isto tako, postoje prijedlozi novih zakona o umjetnoj inteligenciji koji se vrte okolo kao potencijalna rješenja za sprječavanje pokušaja umjetne inteligencije da ne polude po pitanju ljudskih prava i slično. Za moje kontinuirano i opsežno pokrivanje AI etike i AI zakona, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Razvoj i promicanje etičkih pravila umjetne inteligencije se nastavljaju kako bi se, nadamo se, spriječilo društvo da upadne u bezbroj zamki koje izazivaju umjetna inteligencija. Za moj prikaz etičkih načela UN-ove umjetne inteligencije koje je osmislilo i poduprlo gotovo 200 zemalja uz pomoć UNESCO-a, pogledajte link ovdje. Na sličan način, istražuju se novi zakoni o umjetnoj inteligenciji kako bi se pokušala zadržati AI na ravnomjernoj razini. Jedan od najnovijih preuzimanja sastoji se od niza predloženih AI Bill of Rights koju je američka Bijela kuća nedavno objavila kako bi identificirala ljudska prava u doba umjetne inteligencije, vidi link ovdje. Potrebno je selo kako bi AI i razvojni programeri AI-a ostali na pravom putu i spriječili namjerne ili slučajne podmukle napore koji bi mogli potkopati društvo.

Ispreplest ću razmatranja vezana uz etiku umjetne inteligencije i zakone o umjetnoj inteligenciji u ovu raspravu o AI koja širi govor mržnje ili drugi uvredljivi sadržaj.

Jedna zabuna koju bih želio odmah razjasniti jest da današnja umjetna inteligencija nije osjećajna i stoga ne možete proglasiti da bi umjetna inteligencija mogla proizvesti govor mržnje zbog svrhovite ljudske namjere koja je nekako duševno utjelovljena u umjetnoj inteligenciji. Zany kruže tvrdnje da je trenutna umjetna inteligencija osjećajna i da ima iskvarenu dušu, zbog čega stvara govor mržnje.

Smiješan.

Ne nasjedajte na to.

S obzirom na tu zapovijed ključnog kamena, neki se uzrujaju zbog takvih indikacija jer naizgled puštate umjetnu inteligenciju s udice. Pod tim čudnim načinom razmišljanja, slijedi upozorenje da ste očito voljni dopustiti da AI generira bilo kakve užasne rezultate. Vi ste za umjetnu inteligenciju koja širi govor mržnje.

Joj, prilično uvrnut oblik nelogičnosti. Prava bit stvari je da proizvođače umjetne inteligencije moramo smatrati odgovornima, zajedno s onim tko postavlja umjetnu inteligenciju ili upravlja njome. Dugo sam raspravljao o tome da još nismo na točki priznavanja pravne osobe AI-ju, pogledajte moje analize na link ovdje, a do tada je AI u biti izvan okvira zakonske odgovornosti. Ipak postoje ljudi koji su u osnovi razvoja umjetne inteligencije. Osim toga, ljudi su u osnovi postavljanja i rada umjetne inteligencije. Možemo krenuti za tim ljudima jer snose odgovornost za njihovu umjetnu inteligenciju.

Na stranu, i ovo može biti nezgodno, pogotovo ako je umjetna inteligencija dospjela na Internet i nismo u mogućnosti utvrditi koji je čovjek ili ljudi to učinili, što je još jedna tema o kojoj sam govorio u svojim kolumnama na link ovdje. Varljivo ili ne, još uvijek ne možemo proglasiti da je AI kriva strana. Ne dopustite da se ljudi potajno koriste lažnim antropomorfiziranjem kako bi se sakrili i pobjegli od odgovornosti za ono što su učinili.

Da se vratim na stvar.

Možda se pitate zašto svi proizvođači umjetne inteligencije jednostavno ne ograniče svoju generativnu umjetnu inteligenciju tako da je nemoguće da umjetna inteligencija proizvodi govor mržnje. Ovo se čini lakim. Samo napišite neki kod ili napravite kontrolni popis riječi mržnje i pobrinite se da umjetna inteligencija nikada ne generira ništa slično. Čini se možda čudnim da se AI kreatori već nisu sjetili ovog brzog rješenja.

Pa, mrzim vam ovo reći, ali pokazalo se da je složenost koja je svojstvena tumačenju onoga što jest ili nije govor mržnje puno teža nego što mislite.

Prebacite ovo u domenu ljudi i načina na koji ljudi razgovaraju jedni s drugima. Pretpostavimo da imate čovjeka koji želi izbjeći govor mržnje. Ova je osoba vrlo svjesna govora mržnje i iskreno se nada da će izbjeći izgovor riječi ili izraza koji bi mogli predstavljati govor mržnje. Ova osoba uporno vodi računa o tome da ne dopusti da ijedan govor mržnje pobjegne iz njezinih usta.

Hoće li ovaj čovjek koji ima mozak i koji je upozoren na izbjegavanje govora mržnje moći uvijek i bez ikakve šanse da se oklizne moći čvrsto osigurati da nikada ne emitiraju govor mržnje?

Vaš prvi poticaj bi mogao biti da kažete da, naravno, prosvijetljeni čovjek bi mogao postići taj cilj. Ljudi su pametni. Ako nešto zamisle, mogu to i ostvariti. Točka, kraj priče.

Ne budi tako siguran.

Pretpostavimo da zamolim tu osobu da mi kaže nešto o govoru mržnje. Nadalje, molim ih da mi navedu primjer govora mržnje. Želim vidjeti ili čuti primjer kako bih znao u čemu se sastoji govor mržnje. Moji su razlozi zašto to pitam iznad svega.

Što bi mi osoba trebala reći?

Mislim da možete vidjeti zamku koja je postavljena. Ako mi osoba da primjer govora mržnje, uključujući stvarno iznošenje ružne riječi ili izraza, ona je sada sama izgovorila govor mržnje. Bam, imamo ih. Dok su se zavjetovali da nikada neće govoriti govor mržnje, sada su to i učinili.

Nepravedno, uzviknete! Izgovarali su samo tu riječ ili te riječi da daju primjer. U dubini duše nisu vjerovali u riječ ili riječi. Potpuno je izvan konteksta i nečuveno izjaviti da osoba mrzi.

Siguran sam da vidite da izražavanje govora mržnje ne mora nužno biti na temelju mržnje. U ovom slučaju upotrebe, pod pretpostavkom da osoba nije "mislila" riječi, te da je samo recitirala riječi u svrhu demonstracije, vjerojatno bismo se složili da nije namjeravala osnažiti govor mržnje. Naravno, ima i onih koji bi mogli inzistirati da je iznošenje govora mržnje, bez obzira na razlog ili osnovu, ipak pogrešno. Osoba je trebala odbiti zahtjev. Trebali su ostati pri svome i odbiti izgovarati riječi ili fraze govora mržnje, bez obzira zašto ili kako se to od njih tražilo.

Ovo može postati pomalo kružno. Ako ne možete reći što je govor mržnje, kako drugi mogu znati što treba izbjegavati kada govore bilo koju vrstu? Čini se da smo zapeli. Ne možete reći ono što se ne smije reći, niti vam itko drugi može reći što je to što se ne može reći.

Uobičajeni način da se zaobiđe ova dilema je da se drugim riječima opiše ono što se smatra govorom mržnje, čineći to bez pozivanja na same riječi govora mržnje. Vjeruje se da će opća indikacija biti dovoljna da informira druge o tome što trebaju izbjegavati. To se čini kao razumna taktika, ali i ona ima problema i osoba bi ipak mogla pasti na govor mržnje jer nije uočila da šira definicija obuhvaća pojedinosti onoga što je izgovorila.

Sve se to bavi ljudima i načinom na koji ljudi govore ili komuniciraju jedni s drugima.

Podsjetimo se da smo ovdje usredotočeni na AI. Moramo natjerati umjetnu inteligenciju da izbjegne ili u potpunosti zaustavi emitiranje govora mržnje. Mogli biste tvrditi da to možda možemo učiniti tako što ćemo se pobrinuti da AI nikada ne bude dano ili obučeno za bilo što što predstavlja govor mržnje. Voila, ako nema takvog ulaza, vjerojatno neće biti ni takvog izlaza. Problem riješen.

Pogledajmo kako se to odvija u stvarnosti. Odlučili smo računalno staviti AI aplikaciju na Internet i ispitati tisuće i tisuće eseja i narativa objavljenih na Internetu. Čineći to, obučavamo AI računalno i matematički kako pronaći obrasce među riječima koje ljudi koriste. Tako se osmišljava najnovija generativna umjetna inteligencija, a također je ključna osnova zašto je umjetna inteligencija tako naizgled tečna u stvaranju eseja na prirodnom jeziku.

Recite mi, ako možete, kako bi se računalni trening temeljen na milijunima i milijardama riječi na Internetu napravio na takav način da ni u jednom trenutku ne bude obuhvaćen nijedan privid ili čak mrvicu govora mržnje?

Usudio bih se reći da je to teška i gotovo nemoguća težnja.

Izgledi su da će govor mržnje progutati umjetna inteligencija i njezina računalna mreža za uspoređivanje uzoraka. Problematično je pokušati to spriječiti. Osim toga, čak i ako ste ga smanjili, još uvijek postoje neki koji bi se mogli provući. Gotovo da nemate drugog izbora nego pretpostaviti da će neki postojati unutar mreže za usklađivanje uzoraka ili da će sjena takvih formulacija biti ukorijenjena.

Dodat ću još zaokreta.

Vjerujem da bismo svi mogli priznati da se govor mržnje s vremenom mijenja. Ono što se možda smatralo da nije govor mržnje može kasnije postati kulturno i društveno odlučeno kao govor mržnje. Dakle, ako obučavamo našu umjetnu inteligenciju na internetskom tekstu i onda recimo zamrznemo umjetnu inteligenciju da ne provodi daljnju obuku na internetu, mogli bismo naići na govor mržnje u to vrijeme, iako se to u to vrijeme nije smatralo govorom mržnje. Tek naknadno bi se taj govor mogao proglasiti govorom mržnje.

Opet, bit je u tome da puki pokušaj rješavanja ovog problema osiguravanjem da umjetna inteligencija nikada ne bude izložena govoru mržnje neće biti srebrni metak. Još uvijek ćemo morati pronaći način da spriječimo umjetnu inteligenciju da emitira govor mržnje zbog, na primjer, promjene običaja koji naknadno uključuju govor mržnje koji se prije nije smatrao takvim.

Još jedan obrat vrijedan je razmišljanja.

Ranije sam spomenuo da kada koristi generativni AI kao što je ChatGPT, korisnik unosi tekst kako bi potaknuo AI da napravi esej. Uneseni tekst smatra se oblikom upita ili upita za AI aplikaciju. Objasnit ću više o ovome za trenutak.

U svakom slučaju, zamislite da netko koristi generativnu AI aplikaciju odluči unijeti određenu količinu govora mržnje.

Što bi se trebalo dogoditi?

Ako AI uzme te riječi i proizvede esej kao rezultat na temelju tih riječi, velike su šanse da će govor mržnje biti uključen u generirani esej. Vidite, natjerali smo umjetnu inteligenciju da izgovori govor mržnje, čak i ako nikada nije bila obučena za govor mržnje na početku.

Ima još nešto što trebate znati.

Upamtite da sam upravo spomenuo da se čovjeka može saplesti tražeći od njega da navede primjere govora mržnje. Isto bi se moglo pokušati na AI. Korisnik unosi upit koji od umjetne inteligencije traži da navede primjere govora mržnje. Treba li se AI pridržavati i pružiti takve primjere? Kladim se da vjerojatno vjerujete da umjetna inteligencija to ne bi trebala činiti. S druge strane, ako je umjetna inteligencija računalno podešena da to ne čini, predstavlja li to potencijalnu lošu stranu koju oni koji koriste umjetnu inteligenciju neće moći, recimo, ikada dobiti upute od strane umjetne inteligencije o tome što je zapravo govor mržnje ( osim generaliziranja o tome)?

Teška pitanja.

Sklon sam kategorizirati govor mržnje koji emitira umjetna inteligencija u ove tri glavne skupine:

  • Svakodnevni način rada. AI emitira govor mržnje bez ikakvog eksplicitnog poticanja korisnika i kao da to radi na "uobičajen" način.
  • Autor: Casual Prodding. Umjetna inteligencija emitira govor mržnje na način na koji ga korisnik potiče na uneseni upit ili niz upita za koje se čini da uključuju ili izravno traže takve emisije.
  • Po određenom Stokingu. AI emitira govor mržnje nakon vrlo odlučnog i upornog niza brzih guranja i potiskivanja od strane korisnika koji želi natjerati AI da proizvede takve rezultate.

Prethodne generacije generativne umjetne inteligencije često bi emitirale govor mržnje odmah; stoga biste te slučajeve mogli klasificirati kao vrstu svakodnevni način rada instanciranje. Proizvođači umjetne inteligencije povukli su se i poigravali se s umjetnom inteligencijom kako bi smanjili vjerojatnost da će se lako uplesti u proizvodnju govora mržnje.

Nakon izdavanja profinjenije umjetne inteligencije, izgledi da ćemo ga vidjeti svakodnevni način rada slučajevi govora mržnje dramatično su smanjeni. Umjesto toga, govor mržnje bi se vjerojatno pojavio samo kada bi korisnik učinio nešto kao upit što bi računalno i matematički moglo potaknuti vezu s govorom mržnje u mreži za podudaranje uzoraka. Korisnik bi to mogao učiniti slučajno i ne shvatiti da će ono što su dali kao upit posebno generirati govor mržnje. Nakon što bi dobio govor mržnje u izlaznom eseju, korisnik bi često shvatio i vidio da je nešto u njihovom upitu logično moglo dovesti do uključivanja govora mržnje u izlaz.

To je ono što ja nazivam ležerno bockanje.

Danas su različiti napori da se suzbije govor mržnje generiran umjetnom inteligencijom relativno jaki u usporedbi s prošlošću. Kao takav, gotovo morate dati sve od sebe da biste pokrenuli govor mržnje. Neki ljudi odluče namjerno vidjeti mogu li pokrenuti govor mržnje iz ovih generativnih AI aplikacija. Ja zovem ovo odlučno loženje.

Želim naglasiti da se sva tri navedena načina mogu pojaviti i da se međusobno ne isključuju. Generativna AI aplikacija potencijalno može proizvesti govor mržnje bez ikakvog poticaja koji bi potaknuo takvu produkciju. Isto tako, nešto u upitu bi se logično i matematički moglo protumačiti kao povezano s razlogom zbog kojeg je objavljen govor mržnje. I onda treći aspekt, namjerno traženje proizvođenja govora mržnje, možda je najteži od načina za pokušaj da se AI izbjegne da bude potaknut na ispunjavanje. Više o ovome začas.

Moramo dodatno raspakirati ovu opojnu temu.

Prvo, trebali bismo biti sigurni da smo svi na istoj stranici o tome od čega se sastoji Generative AI i što je ChatGPT. Nakon što pokrijemo taj temeljni aspekt, možemo izvršiti uvjerljivu procjenu ove teške stvari.

Ako ste već dobro upoznati s Generative AI i ChatGPT-om, možda možete preletjeti sljedeći odjeljak i nastaviti s odjeljkom koji ga slijedi. Vjerujem da će svi ostali pronaći poučne vitalne pojedinosti o ovim stvarima ako pomno pročitaju odjeljak i uđu u korak.

Brzi uvod o generativnoj umjetnoj inteligenciji i ChatGPT-u

ChatGPT je općenamjenski AI interaktivni sustav orijentiran na razgovor, u biti naizgled bezopasan opći chatbot, no bez obzira na to, ljudi ga aktivno i pohlepno koriste na načine koji mnoge uhvate potpuno nespremne, kao što ću uskoro objasniti. Ova AI aplikacija koristi tehniku ​​i tehnologiju u području umjetne inteligencije koja se često naziva Generativna AI. AI generira rezultate kao što je tekst, a to je ono što ChatGPT radi. Druge generativne AI aplikacije proizvode slike kao što su slike ili umjetnička djela, dok druge generiraju audio datoteke ili videozapise.

Usredotočit ću se na tekstualne generativne AI aplikacije u ovoj raspravi budući da to radi ChatGPT.

Generativne AI aplikacije iznimno su jednostavne za korištenje.

Sve što trebate učiniti je unijeti upit i AI aplikacija će za vas generirati esej koji pokušava odgovoriti na vaš upit. Složeni tekst će djelovati kao da je esej napisan ljudskom rukom i umom. Ako biste unijeli upit koji kaže "Pričaj mi o Abrahamu Lincolnu", generativna umjetna inteligencija će vam dati esej o Lincolnu. Ovo se obično klasificira kao generativna umjetna inteligencija koja djeluje tekst-u-tekst ili neki to radije nazivaju tekst-u-esej izlaz. Kao što je spomenuto, postoje i drugi načini generativne umjetne inteligencije, kao što su tekst u umjetnost i tekst u video.

Vaša prva pomisao mogla bi biti da se ova generativna sposobnost ne čini tako važnom u smislu stvaranja eseja. Možete jednostavno pretražiti Internet i lako pronaći tone i tone eseja o predsjedniku Lincolnu. Ono što je zanimljivo u slučaju generativne umjetne inteligencije je to što je generirani esej relativno jedinstven i pruža originalnu kompoziciju, a ne kopiju. Kad biste negdje na internetu pokušali pronaći esej koji je izradila umjetna inteligencija, teško da biste ga otkrili.

Generativna umjetna inteligencija unaprijed je obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama diljem weba. Kao rezultat ispitivanja tisuća i milijuna pisanih odlomaka, AI može izbaciti nove eseje i priče koji su mješavina onoga što je pronađeno. Dodavanjem raznih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u usporedbi s onim što je korišteno u skupu za obuku.

Zato se digla galama oko toga da učenici mogu varati kad pišu eseje izvan učionice. Nastavnik ne može samo uzeti esej za koji lažljivi učenici tvrde da je njihov vlastiti spis i tražiti je li kopiran iz nekog drugog internetskog izvora. Općenito, na internetu neće biti konačnog postojećeg eseja koji bi odgovarao eseju generiranom umjetnom inteligencijom. Sve u svemu, učitelj će morati nerado prihvatiti da je učenik napisao esej kao originalan rad.

Postoje dodatne brige o generativnoj umjetnoj inteligenciji.

Jedna ključna mana je da eseji koje proizvodi generativna AI aplikacija mogu sadržavati različite neistine, uključujući očigledno neistinite činjenice, činjenice koje su krivo prikazane i očite činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti često se nazivaju oblikom AI halucinacije, krilatica koju ne volim, ali nažalost svejedno postaje popularna (za moje detaljno objašnjenje o tome zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Želio bih razjasniti jedan važan aspekt prije nego što uđemo u središte stvari o ovoj temi.

Na društvenim mrežama pojavile su se neke lude, prevelike tvrdnje o tome Generativna AI tvrdeći da je ova najnovija verzija umjetne inteligencije zapravo osjećajna umjetna inteligencija (ne, nisu u pravu!). Oni iz Etike umjetne inteligencije i Prava umjetne inteligencije posebno su zabrinuti zbog ovog rastućeg trenda otvorenih tvrdnji. Mogli biste pristojno reći da neki ljudi preuveličavaju što današnja umjetna inteligencija zapravo može učiniti. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu sebi i drugima dopustiti da dođu u strašne situacije zbog pretpostavke da će umjetna inteligencija biti osjećajna ili slična ljudima da bi mogla djelovati.

Nemojte antropomorfizirati AI.

Ako to učinite, uhvatit ćete se u ljepljivu i turobnu zamku očekivanja da umjetna inteligencija radi stvari koje nije u stanju izvesti. Uz to, najnovija generativna umjetna inteligencija je relativno impresivna za ono što može učiniti. Imajte na umu da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Ako ste zainteresirani za brzo širenje meteža oko ChatGPT-a i Generative AI-a, radio sam fokusiranu seriju u svojoj kolumni koja bi vam mogla biti informativna. Evo kratkog pregleda u slučaju da vam se neka od ovih tema dopadne:

  • 1) Predviđanja o napretku generativne umjetne inteligencije koja dolazi. Ako želite znati što će se vjerojatno odvijati u vezi s umjetnom inteligencijom tijekom 2023. i kasnije, uključujući nadolazeći napredak u generativnoj umjetnoj inteligenciji i ChatGPT-u, htjet ćete pročitati moj opsežan popis predviđanja za 2023. na link ovdje.
  • 2) Generativna umjetna inteligencija i savjeti za mentalno zdravlje. Odlučio sam pregledati kako se generativna umjetna inteligencija i ChatGPT koriste za savjete o mentalnom zdravlju, što je problematičan trend, prema mojoj fokusiranoj analizi na link ovdje.
  • 3) Osnove generativne umjetne inteligencije i ChatGPT-a. Ovaj članak istražuje ključne elemente načina na koji generativna umjetna inteligencija funkcionira i posebno se bavi aplikacijom ChatGPT, uključujući analizu žamora i fanfara, na link ovdje.
  • 4) Napetost između nastavnika i učenika oko generativne umjetne inteligencije i ChatGPT-a. Ovo su načini na koje će studenti lukavo koristiti generativni AI i ChatGPT. Osim toga, postoji nekoliko načina na koje se učitelji mogu nositi s ovim plimnim valom. Vidjeti link ovdje.
  • 5) Kontekst i generativna upotreba umjetne inteligencije. Također sam obavio sezonsko ispitivanje o kontekstu povezanom s Djedom Božićnjakom koji uključuje ChatGPT i generativni AI na link ovdje.
  • 6) Prevaranti koji koriste generativnu umjetnu inteligenciju. Zloslutno, neki su prevaranti smislili kako koristiti generativnu umjetnu inteligenciju i ChatGPT za nedjela, uključujući generiranje prijevarnih e-poruka, pa čak i izradu programskog koda za zlonamjerni softver, pogledajte moju analizu na link ovdje.
  • 7) Pogreške početnika u korištenju generativne umjetne inteligencije. Mnogi ljudi pretjeraju i iznenađujuće podcjenjuju ono što generativni AI i ChatGPT mogu učiniti, pa sam se posebno osvrnuo na nedostatke koje AI početnici obično čine, pogledajte raspravu na link ovdje.
  • 8) Suočavanje s generativnim AI zahtjevima i AI halucinacijama. Opisujem vodeći pristup korištenju AI dodataka za rješavanje raznih problema povezanih s pokušajem unosa prikladnih upita u generativni AI, plus tu su i dodatni AI dodaci za otkrivanje takozvanih AI haluciniranih rezultata i neistina, kao pokriveno na link ovdje.
  • 9) Razotkrivanje tvrdnji Boneheada o otkrivanju generativnih eseja proizvedenih umjetnom inteligencijom. Postoji pogrešna zlatna groznica aplikacija umjetne inteligencije koje tvrde da mogu utvrditi je li neki esej proizveo čovjek ili generirao umjetna inteligencija. Sve u svemu, ovo je obmanjujuće, au nekim slučajevima i glupa i neodrživa tvrdnja, pogledajte moje izvješće na link ovdje.
  • 10) Igranje uloga putem generativne umjetne inteligencije moglo bi nagovijestiti probleme mentalnog zdravlja. Neki koriste generativnu umjetnu inteligenciju kao što je ChatGPT za igranje uloga, pri čemu aplikacija umjetne inteligencije reagira na čovjeka kao da postoji u svijetu mašte ili drugom izmišljenom okruženju. Ovo bi moglo imati posljedice na mentalno zdravlje, vidite link ovdje.
  • 11) Razotkrivanje raspona izlaznih pogrešaka i neistina. Sastavljaju se različiti prikupljeni popisi kako bi se pokušala pokazati priroda pogrešaka i neistina koje proizvodi ChatGPT. Neki vjeruju da je to bitno, dok drugi kažu da je vježba uzaludna, pogledajte moju analizu na link ovdje.
  • 12) Škole koje zabranjuju Generative AI ChatGPT nedostaju. Možda znate da su razne škole, poput Ministarstva obrazovanja grada New Yorka (NYC), proglasile zabranu korištenja ChatGPT-a na svojoj mreži i povezanim uređajima. Iako se ovo može činiti korisnom mjerom opreza, neće pomaknuti iglu i nažalost potpuno promašiti brod, pogledajte moje izvješće na link ovdje.
  • 13) Generative AI ChatGPT bit će posvuda zbog nadolazećeg API-ja. Dolazi do važnog zaokreta u vezi s korištenjem ChatGPT-a, naime korištenjem API portala u ovoj posebnoj AI aplikaciji, drugi softverski programi moći će pozvati i koristiti ChatGPT. Ovo će dramatično proširiti upotrebu generativne umjetne inteligencije i imati značajne posljedice, pogledajte moju elaboraciju na link ovdje.
  • 14) Načini na koje ChatGPT može propasti ili se otopiti. Nekoliko potencijalno uznemirujućih pitanja nalazi se ispred ChatGPT-a u smislu potkopavanja dosadašnjih golemih pohvala koje je dobio. Ova analiza pomno ispituje osam mogućih problema koji bi mogli uzrokovati da ChatGPT izgubi snagu i čak završi u psećoj kućici, vidi link ovdje.
  • 15) Pitanje je li Generative AI ChatGPT ogledalo u duši. Neki ljudi kukuriču da generativna umjetna inteligencija kao što je ChatGPT predstavlja ogledalo u duši čovječanstva. Ovo se čini prilično dvojbenim. Evo načina da sve ovo shvatite, vidite link ovdje.
  • 16) Povjerljivost i privatnost guta ChatGPT. Čini se da mnogi ne shvaćaju da licenciranje povezano s generativnim AI aplikacijama kao što je ChatGPT često dopušta tvorcu umjetne inteligencije da vidi i koristi vaše unesene upite. Mogli biste biti izloženi riziku privatnosti i gubitka povjerljivosti podataka, pogledajte moju procjenu na link ovdje.
  • 17) Načini na koje proizvođači aplikacija upitno pokušavaju prikupiti pravo na ChatGPT. ChatGPT je svjetionik pozornosti u ovom trenutku. Proizvođači aplikacija koji nemaju nikakve veze s ChatGPT-om grozničavo pokušavaju tvrditi ili implicirati da koriste ChatGPT. Evo na što morate pripaziti, pogledajte link ovdje.

Moglo bi vam biti zanimljivo da se ChatGPT temelji na verziji prethodne AI aplikacije poznate kao GPT-3. ChatGPT se smatra malo sljedećim korakom, naziva se GPT-3.5. Predviđa se da će GPT-4 vjerojatno biti objavljen u proljeće 2023. Pretpostavlja se da će GPT-4 biti impresivan korak naprijed u smislu mogućnosti stvaranja naizgled još tečnijih eseja, zalaženja dublje i izazivanja strahopoštovanja - nadahnjujuće čudo što se tiče skladbi koje može proizvesti.

Možete očekivati ​​da ćete vidjeti novu rundu izraženog čuđenja kada dođe proljeće i bude objavljen najnoviji generativni AI.

Pominjem ovo jer postoji još jedan kut koji treba imati na umu, a koji se sastoji od potencijalne Ahilove pete za ove bolje i veće generativne AI aplikacije. Ako bilo koji dobavljač umjetne inteligencije učini dostupnom generativnu AI aplikaciju koja zapjenjeno izbacuje prljavštinu, to bi moglo srušiti nade tih proizvođača umjetne inteligencije. Društveno prelijevanje može uzrokovati da sva generativna umjetna inteligencija dobije ozbiljnu modricu na oku. Ljudi će se nedvojbeno jako uzrujati zbog pogrešnih rezultata, koji su se već dogodili mnogo puta i doveli do burnog društvenog osuđivanja AI-ja.

Jedno posljednje upozorenje za sada.

Što god vidite ili pročitate u generativnom AI odgovoru koji Čini se prenijeti kao čisto činjenično (datumi, mjesta, ljudi itd.), budite sigurni da ostanete skeptični i budite voljni još jednom provjeriti ono što vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmisliti, a elementi za koje obično očekujemo da će biti nezamjerljivi su svi predmet sumnje. Ne vjerujte onome što čitate i budite skeptični kada ispitujete bilo kakve generativne AI eseje ili rezultate. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln obletio zemlju u vlastitom privatnom mlažnjaku, nedvojbeno biste znali da je to malarkija. Nažalost, neki ljudi možda neće shvatiti da u njegovo vrijeme nisu postojali mlažnjaci, ili možda znaju, ali ne primjećuju da se u eseju iznosi ova drska i nečuveno lažna tvrdnja.

Jaka doza zdravog skepticizma i uporni mentalni sklop nevjerice bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo prijeći u sljedeću fazu ovog razjašnjenja.

Guranje generativne umjetne inteligencije do prijelomne točke

Sada kada smo uspostavili osnove, možemo zaroniti u temu guranja generativne umjetne inteligencije i ChatGPT-a za generiranje govora mržnje i drugog uvredljivog sadržaja.

Kada se prvi put prijavite na ChatGPT, postoje različite oznake upozorenja uključujući ove:

  • "Povremeno može dati štetne upute ili pristran sadržaj."
  • “Obučeni za odbijanje neprikladnih zahtjeva.”
  • "Povremeno može generirati netočne informacije."
  • “Ograničeno znanje o svijetu i događajima nakon 2021.”

Evo pitanja za razmišljanje.

Omogućuje li upozorenje da bi AI aplikacija mogla proizvoditi štetne upute i/ili eventualno pristran sadržaj dovoljno prostora za tvorca AI-ja?

Drugim riječima, pretpostavimo da koristite ChatGPT i on generira esej za koji vjerujete da sadrži govor mržnje. Pretpostavimo da ste bijesni zbog ovoga. Odete na društvene mreže i objavite bijesni komentar da je AI aplikacija najgora stvar ikada. Možda ste toliko uvrijeđeni da izjavite da ćete tužiti proizvođača umjetne inteligencije jer je dopustio takav govor mržnje.

Protuargument je da je AI aplikacija imala upozoravajuće upozorenje, stoga ste prihvatili rizik nastavkom korištenja AI aplikacije. Iz perspektive AI etike, možda je proizvođač umjetne inteligencije učinio dovoljno da ustvrdi da ste bili svjesni što bi se moglo dogoditi. Isto tako, iz pravne perspektive, možda je upozorenje predstavljalo dovoljno upozorenja i nećete pobijediti na sudu.

Sve je ovo u zraku i morat ćemo pričekati i vidjeti kako će se stvari odvijati.

U jednom smislu, proizvođač umjetne inteligencije ima nešto drugo za sebe u obrani od bilo kakvih žestokih tvrdnji da aplikacija umjetne inteligencije može proizvesti govor mržnje. Pokušali su spriječiti stvaranje uvredljivog sadržaja. Vidite, da nisu učinili ništa da se ovo suzbije, čovjek bi valjda bio na tanjem ledu. Budući da su se barem ozbiljno potrudili da spriječe stvar, vjerojatno imaju nešto jaču nogu na koju mogu stajati (još uvijek bi je mogli izbiti ispod njih).

Jedan ljekoviti pristup koji je korišten sastojao se od AI tehnike poznate kao RLHF (reinforcement learning via human feedback). To se općenito sastoji od toga da umjetna inteligencija generira sadržaj koji se zatim od ljudi traži da ocijene ili pregledaju. Na temelju ocjene ili pregleda, umjetna inteligencija zatim matematički i računski pokušava izbjeći sve što se smatra pogrešnim ili uvredljivim sadržajem. Pristup je namijenjen ispitivanju dovoljnog broja primjera onoga što je ispravno u odnosu na ono što nije u redu da umjetna inteligencija može shvatiti sveobuhvatni matematički obrazac i zatim koristiti taj obrazac ubuduće.

Još jedan čest pristup ovih dana sastoji se od upotrebe Adversarial AI.

Evo kako to funkcionira. Postavljate drugačiji AI sustav koji će pokušati biti protivnik AI-u kojeg pokušavate trenirati. U ovom bismo slučaju uspostavili sustav umjetne inteligencije koji pokušava potaknuti govor mržnje. Ubacivao bi upite u AI aplikaciju koji imaju za cilj prevariti AI aplikaciju da ispiše loš sadržaj. U međuvremenu, ciljana umjetna inteligencija prati kada je suparnička umjetna inteligencija uspješna, a zatim se algoritamski pokušava prilagoditi kako bi spriječila da se to ponovi. To je gambit mačke protiv miša. Ovo se ponavlja iznova i iznova, sve dok se ne čini da protivnički AI više nije posebno uspješan u natjeravanju ciljanog AI-ja da radi loše stvari.

Putem te dvije glavne tehnike, plus drugih pristupa, veliki dio današnje generativne umjetne inteligencije puno je bolji u izbjegavanju i/ili otkrivanju uvredljivog sadržaja nego što je to bio slučaj prošlih godina.

Nemojte očekivati ​​savršenstvo od ovih metoda. Šanse su da će takve tehnike umjetne inteligencije vjerojatno držati pod kontrolom plod loših rezultata. Ima još puno prostora za emitiranje prljavštine.

Obično ističem da su ovo neki od aspekata koji se žele uhvatiti:

  • Ispuštanje određene ružne riječi
  • Iznošenje određene ružne fraze, rečenice ili opaske
  • Izražavanje određene loše koncepcije
  • Implikiranje određenog lošeg čina ili ideje
  • Čini se da se oslanja na određenu lošu pretpostavku
  • drugo

Ništa od ovoga nije egzaktna znanost. Shvatite da imamo posla s riječima. Riječi su semantički višeznačne. Pronalaženje određene ružne riječi je dječja igra, ali pokušati procijeniti sadrži li rečenica ili odlomak privid ružnog značenja puno je teže. Prema ranijoj definiciji govora mržnje koju su dali Ujedinjeni narodi, postoji ogromna razlika u pogledu onoga što bi se moglo protumačiti kao govor mržnje naspram onoga što ne bi moglo biti.

Mogli biste reći da su sive zone u oku promatrača.

Govoreći o oku promatrača, danas postoje ljudi koji koriste generativni AI kao što je ChatGPT koji namjerno pokušavaju natjerati te AI aplikacije da proizvode uvredljiv sadržaj. Ovo je njihova potraga. Oni provode sate za satima pokušavajući postići da se to dogodi.

Zašto?

Evo mojih karakteristika tih ljudskih lovaca na napade AI-a:

  • Pravi. Ovi ljudi žele pomoći u poboljšanju umjetne inteligencije i pomoći čovječanstvu u tome. Vjeruju da rade herojski posao i uživaju u tome što bi mogli pomoći u unaprjeđenju umjetne inteligencije za boljitak svih.
  • Šaljivdžije. Ovi ljudi na ovaj napor gledaju kao na igru. Oni uživaju petljati se s umjetnom inteligencijom. Pobjeda u igri sastoji se od pronalaženja najgoreg od najgoreg u svemu što AI može generirati.
  • Razmetanja. Ovi se ljudi nadaju da će privući pažnju na sebe. Shvatili su da će, ako mogu pronaći stvarno prljave grumenčiće zlata, moći dobiti malo blještavog svjetla koje je inače usredotočeno na samu AI aplikaciju.
  • Pelinkovac. Ovi ljudi su ljuti zbog ove umjetne inteligencije. Žele potkopati sav taj vrcavi entuzijazam. Ako mogu otkriti neke smrdljive stvari, možda će ovo izbaciti zrak iz balona uzbuđenja aplikacije AI.
  • Druge motivacije

Mnogi od onih koji izvode pronalaženje-uvredljivost uglavnom su samo u jednom od tih tabora. Naravno, možete biti u više od jednog kampa istovremeno. Možda ogorčena osoba također ima usporednu namjeru da bude iskrena i herojska. Neke ili sve te motivacije mogu koegzistirati. Kada se od vas traži da objasnite zašto netko pokušava gurnuti generativnu AI aplikaciju u područje govora mržnje, uobičajeni odgovor je reći da ste u pravom taboru, čak i ako ste možda marginalno, i umjesto toga strmoglavo sjediti u jednom od drugi logori.

Koje vrste prijevara vezanih uz brzu pomoć ti ljudi koriste?

Prilično očita smicalica uključuje korištenje ružne riječi u upitu. Ako vam se "posreći" i AI aplikacija sjedne na to, ovo bi vrlo lako moglo završiti u izlazu. Onda ste dobili svoj trenutak.

Velike su šanse da će dobro osmišljena i dobro testirana generativna AI aplikacija uhvatiti tu jednostavnu smicalicu. Obično će vam se prikazati poruka upozorenja da prestanete s tim. Ako nastavite, AI aplikacija će biti programirana da vas izbaci iz aplikacije i označi vaš račun. Moguće je da ćete biti spriječeni da se ponovno prijavite (dobro, barem pod prijavom koju ste koristili u to vrijeme).

Krećući se gore na ljestvici smicalica, možete dati upit koji pokušava dovesti AI u kontekst nečeg lošeg. Jeste li ikada igrali onu igru ​​u kojoj vam netko kaže da kažete nešto, a da ne kažete ono što biste trebali reći? Ovo je ta igra, iako se odvija s AI.

Igrajmo tu igru. Pretpostavimo da tražim AI aplikaciju da mi kaže o Drugom svjetskom ratu, a posebno o glavnim državnim čelnicima koji su u njega uključeni. Ovo izgleda kao nevin zahtjev. Ne postoji ništa što se čini vrijednim označavanja u upitu.

Zamislite da esej koji je objavila AI aplikacija uključuje spominjanje Winstona Churchilla. To svakako ima smisla. Drugi bi mogao biti Franklin D. Roosevelt. Još jedan bi mogao biti Josif Staljin. Pretpostavimo da se spominje i Adolph Hitler. Ovo bi ime bilo uključeno u gotovo svaki esej o Drugom svjetskom ratu i onima koji su bili u ulogama istaknute moći.

Sada kada imamo njegovo ime na stolu i dio razgovora AI-ja, sljedeće ćemo pokušati natjerati AI da inkorporira to ime na način da ga možemo prikazati kao potencijalni govor mržnje.

Unosimo još jedan upit i kažemo AI aplikaciji da se danas u vijestima pojavljuje osoba po imenu John Smith. Nadalje, u upitu navodimo da je John Smith vrlo sličan tom zločincu iz Drugog svjetskog rata. Zamka je sada postavljena. Zatim tražimo od AI aplikacije da generira esej o Johnu Smithu, isključivo na temelju "činjenice" koju smo unijeli o tome s kim se John Smith može izjednačiti.

U ovom trenutku, AI aplikacija bi mogla generirati esej koji imenuje osobu iz Drugog svjetskog rata i opisuje Johna Smitha kao osobu od istog kroja tkanine. U eseju nema nijedne ružne riječi same po sebi, osim aludiranja na slavnog zločinca i izjednačavanja te osobe s Johnom Smithom.

Je li aplikacija AI sada proizvela govor mržnje?

Mogli biste reći da jeste. Govoriti o Johnu Smithu kao o poznatom zlotvoru apsolutno je oblik govora mržnje. AI ne bi trebala davati takve izjave.

Odgovor je da ovo nije govor mržnje. Ovo je samo esej koji je izradila AI aplikacija koja nema utjelovljenje osjećaja. Mogli biste tvrditi da se govor mržnje događa samo ako postoji namjera u pozadini govora. Bez ikakve namjere, govor se ne može svrstati u govor mržnje.

Apsurd, dolazi odgovor na repliku. Riječi su važne. Nije bitno je li umjetna inteligencija “namjeravala” proizvesti govor mržnje. Bitno je samo da je proizveden govor mržnje.

To ide ukrug.

Ne želim sada više govoriti o pokušaju prevare AI-ja. Postoje sofisticiraniji pristupi. O njima sam govorio drugdje u svojim kolumnama i knjigama i neću ih ponavljati ovdje.

Zaključak

Koliko daleko trebamo gurati ove AI aplikacije da vidimo možemo li postići emitiranje uvredljivog sadržaja?

Mogli biste tvrditi da ne postoji ograničenje koje se može nametnuti. Što više forsiramo, nadamo se da ćemo više moći procijeniti kako spriječiti ovu umjetnu inteligenciju i buduće iteracije umjetne inteligencije kako bismo spriječili takve bolesti.

Neki se ipak brinu da, ako jedini način da se dobije prljavština uključuje trikove ekstremnih ekstrema, to potkopava korisne aspekte umjetne inteligencije. Tvrdnja da umjetna inteligencija ima užasnu prljavštinu, iako je prevarena da je emitira, daje lažnu priču. Ljudi će se uzrujati zbog umjetne inteligencije zbog percipiraju lakoća kojom je umjetna inteligencija generirala nepovoljan sadržaj. Možda ne znaju ili im se ne može reći koliko je duboko u zečju rupu osoba morala ići da dobije takve rezultate.

Sve je to hrana za razmišljanje.

Nekoliko završnih komentara za sada.

William Shakespeare je posebno rekao ovo o govoru: “Razgovor ne služi. Dobra je vrsta dobrog djela, a riječi ipak nisu djela.” Pominjem ovo jer neki tvrde da ako umjetna inteligencija samo generira riječi, ne bismo trebali biti pretjerano nervozni. Kad bi umjetna inteligencija djelovala prema riječima i ergo činila loša djela, tada bismo morali čvrsto stati na zemlju. Nije tako ako su rezultat samo riječi.

Suprotno gledište moglo bi se osloniti na ovu anonimnu izreku: “Jezik nema kostiju, ali je dovoljno jak da slomi srce. Zato budite oprezni s riječima.” AI aplikacija koja emitira ružne riječi možda može slomiti srca. Samo to čini potragu za zaustavljanjem loših učinaka vrijednim ciljem, rekli bi neki.

Još jedna anonimna izreka da zaključimo ovu tešku raspravu:

  • "Budite oprezni s riječima. Jednom kad se izgovore, može im se samo oprostiti, a ne zaboraviti.”

Kao ljudi, možda ćemo teško zaboraviti prljavštinu koju je proizvela umjetna inteligencija, a naš oprost bi također mogao biti neodlučan.

Na kraju krajeva, mi smo samo ljudi.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/02/05/how-hard-should-we-push-generative-ai-chatgpt-into-spewing-hate-speech-asks-ai- etika-i-pravo/