Generative AI ChatGPT može uznemirujuće progutati vaše privatne i povjerljive podatke, upozorava na etiku umjetne inteligencije i zakon o umjetnoj inteligenciji

Sad vidite svoje podatke, sad ih ne vidite.

U međuvremenu su vaši dragocjeni podaci postali dio kolektiva, takoreći.

Mislim na aspekt koji bi mogao biti prilično iznenađujući za one od vas koji željno i ozbiljno koriste najnovija umjetna inteligencija (AI). Podaci koje unesete u AI aplikaciju potencijalno uopće nisu u potpunosti privatni samo za vas. Moguće je da će vaše podatke upotrijebiti proizvođač umjetne inteligencije kako bi vjerojatno pokušao poboljšati svoje usluge umjetne inteligencije ili bi ih oni i/ili čak njihovi saveznički partneri mogli koristiti u razne svrhe.

Sada ste unaprijed upozoreni.

Ova predaja vaših podataka događa se na najbezazleniji način i od strane potencijalno tisuća ili reda milijuna ljudi. Kako to? Postoji vrsta umjetne inteligencije poznata kao generativna umjetna inteligencija koja je nedavno privukla velike naslove i veliku pozornost javnosti u cjelini. Najistaknutija od postojećih generativnih AI aplikacija je ona pod nazivom ChatGPT koju je osmislila tvrtka OpenAI.

Navodno postoji oko milijun registriranih korisnika za ChatGPT. Čini se da mnogi od tih korisnika uživaju u isprobavanju ove najpopularnije i najnovije generativne AI aplikacije. Proces je iznimno jednostavan. Unesite neki tekst kao prompt, i voila, aplikacija ChatGPT generira tekstualni izlaz koji je obično u obliku eseja. Neki to nazivaju tekst-u-tekst, iako ja to radije označavam kao tekst-u-esej budući da ova fraza ima više svakodnevnog smisla.

Isprva će početni korisnik vjerojatno unijeti nešto zabavno i bezbrižno. Pričajte mi o životu i vremenu Georgea Washingtona, netko bi mogao ući kao upit. ChatGPT bi tada napisao esej o našem legendarnom prvom predsjedniku. Esej bi bio potpuno tečan i bilo bi vam teško razlučiti da ga je izradila AI aplikacija. Uzbudljiva stvar za vidjeti kako se događa.

Vjerojatnost je da će se nakon nekog vremena igranja segment novih korisnika nasititi i potencijalno će se odlučiti prestati igrati s ChatGPT-om. Sada su prevladali svoj FOMO (strah od propuštanja), čineći to nakon eksperimentiranja s AI aplikacijom o kojoj se čini da gotovo svi brbljaju. Učinjeno djelo.

Neki će ipak početi razmišljati o drugim i ozbiljnijim načinima korištenja generativne umjetne inteligencije.

Možda upotrijebite ChatGPT da napišete taj dopis koji vas vaš šef tjera da napišete. Sve što trebate učiniti je dati upit s točkama koje imate na umu, a sljedeće što znate, ChatGPT je generirao cijeli dopis zbog kojeg bi vaš šef bio ponosan na vas. Kopirate objavljeni esej s ChatGPT-a, zalijepite ga u službeni predložak tvrtke u svom paketu za obradu teksta i pošaljete elegantan memorandum e-poštom svom upravitelju. Vrijediš milijun dolara. I upotrijebili ste svoj mozak da pronađete zgodan alat koji će umjesto vas obaviti težak posao. Potapšajte se po leđima.

To nije sve.

Da, ima još toga.

Imajte na umu da generativna umjetna inteligencija može obavljati niz drugih zadataka povezanih s pisanjem.

Na primjer, pretpostavimo da ste napisali neku vrstu priče za cijenjenog klijenta i silno želite pregledati materijal prije nego što ode van.

Jednostavan peasy.

Zalijepite tekst svoje pripovijesti u ChatGPT prompt, a zatim uputite ChatGPT da analizira tekst koji ste sastavili. Rezultirajući izlazni esej mogao bi se duboko zadubiti u vaše riječi i na vaše ugodno iznenađenje pokušat će naizgled ispitati značenje onoga što ste rekli (idući daleko dalje od provjeravanja pravopisa ili analizatora gramatike). AI aplikacija bi mogla otkriti greške u logici vašeg narativa ili bi mogla otkriti proturječnosti za koje niste znali da postoje u vašem vlastitom pisanju. To je gotovo kao da ste angažirali lukavog ljudskog urednika da baci pogled na vaš nacrt i pruži litaniju korisnih prijedloga i istaknutih nedoumica (pa, želim kategorički izjaviti da ne pokušavam antropomorfizirati AI aplikaciju, posebice da je ljudski urednik čovjek dok je AI aplikacija samo računalni program).

Hvala bogu da ste upotrijebili generativnu AI aplikaciju za pomno ispitivanje svoje dragocjene pisane priče. Nedvojbeno biste više voljeli da umjetna inteligencija pronađe one zabrinjavajuće pisane probleme, a ne nakon što dokument pošalje vašem cijenjenom klijentu. Zamislite da ste sastavili priču za nekoga tko vas je angažirao da osmislite vrlo vitalan prikaz. Da ste originalnu verziju dali klijentu prije pregleda aplikacije AI, mogli biste doživjeti veliku neugodnost. Klijent bi gotovo sigurno gajio ozbiljne sumnje u vaše vještine obavljanja traženog posla.

Povećajmo ulog.

Razmislite o izradi pravnih dokumenata. To je očito posebno ozbiljna stvar. Riječi i način na koji su sastavljene mogu predstavljati živahnu pravnu obranu ili turobnu pravnu nesreću.

U svom stalnom istraživanju i savjetovanju redovito komuniciram s mnogo odvjetnika koji su jako zainteresirani za korištenje umjetne inteligencije u području prava. Razni LegalTech programi povezuju se s AI mogućnostima. Odvjetnik može koristiti generativnu umjetnu inteligenciju za sastavljanje nacrta ugovora ili sastavljanje drugih pravnih dokumenata. Osim toga, ako je odvjetnik sam napravio početni nacrt, može proslijediti tekst generativnoj AI aplikaciji kao što je ChatGPT da pogleda i vidi koje rupe ili praznine bi mogle biti otkrivene. Za više informacija o tome kako se odvjetnici i pravno područje odlučuju koristiti AI, pogledajte moju raspravu na link ovdje.

Ipak smo spremni za trljanje oko ovoga.

Odvjetnik uzima nacrt ugovora i kopira tekst u upit za ChatGPT. AI aplikacija pravi pregled za odvjetnika. Ispostavilo se da je ChatGPT pronašao nekoliko problema. Odvjetnik revidira ugovor. Također mogu zatražiti od ChatGPT-a da im predloži preformuliranje ili ponavljanje sastavljenog teksta. Novu i bolju verziju ugovora zatim proizvodi generativna AI aplikacija. Odvjetnik zgrabi ispisani tekst i ubacuje ga u datoteku za obradu teksta. Poruka ide njihovom klijentu. Misija izvršena.

Možete li pogoditi što se upravo dogodilo?

Iza kulisa i ispod haube, ugovor je možda progutao poput ribe u usta kita. Iako ovaj odvjetnik koji koristi umjetnu inteligenciju to možda ne shvaća, tekst ugovora, postavljen kao upit u ChatGPT, potencijalno bi mogla progutati aplikacija AI. Sada je hrana za usklađivanje uzoraka i druge računalne zamršenosti AI aplikacije. To bi se pak moglo koristiti na razne načine. Ako postoje povjerljivi podaci u nacrtu, i to je sada potencijalno unutar granica ChatGPT-a. Vaš upit koji ste dobili AI aplikaciji sada je navodno dio kolektiva na ovaj ili onaj način.

Nadalje, objavljeni esej također se smatra dijelom kolektiva. Ako ste tražili od ChatGPT-a da izmijeni nacrt umjesto vas i predstavi novu verziju ugovora, ovo se tumači kao izlazni esej. Izlazi ChatGPT-a također su vrsta sadržaja koji se može zadržati ili na drugi način transformirati putem AI aplikacije.

Joj, možda ste nevino odali privatne ili povjerljive informacije. Nije dobro. Osim toga, ne biste bili ni svjesni da ste to učinili. Zastave nisu podignute. Nije se oglasila truba. Nijedno bljeskajuće svjetlo nije se upalilo da vas šokira u stvarnost.

Mogli bismo predvidjeti da bi nepravnici lako mogli napraviti takvu pogrešku, ali gotovo je nezamislivo da iskusni odvjetnik učini istu pogrešku početnika. Unatoč tome, vjerojatno postoje pravni stručnjaci koji trenutno čine istu potencijalnu grešku. Oni riskiraju kršenje važnog elementa povjerljivosti odnosa odvjetnik-klijent i moguće kršenje Modela pravila profesionalnog ponašanja (MRPC) Američke odvjetničke komore (ABA). Konkretno: „Odvjetnik ne smije otkriti informacije koje se odnose na zastupanje klijenta osim ako klijent ne da informirani pristanak, otkrivanje je implicitno ovlašteno kako bi se izvršilo zastupanje ili je otkrivanje dopušteno stavkom (b)” (citirano iz MRPC, a za koje se čini da iznimke povezane s pododjeljkom b ne obuhvaćaju upotrebu generativne AI aplikacije na nesigurni način).

Neki odvjetnici bi mogli tražiti opravdanje za svoj prijestup tvrdeći da nisu tehnološki čarobnjaci i da ne bi imali spreman način da znaju da bi njihov unos povjerljivih podataka u generativnu AI aplikaciju mogao na neki način predstavljati povredu. ABA je jasno stavila do znanja da dužnost odvjetnika uključuje ažuriranje AI i tehnologije iz pravne perspektive: “Kako bi zadržao potrebno znanje i vještinu, odvjetnik bi trebao biti u tijeku s promjenama u zakonu i svojoj praksi, uključujući koristi i rizike povezane s relevantnom tehnologijom, uključiti se u kontinuirani studij i obrazovanje te ispunjavati sve zahtjeve kontinuiranog pravnog obrazovanja kojima odvjetnik podliježe” (prema MRPC-u).

Nekoliko odredbi ulazi u ovaj privid pravne obveze, uključujući čuvanje povjerljivih informacija klijenta (Pravilo 1.6), zaštitu imovine klijenta kao što su podaci (Pravilo 1.15), pravilnu komunikaciju s klijentom (Pravilo 1.4), dobivanje informiranog pristanka klijenta (Pravilo 1.6), i osiguravanje kompetentnog zastupanja u ime klijenta (Pravilo 1.1). A tu je i malo poznata, ali vrlo zapažena rezolucija usmjerena na umjetnu inteligenciju koju je donijela ABA: “Da Američka odvjetnička komora potiče sudove i odvjetnike da se pozabave novim etičkim i pravnim problemima povezanima s upotrebom umjetne inteligencije ('AI') u odvjetničkoj praksi uključujući: (1) pristranost, objašnjivost i transparentnost automatiziranih odluka koje donosi umjetna inteligencija; (2) etička i korisna uporaba umjetne inteligencije; i (3) kontrole i nadzor AI-a i dobavljača koji pružaju AI.”

Mudre riječi za moje pravne prijatelje i kolege.

Srž stvari je da se gotovo svatko može uvaliti u nevolju kada koristi generativni AI. Nepravnici to mogu učiniti zbog svog pretpostavljenog nedostatka pravne oštroumnosti. To mogu učiniti i odvjetnici, možda zaljubljeni u umjetnu inteligenciju ili ne duboko udahnuvši i razmišljajući o pravnim posljedicama koje mogu nastati korištenjem generativne umjetne inteligencije.

Svi smo potencijalno u istom čamcu.

Također biste trebali shvatiti da ChatGPT nije jedina generativna AI aplikacija u bloku. Postoje i druge generativne AI aplikacije koje možete koristiti. I oni su vjerojatno izrađeni od iste tkanine, naime da se ulazi koje unesete kao upute i izlazi koje dobijete kao generirani izlazni eseji smatraju dijelom kolektiva i mogu ih koristiti proizvođač umjetne inteligencije.

U današnjoj ću kolumni raspakirati prirodu načina na koji podaci koje unosite i podaci koje primate od generativne umjetne inteligencije mogu biti potencijalno ugroženi s obzirom na privatnost i povjerljivost. Proizvođači umjetne inteligencije stavljaju na raspolaganje svoje zahtjeve za licenciranje i bilo bi mudro pročitati te vitalne odredbe prije nego počnete aktivno koristiti aplikaciju umjetne inteligencije s bilo kakvim prividom stvarnih podataka. Provest ću vas kroz primjer takvog licenciranja, radeći to za aplikaciju ChatGPT AI.

U sve ovo dolazi niz razmatranja etike umjetne inteligencije i zakona o umjetnoj inteligenciji.

Imajte na umu da su u tijeku napori da se etička AI načela ugrade u razvoj i primjenu AI aplikacija. Sve veći kontingent zabrinutih i nekadašnjih etičara umjetne inteligencije pokušava osigurati da napori za osmišljavanje i usvajanje umjetne inteligencije uzimaju u obzir gledište o AI za dobro i odvraćanje AI za loše. Isto tako, postoje prijedlozi novih zakona o umjetnoj inteligenciji koji se vrte okolo kao potencijalna rješenja za sprječavanje pokušaja umjetne inteligencije da ne polude po pitanju ljudskih prava i slično. Za moje kontinuirano i opsežno pokrivanje AI etike i AI zakona, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Postoje značajne etičke nijanse i odredbe povezane s načinom na koji proizvođači umjetne inteligencije mogu ili trebaju postupati s podacima ili informacijama koji se njihovim korisnicima čine privatnima ili povjerljivima. Vjerojatno također znate da gomila postojećih zakona pogađa srž načina na koji bi tehnološki subjekti trebali postupati s podacima. Također su šanse da će novopredloženi zakoni o umjetnoj inteligenciji također prijeći na taj isti teritorij. Pogledajte na primjer moje izvješćivanje o AI Bill of Rights i druge pravne prepirke koje se vode oko umjetne inteligencije, na link ovdje.

Evo ključnih zaključaka ove rasprave:

  • Budite vrlo, vrlo, vrlo oprezni oko toga koje podatke ili informacije želite staviti u svoje upite kada koristite generativnu umjetnu inteligenciju, a isto tako budite iznimno oprezni i predvidite kakve biste vrste eseja mogli dobiti budući da se rezultati također mogu apsorbirati.

Znači li to da ne biste trebali koristiti generativnu umjetnu inteligenciju?

Ne, to uopće nije ono što govorim.

Koristite generativnu umjetnu inteligenciju do mile volje. Suština je da morate voditi računa o tome kako ga koristite. Saznajte koje su licencne odredbe povezane s upotrebom. Odlučite možete li živjeti s tim odredbama. Ako postoje načini za obavještavanje proizvođača umjetne inteligencije da se želite pozvati na određene vrste dodatne zaštite ili dopuštenja, svakako to učinite.

Također ću spomenuti još jedan aspekt za koji znam da će neke ljude razbjesniti. Evo ide. Bez obzira na sve uvjete licenciranja, morate također pretpostaviti da postoji mogućnost da se ti zahtjevi ne poštuju u potpunosti. Stvari mogu poći po zlu. Stvari mogu skliznuti između pukotina. Na kraju, naravno, možda ćete imati pravni slučaj protiv proizvođača umjetne inteligencije jer se nije pridržavao njihovih odredbi, ali to je nešto nakon što je konj već izašao iz staje.

Potencijalno vrlo siguran način za nastavak bio bi postavljanje vlastite instance na vlastite sustave, bilo u oblaku ili unutar kuće (i, pod pretpostavkom da se pridržavate odgovarajućih mjera opreza u vezi s kibernetičkom sigurnošću, što neki doduše ne čine i koje su gore u vlastitom oblaku nego korištenjem oblaka dobavljača softvera). Ipak, pomalo mučan problem je to što malo generativnih AI velikih aplikacija to trenutno dopušta. Svi uglavnom rade samo na temelju našeg oblaka. Malo ih je učinilo dostupnom opciju izrade cijele instance samo za vas. Predvidio sam da ćemo postupno vidjeti pojavu ove opcije, iako će u početku biti prilično skupa i donekle komplicirana, pogledajte moja predviđanja na link ovdje.

Kako inače posebno bistri i izrazito pronicljivi ljudi dospiju u močvaru erozije povjerljivosti podataka ili informacija?

Privlačnost ovih generativnih AI aplikacija prilično je magnetska kada ih počnete koristiti. Korak po korak, postajete hipnotizirani i odlučujete se sve više i dalje upuštati u generativne AI vode. Sljedeće što znate jest da spremno predajete vlasnički sadržaj koji bi trebao biti privatan i povjerljiv u generativnu AI aplikaciju.

Oduprite se porivu i molim vas suzdržite se od postupnog upadanja u neugodnu zamku.

Za poslovne vođe i rukovoditelje na najvišoj razini, isto upozorenje vrijedi i za vas i za sve ljude u vašoj tvrtki. Viši rukovoditelji također bivaju uhvaćeni u entuzijazam i čuđenje korištenja generativne umjetne inteligencije. Stvarno mogu zabrljati i potencijalno unijeti tajne podatke najviše razine u AI aplikaciju.

Povrh toga, mogli bi imati široke lige svojih zaposlenika koji se također igraju s generativnom umjetnom inteligencijom. Mnogi od inače pažljivog osoblja bezumno i blaženo unose privatne i povjerljive podatke tvrtke u ove AI aplikacije. Prema nedavnim medijskim izvješćima, Amazon je očito otkrio da su neki zaposlenici unosili različite vlasničke informacije u ChatGPT. Rečeno je da je interno poslano pravno upozorenje da budu oprezni pri korištenju neodoljive AI aplikacije.

Općenito, malo ironije dolazi u sve češćem fenomenu zaposlenika koji htjeli-ne htjeli unose povjerljive podatke u ChatGPT i drugu generativnu umjetnu inteligenciju. Dopustite mi da elaboriram. Današnje moderne tvrtke obično imaju stroge politike kibernetičke sigurnosti koje su mukotrpno izradile i implementirale. Postoje brojne tehnološke zaštite. Nadamo se da ćemo spriječiti slučajno ispuštanje ključnih stvari. Neprestano udaranje bubnjeva je da budete oprezni kada posjećujete web stranice, budite oprezni kada koristite neodobrene aplikacije i tako dalje.

Uz to dolaze generativne AI aplikacije kao što je ChatGPT. Vijesti o AI aplikaciji prolaze kroz krov i dobivaju široku pozornost. Nastaje ludnica. Ljudi u tim tvrtkama koje imaju sve ove zaštite kibernetičke sigurnosti odlučuju se za korištenje generativne AI aplikacije. Isprva se lijeno igraju s njim. Zatim počinju unositi podatke o tvrtki. Wham, sada su potencijalno razotkrili informacije koje nisu trebale biti otkrivene.

Sjajna nova igračka koja magično zaobilazi milijune dolara izdataka za zaštitu kibernetičke sigurnosti i stalnu obuku o tome što ne treba činiti. Ali, hej, uzbudljivo je koristiti generativnu umjetnu inteligenciju i biti dio "in" gomile. To je ono što se računa, očito.

Vjerujem da shvaćate moj stav o izrazitom oprezu.

Pogledajmo zatim izbliza kako se generativna umjetna inteligencija tehnički bavi tekstom upita i ispisanim esejima. Također ćemo istražiti neke od uvjeta licenciranja, koristeći ChatGPT kao primjer. Imajte na umu da neću pokriti cijeli raspon tih elemenata licenciranja. Svakako uključite svog pravnog savjetnika za bilo koju generativnu AI aplikaciju koju odlučite koristiti. Također, licenciranje se razlikuje od proizvođača umjetne inteligencije do proizvođača umjetne inteligencije, plus određeni proizvođač umjetne inteligencije može odlučiti promijeniti svoje licenciranje, stoga budite oprezni što god propisuje najnovija verzija licenciranja.

Imamo uzbudljivo raspakiranje ove opojne teme.

Prvo, trebali bismo biti sigurni da smo svi na istoj stranici o tome od čega se sastoji Generative AI i što je ChatGPT. Nakon što pokrijemo taj temeljni aspekt, možemo izvršiti uvjerljivu procjenu metafore zrcala povezane s ovom vrstom umjetne inteligencije.

Ako ste već dobro upoznati s Generative AI i ChatGPT-om, možda možete preletjeti sljedeći odjeljak i nastaviti s odjeljkom koji ga slijedi. Vjerujem da će svi ostali pronaći poučne vitalne pojedinosti o ovim stvarima ako pomno pročitaju odjeljak i uđu u korak.

Brzi uvod o generativnoj umjetnoj inteligenciji i ChatGPT-u

ChatGPT je općenamjenski AI interaktivni sustav orijentiran na razgovor, u biti naizgled bezopasan opći chatbot, no bez obzira na to, ljudi ga aktivno i pohlepno koriste na načine koji mnoge uhvate potpuno nespremne, kao što ću uskoro objasniti. Ova AI aplikacija koristi tehniku ​​i tehnologiju u području umjetne inteligencije koja se često naziva Generativna AI. AI generira rezultate kao što je tekst, a to je ono što ChatGPT radi. Druge generativne AI aplikacije proizvode slike kao što su slike ili umjetnička djela, dok druge generiraju audio datoteke ili videozapise.

Usredotočit ću se na tekstualne generativne AI aplikacije u ovoj raspravi budući da to radi ChatGPT.

Generativne AI aplikacije iznimno su jednostavne za korištenje.

Sve što trebate učiniti je unijeti upit i AI aplikacija će za vas generirati esej koji pokušava odgovoriti na vaš upit. Složeni tekst će djelovati kao da je esej napisan ljudskom rukom i umom. Ako biste unijeli upit koji kaže "Pričaj mi o Abrahamu Lincolnu", generativna umjetna inteligencija će vam dati esej o Lincolnu. Ovo se obično klasificira kao generativna umjetna inteligencija koja djeluje tekst-u-tekst ili neki to radije nazivaju tekst-u-esej izlaz. Kao što je spomenuto, postoje i drugi načini generativne umjetne inteligencije, kao što su tekst u umjetnost i tekst u video.

Vaša prva pomisao mogla bi biti da se ova generativna sposobnost ne čini tako važnom u smislu stvaranja eseja. Možete jednostavno pretražiti Internet i lako pronaći tone i tone eseja o predsjedniku Lincolnu. Ono što je zanimljivo u slučaju generativne umjetne inteligencije je to što je generirani esej relativno jedinstven i pruža originalnu kompoziciju, a ne kopiju. Kad biste negdje na internetu pokušali pronaći esej koji je izradila umjetna inteligencija, teško da biste ga otkrili.

Generativna umjetna inteligencija unaprijed je obučena i koristi složenu matematičku i računsku formulaciju koja je postavljena ispitivanjem obrazaca u pisanim riječima i pričama diljem weba. Kao rezultat ispitivanja tisuća i milijuna pisanih odlomaka, AI može izbaciti nove eseje i priče koji su mješavina onoga što je pronađeno. Dodavanjem raznih probabilističkih funkcionalnosti, rezultirajući tekst je prilično jedinstven u usporedbi s onim što je korišteno u skupu za obuku.

Zato se digla galama oko toga da učenici mogu varati kad pišu eseje izvan učionice. Nastavnik ne može samo uzeti esej za koji lažljivi učenici tvrde da je njihov vlastiti spis i tražiti je li kopiran iz nekog drugog internetskog izvora. Općenito, na internetu neće biti konačnog postojećeg eseja koji bi odgovarao eseju generiranom umjetnom inteligencijom. Sve u svemu, učitelj će morati nerado prihvatiti da je učenik napisao esej kao originalan rad.

Postoje dodatne brige o generativnoj umjetnoj inteligenciji.

Jedna ključna mana je da eseji koje proizvodi generativna AI aplikacija mogu sadržavati različite neistine, uključujući očigledno neistinite činjenice, činjenice koje su krivo prikazane i očite činjenice koje su u potpunosti izmišljene. Ti izmišljeni aspekti često se nazivaju oblikom AI halucinacije, krilatica koju ne volim, ali nažalost svejedno postaje popularna (za moje detaljno objašnjenje o tome zašto je ovo loša i neprikladna terminologija, pogledajte moje izvješće na link ovdje).

Želio bih razjasniti jedan važan aspekt prije nego što uđemo u središte stvari o ovoj temi.

Na društvenim mrežama pojavile su se neke sulude pretjerane tvrdnje o tome Generativna AI tvrdeći da je ova najnovija verzija umjetne inteligencije zapravo osjećajna umjetna inteligencija (ne, nisu u pravu!). Oni iz Etike umjetne inteligencije i Prava umjetne inteligencije posebno su zabrinuti zbog ovog rastućeg trenda otvorenih tvrdnji. Mogli biste pristojno reći da neki ljudi preuveličavaju što današnja umjetna inteligencija zapravo može učiniti. Pretpostavljaju da AI ima sposobnosti koje mi još nismo uspjeli postići. To je nesretno. Što je još gore, mogu sebi i drugima dopustiti da dođu u strašne situacije zbog pretpostavke da će umjetna inteligencija biti osjećajna ili slična ljudima da bi mogla djelovati.

Nemojte antropomorfizirati AI.

Ako to učinite, uhvatit ćete se u ljepljivu i turobnu zamku očekivanja da umjetna inteligencija radi stvari koje nije u stanju izvesti. Uz to, najnovija generativna umjetna inteligencija je relativno impresivna za ono što može učiniti. Imajte na umu da postoje značajna ograničenja koja biste trebali stalno imati na umu kada koristite bilo koju generativnu AI aplikaciju.

Ako ste zainteresirani za brzo širenje meteža oko ChatGPT-a i Generative AI-a, radio sam fokusiranu seriju u svojoj kolumni koja bi vam mogla biti informativna. Evo kratkog pregleda u slučaju da vam se neka od ovih tema dopadne:

  • 1) Predviđanja o napretku generativne umjetne inteligencije koja dolazi. Ako želite znati što će se vjerojatno odvijati u vezi s umjetnom inteligencijom tijekom 2023. i kasnije, uključujući nadolazeći napredak u generativnoj umjetnoj inteligenciji i ChatGPT-u, htjet ćete pročitati moj opsežan popis predviđanja za 2023. na link ovdje.
  • 2) Generativna umjetna inteligencija i savjeti za mentalno zdravlje. Odlučio sam pregledati kako se generativna umjetna inteligencija i ChatGPT koriste za savjete o mentalnom zdravlju, što je problematičan trend, prema mojoj fokusiranoj analizi na link ovdje.
  • 3) Osnove generativne umjetne inteligencije i ChatGPT-a. Ovaj članak istražuje ključne elemente načina na koji generativna umjetna inteligencija funkcionira i posebno se bavi aplikacijom ChatGPT, uključujući analizu žamora i fanfara, na link ovdje.
  • 4) Napetost između nastavnika i učenika oko generativne umjetne inteligencije i ChatGPT-a. Ovo su načini na koje će studenti lukavo koristiti generativni AI i ChatGPT. Osim toga, postoji nekoliko načina na koje se učitelji mogu nositi s ovim plimnim valom. Vidjeti link ovdje.
  • 5) Kontekst i generativna upotreba umjetne inteligencije. Također sam obavio sezonsko ispitivanje o kontekstu povezanom s Djedom Božićnjakom koji uključuje ChatGPT i generativni AI na link ovdje.
  • 6) Prevaranti koji koriste generativnu umjetnu inteligenciju. Zloslutno, neki su prevaranti smislili kako koristiti generativnu umjetnu inteligenciju i ChatGPT za nedjela, uključujući generiranje prijevarnih e-poruka, pa čak i izradu programskog koda za zlonamjerni softver, pogledajte moju analizu na link ovdje.
  • 7) Pogreške početnika u korištenju generativne umjetne inteligencije. Mnogi ljudi pretjeraju i iznenađujuće podcjenjuju ono što generativni AI i ChatGPT mogu učiniti, pa sam se posebno osvrnuo na nedostatke koje AI početnici obično čine, pogledajte raspravu na link ovdje.
  • 8) Suočavanje s generativnim AI zahtjevima i AI halucinacijama. Opisujem vodeći pristup korištenju AI dodataka za rješavanje raznih problema povezanih s pokušajem unosa prikladnih upita u generativni AI, plus tu su i dodatni AI dodaci za otkrivanje takozvanih AI haluciniranih rezultata i neistina, kao pokriveno na link ovdje.
  • 9) Razotkrivanje tvrdnji Boneheada o otkrivanju generativnih eseja proizvedenih umjetnom inteligencijom. Postoji pogrešna zlatna groznica aplikacija umjetne inteligencije koje tvrde da mogu utvrditi je li neki esej proizveo čovjek ili generirao umjetna inteligencija. Sve u svemu, ovo je obmanjujuće, au nekim slučajevima i glupa i neodrživa tvrdnja, pogledajte moje izvješće na link ovdje.
  • 10) Igranje uloga putem generativne umjetne inteligencije moglo bi nagovijestiti probleme mentalnog zdravlja. Neki koriste generativnu umjetnu inteligenciju kao što je ChatGPT za igranje uloga, pri čemu aplikacija umjetne inteligencije reagira na čovjeka kao da postoji u svijetu mašte ili drugom izmišljenom okruženju. Ovo bi moglo imati posljedice na mentalno zdravlje, vidite link ovdje.
  • 11) Razotkrivanje raspona izlaznih pogrešaka i neistina. Sastavljaju se različiti prikupljeni popisi kako bi se pokušala pokazati priroda pogrešaka i neistina koje proizvodi ChatGPT. Neki vjeruju da je to bitno, dok drugi kažu da je vježba uzaludna, pogledajte moju analizu na link ovdje.
  • 12) Škole koje zabranjuju Generative AI ChatGPT nedostaju. Možda znate da su razne škole, poput Ministarstva obrazovanja grada New Yorka (NYC), proglasile zabranu korištenja ChatGPT-a na svojoj mreži i povezanim uređajima. Iako se ovo može činiti korisnom mjerom opreza, neće pomaknuti iglu i nažalost potpuno promašiti brod, pogledajte moje izvješće na link ovdje.
  • 13) Generative AI ChatGPT bit će posvuda zbog nadolazećeg API-ja. Dolazi do važnog zaokreta u vezi s korištenjem ChatGPT-a, naime korištenjem API portala u ovoj posebnoj AI aplikaciji, drugi softverski programi moći će pozvati i koristiti ChatGPT. Ovo će dramatično proširiti upotrebu generativne umjetne inteligencije i imati značajne posljedice, pogledajte moju elaboraciju na link ovdje.
  • 14) Načini na koje ChatGPT može propasti ili se otopiti. Nekoliko potencijalno uznemirujućih pitanja nalazi se ispred ChatGPT-a u smislu potkopavanja dosadašnjih golemih pohvala koje je dobio. Ova analiza pomno ispituje osam mogućih problema koji bi mogli uzrokovati da ChatGPT izgubi snagu i čak završi u psećoj kućici, vidi link ovdje.

Moglo bi vam biti zanimljivo da se ChatGPT temelji na verziji prethodne AI aplikacije poznate kao GPT-3. ChatGPT se smatra malo sljedećim korakom, naziva se GPT-3.5. Predviđa se da će GPT-4 vjerojatno biti objavljen u proljeće 2023. Pretpostavlja se da će GPT-4 biti impresivan korak naprijed u smislu mogućnosti stvaranja naizgled još tečnijih eseja, zalaženja dublje i izazivanja strahopoštovanja - nadahnjujuće čudo što se tiče skladbi koje može proizvesti.

Možete očekivati ​​da ćete vidjeti novu rundu izraženog čuđenja kada dođe proljeće i bude objavljen najnoviji generativni AI.

Pominjem ovo jer postoji još jedan kut koji treba imati na umu, a koji se sastoji od potencijalne Ahilove pete za ove bolje i veće generativne AI aplikacije. Ako bilo koji dobavljač umjetne inteligencije učini dostupnom generativnu AI aplikaciju koja zapjenjeno izbacuje prljavštinu, to bi moglo srušiti nade tih proizvođača umjetne inteligencije. Društveno prelijevanje može uzrokovati da sva generativna umjetna inteligencija dobije ozbiljnu modricu na oku. Ljudi će se nedvojbeno jako uzrujati zbog pogrešnih rezultata, koji su se već dogodili mnogo puta i doveli do burnog društvenog osuđivanja AI-ja.

Jedno posljednje upozorenje za sada.

Što god vidite ili pročitate u generativnom AI odgovoru koji Čini se prenijeti kao čisto činjenično (datumi, mjesta, ljudi itd.), budite sigurni da ostanete skeptični i budite voljni još jednom provjeriti ono što vidite.

Da, datumi se mogu izmisliti, mjesta se mogu izmisliti, a elementi za koje obično očekujemo da će biti nezamjerljivi su svi predmet sumnje. Ne vjerujte onome što čitate i budite skeptični kada ispitujete bilo kakve generativne AI eseje ili rezultate. Ako vam generativna AI aplikacija kaže da je Abraham Lincoln obletio zemlju u vlastitom privatnom mlažnjaku, nedvojbeno biste znali da je to malarkija. Nažalost, neki ljudi možda neće shvatiti da u njegovo vrijeme nisu postojali mlažnjaci, ili možda znaju, ali ne primjećuju da se u eseju iznosi ova drska i nečuveno lažna tvrdnja.

Jaka doza zdravog skepticizma i uporni mentalni sklop nevjerice bit će vaša najbolja prednost kada koristite generativnu umjetnu inteligenciju.

Spremni smo prijeći u sljedeću fazu ovog razjašnjenja.

Znajući što će se dovraga dogoditi s tim tekstom

Sada kada smo uspostavili osnove, možemo zaroniti u razmatranja podataka i informacija pri korištenju generativne umjetne inteligencije.

Prvo, ukratko razmotrimo što se događa kada unesete neki tekst u upit za ChatGPT. Ne znamo sa sigurnošću što se događa unutar ChatGPT-a jer se program smatra vlasničkim. Neki su istaknuli da to potkopava osjećaj transparentnosti o AI aplikaciji. Donekle oštroumna primjedba je da je za tvrtku koja se zove OpenAI njihova umjetna inteligencija zapravo zatvorena za javni pristup i nije dostupna kao otvoreni kod.

Raspravljajmo o tokenizaciji.

Kada unesete običan tekst u upit i pritisnete return, vjerojatno će se odmah dogoditi konverzija. Tekst se pretvara u format koji se sastoji od tokena. Tokeni su poddijelovi riječi. Na primjer, riječ "hamburger" obično bi bila podijeljena u tri tokena koji se sastoje od dijela "šunka", "bur" i "ger". Pravilo je da žetoni obično predstavljaju oko četiri znaka ili se smatraju približno 75% konvencionalne engleske riječi.

Svaki se token zatim preformulira kao broj. Razne interne tablice određuju koji je token dodijeljen kojem određenom broju. Zaključak ovoga je da je tekst koji ste unijeli sada u potpunosti skup brojeva. Ti se brojevi koriste za računsku analizu upita. Nadalje, mreža za podudaranje uzoraka koju sam ranije spomenuo također se temelji na tokeniziranim vrijednostima. U konačnici, prilikom sastavljanja ili generiranja izlaznog eseja, ti se numerički tokeni prvo koriste, a zatim se prije nego što se prikažu, tokeni pretvaraju natrag u skupove slova i riječi.

Razmislite o tome na trenutak.

Kad ljudima kažem da ovako funkcionira mehanika obrade, često budu zapanjeni. Pretpostavili su da generativna AI aplikacija kao što je ChatGPT mora koristiti potpuno integrativne riječi. Logično pretpostavljamo da riječi djeluju kao temelj za statističku identifikaciju odnosa u pisanim pripovijestima i sastavcima. Ispostavilo se da obrada zapravo teži korištenju tokena. Možda ovo pridonosi čuđenju kako se čini da računalni proces čini prilično uvjerljiv posao oponašanja ljudskog jezika.

Proveo sam vas kroz taj proces zbog jedne uobičajene zablude koja se, čini se, širi okolo. Čini se da neki ljudi vjeruju da budući da se vaš prompt tekst pretvara u numeričke tokene, vi ste sigurni i zdravi da unutarnji dijelovi AI aplikacije nekako više nemaju vaš izvorno uneseni tekst. Stoga, tvrdi se, čak i ako ste unijeli povjerljive podatke u svoj upit, nemate brige jer je sve to naizgled tokenizirano.

Ta predodžba je zabluda. Upravo sam istaknuo da se numerički tokeni mogu lako vratiti u tekstualni format slova i riječi. Isto se može učiniti s konvertiranim upitom koji je tokeniziran. Nema ničeg magičnog zaštitnog u tome što ste bili tokenizirani. Uz to, nakon pretvorbe u tokene, ako postoji dodatni proces koji se odluči za ispuštanje tokena, njihovo premještanje i na drugi način miješanje ili sjeckanje stvari, u tom slučaju doista postoji mogućnost da neki dijelovi izvornika prompt više nisu netaknuti (i pod pretpostavkom da se originalna kopija na drugi način ne zadržava ili pohranjuje negdje interno).

Sljedeće bih želio pogledati razne obavijesti i uvjete licenciranja ChatGPT-a.

Kada se prijavite na ChatGPT, prikazuje se niz upozorenja i informativnih komentara.

Evo ih:

  • "Povremeno može generirati netočne informacije."
  • "Povremeno može dati štetne upute ili pristran sadržaj."
  • “Obučeni za odbijanje neprikladnih zahtjeva.”
  • "Naš cilj je dobiti vanjske povratne informacije kako bismo poboljšali svoje sustave i učinili ih sigurnijima."
  • “Iako imamo zaštitne mjere, sustav može povremeno generirati netočne ili pogrešne informacije i proizvoditi uvredljiv ili pristran sadržaj. Nije namijenjen davanju savjeta.”
  • "Razgovore mogu pregledati naši AI treneri kako bi poboljšali naše sustave."
  • "Molimo vas da u svojim razgovorima ne dijelite osjetljive podatke."
  • “Ovaj je sustav optimiziran za dijalog. Obavijestite nas je li određeni odgovor bio dobar ili nije od pomoći.”
  • “Ograničeno znanje o svijetu i događajima nakon 2021.”

Dva od navedenih upozorenja posebno su relevantna za ovu raspravu. Pogledajte šestu točku s grafičkim oznakama i sedmu označenu točku.

Raspakirajmo to dvoje:

"Razgovore mogu pregledati naši AI treneri kako bi poboljšali naše sustave."

Ova šesta označena točka objašnjava da bi tekstualne razgovore prilikom korištenja ChatGPT-a mogao pregledati ChatGPT putem svojih "AI trenera", što se radi kako bi se poboljšali njihovi sustavi. Ovime vas obavještavamo da za sve vaše unesene tekstualne upute i odgovarajuće izlazne eseje, koji su svi dio "razgovora" koji vodite s ChatGPT-om, njihovi ljudi mogu u potpunosti vidjeti. Ponuđeno obrazloženje je da se to radi kako bi se poboljšala AI aplikacija, a također nam je rečeno da je to vrsta radnog zadatka koji obavljaju njihovi treneri AI. Možda je tako, ali rezultat je da su vas upozorili da mogu pogledati vaš tekst. Točka, točka.

Kad bi učinili nešto drugo s vašim tekstom, vjerojatno biste zatražili pravni savjet o tome jesu li ekstremno gravitirali izvan predloženih ograničenja pukog pregledavanja teksta u svrhu poboljšanja sustava (pod pretpostavkom da ste uspjeli otkriti da su to učinili, što od samo po sebi se čini možda malo vjerojatnim). U svakom slučaju, možete zamisliti pravnu svađu oko pokušaja da ih se natjera na ovo i njihove pokušaje da se izvuku iz toga da budu uhvaćeni jer su nekako prekršili granice svoje izjave o odricanju od odgovornosti.

"Molimo vas da u svojim razgovorima ne dijelite osjetljive podatke."

Sedma označena točka označava da u svojim razgovorima ne smijete dijeliti nikakve osjetljive informacije. To se čini relativno jednostavnim. Pretpostavljam da biste se mogli buniti oko toga od čega se sastoji definicija osjetljivih informacija. Također, točka s grafičkim oznakama ne govori vam zašto ne biste trebali dijeliti osjetljive informacije. Ako jednog dana budete morali pokušati i u strašnom znoju objasniti zašto ste glupo unijeli povjerljive podatke, mogli biste pokušati podignute obrve tvrditi da je upozorenje bilo nespecifično, dakle, niste shvatili značenje. Zadržite dah na tom.

Sve u svemu, usuđujem se reći da većina ljudi koje sam vidio kako koriste ChatGPT obično ne čitaju točke označene grafičkim oznakama ili prelete mjere opreza označene grafičkim oznakama i samo kimaju glavom kao da se radi o uobičajenom brbljanju koje vidite sve vrijeme. Čini se da malo tko ova upozorenja uzima strogo k srcu. Je li to greška dobavljača jer mjere opreza nije učinio izraženijima? Ili bismo trebali pretpostaviti da bi korisnici trebali biti odgovorni i da su pažljivo pročitali, razumjeli i potom djelovali razborito na temelju upozorenja?

Neki čak tvrde da bi vas AI aplikacija trebala više puta upozoravati. Svaki put kada unesete upit, softver bi trebao iskočiti s upozorenjem i pitati vas želite li se vratiti. Iznova i iznova. Iako bi se ovo moglo činiti kao korisna mjera opreza, mora se priznati da bi iritiralo korisnike. U pitanju je trnovit kompromis.

U redu, to su očita upozorenja koja su predstavljena svim korisnicima da ih odmah vide.

Korisnici koji bi mogli biti znatiželjniji mogli bi se odlučiti za neke od detaljnih uvjeta licenciranja koji su također objavljeni na internetu. Sumnjam da mnogi to rade. Moj predosjećaj je da malo tko ozbiljno gleda na točke s grafičkim oznakama kada se prijavljuje, a još manje ih je golemom razlikom nakon toga pogledaju pojedinosti o licenciranju. Opet, svi smo pomalo otupjeli na takve stvari ovih dana. Ne opravdavam ponašanje, samo napominjem zašto se događa.

Proučiti ću nekoliko izvadaka iz objavljenih uvjeta licenciranja.

Prvo, evo definicije onoga što oni smatraju "sadržajem" povezanim s upotrebom ChatGPT-a:

  • “Vaš sadržaj. Možete dati unos uslugama ('Ulaz') i primiti izlaz koji su generirale i vratile Usluge na temelju Unosa ('Izlaz'). Ulaz i izlaz zajednički su "Sadržaj". Kao između stranaka i u mjeri dopuštenoj važećim zakonom, vi ste vlasnik svih ulaza, a podložno vašoj usklađenosti s ovim Uvjetima, OpenAI vam ovime dodjeljuje sva svoja prava, naslov i interes u i na izlazu. OpenAI može koristiti Sadržaj prema potrebi za pružanje i održavanje Usluga, usklađivanje s primjenjivim zakonom i provođenje naših pravila. Vi ste odgovorni za sadržaj, uključujući osiguravanje da ne krši bilo koji primjenjivi zakon ili ove Uvjete.”

Ako pažljivo proučite tu definiciju, primijetit ćete da OpenAI izjavljuje da može koristiti sadržaj kako smatra potrebnim za održavanje svojih usluga, uključujući poštivanje primjenjivih zakona i provođenje svojih pravila. Ovo im je zgodno hvatanje. U nadolazećoj jednoj od svojih kolumni raspravljat ću o drugoj, ali povezanoj temi, posebno o pravima intelektualnog vlasništva (IP) koja imate u vezi s unesenim tekstualnim upitima i ispisanim esejima (ovdje to ističem budući da je definicija Sadržaj nosi na tu temu).

U daljnjem dijelu uvjeta, označenom kao odjeljak c, spominju ovaj aspekt: ​​“Jedna od glavnih prednosti modela strojnog učenja je da se oni mogu poboljšati tijekom vremena. Kako biste pomogli OpenAI-ju u pružanju i održavanju Usluga, slažete se i dajete upute da možemo koristiti Sadržaj za razvoj i poboljšanje Usluga.” Ovo je slično prethodno spomenutom upozorenju u jednom retku koje se pojavljuje kada se prijavite na ChatGPT.

Zaseban dokument koji je povezan s ovim pruža neke dodatne aspekte o ovim važnim pitanjima:

  • “Kao dio ovog kontinuiranog poboljšanja, kada koristite OpenAI modele putem našeg API-ja, možemo koristiti podatke koje nam date za poboljšanje naših modela. Ne samo da ovo pomaže našim modelima da postanu točniji i bolji u rješavanju vašeg specifičnog problema, to također pomaže u poboljšanju njihovih općih mogućnosti i sigurnosti. Znamo da su privatnost i sigurnost podataka ključni za naše klijente. Jako pazimo da koristimo odgovarajuće tehničke i procesne kontrole kako bismo zaštitili vaše podatke. Uklanjamo sve podatke koji otkrivaju identitet iz podataka koje namjeravamo koristiti za poboljšanje performansi modela. Također koristimo samo male uzorke podataka po klijentu za naše napore da poboljšamo performanse modela. Na primjer, za jedan zadatak, najveći broj API zahtjeva koje uzorkujemo po kupcu ograničen je na 200 svakih 6 mjeseci” (izvadak iz dokumenta pod naslovom “Kako se vaši podaci koriste za poboljšanje izvedbe modela”).

Imajte na umu da odredba ukazuje da se odredba odnosi na korištenje API-ja kao sredstvo povezivanja i korištenja OpenAI modela sve rečeno. Pomalo je nejasno odnosi li se to jednako na krajnje korisnike koji izravno koriste ChatGPT.

U još jednom drugačijem dokumentu, onom koji sadrži njihov popis raznih često postavljanih pitanja, daju niz pitanja i odgovora, od kojih se dva čine posebno relevantnima za ovu raspravu:

  • “(5) Tko može vidjeti moje razgovore? Kao dio naše predanosti sigurnoj i odgovornoj umjetnoj inteligenciji, pregledavamo razgovore kako bismo poboljšali naše sustave i osigurali da je sadržaj u skladu s našim pravilima i sigurnosnim zahtjevima.”
  • “(8) Možete li izbrisati određene upite? Ne, ne možemo izbrisati određene upite iz vaše povijesti. Molimo vas da u svojim razgovorima ne dijelite nikakve osjetljive podatke.”

Postoji dodatni dokument koji pokriva njihovu politiku privatnosti. Kaže sljedeće: "Prikupljamo podatke koji bi se sami ili u kombinaciji s drugim podacima u našem posjedu mogli koristiti za vašu identifikaciju ("Osobni podaci")", a zatim nastavlja s objašnjenjem da bi mogli koristiti podatke iz dnevnika, podatke o korištenju, informacije o komunikaciji, podatke o uređaju, kolačiće, analitiku i druge podatke o vama koji se mogu prikupljati. Obavezno pročitajte sitni tisak.

Mislim da to uglavnom pruža obilazak nekih razmatranja koja se temelje na tome kako bi se vaši podaci mogli koristiti. Kao što sam spomenuo na početku, neću mukotrpno prolaziti kroz sve uvjete licenciranja.

Nadamo se da će vas ovo dovesti u stanje razmišljanja o ovim stvarima i da će vam ostati u glavi.

Zaključak

Rekao sam to prije i reći ću opet, nemojte unositi povjerljive ili privatne podatke u ove generativne AI aplikacije.

Razmotrite nekoliko korisnih savjeta ili opcija na ovom mudrom savjetu:

  • Razmislite prije upotrebe Generative AI
  • Uklonite stvari unaprijed
  • Maskirajte ili lažirajte svoj unos
  • Postavite vlastitu instancu
  • drugo

Zatim ću navesti od čega se svaki od njih sastoji. Postavljanje vlastite instance je ranije opisano ovdje. Upotreba "ostalo" na mom popisu je zbog mogućnosti drugih načina da se nosimo sa sprječavanjem uključivanja povjerljivih podataka, što ću dodatno obraditi u budućoj objavi kolumne.

Ispitajmo ovo:

  • Razmislite prije upotrebe Generative AI. Jedan pristup uključuje potpuno izbjegavanje korištenja generativne umjetne inteligencije. Ili barem dvaput razmislite prije nego što to učinite. Pretpostavljam da je najsigurniji način da ne koristite ove AI aplikacije. Ali ovo također izgleda prilično ozbiljno i gotovo pretjerano.
  • Uklonite stvari unaprijed. Drugi pristup sastoji se od uklanjanja povjerljivih ili privatnih informacija iz onoga što unesete kao upit. U tom smislu, ako ne uđete u njega, nema šanse da se ulije u Borg. Loša strana je da možda uklanjanje povjerljivog dijela na neki način smanjuje ili potkopava ono što pokušavate natjerati generativni AI da učini za vas.
  • Maskirajte ili lažirajte svoje unose. Možete izmijeniti svoj predloženi tekst promjenom informacija tako da ono što se činilo povjerljivim ili privatnim sada bude drugačije prikazano. Na primjer, umjesto ugovora koji spominje Widget Company i Johna Smitha, mijenjate tekst tako da se odnosi na Specious Company i Jane Capone. Pitanje je hoćete li obaviti dovoljno iscrpan posao tako da svi povjerljivi i privatni aspekti budu potpuno izmijenjeni ili lažirani. Bilo bi lako propustiti neke od zamućenja i ostaviti stvari koje tamo ne bi trebale biti.

Evo zanimljivog dodatnog zaokreta koji bi mogao potaknuti vašeg kljuna na daljnje razmišljanje o ovoj temi. Ako možete u potpunosti osigurati da niti jedan od vaših upita za unos ne sadrži nikakve povjerljive informacije, znači li to da ne morate imati ni trunku brige oko toga da objavljeni eseji također sadrže bilo kakve vaše povjerljive informacije?

Ovo bi se činilo aksiomatski istinitim. Nema povjerljivog unosa, nema povjerljivog izlaza.

Evo vašeg nevjerojatnog obrata.

Generativna umjetna inteligencija često je postavljena da se računalno ponovno obučava prema tekstualnim uputama koje se daju. Isto tako, generativna umjetna inteligencija često se osmišljava za računalno ponovno uvježbavanje iz objavljenih eseja. Sva ova ponovna obuka ima za cilj poboljšati sposobnosti generativne umjetne inteligencije.

U jednoj od mojih drugih kolumni opisao sam sljedeći eksperiment koji sam poduzeo. Odvjetnik je pokušavao otkriti novi način rješavanja pravnog problema. Nakon iscrpnog pregleda pravne literature, činilo se da su pronađeni svi kutovi koji su već isplivali na površinu. Koristeći generativnu umjetnu inteligenciju, dobili smo aplikaciju umjetne inteligencije za stvaranje novine pravnog pristupa koji naizgled nije prije bio identificiran. Vjerovalo se da još nitko nije zauzeo takav pravni položaj. Legalni grumen zlata, takoreći. Ovo bi moglo biti strateški vrijedno konkurentno pravno bogatstvo koje bi se u pravom trenutku moglo iskoristiti i iskoristiti.

Predstavlja li taj objavljeni esej oblik povjerljive informacije, takav da ga je generirala umjetna inteligencija za tu određenu osobu i sadrži li nešto posebno i naizgled jedinstveno?

Aha, ovo nas vodi do druge povezane i isprepletene teme o vlasništvu i pravima intelektualnog vlasništva povezanim s generativnom umjetnom inteligencijom. Pratite nas da vidite kako će ovo ispasti.

Konačna napomena za sada.

Sofoklo je dao ovu mudrost: “Ne činite ništa tajno; jer Vrijeme sve vidi i čuje, i sve otkriva.” Pretpostavljam da biste mogli modernizirati formulaciju i ustvrditi da su generativna umjetna inteligencija i oni koji osmišljavaju i održavaju umjetnu inteligenciju skloni vidjeti sve.

To je skroman simboličan savjet koji vrijedi zapamtiti.

Izvor: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- etika-i-pravo/