Kreatori politike moraju se nositi sa stvarnim izazovima umjetne inteligencije

Usredotočenost na maglovit rizik od izumiranja od umjetne inteligencije opasna je distrakcija.

Prošli tjedan, grupa koju financira Silicijska dolina pod nazivom Centar za sigurnost umjetne inteligencije objavila je izjavu u jednoj rečenici: "Ublažavanje rizika od izumiranja uzrokovanog umjetnom inteligencijom trebao bi biti globalni prioritet uz druge rizike na društvenoj razini kao što su pandemije i nuklearni rat." Potpisali su ga mnogi čelnici industrije i cijenjeni istraživači umjetne inteligencije i dobio je veliku pokrivenost u tisku.

Šira reakcija na izjavu bila je oštra. Profesorica sa Sveučilišta u Oxfordu Sandra Wachter rekla je da je to bio samo reklamni trik. Neki od razumnijih potpisnika, poput stručnjaka za sigurnost Brucea Schneiera, brzo su izrazili kajanje potpisnika. "Zapravo ne mislim da umjetna inteligencija predstavlja rizik za izumiranje ljudi", rekao je Schneier.

Drugi su mislili da je izjava zapravo trik za prikupljanje sredstava. Profesor sociologije Kieren Healy sa Sveučilišta Duke objavio je lažnu parafrazu: "moji prijatelji i ja ćemo trebati apsolutni kamion bespovratnih sredstava kako bismo ublažili doslovne egzistencijalne prijetnje na razini vrste povezane s ovom stvari koju tvrdimo da stvaramo."

Marietje Schaake, bivša zastupnica u Europskom parlamentu koja sada radi u Centru za kibernetičku politiku Sveučilišta Stanford, sugerirala je da je podtekst izjave da se kreatori politika trebaju baviti egzistencijalnim rizikom, dok poslovni rukovoditelji postavljaju stvarna pravila za korištenje umjetne inteligencije. Iako bi umjetna inteligencija mogla biti novost, rekla je, ovaj implicitni argument da su čelnici industrije umjetne inteligencije "najbolje pozicionirani za reguliranje samih tehnologija koje proizvode" nije ništa drugo nego teme reciklirane iz njihove prethodne uporabe u društvenim medijima i kontroverzama kriptovaluta.

Moje mišljenje je da su apokaliptična upozorenja o tome da umjetna inteligencija postiže svjesno i neovisno djelovanje odvraćaju pažnju od stvarnih izazova umjetne inteligencije koji zahtijevaju od regulatora da pojačaju provedbu postojećeg zakona, a od kreatora politike da razmotre revizije kako bi riješili pravne praznine.

Prijevara izvršena korištenjem umjetne inteligencije je nezakonita, kao što je rekla predsjednica Savezne komisije za trgovinu Lina Khan. Agencija je već upozorila na korištenje umjetne inteligencije za lažno predstavljanje ljudi kako bi se počinile video i telefonske prijevare. Kina je primijetila istu stvar i bori se protiv prijevara koje pokreću umjetna inteligencija. Nije jasno postoje li tu nova pravna pitanja, ali bit će potrebni ogromni napori provedbe kako bi se kontrolirala ova nadolazeća poplava prijevara s umjetnom inteligencijom. Potpuno financiranje proračunskog zahtjeva agencije od 590 milijuna dolara bilo bi daleko produktivnije korištenje javnog novca od studije o egzistencijalnim rizicima umjetne inteligencije.

Svi su s razlogom zabrinuti zbog dezinformacija koje je stvorila umjetna inteligencija, kao što je nedavna objava 'Lažnog Putina' da je Rusija napadnuta. Označavanje bi moglo uvelike pomoći u smanjenju ovih rizika. Reklama Republikanskog nacionalnog odbora koja je uslijedila nakon Bidenove objave njegove predsjedničke kandidature koristila je umjetnu inteligenciju za generiranje slika onoga što bi se moglo dogoditi pod novim Bidenovim predsjedanjem, ali je tako označena i to je smanjilo rizik od dezinformacija.

Transparentnost za umjetnu inteligenciju je plod politike koji kreatori politike trebaju zgrabiti, kao što se čini da neki čine. Ovaj tjedan potpredsjednica Europske komisije Vera Jourova pozvala je tehnološke tvrtke da označe sadržaj koji generira umjetna inteligencija. U SAD-u, zastupnik Ritchie Torres (DN.Y.) uskoro će predstaviti zakon koji će od usluga poput ChatGPT-a zahtijevati da otkriju da je njihov rezultat "generirala umjetna inteligencija".

Autorska prava i umjetna inteligencija još su jedan izazov. Potrebna je određena jasnoća u vezi s naknadama vlasnicima autorskih prava za korištenje njihovog materijala za obuku AI-ja. U veljači je Getty tužio Stability AI u SAD-u rekavši da je AI tvrtka kopirala 12 milijuna Getty slika bez dopuštenja za obuku svog softvera za generiranje slika Stable Diffusion AI. Prošli tjedan je od londonskog suda zatražio da blokira Stability AI u Ujedinjenom Kraljevstvu jer je AI tvrtka prekršila Gettyjeva autorska prava u obučavanju svog sustava.

Ovi slučajevi će se riješiti na sudu. Ali postoji pristojan argument da nositelji autorskih prava uopće ne moraju dobiti naknadu bilo zbog poštene upotrebe ili zato što se samo nezaštićene činjenice i ideje izdvajaju za obuku umjetne inteligencije. Štoviše, Direktiva Europske unije o autorskim pravima na jedinstvenom digitalnom tržištu iz 2019. sadrži iznimku koja dopušta rudarenje teksta i podataka online materijala zaštićenog autorskim pravima osim ako vlasnik autorskih prava ne odustane od toga korištenjem tehnoloških zaštita kao što je blokator zaglavlja za sprječavanje skeniranja. To bi moglo pokriti podatke o obuci umjetne inteligencije.

Trenutačni nacrt Zakona o umjetnoj inteligenciji Europske unije zahtijeva otkrivanje djela zaštićenih autorskim pravima koja se koriste u obuci AI sustava. Čini se da je ovo namjera omogućiti vlasnicima autorskih prava da iskoriste svoje pravo isključivanja rudarenja teksta i podataka za obuku AI-ja. Ali to bi mogao biti i korak prema nečemu daljem. To bi moglo dovesti do prisilnog licencnog režima koji bi spriječio nositelje autorskih prava da blokiraju obuku AI, ali bi im omogućio određenu naknadu za korištenje njihovog intelektualnog vlasništva. Rješavanje ovih problema s autorskim pravima zahtijevat će usredotočenu pozornost kreatora politike.

EU-ov Zakon o umjetnoj inteligenciji također zahtijeva da rizični sustavi umjetne inteligencije prođu postupak certificiranja s ciljem osiguranja da su rizici adekvatno procijenjeni i da su usvojene razumne mjere za njihovo ublažavanje. Trenutačni nacrt tretira temeljne modele poput ChatGPT-a kao rizične sustave koji podliježu certifikaciji, što je potencijalni teret koji je očito potaknuo voditelja Open AI-a Sama Altmana da kaže da će povući ChatGPT iz Europe ako ga ne može ispuniti. Od tada je uzvratio prijetnju, rekavši da ne planira otići.

Ipak, on ima pravo. Kreatori politike koji traže konkretan problem za prežvakavanje trebali bi se zapitati kako bi sustav umjetne inteligencije opće namjene kao što je ChatGPT mogao biti certificiran kao "siguran" kada će se mnogi rizici pojaviti tek kada se sustav primijeni u praksi.

Ovo su samo neka od ključnih pitanja umjetne inteligencije koja bi trebala brinuti donositelje politika. Drugi uključuju utjecaje na zapošljavanje sve sposobnijih sustava umjetne inteligencije, izazove privatnosti kada podaci o obuci uključuju osobne podatke, sklonost koncentraciji koju stvaraju ogromni troškovi i mrežni učinci softvera za obuku umjetne inteligencije, primjenu pravila o odgovornosti iz članka 230 i provedbu zakoni protiv pristranosti u kreditiranju, stanovanju i zapošljavanju kada umjetna inteligencija pokreće procjene podobnosti.

Kreatori politika ne moraju i ne bi trebali odlutati u maglovita područja u kojima se autonomni programi umjetne inteligencije otimaju kontroli i prijete ljudskom preživljavanju. Imaju puno posla suočavajući se s brojnim izazovima umjetne inteligencije u stvarnom svijetu.

Izvor: https://www.forbes.com/sites/washingtonbytes/2023/06/06/policymakers-need-to-deal-with-real-ai-challenges/