Stručnjaci za umjetnu inteligenciju potpisuju dokument uspoređujući rizik od 'izumiranja od umjetne inteligencije' s pandemijama, nuklearnim ratom

Deseci stručnjaka za umjetnu inteligenciju (AI), uključujući izvršne direktore tvrtki OpenAI, Google DeepMind i Anthropic, nedavno su potpisali otvorenu izjavu koju je objavio Centar za sigurnost umjetne inteligencije (CAIS). 

Izjava sadrži jednu rečenicu:

"Ublažavanje rizika od izumiranja uzrokovanog umjetnom inteligencijom trebao bi biti globalni prioritet uz druge rizike na društvenoj razini kao što su pandemije i nuklearni rat."

Među potpisnicima dokumenta su pravi “tko je tko” od svjetionika umjetne inteligencije, uključujući “Kuma” umjetne inteligencije, Geoffreya Hintona; Sveučilište Kalifornija, Berkeley, Stuart Russell; i Lex Fridman s Instituta za tehnologiju Massachusetts. Glazbenik Grimes također je potpisnik, naveden pod kategorijom "ostale značajne osobe".

Povezano: Glazbenik Grimes spreman je 'podijeliti 50% tantijema' s glazbom generiranom umjetnom inteligencijom

Iako se izjava na prvi pogled može činiti bezazlenom, temeljna poruka donekle je kontroverzna u zajednici umjetne inteligencije.

Naizgled sve veći broj stručnjaka vjeruje da trenutne tehnologije mogu ili će neizbježno dovesti do pojave ili razvoja sustava umjetne inteligencije koji može predstavljati egzistencijalnu prijetnju ljudskoj vrsti.

Njihovim se stavovima, međutim, suprotstavlja kontingent stručnjaka s dijametralno suprotnim mišljenjima. Glavni znanstvenik za umjetnu inteligenciju, Yann LeCun, na primjer, primijetio je u brojnim prilikama da ne vjeruje nužno da će umjetna inteligencija postati nekontrolirana.

Za njega i druge koji se ne slažu s retorikom o "istrebljenju", poput Andrewa Nga, suosnivača Google Braina i bivšeg glavnog znanstvenika u Baiduu, AI nije problem, to je odgovor.

S druge strane argumenta, stručnjaci kao što su Hinton i CEO Conjecture Connor Leahy vjeruju da je umjetna inteligencija na ljudskoj razini neizbježna i, kao takva, sada je vrijeme za djelovanje.

Nejasno je, međutim, na koje akcije pozivaju potpisnici priopćenja. Izvršni direktori i/ili čelnici AI za gotovo sve veće AI tvrtke, kao i renomirani znanstvenici iz cijele akademske zajednice, su među onima koji su potpisali, što čini očiglednim da namjera nije zaustaviti razvoj ovih potencijalno opasnih sustava.

Ranije ovog mjeseca, izvršni direktor OpenAI-ja Sam Altman, jedan od gore spomenutih potpisnika izjave, prvi put se pojavio pred Kongresom tijekom saslušanja u Senatu kako bi se raspravljalo o regulaciji umjetne inteligencije. Njegovo je svjedočenje dospjelo na naslovnice nakon što je veći dio proveo potičući zakonodavce da reguliraju njegovu industriju.

Altmanov Worldcoin, projekt koji kombinira kriptovalutu i dokaz osobnosti, također je nedavno došao u medijske krugove nakon što je prikupio 115 milijuna dolara u financiranju serije C, čime je njegovo ukupno financiranje nakon tri runde poraslo na 240 milijuna dolara.

Izvor: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war