Deseci stručnjaka za umjetnu inteligenciju (AI), uključujući izvršne direktore tvrtki OpenAI, Google DeepMind i Anthropic, nedavno su potpisali otvorenu izjavu koju je objavio Centar za sigurnost umjetne inteligencije (CAIS).
Upravo smo objavili izjavu:
"Ublažavanje rizika od izumiranja uzrokovanog umjetnom inteligencijom trebao bi biti globalni prioritet uz druge rizike na društvenoj razini kao što su pandemije i nuklearni rat."
Potpisnici su Hinton, Bengio, Altman, Hassabis, Song itd. https://t.co/N9f6hs4bpa
(1 / 6)
— Dan Hendrycks (@DanHendrycks) Neka 30, 2023
Izjava sadrži jednu rečenicu:
"Ublažavanje rizika od izumiranja uzrokovanog umjetnom inteligencijom trebao bi biti globalni prioritet uz druge rizike na društvenoj razini kao što su pandemije i nuklearni rat."
Među potpisnicima dokumenta su pravi “tko je tko” od svjetionika umjetne inteligencije, uključujući “Kuma” umjetne inteligencije, Geoffreya Hintona; Sveučilište Kalifornija, Berkeley, Stuart Russell; i Lex Fridman s Instituta za tehnologiju Massachusetts. Glazbenik Grimes također je potpisnik, naveden pod kategorijom "ostale značajne osobe".
Povezano: Glazbenik Grimes spreman je 'podijeliti 50% tantijema' s glazbom generiranom umjetnom inteligencijom
Iako se izjava na prvi pogled može činiti bezazlenom, temeljna poruka donekle je kontroverzna u zajednici umjetne inteligencije.
Naizgled sve veći broj stručnjaka vjeruje da trenutne tehnologije mogu ili će neizbježno dovesti do pojave ili razvoja sustava umjetne inteligencije koji može predstavljati egzistencijalnu prijetnju ljudskoj vrsti.
Njihovim se stavovima, međutim, suprotstavlja kontingent stručnjaka s dijametralno suprotnim mišljenjima. Glavni znanstvenik za umjetnu inteligenciju, Yann LeCun, na primjer, primijetio je u brojnim prilikama da ne vjeruje nužno da će umjetna inteligencija postati nekontrolirana.
Superljudska umjetna inteligencija nije ni blizu vrha popisa egzistencijalnih rizika.
Dobrim dijelom zato što još ne postoji.Sve dok nemamo osnovni dizajn čak i za AI na razini psa (a kamoli na ljudskoj razini), preuranjeno je raspravljati o tome kako ga učiniti sigurnim. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) Neka 30, 2023
Za njega i druge koji se ne slažu s retorikom o "istrebljenju", poput Andrewa Nga, suosnivača Google Braina i bivšeg glavnog znanstvenika u Baiduu, AI nije problem, to je odgovor.
S druge strane argumenta, stručnjaci kao što su Hinton i CEO Conjecture Connor Leahy vjeruju da je umjetna inteligencija na ljudskoj razini neizbježna i, kao takva, sada je vrijeme za djelovanje.
Voditelji svih velikih laboratorija za umjetnu inteligenciju potpisali su ovo pismo izričito priznajući rizik od izumiranja od AGI-ja.
Nevjerojatan korak naprijed, čestitke Danu na njegovom nevjerojatnom radu koji je ovo spojio i hvala svakom potpisniku što je učinio svoj dio za bolju budućnost! https://t.co/KDkqWvdJcH
- Connor Leahy (@NPCollapse) Neka 30, 2023
Nejasno je, međutim, na koje akcije pozivaju potpisnici priopćenja. Izvršni direktori i/ili čelnici AI za gotovo sve veće AI tvrtke, kao i renomirani znanstvenici iz cijele akademske zajednice, su među onima koji su potpisali, što čini očiglednim da namjera nije zaustaviti razvoj ovih potencijalno opasnih sustava.
Ranije ovog mjeseca, izvršni direktor OpenAI-ja Sam Altman, jedan od gore spomenutih potpisnika izjave, prvi put se pojavio pred Kongresom tijekom saslušanja u Senatu kako bi se raspravljalo o regulaciji umjetne inteligencije. Njegovo je svjedočenje dospjelo na naslovnice nakon što je veći dio proveo potičući zakonodavce da reguliraju njegovu industriju.
Altmanov Worldcoin, projekt koji kombinira kriptovalutu i dokaz osobnosti, također je nedavno došao u medijske krugove nakon što je prikupio 115 milijuna dolara u financiranju serije C, čime je njegovo ukupno financiranje nakon tri runde poraslo na 240 milijuna dolara.
Izvor: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war