Uvidi bivšeg Googleovog zaposlenika ukazuju na zaostajanje u implementaciji etičke umjetne inteligencije

Toju Duke, prethodno voditelj programa za odgovornu umjetnu inteligenciju (AI) u Googleu, izrazio je zabrinutost zbog odgođene implementacije etičkih praksi AI u tvrtkama. Unatoč brzom napretku tehnologije umjetne inteligencije, Duke tvrdi da mnoge tvrtke zaostaju za istraživačkom zajednicom kada je riječ o razumijevanju i primjeni odgovornih praksi umjetne inteligencije.

U svojoj ulozi u Googleu, Duke je bila odgovorna za nadgledanje odgovornog razvoja umjetne inteligencije u proizvodima i istraživačkim timovima tvrtke. Pojava AI tehnologije izazvala je uzbunu među stručnjacima koji upozoravaju na njen potencijal da uzrokuje štetu ili čak predstavlja egzistencijalni rizik za čovječanstvo.

Poziva na etičku regulaciju umjetne inteligencije

Duke je u skupini stručnjaka na području etičke umjetne inteligencije koji godinama zagovaraju strože propise. Godine 2023. i Sjedinjene Države i Europska unija poduzele su korake za uspostavu snažnijeg upravljanja u pogledu tretmana AI tehnologije. EU je posebno donio nacrt zakona poznat kao Zakon o umjetnoj inteligenciji u lipnju 2023., s ciljem kontrole upotrebe potencijalno štetnih alata umjetne inteligencije, uključujući softver za prepoznavanje lica.

Istaknuti tehnološki divovi, uključujući Amazon, Google, Meta (bivši Facebook) i Microsoft, prihvatili su neobvezujući sporazum koji je predstavila Bijela kuća, u kojem se navode načela za razvoj i puštanje AI sustava.

Potreba za brzinom u rješavanju etičke umjetne inteligencije

Iako priznaje ovaj regulatorni razvoj, Duke tvrdi da tvrtke koje se bave razvojem umjetne inteligencije moraju ubrzati svoje napore kako bi se uskladile s odgovornim praksama umjetne inteligencije. Ona naglašava hitnost razumijevanja kako razviti "odgovornu" umjetnu inteligenciju u skladu s istraživačkom zajednicom.

U svojoj knjizi 'Izgradnja odgovornih algoritama umjetne inteligencije: Okvir za transparentnost, pravednost, sigurnost, privatnost i robusnost', Duke identificira ključni problem u korištenju podataka otvorenog koda za obuku modela umjetne inteligencije. Ti podaci često sadrže štetne poruke, što dovodi do pristranosti koje prožimaju AI aplikacije.

Duke posebno ističe izazove koje predstavljaju veliki jezični modeli (LLM), koji često pokazuju pristranost, utječući na različite AI aplikacije.

Posljedice AI pristranosti u stvarnom svijetu

Duke naglašava posljedice pristranosti umjetne inteligencije u stvarnom svijetu, navodeći primjere u kojima je promijenila način na koji sustavi računalnog vida tumače slike. Naime, i Google i Microsoft morali su povući svoj AI softver za prepoznavanje lica zbog pogrešne identifikacije osoba s tamnijim tonovima kože.

Kako bi riješio ovaj problem povezan s pristranošću, Google je predstavio ljestvicu tonova kože kao alat otvorenog koda za prepoznavanje širokog raspona boja kože. Google je prestao prodavati svoj softver za prepoznavanje lica putem API-ja u oblaku, ali ga nastavlja koristiti u proizvodima kao što su Google Pixel, Nest i fotografije.

Slično tome, 2022. Microsoft je uklonio značajku softvera u oblaku temeljenu na umjetnoj inteligenciji dizajniranu za tumačenje karakteristika poput raspoloženja, spola i dobi iz svoje usluge AI Azure Face API zbog netočnosti i rasne pristranosti. Međutim, ovaj AI alat ostao je dostupan za aplikaciju "Seeing AI", koja pomaže korisnicima oštećena vida.

Navigacija rastućeg utjecaja umjetne inteligencije

Duke tvrdi da umjetna inteligencija postaje sve popularnija unatoč svojim pogrešnim i štetnim rezultatima u različitim modalitetima, uključujući obradu jezika, slike i govora. Ona tvrdi da ključni problem nije u samoj umjetnoj inteligenciji, već u tome kako se njome upravlja i kako se njome implementira.

U svojoj knjizi Duke pojašnjava da umjetna inteligencija nije sama po sebi zlonamjerna i naglašava da nudi mnoge prednosti, postupno postajući sastavni dio postojećih tehnologija. Ona ističe važnost prilagodbe, razumijevanja i osiguravanja sigurne implementacije, upotrebe i usvajanja AI.

Poduzimajući "dječje korake" prema etičkoj umjetnoj inteligenciji

Duke predlaže da bi tvrtke trebale poduzimati postupne korake kako bi razvile etičniju verziju umjetne inteligencije koja bi bila dostupna javnosti. Ona se zalaže za integraciju vrijednosti koje zahtijevaju propisi u razvoj umjetne inteligencije.

Jedna takva vrijednost je pravednost, za koju Duke vjeruje da se može ugraditi u AI modele i aplikacije korištenjem sintetičkih podataka za obuku. Ona također preporučuje transparentne prakse, kao što je javno učitavanje skupova podataka, radi usklađivanja s regulatornim zakonima.

Osim toga, Duke savjetuje tvrtkama da uspostave mjerila usklađena s potencijalnim korištenjem njihove tehnologije, omogućujući modelima umjetne inteligencije i aplikacijama da prođu sustavno testiranje pristranosti.

Uvidi Tojua Dukea bacaju svjetlo na potrebu za bržim prijelazom na etičke prakse umjetne inteligencije unutar industrije. Njezin poziv tvrtkama da se usklade sa standardima istraživačke zajednice i regulatornim vrijednostima naglašava stalne izazove u rješavanju pristranosti umjetne inteligencije i osiguravanju odgovornog razvoja i implementacije umjetne inteligencije.

Izvor: https://www.cryptopolitan.com/insights-from-a-former-google-employee-point-lagging-ethical-ai-implementation/