AI etika oštro dovodi u pitanje kloniranje ljudskog glasa poput onih vaših preminulih rođaka, namijenjeno za korištenje u autonomnim sustavima AI

Ups, naizgled izvrstan komad nove tehnologije uvukao je sebe i svog proizvođača u vruću vodu.

Mislim na pojavu kloniranja ljudskog glasa temeljenog na umjetnoj inteligenciji kao nove tehnologije koja je u zadnje vrijeme uspjela dospjeti u glavne vijesti. U ovom slučaju, tvrtka je Amazon i njegova Alexa koja stalno napreduje.

Čitatelji moje kolumne mogli bi se sjetiti da sam ranije izvještavao o nepriličnom boo-boou koji se dogodio kada je objavljeno da je Alexa potaknula mladića da ubaci novčić u električnu utičnicu (nemojte to učiniti!), pogledajte moj izvještaj na link ovdje. U tom slučaju, srećom, nitko nije ozlijeđen, a posljedica je bila to što je sustav Alexa AI očito pokupio prethodni virusni trend i bez ikakvog privida zdravorazumske procjene samo ponovio ludi prijedlog kada je od njega zatraženo da radi nešto zabavno dijete u interakciji s Alexom. Ovo naglašava zabrinutost Etike umjetne inteligencije da postajemo preplavljeni umjetnom inteligencijom kojoj u potpunosti nedostaje ikakav privid zdravorazumskog razmišljanja, što je izrazito težak problem s kojim se suočava umjetna inteligencija koja nastavlja prkositi naporima da se utjelovi u umjetnoj inteligenciji (za moju analizu o izvođenju zdravog razuma temeljenom na umjetnoj inteligenciji napori, vidi link ovdje).

Posljednje zaprašivanje uključuje kloniranje glasa, poznato i kao replikacija glasa. Najnovije u takvoj tehnologiji i umjetnoj inteligenciji podižu goruća pitanja o etici umjetne inteligencije i etičkoj umjetnoj inteligenciji. Za moje tekuće sveobuhvatno pokrivanje AI etike i Etičke AI, vidi link ovdje i link ovdje, Samo da spomenemo nekoliko.

Kloniranje glasa temeljeno na umjetnoj inteligenciji jednostavan je koncept.

AI sustav je programiran za audio snimanje nekih vaših izgovorenih riječi. AI zatim pokušava izračunati vaše govorne obrasce računalno. Na temelju otkrivenih govornih uzoraka, AI zatim pokušava emitirati audio govor koji zvuči baš poput vas. Zamršeno je to što govor pokriva riječi koje niste prethodno dali AI-ju kao audio uzorke. Drugim riječima, umjetna inteligencija mora matematički procijeniti kako biste vi mogli izgovoriti riječi. To uključuje sve karakteristike govora kao što su ton, podizanje i spuštanje glasa, tempo ili brzina govora i tako dalje.

Kada čujete kako čovjek pokušava oponašati drugog čovjeka, obično možete razaznati da je to pokušaj lažno predstavljanje. Kratkoročno, primjerice ako imitator upotrijebi samo nekoliko riječi, može biti teško shvatiti da glas nije izvorni govornik. Nadalje, ako imitator oponaša riječi koje je izvorni govornik zapravo izgovorio, velika je vjerojatnost da može prilagoditi svoj glas glasu druge osobe više za taj određeni iskaz.

Sažetost i slušanje potpuno istih riječi mogu nekome omogućiti da se lažno predstavlja.

Izazov postaje prikrivanje riječi koje druga osoba nije izgovorila ili onih za koje imitator nikada nije čuo da osoba govori te određene riječi. Pomalo ste u neznanju kada pokušavate shvatiti kako bi oponašana osoba izgovorila te riječi. Dobra je vijest da ako bilo tko drugi tko sluša imitatora također ne zna kako bi izvorna osoba izgovorila riječi, imitator može biti relativno udaljen od pravog glasa, a opet se činiti kicošom i na meti.

Također bih želio na trenutak ukloniti iz jednadžbe manire i fizičko kretanje imitacije. Kad vidite imitatora, mogli biste se pokolebati ako oni mogu naborati lice ili mlatiti rukama na način koji također oponaša osobu koja se predstavlja. Dodatni znakovi tijela i lica zavarat će vaš um da mislite da je i glas mrtav, iako možda nije. Purist glasovnog oponašanja inzistirao bi na tome da se samo glas treba koristiti kao kriterij za određivanje oponaša li glas oponašanu osobu.

Sigurno ste vidjeli razne deepfake videozapise koji se ovih dana vrte po društvenim mrežama. Netko je pametno preinačio video kako bi se tuđe lice pojavilo u videu, preklapajući lice koje je na izvornoj snimci bilo nekoga drugog. Ovo je obično popraćeno i deepfakeom na glasu. Dobivate dvostruki udarac, uključujući vizualnu promjenu videa putem deepfake AI i zvuka koji se mijenja putem deepfake AI.

Radi rasprave ovdje, koncentriram se samo na aspekte deepfake zvuka temeljene na umjetnoj inteligenciji, koji se, kao što je ranije spomenuto, obično nazivaju kloniranje glasa ili replikacija glasa. Neki to bezobrazno nazivaju glasom u limenci.

Siguran sam da neki od vas upravo sada potiču da već neko vrijeme imamo mogućnost korištenja računalnih programa za kloniranje glasova. Ovo samo po sebi nije ništa novo. Slažem se. U isto vrijeme, moramo priznati da ova visokotehnološka sposobnost postaje sve bolja i bolja. Pa, kažem sve bolje i bolje, ali možda bih, kao što ćete vidjeti za koji trenutak, trebao reći da postaje sve više zabrinjavajuće i zabrinjavajuće.

Drži se te misli.

Tehnološka snaga za kloniranje glasa sigurno napreduje. Na primjer, nekada ste morali "trenirati" AI audio replikacijski program izgovarajući cijelu priču miješajući i spajajući riječi. Poput poznate ili zloglasne rečenice o brzoj smeđoj lisici koja je preskočila lijenog psa (retka koja je trebala natjerati nekoga da pokrije sva slova abecede), postoje posebno izrađene kratke priče koje sadrže mješavinu riječi u svrhu natjerati vas da izgovorite dovoljno riječi i dovoljno široku paletu riječi kako bi uparivanje AI uzoraka bilo puno lakše.

Možda ste morali pročitati nekoliko stranica riječi, često uključujući riječi koje vam je teško izgovoriti, a niste ni sigurni što znače, kako biste u dovoljnoj mjeri omogućili AI podudaranje uzoraka. To bi moglo potrajati mnogo minuta ili ponekad sati razgovora kako bi se umjetnoj inteligenciji dalo dovoljno zvuka za pronalaženje različitih uzoraka vašeg glasa. Ako ste izostavili ovu aktivnost obuke, velike su šanse da će rezultirajuća glasovna replikacija biti lako oborena od strane svih vaših prijatelja koji dobro poznaju vaš glas.

U redu, interes programera umjetne inteligencije tada je bio usmjeren na to kako optimizirati aspekte repliciranja zvuka. Graditelji umjetne inteligencije uživaju u izazovima. Za njih se kaže da su u srcu optimizatori. Zadajte im problem i oni će težiti optimizaciji, bez obzira kamo bi to moglo dovesti (ovo spominjem kao predznak, koji će uskoro postati jasniji).

Odgovori mi ovo:

  • Koja je najmanja količina audio uzorka koja bi bila potrebna za maksimalno kloniranje nečijeg glasa i za koji audio uzorak može biti gotovo bilo koji nasumično dopušteni skup riječi, a opet omogućiti kloniranje glasa da proizvede gotovo sve riječi koje bi ikada mogle biti izgovorene ciljanim glasom i zvukom koji je u biti identičan glasu te osobe u razgovoru ili drugim kontekstualnim postavkama po izboru?

Ima puno toga unutra za raspakirati.

Imajte na umu da želite minimalni audiouzorak koji će maksimalno klonirati glas, tako da se rezultirajući izgovori umjetne inteligencije u tom sada automatiziranom repliciranom glasu čine potpuno nerazlučivim od stvarne osobe. Ovo je složenije nego što mislite.

To je gotovo poput one igre u kojoj morate pokušati imenovati pjesmu na temelju najmanjeg broja slušanih nota. Što je manje nota odsvirano, to je teže pogoditi koja je pjesma. Ako je vaša pretpostavka pogrešna, gubite bodove ili gubite igru. Slijedi borba oko toga trebate li koristiti samo jednu notu, najmanji mogući trag, ali tada je vaša vjerojatnost da pogodite pjesmu vjerojatno ozbiljno smanjena. Što više nota čujete, to je veća vjerojatnost da ćete pogoditi točnu pjesmu, ali dopuštate i drugim natjecateljima da također imaju veću šansu da pogađaju.

Zapamtite da se također bavimo pojmom propisanih riječi naspram bilo koje riječi u slučaju kloniranja glasa. Ako osoba kaže riječi "Ne možeš podnijeti istinu", a mi želimo da umjetna inteligencija oponaša ili glumi tu osobu, umjetna inteligencija računalno vjerojatno može lako uhvatiti obrazac. S druge strane, pretpostavimo da imamo samo ove riječi koje je izgovorila ta osoba "Je li to sve što me imaš pitati" i želimo upotrijebiti te riječi da bi AI rekla "Ne možeš podnijeti istinu." Mislim da možete vidjeti poteškoću uvježbavanja na jednom skupu riječi i potrebe za ekstrapolacijom na potpuno drugačiji skup riječi.

Još jedan naporan element sastoji se od konteksta za izgovorene riječi. Pretpostavimo da vas natjeramo da audio snimite rečenicu kada ste mirni i opušteni. AI oblikuje te riječi. To također može utjecati na smirenost vašeg glasa. Zamislite da tada želimo da se umjetna inteligencija pretvara da ste to vi dok vrištite ljuti i ljuti kao stršljen. Može biti zastrašujuće imati umjetnu inteligenciju koja iskrivljuje izvorni obrazac tako da postane točno ljutita verzija vašeg glasa.

O kakvim minimumima gledamo?

Trenutačni cilj je probiti minutažu.

Zgrabite snimljeni glas za koji imate manje od jedne minute zvuka i natjerajte umjetnu inteligenciju da napravi nevjerojatno kloniranje glasa samo iz tog minuskulnog uzorka. Želim pojasniti da gotovo svatko može sastaviti AI koji to može obično za manje od jedne minute, iako je rezultirajući glasovni klon slabašan i lako se otkriva kao nepotpun. Opet, izričito i nepokolebljivo tvrdim da je vrijeme uzorkovanja minimalno i u međuvremenu je kloniranje glasa maksimalno. Budalo može postići minimalno uzorkovanje ako im se također dopusti da budu izrazito submaksimalni u kloniranju glasa.

Ovo je zabavan i uzbudljiv tehnološki izazov. Možda se pitate o vrijednosti ili zaslugama toga. Koji cilj tražimo? Koje dobrobiti za čovječanstvo možemo očekivati ​​od mogućnosti tako učinkovitog i djelotvornog repliciranja glasa temeljenog na umjetnoj inteligenciji?

Želim da razmisliš o tom mesnatom pitanju.

Pogrešan odgovor može vas nenamjerno dovesti u hrpu kaše.

Evo nečega što se čini optimističnim i posve pozitivnim.

Pretpostavimo da možda imamo stare snimke slavnih ljudi kao što je Abraham Lincoln i da smo mogli upotrijebiti te prašnjave audio isječke za izradu glasovnog klona temeljenog na umjetnoj inteligenciji. Tada smo mogli čuti Lincolna kako govori govor iz Gettysburga kao da smo bili tamo na dan kada je izgovorio nezaboravni govor od četiri stavke prije sedam godina. Napominjemo, nažalost, nemamo nikakve audio snimke Lincolnova glasa (tehnologija još nije postojala), ali imamo glasovne snimke predsjednika Benjamina Harrisona (prvog američkog predsjednika koji je imao glasovnu snimku ) i drugi predsjednici nakon toga.

Vjerujem da bismo se svi vjerojatno razumno složili da je ova posebna upotreba kloniranja glasa temeljenog na umjetnoj inteligenciji sasvim u redu. Zapravo, vjerojatno bismo to željeli više nego da se glumac danas pokušava pretvarati da govori kao Lincoln. Glumac bi vjerojatno izmišljao ono što su mislili da Lincolnov stvarni glas zvuči. Bila bi to izmišljotina, možda daleko od onoga što je Lincolnov glas bio. Umjesto toga, korištenjem dobro kvalificiranog AI sustava za kloniranje glasa, bilo bi malo rasprava o tome kako je Lincolnov glas uistinu zvučao. AI bi bio činjenično točan, barem u mjeri u kojoj je AI dobar u repliciranju ciljanog glasa.

U kategoriji dobrog kloniranja glasa pomoću umjetne inteligencije, možemo postići pobjedu s ovom vrstom slučaja upotrebe.

Ne želim biti turoban, ali postoji loša strana čak i ove naizgled sve naopake upotrebe.

Netko koristi AI sustav za kloniranje glasa kako bi otkrio glas Theodorea Roosevelta ("Teddyja"), našeg dragog 26th Predsjednik Sjedinjenih Država, prirodoslovac, zaštitar prirode, državnik, pisac, povjesničar i gotovo univerzalno označen kao cijenjena osoba. Govori koje je održao, a za koje nemamo povijesno sačuvane zvučne verzije, sada bi se mogli “izgovarati” kao da on osobno govori danas. Hvale vrijedan poticaj za proučavanje povijesti.

Pretvorimo ovo u ružno, jednostavno u svrhu otkrivanja njegovih loših strana.

Koristimo glasovni klon temeljen na umjetnoj inteligenciji Teddyja za čitanje govora koji je održao zli diktator. AI ne mari za ono što govori budući da u AI nema privida osjećaja. Riječi su jednostavno riječi, ili točnije samo oblačići zvuka.

Mogli biste biti zaprepašteni da bi netko učinio nešto ovako podlo. Zašto bi se, dovraga, klonirani glas glasovitog i cijenjenog Theodorea Roosevelta temeljen na umjetnoj inteligenciji koristio za održavanje govora koji ne samo da Teddy izvorno nije napravio, nego povrh toga govori o temi koja oslikava neku zloću dostojnog prezira diktator?

Nečuveno, mogli biste uzviknuti.

Lako učinjeno, stiže odgovor.

U biti, jedna vrlo važna zabrinutost u vezi s repliciranjem glasa temeljenog na umjetnoj inteligenciji jest da ćemo se iznenada naći preplavljeni lažnim ili ćemo reći duboko lažnim govorima i izjavama koje nemaju nikakve veze s povijesnim činjenicama ili točnostima. Ako se dovoljno toga napravi i objavi, mogli bismo postati zbunjeni što je činjenica, a što fikcija.

Možete vidjeti kako bi to moglo nastati. Koristeći glasovni klon temeljen na umjetnoj inteligenciji, netko napravi audio snimku govora Woodrowa Wilsona koji zapravo nikada nije održao. Ovo je objavljeno na internetu. Netko drugi čuje snimku i vjeruje da je prava stvar. Objavili su ga na drugom mjestu, spominjući da su pronašli ovu sjajnu povijesnu snimku Woodrowa Wilsona. Uskoro, učenici u nastavi povijesti koriste audio umjesto čitanja pisane verzije govora.

Nitko na kraju ne zna je li govor održao Woodrow Wilson ili ne. Možda jest, možda i nije, a svi misle da to i nije bitno (dobro, oni koji nisu fokusirani na povijesnu točnost i činjenice). Naravno, ako je govor podli, to daje pogrešan dojam ili dezinformacijski prikaz te povijesne osobe. Povijest i fikcija spojene su u jedno.

Vjerujem da ste, nadamo se, uvjereni da je ovo loša strana povezana s kloniranjem glasa temeljenim na umjetnoj inteligenciji.

Opet, već možemo raditi takve stvari, radeći to bez novijeg i poboljšanog repliciranja glasa temeljenog na umjetnoj inteligenciji, ali to će biti lakše učiniti i rezultirajući zvuk bit će iznimno teško razlikovati pravi od lažnog. U današnje vrijeme, koristeći konvencionalne programe za proizvodnju zvuka, obično možete poslušati izlaz i često lako utvrditi da je zvuk lažiran. S napretkom umjetne inteligencije, uskoro više nećete moći vjerovati svojim ušima, na neki način.

Koliko god loše moglo biti kloniranje glasa povijesnih osoba, moramo razmisliti o možda posebno nečuvenim upotrebama koje uključuju današnje žive ljude.

Prvo, jeste li ikada čuli za donekle popularnu prijevaru koja uključuje nekoga tko se predstavlja kao šef ili njegov ekvivalent? Prije nekoliko godina postojala je uznemirujuća moda pozivanja restorana ili trgovine i pretvaranja da ste šef lokala. Lažnjak bi uključivao govorenje članu osoblja da čini smiješne stvari, što bi oni često poslušno činili pod lažnim uvjerenjem da razgovaraju sa svojim šefom.

Ne želim se zaglaviti u ovakvim bijesnim nezakonitim radnjama, ali još jedna bitna sastoji se od pozivanja nekoga tko bi mogao biti nagluh i pretvaranja da je njihov unuk ili unuka. Imitator pokušava uvjeriti baku i djeda da daju novac kako bi im pomogli ili ih možda spasili na neki način. Na temelju oponašanog glasa, djed i baka su prevareni da to učine. Odvratno. Sramotno. tužno.

Uskoro ćemo ući u eru u kojoj će kloniranje glasa temeljeno na umjetnoj inteligenciji omogućiti na steroidima, ako jeste, pojavu prijevara i prijevara povezanih s glasom. AI će obaviti tako nevjerojatan posao replikacije glasa da će se onaj tko čuje glas zakleti da je stvarna osoba bila ta koja je govorila.

Koliko daleko to može ići?

Neki su zabrinuti da bi se lansiranje, recimo, atomskog oružja i vojni napadi mogli dogoditi od strane nekoga tko koristi glasovni klon temeljen na umjetnoj inteligenciji koji vara druge da vjeruju da je vojni časnik najviše razine izdao izravnu zapovijed. Isto bi se moglo reći za bilo koga na bilo kojem istaknutom položaju. Upotrijebite izvanredno precizan glasovni klon umjetne inteligencije kako biste natjerali bankarskog izvršnog direktora da oslobodi milijune dolara u sredstvima, čineći to na temelju toga što su bili prevareni da vjeruju da razgovaraju s bankovnim klijentom.

U prošlim godinama, učiniti ovo s umjetnom inteligencijom ne bi nužno bilo uvjerljivo. U trenutku kada čovjek s druge strane telefona počne postavljati pitanja, AI bi trebao odstupiti od pripremljenog scenarija. U tom bi se trenutku kloniranje glasa pogoršalo, ponekad i radikalno. Jedini način da se prijevara nastavi bilo je prisiliti razgovor natrag u scenarij.

S vrstom umjetne inteligencije koju danas imamo, uključujući napredak u obradi prirodnog jezika (NLP), možete napustiti skriptu i potencijalno imati klon umjetne inteligencije kao da govori na prirodan način razgovora (ovo nije uvijek slučaj, i još uvijek postoje načini da se AI saplete).

Prije nego što uđemo u detalje o divljim i vunenim razmatranjima koja leže u pozadini kloniranja glasa temeljenog na umjetnoj inteligenciji, postavimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno u pojavu strojnog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da je jedan od najglasnijih glasova ovih dana u području AI, pa čak i izvan polja AI-a, traženje većeg privida etičke AI. Pogledajmo što znači upućivanje na etiku umjetne inteligencije i etičku umjetnu inteligenciju. Povrh toga, istražit ćemo što mislim kada govorim o strojnom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su “samo koderi” ili oni koji programiraju AI podložni poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugačijem smjeru. Osjećajna umjetna inteligencija bi navodno bila ljudske kvalitete. Trebali biste uzeti u obzir da je AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva umjetna inteligencija na kraju mogla biti pametnija od ljudi.

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na kloniranje glasa temeljeno na umjetnoj inteligenciji.

Na nedavnoj konferenciji, prezentacija koju je održao Amazon imala je za cilj prikazati poželjne prednosti glasovnog kloniranja temeljenog na umjetnoj inteligenciji i istaknuti najnoviju vodeću umjetnu inteligenciju koja se koristi u Alexi za unaprjeđenje njezinih mogućnosti. Prema novinskim izvješćima, pripremljeni primjer koji je trebao biti dirljiv i optimističan sastojao se od toga da dijete zamoli Alexu da mu baka dovrši čitanje priče o Čarobnjak iz oza. Publici je rečeno da je baka preminula i da je to bio način da se dijete u biti ponovno poveže sa svojim dragom djedom i bakom. Sve je ovo očito dio videa koji je sastavio Amazon kako bi pomogao u prikazivanju najnovijih otkrića AI kloniranja glasa od strane Alexa razvojnog tima (obuhvaća značajke koje još nisu službeno pokrenute za javnu upotrebu).

Jedna od reakcija na ovaj primjer je da bismo mogli biti prilično dirnuti što dijete opet može čuti glas svoje bake. Vjerojatno trebamo pretpostaviti da baka već nije snimila cijelo čitanje priče, stoga je kloniranje umjetne inteligencije činilo da stvari izgledaju kao da baka sada radi cijelo čitanje.

Izvanredan i nevjerojatan način ponovnog povezivanja s voljenima koji više nisu s nama.

Nisu svi novinari i analitičari (plus Twitter) bili toliko skloni pozitivnom tumačenju ovog napretka. Neki su ovo označili kao potpuno jezivo. Rekli su da je pokušaj ponovnog stvaranja glasa preminule voljene osobe bio čudan i pomalo bizaran pothvat.

Mnogo je pitanja, poput:

  • Bi li se dijete zbunilo i povjerovalo da je preminula voljena osoba još živa?
  • Može li se dijete sada navesti na neku neljubažnu šalu ili prijevaru pod lažnim uvjerenjem da je baka još uvijek s nama?
  • Može li dijete patiti kad čuje o preminuloj voljenoj osobi i postati malodušno zbog ponovnog nedostajanja bake i djeda, kao da otvara već riješene emocionalne rane?
  • Hoće li dijete pomisliti da pokojnik može govoriti s druge strane, naime da mu iz groba govori taj mistični glas koji se doima kao da je upravo njegova baka?
  • Je li moguće zamisliti da će dijete misliti da je umjetna inteligencija na neki način utjelovila njegovu baku, antropomorfizirajući umjetnu inteligenciju tako da će dijete odrastati vjerujući da umjetna inteligencija može u potpunosti kopirati ljude?
  • Pretpostavimo da se dijete toliko zaljubi u bakin glas koji replicira umjetna inteligencija da postane opsjednuto i koristi glas za sve vrste audio slušanja?
  • Može li prodavač koji replicira glas odlučiti koristiti taj glas za druge koji koriste isti cjelokupni sustav, čineći to bez izričitog dopuštenja obitelji i tako "profitirajući" od osmišljenog glasa?
  • I tako dalje.

Važno je shvatiti da možete dočarati onoliko negativnih koliko i pozitivnih, ili da kažemo onoliko pozitivnih koliko i negativnih. Postoje kompromisi u podlozi ovih napredaka umjetne inteligencije. Gledanje samo jedne strane novčića možda je kratkovidno.

Ključno je osigurati da sagledamo sve strane ovih problema. Nemojte biti zamagljeni u svom razmišljanju. Može biti lako istraživati ​​samo pozitivne stvari. Može biti lako istraživati ​​samo negativne strane. Moramo ispitati oboje i shvatiti što možemo učiniti kako bismo, nadamo se, iskoristili pozitivne strane i pokušali smanjiti, eliminirati ili barem ublažiti negativne strane.

Do neke mjere, to je razlog zašto je etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Pravila AI Etike tjeraju nas da ostanemo budni. AI tehnolozi ponekad mogu biti zaokupljeni tehnologijom, osobito optimizacijom visoke tehnologije. Oni ne uzimaju u obzir nužno veće društvene posljedice. Imati etičko razmišljanje AI-a i činiti to integralno za razvoj i primjenu AI-a ključno je za proizvodnju odgovarajuće AI-a.

Osim primjene Etike umjetne inteligencije, postavlja se odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije, kao što su značajke kloniranja glasa temeljene na umjetnoj inteligenciji. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. AI Ethics služi u najmanju ruku kao zaustavljanje.

S tim u vezi, neki tvrde da nam ne trebaju novi zakoni koji pokrivaju AI i da su naši postojeći zakoni dovoljni. Zapravo, oni upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti. Pogledajte na primjer moju pokrivenost na link ovdje i link ovdje.

U ovom trenutku ove teške rasprave, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji išta o kloniranju glasa temeljenom na umjetnoj inteligenciji, i ako jest, što ovo pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i kloniranje glasa temeljeno na umjetnoj inteligenciji

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću ispričati.

Idemo skicirati scenarij koji bi mogao iskoristiti kloniranje glasa temeljeno na umjetnoj inteligenciji.

Roditelj i njihovo dijete ulaze u samovozeći automobil temeljen na umjetnoj inteligenciji. Idu u lokalnu trgovinu. Očekuje se da će ovo biti relativno mirna vožnja. Samo tjedna vožnja do trgovine, iako je vozač AI sustav za vožnju i roditelj ne treba ništa voziti.

Za roditelja je ovo velika blagodat. Umjesto da se moraju usredotočiti na upravljanje i suočavanje s činom vožnje, roditelj umjesto toga svoju pozornost može posvetiti svom djetetu. Mogu se zajedno igrati u autonomnom vozilu i provoditi vrijeme cijenjene prirode. Dok bi roditelj inače bio ometen vožnjom i vjerojatno bi postao zabrinut i nervozan dok bi se kretao prometnim ulicama i imao posla s drugim ludim vozačima u blizini, ovdje je roditelj blaženo nesvjestan tih briga i samo je ugodan u interakciji sa svojim dragocjenim djetetom.

Roditelj razgovara s AI sustavom vožnje i kaže AI da ih odvede u trgovinu. U tipičnom scenariju, umjetna inteligencija bi odgovorila putem neutralnog audio izgovora koji biste mogli čuti putem današnje Alexe ili Sirija. AI bi mogao odgovoriti navodeći da je trgovina mješovitom robom udaljena 15 minuta vožnje. Osim toga, AI bi mogao reći da će ih samovozeći automobil ostaviti ispred trgovine.

To bi mogla biti jedina glasovna aktivnost umjetne inteligencije u takvom scenariju. Možda bi AI mogao izgovoriti nešto o odredištu koje se približava, kada se samovozeći automobil približi trgovini. Također može postojati glasovni podsjetnik da ponesete svoje stvari sa sobom dok izlazite iz autonomnog vozila.

Objasnio sam da će neki sustavi za upravljanje umjetnom inteligencijom biti brbljave mačke. Bit će programirani za tečniju i kontinuiranu interakciju s ljudskim jahačima. Kad uđete u vozilo za dijeljenje prijevoza koje vozi čovjek, ponekad želite da vozač bude brbljav. Osim pozdrava, možda biste željeli da vam kažu o lokalnim vremenskim uvjetima ili možda pokažu druga mjesta koja biste trebali vidjeti u lokalnom području. Neće svatko htjeti brbljavu mačku, stoga bi AI trebalo osmisliti tako da se uključi u dijaloge samo kada to čovjek zatraži, pogledajte moje izvješće na link ovdje.

Sada kada sam sve uspostavio, promijenimo stvari na mali, ali značajan način.

Pretvarajte se da AI sustav vožnje ima značajku kloniranja glasa temeljenu na AI. Pretpostavimo također da je roditelj prethodno postavio AI kloniranje glasa dajući audio isječak djetetove bake. Iznenađenje, misli roditelj, natjerat ću AI sustav da govori kao da je djetetova preminula baka.

Dok se vozite do trgovine, AI sustav za vožnju komunicira s roditeljem i djetetom, cijelo vrijeme isključivo koristeći bakin klonirani glas.

Što misliš o ovome?

Jezivo ili nezaboravno?

Malo ću ubrzati stvari. Pripremi se. Vežite sigurnosni pojas.

Neki vjeruju kao i ja da ćemo na kraju dopustiti djeci da se sama voze u samovozećim automobilima koji se temelje na umjetnoj inteligenciji, pogledajte moju analizu na link ovdje.

U današnjim automobilima kojima upravljaju ljudi uvijek mora biti prisutna odrasla osoba jer zakon nalaže da odrasli vozač bude za volanom. Za sve praktične svrhe, nikada ne možete imati dijete u automobilu u pokretu koje je samo u vozilu (da, znam da se to događa, kao što je istaknuti 10-godišnji sin velike filmske zvijezde koji je nedavno napravio zamjenu vrlo skupi automobil u drugi vrlo skupi automobil, ali svejedno to su rijetkosti).

Današnji bi se roditelji vjerojatno oštro protivili dopuštanju svojoj djeci da se voze u samovozećem automobilu u kojemu nedostaje odrasla osoba koja bi služila kao nadzornik ili pazila na njihovu djecu. Znam da se to čini gotovo nemogućim za zamisliti, ali kladim se da ćemo, kada automobili koji se sami voze prevladavaju, neizbježno prihvatiti ideju da djeca budu bez odraslih dok se voze u automobilu koji samostalno vozi.

Uzmite u obzir faktor pogodnosti.

Na poslu ste i vaš šef vas proganja da obavite zadatak. Morate pokupiti svoje dijete iz škole i odvesti ga na trening bejzbola. Zapeli ste između čekića i nakovnja jer previše udovoljavate svom šefu ili ne vodite dijete na vježbalište. Nitko drugi koga poznajete nije dostupan za prijevoz vašeg djeteta. Ako ništa drugo, sigurno ne želite koristiti uslugu dijeljenja prijevoza koja ima ljudskog vozača, jer biste prirodno bili zabrinuti što bi ta odrasla strana stranac mogla reći ili učiniti dok vozi vaše dijete.

Nema problema, nema brige, samo koristite samovozeći automobil temeljen na umjetnoj inteligenciji. Daljinski usmjeravate samovozeći automobil da ode po vaše dijete. Preko kamera samovozećeg automobila možete vidjeti i gledati svoje dijete kako ulazi u autonomno vozilo. Nadalje, tu su i kamere okrenute prema unutra i možete pratiti svoje dijete tijekom cijele vožnje. Ovo se čini jednako sigurnim, ako ne i sigurnijim od traženja nepoznatog ljudskog vozača da doveze vaše dijete. S tim u vezi, neki su s pravom zabrinuti da ako vožnja krene po zlu, imate dijete prepušteno samo sebi i nema odrasle osobe koja bi mu odmah pomogla ili ga usmjerila.

Ostavljajući po strani brojne dvojbe, pretpostavimo da su isti roditelj i dijete koje sam opisao u prethodnom scenariju u redu da se dijete vozi bez prisustva roditelja. Samo prihvatite da je ovo u konačnici održiv scenarij.

Evo udarca u finale.

Svaki put kada se dijete vozi u samovozećem automobilu temeljenom na umjetnoj inteligenciji, ono se pozdravlja i komunicira s umjetnom inteligencijom jer ona koristi kloniranje glasa temeljeno na umjetnoj inteligenciji i replicira glas djetetove preminule bake.

Što mislite o tim jabukama?

Kad je roditelj također bio prisutan u samovozećem automobilu, možda bismo mogli opravdati korištenje AI glasa jer je roditelj tu da savjetuje dijete o tome što se događa dok AI audio govori. Ali kad roditelj nije prisutan, sada pretpostavljamo da je djetetu idilično dobro s replikacijom bakinog glasa.

Ovo je definitivno jedan od onih trenutaka za stanku da se ozbiljno razmisli je li to dobro ili loše za dijete.

Zaključak

Provedimo mali misaoni eksperiment kako bismo razmislili o ovim teškim stvarima.

Molim vas, smislite tri pozitivan razloge za kloniranje glasa temeljeno na umjetnoj inteligenciji.

Čekat ću dok ih ne smisliš.

Zatim, smislite tri solidna negativan razloga koji potkopavaju pojavu kloniranja glasa temeljenog na umjetnoj inteligenciji.

Pretpostavljam da ste ih smislili.

Shvaćam da nedvojbeno možete pronaći mnogo više razloga od samo tri svaki koji idu u prilog ili ne u korist ove tehnologije. Prema vašem mišljenju, nadmašuju li negativne strane pozitivne? Postoje oni kritičari koji tvrde da bismo trebali baciti kiboš na takve napore.

Neki žele pokušati spriječiti tvrtke da koriste kloniranje glasa temeljeno na umjetnoj inteligenciji, iako shvaćaju da je to jedna od onih klasičnih nevolja s udarcem po krtici. Bilo koja tvrtka koju natjerate da ga prestane koristiti, izgledi su da će ga neka druga tvrtka početi koristiti. Zamrzavanje sata ili uklanjanje ove vrste umjetne inteligencije bit će gotovo nemoguće poduzeti.

U završnoj primjedbi na ovu temu za trenutak, zamislite što bi se moglo dogoditi ako jednog dana možemo postići osjećajnu umjetnu inteligenciju. Ne kažem da će se to dogoditi. Svejedno možemo nagađati i vidjeti kamo bi to moglo odvesti.

Prvo razmislite o pronicljivom citatu o govoru i glasu. Madeleine Albright je slavno rekla ovo: "Trebalo mi je dosta vremena da razvijem glas, a sada kada ga imam, neću šutjeti."

Ako smo u stanju proizvesti osjećajnu umjetnu inteligenciju, ili se osjećaj nekako pojavi čak i ako je izravno ne iznesemo, kakav bi glas ta umjetna inteligencija trebala imati? Pretpostavimo da može upotrijebiti svoje kloniranje glasa temeljeno na umjetnoj inteligenciji i ergo proizvesti bilo koji glas bilo kojeg čovjeka putem nekog malenog isječka audio uzorkovanja koji bi mogao biti dostupan dok ga taj čovjek izgovara. Takva umjetna inteligencija bi tada mogla progovoriti i prevariti vas da povjerujete da je umjetna inteligencija naizgled ta osoba.

S druge strane, možda će AI htjeti imati vlastiti glas i namjerno osmisliti glas potpuno drugačiji od svih drugih ljudskih glasova, želeći biti poseban na svoj šarmantan način.

Zaboga, ovo ostavlja gotovo bez riječi.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/02/ai-ethics-starkly-questioning-human-voice-cloning-such-as-those-of-your-deceased-relatives- namijenjen-za-upotrebu-u-ai-autonomnim-sustavima/