Etika umjetne inteligencije i zakon o umjetnoj inteligenciji mogli bi biti potaknuti i natjerani na obavezna sigurnosna upozorenja za svu postojeću i buduću umjetnu inteligenciju

Vaše su svakodnevne aktivnosti nedvojbeno bombardirane s tisuću ili više upozorenja ove ili one vrste.

Isprobajte ovo za veličinu:

  • Zaštitne naočale moraju se nositi cijelo vrijeme
  • Opasnost: Opasne kemikalije u blizini
  • Visoki napon – Držati podalje
  • Upozorenje: Budite svjesni svoje okoline
  • Predmeti u ogledalu bliži su nego što se čine
  • Uklonite dijete prije sklapanja (kao što je navedeno na dječjim kolicima)
  • Oprez: zanemarite ovu poruku

Većina njih su zgodni i posve promišljeni znakovi ili oznake koje služe da nas, nadamo se, drže sigurnima.

Imajte na umu da sam izbacio nekoliko "ispada" na popisu kako bih istaknuo neke točke vrijedne pažnje.

Na primjer, neki ljudi vjeruju da je ludo da dječja kolica imaju naljepnicu koja vas upozorava da ne sklapate kolica dok beba još sjedi unutar naprave. Iako je znak svakako prikladan i poslušno koristan, čini se da bi osnovni zdrav razum već bio dovoljan.

Koja osoba ne bi svojom svjesnom voljom shvatila da prvo treba izvaditi bebu?

Pa, drugi naglašavaju da takve oznake imaju važnu svrhu. Prvo, netko doista može biti nesvjestan da treba izvaditi bebu prije sklapanja kolica. Možda je osoba pretpostavila da su kolica mudro dizajnirana kako bi se osiguralo da postupak sklapanja neće naškoditi bebi. Ili možda postoje ugrađene sigurnosne značajke koje sprječavaju sklapanje kad god je dijete u kolicima. itd.

Također, moguće je da je osoba bila rastresena i da bi bezumno sklopila kolica, obuhvativši bebu i sve ostalo, ali je naljepnica srećom potaknula osobu da to ne učini (neki bi tvrdili da je malo vjerojatno da bi takva osoba primijetila oznaku svejedno). Tu je i činjenica da bi netko mogao tužiti proizvođača kolica ako takve oznake nema. Možete zamisliti jednu od onih teških tužbi u kojima je beba ozlijeđena, a roditelj je odlučio skupiti milijun dolara jer na kolicima nije bio postavljen znak upozorenja. Proizvođači kolica bi požalili što nisu potrošili nekoliko centi potrebnih za izradu i lijepljenje znakova upozorenja na njihova kolica.

Pažljivo pogledajte i posljednju od poruka upozorenja koje sam gore naveo.

Odlučio sam postaviti oštroumnu poruku o ignoriranju poruke jer danas postoji mnogo lažnih naljepnica upozorenja koje ljudi kupuju ili izrađuju samo iz zabave. Ovaj je pravi filozofski vrtoglavac. Ako ste pročitali upozorenje koje kaže da zanemarite upozorenje, što točno trebate učiniti nakon što pročitate upozorenje? Već ste ga pročitali, pa vam je tobože u mislima. Naravno, možete ga ignorirati, ali opet, uopće niste obaviješteni o tome što biste trebali ignorirati. U krug, ide ova šala.

Naravno, natpisi upozorenja u dobroj vjeri obično nisu šaljive ili duhovite prirode.

Upozorenja trebamo shvatiti vrlo ozbiljno.

Obično, ako se ne pridržavate navedenog upozorenja, to činite na osobni teški rizik. Također bi moglo biti da ćete, ako ne poštujete i ne pridržavate se upozorenja, potencijalno izložiti i druge nepotrebnom riziku. Razmotrimo čin vožnje automobila. U trenutku kada ste za volanom automobila, svojim postupcima kao vozača možete naštetiti sebi, plus možete naštetiti svojim putnicima, a možete naštetiti i drugima, poput ljudi u drugim automobilima ili pješaka u blizini. U tom smislu, upozorenje nije samo za vašu dobrobit, vjerojatno je i za dobrobit drugih.

Zašto pokrivam ove aspekte upozorenja i oznaka upozorenja?

Jer neki žestoko tvrde da su nam potrebni znakovi upozorenja i opreza na današnjoj umjetnoj inteligenciji (AI).

Zapravo, ideja je staviti takve oznake na današnju AI i buduću AI. Sve u svemu, sva umjetna inteligencija bi na kraju imala neki oblik ili varijantu upozorenja ili indikacije upozorenja.

Dobra ili loša ideja?

Praktično ili nepraktično?

Hajdemo naprijed i raspakirajmo koncepciju i vidimo što možemo napraviti od nje.

Najprije bih želio postaviti neke bitne temelje o umjetnoj inteligenciji, a posebno o etici umjetne inteligencije i zakonu o umjetnoj inteligenciji, kako bih bio siguran da će tema upozorenja umjetne inteligencije biti kontekstualno razumna. Za one od vas koji su općenito zainteresirani za etičku umjetnu inteligenciju i pravo umjetne inteligencije, pogledajte moju opsežnu i stalnu pokrivenost na link ovdje i link ovdje, Samo da spomenemo nekoliko.

Rastuća svijest o etičkoj umjetnoj inteligenciji, a također i zakonu o umjetnoj inteligenciji

Nedavna era umjetne inteligencije u početku se smatrala AI za dobro, što znači da bismo mogli koristiti AI za poboljšanje čovječanstva. Za petama AI za dobro došla je spoznaja u koju smo i mi uronjeni AI za loše. To uključuje umjetnu inteligenciju koja je osmišljena ili samoizmijenjena tako da bude diskriminirajuća i donosi računalne odluke prožimajući neopravdane pristranosti. Ponekad je umjetna inteligencija izgrađena na taj način, dok u drugim slučajevima skreće na taj neljubazan teritorij.

Želim biti posve siguran da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Vrsta umjetne inteligencije na koju se fokusiram sastoji se od ne-osjećajne umjetne inteligencije koju imamo danas. Kad bismo htjeli divlje spekulirati o osjećajnoj umjetnoj inteligenciji, ova bi rasprava mogla krenuti u radikalno drugačijem smjeru. Osjećajna umjetna inteligencija bi navodno bila ljudske kvalitete. Trebali biste uzeti u obzir da je AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva umjetna inteligencija na kraju mogla biti pametnija od ljudi (za moje istraživanje superinteligentne umjetne inteligencije kao mogućnosti, pogledajte pokrivenost ovdje).

Čvrsto bih sugerirao da stvari držimo prizemno i razmotrimo današnju računalnu ne-osjećajnu umjetnu inteligenciju.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

Budite vrlo oprezni s antropomorfiziranjem današnje umjetne inteligencije.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, ni programeri umjetne inteligencije možda neće shvatiti što se događa. Tajanstvena matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom biste se nadali i očekivali da će AI programeri testirati potencijalno zakopane pristranosti, iako je to teže nego što se čini. Postoji solidna šansa da će čak i uz relativno opsežno testiranje još uvijek biti pristranosti ugrađene u modele usklađivanja uzoraka ML/DL.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Sve ovo ima izrazito značajne implikacije na etiku umjetne inteligencije i nudi zgodan uvid u naučene lekcije (čak i prije nego što se sve lekcije dogode) kada je u pitanju pokušaj donošenja zakona o umjetnoj inteligenciji.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

U prijašnjim sam kolumnama pokrio različite nacionalne i međunarodne napore u izradi i donošenju zakona koji reguliraju AI, vidi link ovdje, na primjer. Također sam pokrio različita načela i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih naroda kao što je UNESCO-ov set etike AI koji je usvojilo gotovo 200 zemalja, vidi link ovdje.

Evo korisnog temeljnog popisa etičkih AI kriterija ili karakteristika u vezi sa AI sustavima koje sam prethodno pomno istražio:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Te principe etike umjetne inteligencije ozbiljno bi trebali koristiti programeri umjetne inteligencije, zajedno s onima koji upravljaju razvojnim naporima umjetne inteligencije, pa čak i onima koji u konačnici postavljaju i održavaju sustave umjetne inteligencije.

Svi dionici tijekom cijelog životnog ciklusa AI-a razvoja i korištenja smatraju se unutar opsega poštivanja uspostavljenih normi Etičke AI-a. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju podliježu pridržavanju pojmova etike umjetne inteligencije. Kao što je ovdje prethodno naglašeno, potrebno je selo da osmisli i postavi umjetnu inteligenciju, a za to cijelo selo mora biti upućeno i pridržavati se pravila etičke inteligencije.

Također sam nedavno pregledao AI Bill of Rights što je službeni naziv službenog dokumenta američke vlade pod naslovom “Nacrt zakona o pravima umjetne inteligencije: Omogućavanje rada automatiziranih sustava za američki narod” koji je rezultat jednogodišnjeg rada Ureda za politiku znanosti i tehnologije (OSTP ). OSTP je savezni entitet koji služi za savjetovanje američkog predsjednika i Izvršnog ureda SAD-a o raznim tehnološkim, znanstvenim i inženjerskim aspektima od nacionalne važnosti. U tom smislu, možete reći da je ova povelja o pravima umjetne inteligencije dokument koji je odobrila i potvrdila postojeća američka Bijela kuća.

U Povelji o pravima umjetne inteligencije postoji pet ključnih kategorija:

  • Sigurni i učinkoviti sustavi
  • Algoritamske zaštite od diskriminacije
  • Zaštita podataka
  • Obavijest i objašnjenje
  • Ljudske alternative, razmatranje i pomoć

Pažljivo sam pregledao te propise, vidite link ovdje.

Sada kada sam postavio korisne temelje za ove povezane teme o etici umjetne inteligencije i zakonu o umjetnoj inteligenciji, spremni smo skočiti na opojnu temu o tome treba li umjetna inteligencija imati oznake upozorenja ili ne.

Pripremite se za uzbudljivo informativno putovanje.

Postavljanje oznaka upozorenja na umjetnu inteligenciju kao sredstvo zaštite čovječanstva

Sve se više čuje da bi umjetna inteligencija možda trebala doći s nekom vrstom upozorenja.

Na primjer, u nedavnom članku u MIT Technology Review koji je raspravljao o sve većem interesu za obavljanje revizija umjetne inteligencije, pojavila se ideja davanja znakova upozorenja: „Rast ovih revizija sugerira da bismo jednog dana mogli vidjeti upozorenja u stilu kutije cigareta da bi sustavi umjetne inteligencije mogli naštetiti vašem zdravlju i sigurnosti. Drugi sektori, kao što su kemikalije i hrana, imaju redovite revizije kako bi se osiguralo da su proizvodi sigurni za upotrebu. Može li ovako nešto postati norma u AI?" (MIT Technology Review, Melissa Heikkilä, 24. listopada 2022.).

Razgovarajmo općenito o znakovima upozorenja i upozorenja.

Svi su nam već općenito poznati znakovi upozorenja i upozorenja na brojnim proizvodima i uslugama svakodnevne prirode. Ponekad su sigurnosni znakovi propisani zakonom kao obavezni, dok u drugim slučajevima postoji diskrecijsko pravo korištenja takvih znakova. Osim toga, neki su sigurnosni znakovi standardizirani, kao što su specificirani prema standardu ANSI Z535 i standardu OSHA 1910.14. Ti standardi pokrivaju aspekte kao što su tekst znaka, boje i fontovi koji se koriste, oblik znaka i razne druge pojedinosti.

Ima smisla imati standarde za takve znakove upozorenja. Kad god vidite takav znak, ako zadovoljava navedene standarde, vjerojatnije je da ćete vjerovati da je znak legitiman, a uz to vam je potrebno manje kognitivne obrade za analizu i razumijevanje znaka. Za znakove koji nisu standardiziranog pristupa, često morate mentalno izračunati što vam znak govori, možda gubite dragocjeno vrijeme da nešto poduzmete ili biste mogli potpuno krivo procijeniti znak i ne razumjeti ispravno upozorenje.

Može postojati niz takvih znakova, za koje se često klasificiraju otprilike ovako:

  • Znak opasnosti: Najveća zabrinutost i indikacija neposredne opasnosti s vjerojatnim teškim posljedicama
  • Znak upozorenja: Ukazuje na opasnost koja je manja od "opasnosti", ali još uvijek prilično ozbiljna
  • Znak opreza: ukazuje na potencijalnu opasnost koja je manja od "upozorenja", ali je ipak ozbiljna
  • Znak obavijesti: ukazuje na informativno upozorenje koje je manje od "opreza", ali još uvijek uključuje zabrinjavajuće aspekte

S obzirom na prethodnu pozadinu o upozorenjima i znakovima opreza, možemo nastaviti i pokušati ovo kontekstualno primijeniti na korištenje umjetne inteligencije.

Prvo, potencijalno bismo se nekako mogli složiti da znakovi umjetne inteligencije mogu biti u sličnom rasponu ozbiljnosti kao što je uobičajeno kod svakodnevnih znakova, kao što je:

  • AI znak opasnosti: AI izaziva najveću zabrinutost i ukazuje na neposrednu opasnost s vjerojatnim teškim posljedicama
  • AI znak upozorenja: AI ukazuje na opasnost koja je manja od "opasnosti", ali još uvijek prilično ozbiljna
  • AI znak upozorenja: AI ukazuje na potencijalnu opasnost koja je manje od "upozorenja", ali je još uvijek doista ozbiljna
  • AI znak obavijesti: Umjetna inteligencija ukazuje na informacijsko upozorenje koje je manje od "opreza", ali još uvijek uključuje zabrinjavajuće aspekte

Bit je da neće sva umjetna inteligencija biti jednako uznemirujuća. Moguće je da AI predstavlja ogromne rizike ili ima samo marginalne rizike. U skladu s tim, znakovi bi trebali odražavati što je što. Kad bi se sva upozorenja ili znakovi upozorenja na umjetnu inteligenciju jednostavno prikazali kao da su istog kalibra, vjerojatno ne bismo znali niti bili svjesni trebamo li biti jako ili samo blago zabrinuti zbog umjetne inteligencije. Korištenje tipizirane formulacije moglo bi olakšati život pri gledanju i tumačenju znakova upozorenja povezanih s umjetnom inteligencijom.

Možda se pitate što bi još znakovi rekli u smislu specifičnosti poruke koju treba prenijeti.

To je svakako teže pitanje za rješavanje. Mogućnosti umjetne inteligencije da radi stvari koje se smatraju nesigurnima ili zabrinjavajućima bile bi enormno velike, gotovo beskrajne. Možemo li ih svesti u neki rutinizirani skup koji je svaki sročan u samo nekoliko riječi? Ili ćemo morati dopustiti slobodniji pristup načinu na koji će tekst ići?

Dopustit ću vam da razmislite o tom otvorenom pitanju.

Idemo dalje, skloni smo vidjeti znakove upozorenja na objektima. Sustav umjetne inteligencije nije nužno "objekt" u istom smislu kao i uobičajeno postavljanje znakova. Ovo postavlja pitanje gdje će biti predstavljeni znakovi upozorenja AI.

Može se dogoditi da kada pokrenete aplikaciju na recimo svom pametnom telefonu, ako koristi AI, prikazat će se poruka koja sadrži upozorenje vezano uz AI. Aplikacija bi vas upozorila na temeljnu upotrebu umjetne inteligencije. To može biti skočna poruka ili može biti predstavljena na različite vizualne, pa čak i slušne načine.

Postoji i situacija kada koristite uslugu koju podržava AI, iako možda niste u izravnoj interakciji s AI-om. Na primjer, mogli biste razgovarati s ljudskim agentom o dobivanju hipoteke za kuću, za što je agent tiho iza scene koristeći sustav umjetne inteligencije da usmjerava njihove napore.

Stoga bismo trebali predvidjeti da bi znakovi upozorenja AI trebali biti prisutni u oba slučaja upotrebe AI-a, tako da:

  • AI specifičan za proizvod: AI kao proizvod trebao bi imati otvorene AI znakove upozorenja ili upozorenja
  • AI orijentiran na usluge: AI kao usluga (izravno ili neizravno) trebala bi imati AI znakove upozorenja ili upozorenja

Skeptici bi sigurno brzo rekli da bi proizvođač aplikacije mogao lukavo prikriti znak upozorenja AI tako da upozorenje nije posebno vidljivo. Možda se upozorenje pojavi nakratko, a vi zapravo ne primijetite da je prikazano. Još jedan lukav trik bio bi napraviti neku vrstu igre od toga, naizgled potkopavajući ozbiljnost upozorenja i uljuljkujući ljude da misle da je upozorenje beznačajno.

Da, možete se kladiti da će svi znakovi upozorenja povezani s umjetnom inteligencijom biti prevareni i korišteni na načine koji nisu u duhu i namjeri poruka upozorenja koje bi trebali prenijeti.

Svi ti skepticizmi povezuju se s tim hoćemo li koristiti Etiku umjetne inteligencije kao "meke zakone" kako bismo pokušali napredovati u vezi s upozorenjima i oprezima povezanima s umjetnom inteligencijom ili bismo koristili "tvrde zakone", uključujući donesene zakone uz sudsku podršku. U teoriji, poticanje mekog prava omogućilo bi veći privid poigravanja s tim pitanjem, dok bi zakoni u knjigama imali mogućnost vladine provedbe i donijeli veću striktnost.

Još jedna zabrinutost je hoće li znakovi umjetne inteligencije uopće napraviti bilo kakvu razliku.

Mnoga istraživanja o ponašanju potrošača obično pokazuju nejasne rezultate kada se radi o naljepnicama upozorenja za potrošače. Ponekad su upozorenja učinkovita, ponekad ne. Primijenimo neka od tih istraživanja na kontekst umjetne inteligencije.

Razmotrite ove aspekte:

  • Otkrivanje: Bi li oni koji koriste AI koji sadrži održivi AI znak upozorenja aktivno primijetili ili otkrili da im se znak pokazuje (pod pretpostavkom da se takav znak dogodio)?
  • Razumijevanje: Za one koji su primijetili, bi li shvatili ili shvatili što im znak upozorenja AI pokušava sugerirati?
  • Akcijski: Za one koji naprave taj mentalni skok, hoće li ih znak upozorenja AI potaknuti na akciju ili na neki drugi način poslužiti za usmjeravanje njihovog ponašanja u skladu s tim?

Možete predvidjeti da će istraživači pomno proučiti to pitanje, ako se poveća zamah za postojanje znakova upozorenja AI-ja. Ideja bi bila pomoći u razjašnjavanju pod kojim okolnostima su upozorenja korisna, a kada nisu. To se pak odnosi na dizajn i izgled i osjećaj uključenosti. Također bismo mogli očekivati ​​da će javnost u cjelini morati biti educirana ili obaviještena o pojavi ovih AI znakova upozorenja i upozorenja kako bi se navikla na njih.

Postoji mnogo zaokreta koje treba razmotriti.

Treba li se AI upozorenje ili znak upozorenja pojaviti samo na početku aplikacije koja se koristi? Možda početna točka sama po sebi nije dovoljna. Osoba bi na prvi pogled mogla pomisliti da aplikacija samo igra na sigurno upotrebom upozorenja i stoga ne bi obraćala pozornost na upozorenje. Nakon što je osoba na pola puta u upotrebi aplikacije, možda bi bilo opravdano dodatno upozorenje. U tom trenutku osoba je svjesnija onoga što aplikacija poduzima i možda je već zaboravila na prethodno naznačenu poruku upozorenja.

Tada bi se moglo pojaviti upozorenje ili upozorenje AI:

  • Prije pokretanja aplikacije i upravo u trenutku kada se aplikacija sprema pozvati
  • Predstavlja se nakon pokretanja aplikacije i samo na početnoj točki
  • Prikazano na početku i ponovno na sredini
  • Prikazano više puta tijekom korištenja AI-a
  • Daje se na kraju korištenja aplikacije
  • Navedite nakon izlaska iz aplikacije, a možda čak i nekoliko minuta, sati ili dana kasnije
  • Itd.

Mislite li da osoba koja koristi umjetnu inteligenciju treba potvrditi ili prihvatiti sva takva upozorenja ili znakove upozorenja umjetne inteligencije?

Neki bi inzistirali na tome da se od osobe treba zahtijevati da potvrdi da je vidjela upozorenja. To bi potencijalno spriječilo one koji bi mogli tvrditi da nije bilo nikakve poruke upozorenja. To bi također moglo uzrokovati da ljudi ozbiljnije shvate poruke, s obzirom na to da se od njih traži da potvrde da su promatrali indikaciju upozorenja.

Evo jedno teško pitanje za vas.

Ako svi AI mora dati upozorenje ili sigurnosnu indikaciju?

Mogli biste tvrditi da da, sva umjetna inteligencija mora imati ovo. Čak i ako umjetna inteligencija predstavlja samo marginalni sigurnosni rizik, ipak bi trebala imati neki oblik znaka upozorenja, možda samo obavijest ili informacijsku indikaciju. Drugi bi osporili ovu tvrdnju. Oni bi proturječili da ste pretjerali. Ne treba ovo svakoj umjetnoj inteligenciji. Nadalje, ako prisilite svu umjetnu inteligenciju da je ima, razvodnit ćete svrhu. Ljudi će postati otupjeli kad vide oznake upozorenja. Cijeli će pristup postati farsa.

Iz srodnog kuta, razmislite o tome što će kreatori umjetne inteligencije vjerojatno reći.

Jedno stajalište bi bilo da će ovo biti muka u već znate što postaviti. Promjena svih vaših AI sustava i dodavanje ove značajke moglo bi biti skupo. Dodavanje na temelju napredovanja moglo bi biti manje skupo, iako svejedno postoji trošak povezan s uključivanjem ove odredbe.

Zamagljenost je još jedna potencijalna zamjerka. Kakvu vrstu poruke treba prikazati? Ako ne postoje nikakvi standardi, to znači da će AI proizvođači morati izraditi nešto novo. Ne samo da ovaj dodatni trošak, on vjerojatno otvara vrata za dobivanje tužbe. Možete zamisliti da bi proizvođač umjetne inteligencije mogao imati zadatak da njihovo upozorenje nije bilo tako dobro kao neki drugi sustav umjetne inteligencije. Odvjetnici će na kraju napraviti hrpu od nastale zbrke.

Također postoji zabrinutost da će ljudi biti pretjerano uplašeni ovim sigurnosnim porukama.

Proizvođač umjetne inteligencije mogao bi primijetiti nagli pad broja korisnika zbog sigurnosne poruke koja je samo namijenjena informativnom upozorenju. Ljudi neće znati što bi mislili o poruci. Ako prije nisu vidjeli takve poruke, mogli bi se odmah preplašiti i nepotrebno izbjegavati korištenje umjetne inteligencije.

Spominjem te aspekte jer neki već proglašavaju da "ne može škoditi" početi uključivati ​​AI upozorenja ili sigurnosne poruke. Njima je ideja idealna poput pite od jabuka. Nitko nije mogao ozbiljno opovrgnuti prednosti uvijek tražene sigurnosti ili upozorenja povezanih s umjetnom inteligencijom. Ali naravno, to nije stvarni način razmišljanja o tome.

Možete čak ići dalje i tvrditi da bi poruke upozorenja umjetne inteligencije mogle proizvesti neki oblik masovne histerije. Kad bismo odjednom počeli prisiljavati sustave umjetne inteligencije da imaju takve poruke, ljudi bi mogli pogrešno protumačiti namjeru. Vidite, ima puno savjeta da se suočavamo s egzistencijalnom krizom umjetne inteligencije, pri čemu će umjetna inteligencija preuzeti svijet i izbrisati čovječanstvo, vidite link ovdje za moju analizu te vrste tvrdnji.

Korištenje poruke upozorenja umjetne inteligencije moglo bi "nadahnuti" neke ljude da vjeruju da je kraj blizu. Zašto bi se inače poruke sada pojavljivale? Svakako, to je pokazatelj da se AI konačno sprema postati naši opresivni gospodari.

Neka vrsta očajnički turobnog ishoda pokušaja da se učini prava stvar osvještavanjem javnosti o tome kako umjetnoj inteligenciji mogu dati diskriminatorne sposobnosti ili druge AI za loše aspekti.

Zaključak

James Russell Lowell, slavni američki pjesnik, jednom je rekao ovo: “Jedan trn iskustva vrijedan je cijele pustinje upozorenja.”

Iznosim uzvišenu primjedbu kako bih dao nekoliko zaključnih komentara o pitanju upozorenja AI ili sigurnosnih poruka.

Šanse su da dok ne budemo imali donekle raširenu spoznaju da umjetna inteligencija čini loša djela, neće biti velike buke za poruke upozorenja vezane uz umjetnu inteligenciju. Oni proizvođači umjetne inteligencije koji to dobrovoljno učine možda će biti pohvaljeni, iako bi se također mogli nenamjerno naći nepravedno uznemiravani. Neki bi ih stručnjaci mogli progoniti zbog iskorištavanja umjetne inteligencije kojoj su naizgled potrebna upozorenja, za početak, zanemarujući pritom shvaćanje da su oni pokušavali biti prvi, a svi ti drugi proizvođači umjetne inteligencije zaostaju.

Proklet ako to učiniš, možda ne proklet ako ne.

Drugo razmatranje bavi se pretvaranjem onoga što se čini lijepom konceptualnom idejom u praktičnu i korisnu praksu. Lako je mahati rukama i neodređeno vikati u vjetar da bi umjetna inteligencija trebala imati poruke upozorenja i sigurnosti. Teži dio dolazi kada se odlučuje o tome koje bi te poruke trebale biti, kada i gdje bi se trebale predstaviti, donose li ili u kojoj mjeri njihove cijene dovoljne koristi, itd.

Ovdje ćemo dati Jamesu Russellu Lowellu posljednju riječ (pjesnički) o ovoj temi za sada: "Kreativnost nije pronalazak stvari, već stvaranje nečega od nje nakon što je pronađena."

Pretpostavljam da je vrijeme da zasučemo rukave i počnemo raditi na ovome. I to nije samo upozorenje, to je akcija.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/11/03/ai-ethics-and-ai-law-just-might-be-prodded-and-goaded-into-mandating-safety- upozorenja-na-sve-postojeće-i-buduće-ai/