AI etika oprezno procjenjuje je li nuđenje pristranosti umjetne inteligencije traženje nagrada za hvatanje i otimanje etički opakih potpuno autonomnih sustava razborito ili uzaludno

Htjela: AI lovci na pristranosti.

To bi mogao biti suvremeni oglas koji ćete početi viđati kako iskače na kanalima društvenih medija i pojavljuje se u raznim online oglasima za posao. Ovo je relativno novi koncept ili uloga. Sa sobom nosi kontroverze. Neki gorljivi vjernici gorljivo tvrde da to ima itekako smisla i da se trebalo događati cijelo vrijeme, dok drugi prilično nervozno ozbiljno češkaju glavu i nisu baš sigurni da je to dobra ideja.

Suština uloge sastoji se u pronalaženju skrivenih predrasuda ili umetnutih diskriminatornih postupaka iz umjetne inteligencije. U pomoć priskaču željni i nekadašnji AI koji posve pristrasuju lovce. Vjerojatno bi bili lovci na glave koji dobro poznaju računala. Još više, nadamo se, uronjena u dubine AI mogućnosti.

Ima pištolj, putovat će i može putem vještog gađanja vještim umjetnom inteligencijom uspjeti razotkriti te neugodne i neugodne pristranosti AI-ja.

Ovo otvara niz trnovitih pitanja o senzibilnosti provođenja takve taktike kada se radi o otkrivanju pristranosti umjetne inteligencije. Kao što ću sada raspravljati, imajte na umu da je pojava umjetne inteligencije sa sobom donijela i pojavu pristranosti umjetne inteligencije. Bujica AI predrasuda. Za moje kontinuirano i opsežno pokrivanje AI etike i Etičke AI, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Kako ćemo otkriti da određeni AI sustav ima pristranosti?

Možete to povjeriti programerima umjetne inteligencije koji su osmislili umjetnu inteligenciju. Stvar je u tome što bi mogli biti toliko zaglibljeni u predrasudama da sami ne mogu prepoznati pristranosti unutar svoje izmišljene umjetne inteligencije. Sve im to dobro izgleda. Ili bi mogli biti toliko uzbuđeni zbog umjetne inteligencije i imati osjećaj samoponosa zbog toga da bi kritički pogledali kako bi ispitali pristranosti bilo teško i stvarno porazno. Čini se da mnogi drugi takvi razlozi mogu spriječiti razvojne programere umjetne inteligencije da preuzmu ovaj zadatak, uključujući nedostatak vještina da se otkriju ugrađene pristranosti, nedostatak vremena u projektu za to, itd.

U redu, samo naprijed i unajmite vanjske konzultante da obave prljavi posao umjesto vas. Ispostavilo se da će konzultanti rado ispitati vašu umjetnu inteligenciju u potrazi za pristranostima, naplaćujući vam to prilično skupo (puno, puno novčića). Shvatite da morate platiti za njih kako bi dostigli brzinu s vašim AI sustavom. Zatim ih trebate natjerati da preturaju okolo, što bi moglo oduzeti neopisiv broj skupih sati rada. Korištenje konzultanata je opcija ako imate proračun za to.

U potencijalnu "prazninu" kako pronaći te podmukle pristranosti umjetne inteligencije dolaze herojski i poletni lovci na glave zbog pristranosti umjetne inteligencije.

Obično ih ne plaćate unaprijed. Pokušavaju otkriti predrasude umjetne inteligencije u svoje vrijeme i pritom moraju plaćati svoje račune. Plaćeni su samo ako uspješno pronađu pristranosti. Pretpostavljam da biste lako mogli ustvrditi da je na prikladan način razmišljanja to konvencionalna definicija lovca na glave. Budi plaćen ako uspiješ. Nemojte biti plaćeni ako niste uspješni. Točka, kraj priče.

Bounty programi postoje barem od vremena Rimljana i stoga bismo mogli pretpostaviti da djeluju, nakon što su se uspješno održali kao praksa tijekom svih ovih godina.

Evo fascinantne povijesne trivijalnosti za vas. Navodno je objavljena poruka za vrijeme Rimskog Carstva u gradu Pompejima objavila da su potrebni lovci na glave kako bi pronašli bakreni lonac koji je nestao iz male trgovine. Nagrada za vraćanje bakrenog lonca bila je impresivna nagrada od šezdeset pet brončanih novčića. Žao nam je što moramo reći da ne znamo je li neki lovac na glave pronašao bakreni lonac i uzeo brončane novčiće, ali znamo da se lov na glave sigurno nastavio od tih davnih vremena.

U modernijim vremenima, mogli biste biti svjesni da su 1980-ih postojale neke značajne nagrade za pronalaženje računalnih grešaka ili grešaka u standardnim softverskim paketima, a onda je 1990-ih Netscape značajno ponudio nagradu za pronalaženje grešaka u svom web pregledniku (postaje jedna od najistaknutijih tvrtki tog dana koja je to učinila). Google i Facebook su se odlučili za lov na bugove počevši od 2010. odnosno 2013. godine. Nekoliko godina kasnije, 2016., čak se i Ministarstvo obrane SAD-a (DoD) uključilo u akciju dodjele nagrade "Hakirajte Pentagon" (imajte na umu da je javno usmjerena nagrada bila za pogreške pronađene na raznim web stranicama vezanim uz DoD, a ne u obrambeni sustavi kritični za misiju).

Zaronimo dublje u temu nagrade za bugove. Shvaćam da u ovoj raspravi uglavnom namjeravam govoriti o pristranostima umjetne inteligencije u lovu na nagrade, ali postoje neke vrlo relevantne paralele s arenom nagrada za bugove.

Neki su očito zbunjeni činjenicom da bi bilo koja tvrtka htjela ponuditi nagradu za pronalaženje grešaka (ili, u ovom slučaju, pristranosti umjetne inteligencije) u njihovim sustavima.

Na površini, ovo se čini kao strategija "ti to tražiš". Ako svijetu date do znanja da pozdravljate one koji bi mogli pokušati pronaći rupe u vašem softveru, to se čini kao da kažete provalnicima da vam pokušaju provaliti u kuću. Čak i ako već vjerujete da imate prilično dobar protuprovalni alarmni sustav i da nitko ne bi trebao moći ući u vaš osigurani dom, zamislite da tražite i zapravo molite provalnike da svi dođu do vašeg mjesta stanovanja i vide mogu li zapucati u njega. Oh, nevolje koje sami sebi pletemo.

Isto bi se moglo reći o traženju od lovaca na glave da pronađu pristranosti u vašoj umjetnoj inteligenciji.

Prvo, to možda implicira da već vjerujete ili čak potpuno znate da vaša umjetna inteligencija ima pristranosti. To je šokantno izravno implicirano priznanje koje bi malo tko bio voljan dati i koje bi se potencijalno moglo obiti o glavu.

Drugo, ne znate sa sigurnošću što bi ti lovci na glave mogli učiniti. Mogli bi reći cijelom svijetu da su pronašli pristranosti u vašoj umjetnoj inteligenciji. Pretpostavlja se da bi se time moglo izgubiti dobivanje nagrade, iako bi neki mogli uživati ​​u pažnji ili ciljati na jačanje svog statusa za dobivanje konzultantskih nastupa i drugih mogućnosti generiranja prihoda. Možda bi moglo biti posve altruistično. To bi mogao biti oblik AI aktivizma. Mogu nastaviti.

Treće, moglo bi doći do lukavog obrata cijele afere. Lovac na glave koji tvrdi da traži pristranosti umjetne inteligencije možda vraški čačka okolo kako bi pronašao načine da napadne vaš AI sustav. Cijela stvar je šarada da se na kraju izvrši ozbiljan kibernetički napad. Mogli ste pretpostaviti da pokušavaju pomoći, dok u svojim srcima imaju zlo. Žalosno, ali moguće.

Četvrto, možemo se još lukavije iskriviti po ovom pitanju. Lovac na ucjene otkriva neugodne pristranosti umjetne inteligencije koje potencijalno potiču tužbe. Nagrada je neki iznos u dolarima koji ćemo nazvati X. Umjesto da traži nagradu, lovac na ucjene izvodi neku vrstu čudne provokacije ransomwarea. Ako lovcu na ucjene platite iznos deset puta X ili možda preko granice, reći će vam o predrasudama umjetne inteligencije. Imate vremena do nedjelje navečer u ponoć da odgovorite. Nakon tog trenutka, predrasude umjetne inteligencije bit će otkrivene kako bi svi mogli vidjeti. Joj, užasna je situacija u kojoj se nalaziš.

Peto, najnoviji su oni takozvani “hack to return” cyberprevaranti koji nakon što su ukrali hrpu online novca, odluče se pokajati i vratiti dio nepošteno stečenog plijena koji su zgrabili. Tvrtka kojoj se djelomično vraća novac tada je spremna uzeti u obzir preostali ukradeni iznos kao naknadnu nagradu za lopove. Čini se da svi "pobjeđuju" jer se većina sredstava vraća, au međuvremenu se cyber-lopovi ne gone zakonski, a uz to dobivaju i piratsku nagradu. Je li ovo razborito ili podmuklo održavanje nepravih radnji?

Shvaćam da bi neki od vas mogli reći da nitko ne bi trebao objavljivati ​​AI koji u sebi ima bilo kakve pristranosti. Čini se da bi to riješilo cijelu ovu dilemu oko toga treba li koristiti AI predrasude za lovce na glave ili ne. Samo se nemojte dovesti u situaciju nagrade. Provjerite rade li vaši AI programeri pravu stvar i ne dopuštaju AI pristranosti u svojim AI sustavima. Možda upotrijebite konzultante za dvostruku provjeru. U biti, učinite sve što trebate kako biste izbjegli razmišljanje ili traženje od onih AI pristranih lovaca na glave da dođu za stol.

Da, to bi se činilo posve razumnim. Problem je što je i pomalo sanjiv. Složenost mnogih sustava umjetne inteligencije je toliko velika da će biti naporan pokušaj da se osigura da se ne pojavi niti jedna gramaža pristranosti umjetne inteligencije. Povrh toga, neki AI sustavi su namjerno osmišljeni da se prilagođavaju i "uče" u hodu. To znači da bi u nekoj budućoj točki u vremenu umjetna inteligencija koju ste vi osmislili, za koju se isprva pretvarajmo da je čisto čista i bez predrasuda, mogla težiti utjelovljenju predrasuda (ne mislim to na antropomorfan način, kao što ću objasniti dalje dok budemo nastavite s ovom temom).

Oni koji favoriziraju lov na nagrade za softverske greške skloni su tvrditi da ima smisla nuditi takve nagrade. Možemo razmotriti njihovo obrazloženje i vidjeti odnosi li se i na područje pristranosti umjetne inteligencije.

Zagovornici nagrada za bugove naglašavaju da umjesto da se pokušavaju pretvarati da u vašem sustavu nema rupa, zašto ne potaknuti pronalaženje rupa, radeći to na "kontrolirani" način? Nasuprot tome, bez takvog napora u nagradi, mogli biste se samo nadati i moliti da slučajnim slučajem nitko neće pronaći rupu, ali ako umjesto toga nudite nagradu i kažete onima koji pronađu rupu da će biti nagrađeni, nudi se priliku da zatim sami poduprete rupu i zatim spriječite druge da je potajno pronađu u nekom kasnijem trenutku.

Isto bi se moglo reći za slučaj upotrebe pristranosti umjetne inteligencije. Ako ponudite dovoljnu nagradu, nadajmo se da će vam lovci na glave skrenuti pozornost na otkriće pristranosti umjetne inteligencije. Tada se možete nositi s pristranostima umjetne inteligencije na relativno tih i odmjeren način. To bi kasnije moglo spriječiti puno veći i zastrašujući problem, naime da netko drugi pronađe AI pristranosti u vašoj AI i vrišti o tome do nebesa.

Općenito, tvrtka koja želi omogućiti lov na bugs bounty hunting nastoji uspostaviti Politiku otkrivanja ranjivosti (VDP). VDP ukazuje na to kako se bugovi mogu pronaći i prijaviti tvrtki, zajedno s načinom na koji će lovcu biti dodijeljena nagrada ili nagrada. Obično će VDP zahtijevati da lovac na kraju potpiše Ugovor o tajnosti podataka (NDA) kako drugima ne bi otkrio što je pronašao.

Ideja korištenja NDA-a s lovcima na glave ima neke kontroverze. Iako za tvrtku koja nudi nagradu možda ima smisla da želi prešutjeti otkrivene izloženosti, također se kaže da guši ukupnu svijest o takvim greškama. Vjerojatno, ako se dopusti da se govori o softverskim greškama, to bi potencijalno pomoglo sigurnosti drugih sustava u drugim tvrtkama koje bi onda povećale njihovu izloženost. Neki lovci na glave neće potpisati NDA, djelomično zbog želje javnosti, a djelomično zbog pokušaja skrivanja vlastitog identiteta. Također imajte na umu da se NDA aspekt obično ne pojavljuje sve dok lovac ne izjavi da je pronašao grešku, umjesto da to zahtijeva prije.

Neki VDP-ovi propisuju da je NDA samo na ograničeno vremensko razdoblje, omogućujući tvrtki da najprije pronađe rješenje za očitu rupu, a zatim da omogući šire otkrivanje podataka o njoj. Nakon što je rupa začepljena, tvrtka tada dopušta popuštanje NDA-a kako bi ostatak svijeta mogao znati za grešku. Tipično vrijeme do rješavanja bugova traženih nagrada je navodno oko 15-20 dana kada ih tvrtka želi odmah ukloniti, dok se u drugim slučajevima može protegnuti na 60-80 dana. Što se tiče plaćanja lovcu na ucjene, takozvano vrijeme za plaćanje, nakon što se potvrdi da rupa stvarno postoji, isplate ucjena navodno obično budu u roku od oko 15-20 dana za manje slučajeve i oko 50-60 dana. dana za veće slučajeve (to su indikacije industrije koje se stalno mijenjaju i spominju se samo kao ilustracija).

Treba li tražiti od AI predrasuda lovce na glave da sudjeluju u VDP-u i da se pozabave NDA-om?

Na to pitanje možete dobiti i da i ne. Da, neke bi tvrtke trebale ići tim putem. Ne, možda se nećete nužno odlučiti za taj put. Čimbenici uključuju veličinu i prirodu umjetne inteligencije, potencijal bilo koje uključene izloženosti pristranosti umjetne inteligencije i hrpu drugih etičkih, pravnih i poslovnih razmatranja koja dolaze u obzir.

Mogao bih dodati da je uspostavljanje pothvata lova na glave za pristranosti vaše umjetne inteligencije puno veći zadatak nego što biste mogli pretpostaviti na prvi pogled.

Započet ćemo s velikom mogućnošću da ćete biti preplavljeni lovcima na glave s pristranostima umjetne inteligencije.

Trenutno bi vam bilo teško pronaći mnoge koji bi imali takvu posjetnicu. Nema ih mnogo u blizini. U tom pogledu su dani Divljeg zapada. Ali ako ideja o pristranosti umjetne inteligencije u lovu na glave postane popularna, pogotovo kada su nagrade obilne i bogato nagrađene, možete se kladiti da će svi zaroniti u bazen za lov na predrasude.

Želite li raznorazne smetnje koje traže AI pristranosti u vašem AI sustavu? Dobit ćete neke korisnike koji su zapravo stručnjaci za takve stvari. Dobit ćete druge igrače koji su amateri i mogli bi napraviti nered ili vukovati. Sljedeća stvar koju znate je da će svatko tko zna spelovati "umjetna inteligencija" doći kopati u vašem zlatnom rudniku AI sustava tražeći one dragocjene grumenčiće zlata s predrasudama AI. Zlatna groznica je u tijeku. To možda nije dobro za tebe.

Morat ćete pažljivo proučiti podneske lovca na glave. Bit će puno "buke" u prijavljenim tvrdnjama, u smislu da mnoge od tvrdih pristranosti umjetne inteligencije ne postoje, iako lovac na glave inzistira da su pronašli neke. Zamislite koliko će rada biti potrebno vašim vlastitim AI timovima da ispitaju zahtjeve za nagradu, istraže valjanost svake od njih, a zatim potencijalno idu naprijed-natrag s lovcem na glave o tome je li zlato otkriveno ili ne.

Neki bi rekli da je to još jedan razlog da sve napravite sami. Mogli biste neizbježno otkriti da je nagrada za nagradu veća nevolja nego što je vrijedila.

Evo još jednog pitanja za razmišljanje. Kako će lovci na glave znati kako izgleda pristranost umjetne inteligencije? U biti, bez ikakvog privida onoga što treba tražiti, bilo koji sjajni kamen mogao bi se tvrditi kao dokaz AI pristranosti u percipiranom AI rudniku zlata koji se iskopava.

U danima Starog Zapada, pretpostavimo da ste ponudili nagradu za hvatanje Billyja Kida (poznatog odmetnika). Ako ste to učinili i niste uključili sliku kako je Billy izgledao, zamislite broj lovaca na glave koji bi mogli odvući u šerifov ured nekoga za koga su se nadali ili mislili da je Billy Kid. Mogli biste biti preplavljeni lažnim Billyjem. To je loše jer biste vjerojatno morali pogledati svakoga, postavljati probna pitanja i pokušati utvrditi je li ta osoba stvarno Billy ili ne.

Poanta je da bi bilo mudro pokušati razjasniti od čega se po vašem mišljenju sastoje pristranosti umjetne inteligencije da biste postavili napor za dodjelu nagrada za pristranosti umjetne inteligencije. Ovo zahtijeva kalibraciju Zlatokose. Ne želite biti toliko ograničeni da lovci na glave previde predrasude umjetne inteligencije samo zato što se ne uklapaju u vašu definiranu definiciju, niti želite da viču "Eureka!" na svaki zalogaj pristranosti umjetne inteligencije koji slučajno pronađu.

Trebat će vam taman Zlatokosa ravnoteža onoga od čega se sastoje pristranosti umjetne inteligencije i stoga dati po mogućnosti eksplicitne upute za to.

Velik dio ovog AI predrasuda lova na glave bit će usmjeren na sustave strojnog učenja (ML) i dubokog učenja (DL) temeljene na umjetnoj inteligenciji. Ovo ima smisla budući da pojava ML/DL-a postaje sveprisutnija, a čini se da ima neke od najvjerojatnijih izazova u obuhvatu nepotrebnih pristranosti umjetne inteligencije.

Ovi istraživači utvrđuju koliko značajan može biti pokušaj AI koji utječe na lov na nagrade, posebno u kontekstu ML/DL-a: "S vremenom su softverske i sigurnosne zajednice razvile 'bug bounties' u pokušaju da preokrenu sličnu dinamiku između programera sustava i njihovih kritičara (ili hakera) prema interaktivnijim i produktivnijim ciljevima. Nadamo se da će se namjernim pozivanjem vanjskih strana da pronađu softverske ili hardverske pogreške u njihovim sustavima, i često davanjem novčanih poticaja za to, razviti zdraviji ekosustav koji brže reagira. Prirodno je da ML zajednica razmotri sličan pristup 'nagrade za pristranost' za pravodobno otkrivanje i popravak modela i sustava s pristranošću ili drugim nepoželjnim ponašanjem. Umjesto pronalaženja grešaka u softveru, vanjske strane su pozvane da pronađu pristranosti - na primjer, (demografske ili druge) podskupine inputa na kojima obučeni model ima slabije rezultate - i za to su nagrađene" (u radu "Algoritamski okvir za pristranosti Bounties” Ire Globus-Harris, Michaela Kearnsa i Aarona Rotha).

U istraživačkom radu, autori ocrtavaju predloženi pristup tome koje vrste pristranosti umjetne inteligencije mogu tražiti lovci na glave. Također postoji naznaka o tome kako procijeniti tvrdnje lovaca na glave povezane s tako otkrivenim navodnim pristranostima AI-ja. Prema mojim ranijim primjedbama ovdje, izgledi su da ćete dobiti lažne tvrdnje i morati odvojiti žito od kukolja predrasuda AI.

Prije nego što se dodatno pozabavimo pitanjem divljih i vunenih stvari koje leže u pozadini pristranosti umjetne inteligencije, postavimo neke dodatne osnove o duboko integralnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno u pojavu strojnog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da je jedan od najglasnijih glasova ovih dana u području AI, pa čak i izvan polja AI-a, traženje većeg privida etičke AI. Pogledajmo što znači upućivanje na etiku umjetne inteligencije i etičku umjetnu inteligenciju. Povrh toga, istražit ćemo što mislim kada govorim o strojnom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su “samo koderi” ili oni koji programiraju AI podložni poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se sada temi traženja pristranosti umjetne inteligencije.

Za one od vas koji razmišljaju o pothvatu AI bias lovca na glave, evo mojih preporučenih sedam ključnih koraka kako najbolje nastaviti:

1) procijeniti. Procijenite prikladnost pothvata pristranog AI lova na glave za vaše okolnosti i prema vašim AI sustavima

2) dizajn. Osmislite prikladan pristup lovu na glave s predrasudama umjetne inteligencije

3) Implementirati. Provedite i objavite svoje pothvate AI bias lovca na glave

4) Polje. Polje AI mijenja zahtjeve za nagradu i obradite ih u skladu s tim

5) Popraviti. Popravite ili prilagodite svoju umjetnu inteligenciju u skladu s ovim otkrivenim izloženostima pristranosti umjetne inteligencije

6) prilagoditi. Prema potrebi prilagodite AI pristrasnost lovu na glave

7) Prekini. Prekinite AI bias bounty hunting kada više nije potreban

U mom nizu gornjih koraka, imajte na umu da sam spomenuo da ćete vjerojatno htjeti popraviti ili prilagoditi svoj AI na temelju utvrđivanja da navodno pristranost AI-ja zapravo postoji unutar vašeg AI sustava. Ovo itekako ima smisla. Gotovo biste sigurno željeli poduprijeti sve pronađene pristranosti umjetne inteligencije. Razmislite o pravnim (i etičkim) posljedicama ako to ne učinite. Jedna je stvar tvrditi da niste znali da postoji pristranost AI i stoga ste dopustili da postoji, dok je mnogo nesigurniji teren imati u evidenciji da ste bili upoznati s pristranošću AI i niste ništa poduzeli u vezi s tim.

Priroda i stupanj popravka ili prilagodbe umjetne inteligencije ovisit će naravno o tome koliko su značajne pristranosti umjetne inteligencije i koliko su duboko ukorijenjeni problemi. Ako budete imali sreće, možda će skromna količina promjena u AI popraviti stvari. Drugi potencijal je da ćete možda trebati potpuno prepisati AI. Za ML/DL tip umjetne inteligencije, to bi moglo zahtijevati povratak na ploču za crtanje i početak ispočetka s potpuno novim skupom podataka i pročišćenim ML/DL modelom. Raspravljao sam o pojavi AI degorgementa ili AI destrukcije kao potencijalnog pravnog lijeka protiv neugodne AI, vidi link ovdje.

Jedno pitanje o kojem treba razmisliti jest biste li željeli da lovci na glave učine nešto više od pukog utvrđivanja postojanja pristranosti umjetne inteligencije. Na primjer, možete zasladiti nagradu tako da naznačite da su predloženi popravci također dobrodošli. AI pristranost pronađen od strane lovca na glave može biti plaćena jedna navedena nagrada ili nagrada. Ako lovac na glave također može ponuditi održivu popraviti prema pristranosti umjetne inteligencije mogli bi dobiti dodatnu nagradu.

Neki tvrde da je ovo most predaleko. Kažu da biste lovce na glave trebali fokusirati isključivo na pronalaženje pristranosti umjetne inteligencije. Stvorit ćete gomilu neželjenih štetnih posljedica pozivajući ih da također predlože popravke. Neka stvari budu jednostavne. Cilj je privući što više dodatnih očiju na otkrivanje pristranosti umjetne inteligencije kako biste mogli odlučiti što učiniti sljedeće. Ne mutite vodu.

Trnovit aspekt koji treba shvatiti uključuje veličinu nagrade ili nagrade za lovce na glave koji istinski otkriju pristranosti umjetne inteligencije. Želite da isplata bude pokazna. Bez dovoljno visoke nagrade, nećete dobiti mnogo lovaca na glave ili oni neće biti posebno željni traženja pristranosti umjetne inteligencije u vašim AI sustavima. Umjesto toga, mogli bi se usredotočiti na druge pothvate AI bias bounty-a.

Nadalje, kao što je spomenuto, želite pokušati potisnuti poriv lovaca na glave da svoja otkrića pristranosti umjetne inteligencije pretvore u druge oblike zlata. Ako se nagrada čini bijednom, to bi moglo natjerati lovce na glave da traže druge veće isplate. Mogli bi primijeniti ransomware pristup prema vama. Mogli bi izjaviti da imaju sočnu AI pristranost za koju bi konkurencija voljela znati i koju bi mogli upotrijebiti protiv vaše tvrtke reklamirajući da AI pristranost postoji u vašoj AI. Dakle, oni prodaju otkrivenu pristranost umjetne inteligencije najboljem ponuditelju. I tako dalje.

Pretpostavlja se da ako postavite nagradu na iznimno visok raspon, također tražite potencijalne probleme. To bi moglo privući sve vrste ludih lovaca na glave. Oni bi zauzvrat mogli preplaviti društvene medije maglovitim tvrdnjama da su otkrili mnoštvo pristranosti AI-a, čineći to radi vlastite samopromocije i bez da su zapravo probili ikakvu pristranost AI-ja. U određenom smislu, vaša povećana nagrada nenamjerno obasjava vašu umjetnu inteligenciju i potiče mnoštvo neotesanih moljaca da ih u skladu s time opasno privuče užarena svjetlosna zraka.

Drugo razmatranje uključuje dostupnost vašoj umjetnoj inteligenciji.

Kako bi omogućili mogućnost AI lova na glave, lovci na glave moraju dobiti dovoljan pristup vašoj AI. Neće imati puno sreće u pronalaženju pristranosti umjetne inteligencije ako su potpuno isključeni. Ali ne želite odustati od svoje kibersigurnosne zaštite jer bi to moglo potpuno ugroziti vaš AI sustav.

Možete pokušati natjerati lovce na glave da potpišu razne pravno obvezujuće izjave i zatim im omogućiti potreban pristup. Nekim lovcima na glave neće se svidjeti takav pristup. Njihovo stajalište je da će učiniti samo ono što dopušta bilo koji javno dostupan i otvoren put. Oni su slobodni mavericks, takoreći, i ne vole biti osedlani, takoreći. Natjerati ih da se potpišu na zastrašujuće pravne dokumente natjerat će mnoge od njih da izbjegnu traženje pristranosti umjetne inteligencije u vašoj umjetnoj inteligenciji. Ili bi se mogli ljutiti na vašu pravnu špaliru i odlučiti da će vidjeti što mogu pronaći putem javnih sredstava, čineći to s možda oštrom željom da vam pokažu koliko ste zapravo ranjivi.

Imam još jedan kut od kojeg bi ti se moglo zavrtjeti u glavi.

Lovac na glave koji poznaje umjetnu inteligenciju mogao bi odlučiti osmisliti sustav umjetne inteligencije koji može pomno ispitati vašu umjetnu inteligenciju i možda otkriti pristranosti u vašoj umjetnoj inteligenciji. To je alatničar koji se odlučuje za izradu alata za obavljanje posla umjesto da sam obavlja ručni rad. Umjesto mukotrpnog ispitivanja vaše umjetne inteligencije, lovac na glave upućen u umjetnu inteligenciju provodi svoje vrijeme smišljajući alat umjetne inteligencije koji radi istu stvar. Oni zatim koriste AI alat na vašoj AI. Ljepota je također u tome što oni vjerojatno mogu ponovno upotrijebiti AI alat na bilo kome drugom tko također nudi priliku za lov na glave na njihovom AI alatu.

Znam što vjerojatno mislite. Ako se može osmisliti alat umjetne inteligencije za ispitivanje pristranosti umjetne inteligencije, proizvođač umjetne inteligencije koji se pomno ispituje na pristranosti umjetne inteligencije trebao bi izraditi takav alat ili kupiti jedan za vlastitu upotrebu. U teoriji, oni se onda ne moraju natjecati s cijelim karnevalom lovaca na glave, za početak. Samo upotrijebite umjetnu inteligenciju da pronađete njihove pristranosti umjetne inteligencije.

Da, ovo je nešto što možete očekivati ​​da će se postupno pojaviti. U međuvremenu, oslonac ovih napora vjerojatno će se sastojati od programera umjetne inteligencije koji se bave lovom na glave. Oni bi mogli koristiti razne alate kako bi pomogli svojim naporima, ali u bliskoj budućnosti, malo je vjerojatno da će jednostavno bezumno postaviti AI alat na automatski način i odspavati tako da alat radi cjelokupni AI alat tražeći umjesto njih.

Još nismo stigli.

U ovom trenutku ove teške rasprave, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji nešto o upotrebi AI pristranog lova na glave, i ako jest, što ovo pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil koji zahtijeva ljudskog vozača da sudjeluje u vožnji obično smatra Razinom 2 ili Razinom 3. Automobili koji zajednički dijele zadatak vožnje opisuju se kao poluautonomni i obično sadrže različite automatizirani dodaci koji se nazivaju ADAADA
S (Napredni sustavi pomoći vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i AI Bias lov na glave

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću ispričati.

U svojim sam kolumnama već opširno raspravljao o upotrebi lovaca na glave orijentiranih na bugove u području autonomnih vozila i samovozećih automobila. Ovaj se pristup doista dogodio u ovoj niši. Postoje uobičajene rasprave o tome je li to dobra ideja ili nije. Napori su obično bili ograničene prirode, često se šutjelo relativno tiho.

Sličan diskurs može uslijediti kada se fokus pomakne na traženje pristranosti umjetne inteligencije umjesto na traženje grešaka u sustavu per se. Neki sugeriraju da je prokleto ako to učinite, prokleto ako ne zagonetka.

Evo zašto.

Prvo, da bude jasno, postoje brojni načini na koje će autonomna vozila i samovozeći automobili biti podložni pristranostima vezanim uz umjetnu inteligenciju, pogledajte moje izvješće na link ovdje i link ovdje, da spomenemo samo neke. Proizvođačima automobila i tvrtkama za samovozeće automobile činilo bi se mudro da pokušaju spriječiti pojavu tih pristranosti umjetne inteligencije u njihovim sustavima umjetne inteligencije. Pravna i etička paljba protiv takvih tvrtki nedvojbeno će biti intenzivna.

Je li upotreba umjetne inteligencije pristrasna u pothvatu lova na glave prikladan pristup u ovom specifičnom kontekstu?

Jedan od odgovora je da da, ovo će biti zgodno i pružiti obilje "besplatnih" setova novih očiju za pokušaj otkrivanja bilo kakvih ugrađenih AI predrasuda samovozećeg automobila ili sličnog. Većina programera umjetne inteligencije koji izrađuju samovozeće automobile zauzeti su stvaranjem umjetne inteligencije koja može sigurno voziti automobil od točke A do točke B. Zaokupljeni su tom temeljnom sposobnošću i nemaju ni vremena ni pozornosti prema bilo kakvim predrasudama umjetne inteligencije koje bi mogle biti negdje u njihova AI.

Drugi odgovor je da ne, dopuštanje lova na glave za autonomna vozila i samovozeće automobile na bilo kojoj osnovi, bilo zbog grešaka ili pristranosti umjetne inteligencije, samo treba žestoko izbjegavati. Argument je da su ova vozila i njihova AI kalibra života ili smrti. Petljanje s umjetnom inteligencijom na bilo koji način moglo bi biti na neki način pogubno za umjetnu inteligenciju i utjecati na ono što AI sustav vožnje radi.

Protuargument toj posljednjoj točki je da lovci na glave ne bi trebali biti u mogućnosti promijeniti AI koji ispituju. Dakle, nema opasnosti da se petljaju s umjetnom inteligencijom i uzrokuju da umjetna inteligencija u ovom kontekstu iznenada postane ludi sustav za upravljanje umjetnom inteligencijom. Lovci na glave imaju pristup samo za čitanje. Dopustiti im da odu dalje bilo bi krajnje glupo i velika pogreška.

Protuargument tom protuargumentu je da dopuštanjem i poticanjem lovaca na glave da ispitaju vašu umjetnu inteligenciju, cijela stvar postaje kobna. Ti lovci na glave mogli bi smisliti načine za iskorištavanje pronađenih grešaka ili pristranosti. Ta bi iskorištavanja zauzvrat mogla biti u podle svrhe. Bilo bi vam bolje da ne pozivate "provalnike" u svoj dom, da tako kažem. Nakon što su sredili joint, na kraju ćete biti u hrpi problema.

Za one koji imaju AI sustave manje od veličine života ili smrti, uvjerenje je da su posljedice pohoda lova na glave koji pođe po zlu puno manje riskantne. Možda. S druge strane, ako je tvrtka uložila svoj novac u sustav umjetne inteligencije koji su lovci na glave uspjeli uzurpirati, možete pretpostaviti da će šteta po ugledu i druge potencijalne štete i dalje biti bolne.

Nema besplatnog ručka kada je u pitanju lov na glave AI bias.

Kratka završna napomena za sada.

Kada je zloglasni odmetnik Jesse James bio tražen tijekom Starog Zapada, tiskan je plakat "Traži se" koji je nudio nagradu od 5,000 dolara za njegovo hvatanje (navodeći "mrtav ili živ"). Bila je to prilično velika svota novca u to vrijeme. Jedan od članova njegove vlastite bande odlučio je ustrijeliti Jesseja i pokupiti nagradu. Pretpostavljam da to pokazuje koliko nagrada može biti učinkovita.

Hoće li korištenje AI lovaca na glave biti dobra stvar ili će biti loša stvar?

Ako se odlučite pokrenuti pothvat AI predrasude za lovcem na glave, predlažem da držite oči širom otvorene i da cijelo vrijeme gledate preko ramena. Ovo je razumno za vas i vašu umjetnu inteligenciju. Nikada ne znate što bi se moglo dogoditi, uključujući i to da lovac na ucjene nekako potajno umetne AI pristranost u vašu AI i vikne svijetu da su pronašli beskrupuloznu AI pristranost u vašoj AI. Možda radeći to u drskom i golemom pokušaju traženja nagrade za nagradu, uz proglašavanje sebe herojem koji je u biti dobio hvaljenog Jesseja Jamesa.

Kad bolje razmislimo, razumnoj umjetnoj inteligenciji vjerojatno se neće svidjeti ta ideja o uznemirujućoj odredbi o mrtvom ili živom, moglo bi se tako dugotrajno nagađati.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- etički-opaki-potpuno-autonomni-sustavi-je-razborit-ili-uzaludan/