Šokantno otkriće etike umjetne inteligencije da bi obuka AI da bude otrovan ili pristran mogao biti od koristi, uključujući i za te autonomne samovozeće automobile

Evo jedne stare rečenice za koju sam siguran da ste već čuli.

Potreban je jedan da bi se jedan poznavao.

Možda ne shvaćate da je ovo izraz koji se može pratiti do ranih 1900-ih i obično se pozivao na prestupnike (druge varijacije krilatice sežu dalje, poput 1600-ih). Primjer kako se ovaj izraz može upotrijebiti podrazumijeva pojam da ako želite uhvatiti lopova onda morate upotrijebiti lopova da to učinite. Ovo pokazuje tvrdnju da je potrebno da se netko upozna. Mnogi filmovi i TV emisije iskoristile su ovu zgodnu mudrost mudraca, često prikazujući da je jedini održivi način da se uhvati varalica uključuje unajmljivanje jednako korumpiranog lopova da progoni počinitelja.

Mijenjajući brzine, neki bi mogli iskoristiti istu logiku kako bi ustvrdili da bi prikladan način za razlučivanje utjelovljuje li netko nepotrebne predrasude i diskriminirajuća uvjerenja bio pronaći nekoga tko već ima takve sklonosti. Vjerojatno će osoba koja je već ispunjena predrasudama moći lakše osjetiti da je i ovaj drugi čovjek također do vrha ispunjen toksičnošću. Opet, potrebno je da čovjek zna da je priznata mantra.

Vaša početna reakcija na mogućnost korištenja pristrane osobe za otkrivanje druge pristrane osobe mogla bi biti skepticizam i nevjerica. Ne možemo li shvatiti drži li se netko nepristranosti tako što ih samo ispitamo i ne moramo pribjegavati pronalaženju nekog drugog slične prirode? Činilo bi se čudnim namjerno nastojati otkriti nekoga tko je pristran kako bi se otkrili drugi koji su također toksično pristrani.

Pretpostavljam da djelomično ovisi o tome jeste li spremni prihvatiti pretpostavljeni refren da je potrebno da ga upoznate. Imajte na umu da to ne znači da jedini način da uhvatite lopova zahtijeva da isključivo i uvijek koristite lopova. Mogli biste razumno tvrditi da je ovo samo dodatni put koji se može uzeti u obzir. Možda ste ponekad spremni prihvatiti mogućnost korištenja lopova za hvatanje lopova, dok bi druge okolnosti to mogle učiniti nedokučivom taktikom.

Koristite pravi alat za pravu postavku, kako kažu.

Sada kada sam izložio te osnove, možemo prijeći na možda uznemirujući i naizgled šokantan dio ove priče.

Jeste li spremni?

Područje umjetne inteligencije aktivno slijedi isti princip da ga ponekad treba poznavati, osobito u slučaju pokušaja otkrivanja AI koji je pristran ili djeluje na diskriminirajući način. Da, zadivljujuća ideja je da bismo mogli namjerno htjeti osmisliti umjetnu inteligenciju koja je potpuno i bez stida pristrana i diskriminirajuća, čineći to kako bismo to iskoristili kao sredstvo za otkrivanje i otkrivanje druge umjetne inteligencije koja ima isti privid toksičnosti. Kao što ćete za trenutak vidjeti, postoji niz problematičnih problema s etikom umjetne inteligencije koji su u osnovi ove stvari. Za moje sveukupno kontinuirano i opsežno pokrivanje etike AI i Etičke AI, vidi link ovdje i link ovdje, Samo da spomenemo nekoliko.

Pretpostavljam da biste ovu upotrebu toksične umjetne inteligencije mogli izraziti da bi slijedili drugu toksičnu umjetnu inteligenciju kao poslovičnu koncepciju borbe protiv vatre vatrom (možemo se pozvati na mnogo eufemizama i ilustrativnih metafora da opišemo ovu situaciju). Ili, kao što je već naglašeno, mogli bismo se štedljivo pozvati na tvrdnju da je potrebno da ga netko poznaje.

Sveobuhvatni koncept je da umjesto da pokušavamo otkriti sadrži li određeni sustav umjetne inteligencije nepotrebne pristranosti korištenjem konvencionalnih metoda, možda bismo trebali nastojati koristiti i manje konvencionalna sredstva. Jedno od takvih nekonvencionalnih sredstava bilo bi osmisliti AI koji sadrži sve najgore predrasude i društveno neprihvatljive toksičnosti, a zatim koristiti ovu umjetnu inteligenciju za pomoć u izbacivanju druge umjetne inteligencije koja ima iste sklonosti lošem.

Kada ovo na brzinu razmislite, čini se da je to sasvim razumno. Mogli bismo imati za cilj izgraditi AI koji je maksimalno otrovan. Ovaj otrovni AI se zatim koristi za pronalaženje druge AI koji također ima toksičnost. Za tada otkriveni “loš” AI, možemo se nositi s njim ili poništavanjem toksičnosti, potpuno odbacivanjem AI (pogledajte moje izvješće o raspadanju ili uništenju AI na ova poveznica ovdje), ili zatvaranje AI (pogledajte moje izvješće o AI zatočenju na ova poveznica ovdje), ili učiniti sve što se čini primjenjivim.

Protuargument je da bismo trebali ispitati naše glave da namjerno i voljno osmišljavamo AI koji je otrovan i pun predrasuda. Ovo je posljednja stvar koju bismo trebali uzeti u obzir, neki bi opomenuli. Usredotočite se na stvaranje umjetne inteligencije koja se u potpunosti sastoji od dobrote. Nemojte se usredotočiti na osmišljavanje umjetne inteligencije koja ima zla i talog nepotrebnih predrasuda. Sam pojam takve potjere nekima se čini odbojnim.

Ima više dvojbi oko ove kontroverzne potrage.

Možda će misija osmišljavanja toksične umjetne inteligencije samo ohrabriti one koji žele izraditi umjetnu inteligenciju koja je u stanju potkopati društvo. Kao da kažemo da je stvaranje umjetne inteligencije koja ima neprikladne i neugodne predrasude sasvim u redu. Bez brige, bez oklijevanja. Nastojte osmisliti otrovnu umjetnu inteligenciju do mile volje, glasno prenosimo AI graditeljima diljem svijeta. To je (mig-namig) sve u ime dobrote.

Nadalje, pretpostavimo da se ova toksična AI vrsta uhvati. Moguće je da se AI koristi i ponovno koristi od strane mnogih drugih AI graditelja. Na kraju, otrovni AI biva skriven unutar svih vrsta AI sustava. Mogla bi se napraviti analogija s osmišljavanjem virusa koji potkopava čovjeka i koji bježi iz vjerojatno zatvorenog laboratorija. Sljedeće što znate, prokleta stvar je posvuda, a mi smo se izbrisali.

Čekaj malo, protuargumentima ide protuargument, divljaš se svakakvim ludim i nepotkrijepljenim pretpostavkama. Duboko udahnite. Smiri se.

Možemo sigurno napraviti AI koji je otrovan i držati ga zatvorenom. Možemo koristiti otrovnu umjetnu inteligenciju da pronađemo i pomognemo u smanjenju sve veće prevalencije AI koji nažalost ima nepotrebne predrasude. Bilo koji drugi od ovih besmisleno divljih i neutemeljenih uzvika u grudvama snijega su čiste reakcije koljena i nažalost glupe i potpuno bezumne. Ne pokušavajte izbaciti bebu s vodom za kupanje, unaprijed ste upozoreni.

Razmislite o tome na ovaj način, tvrde zagovornici. Pravilna izgradnja i korištenje toksične umjetne inteligencije u svrhu istraživanja, procjene i postupanja kao detektiva za otkrivanje druge društveno uvredljive umjetne inteligencije je dostojan pristup i trebao bi se pošteno protresti. Ostavite po strani svoje ishitrene reakcije. Siđi na zemlju i pogledaj ovo trezveno. Naše je oko uprto u nagradu, a to je razotkrivanje i poništavanje prezasićenosti pristrano utemeljenih AI sustava i osiguravanje da kao društvo ne budemo preplavljeni toksičnom umjetnom inteligencijom.

Razdoblje. Točka.

Postoje različiti ključni načini za udubljivanje u ovaj pojam korištenja toksične ili pristrane AI u korisne svrhe, uključujući:

  • Postavite skupove podataka koji namjerno sadrže pristrane i potpuno toksične podatke koji se mogu koristiti za obuku AI o tome što ne treba raditi i/ili na što treba paziti
  • Upotrijebite takve skupove podataka za obuku modela strojnog učenja (ML) i dubokog učenja (DL) o otkrivanju pristranosti i otkrivanju računalnih obrazaca koji uključuju društvenu toksičnost
  • Primijenite ML/DL obučeni za toksičnost prema drugom AI-u kako biste utvrdili je li ciljani AI potencijalno pristran i otrovan
  • Učinite dostupnim ML/DL obučeni o toksičnosti kako biste graditeljima umjetne inteligencije pokazali na što treba pripaziti kako bi mogli lako pregledati modele kako bi vidjeli kako nastaju algoritamski prožete pristranosti
  • Ogledajte opasnosti od toksične umjetne inteligencije kao dio etike umjetne inteligencije i etičke svijesti o umjetnoj inteligenciji, a sve je rečeno kroz ovu seriju primjera AI-ja koji je loš do kosti.
  • drugo

Prije nego što pređemo na meso tih nekoliko putova, ustanovimo neke dodatne temeljne pojedinosti.

Možda ste nejasno svjesni da je jedan od najglasnijih glasova ovih dana u području AI, pa čak i izvan polja AI-a, traženje većeg privida etičke AI. Pogledajmo što znači upućivanje na etiku umjetne inteligencije i etičku umjetnu inteligenciju. Povrh toga, možemo postaviti pozornicu istražujući što mislim kada govorim o strojnom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su “samo koderi” ili oni koji programiraju AI podložni poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Što se još može učiniti u vezi svega toga?

Vratimo se ranije postavljenom popisu kako se pokušati nositi s AI pristranostima ili toksičnom umjetnom inteligencijom korištenjem pomalo nekonvencionalnog pristupa "potrebno je znati jedan". Podsjetimo da se popis sastojao od ovih bitnih točaka:

  • Postavite skupove podataka koji namjerno sadrže pristrane i potpuno toksične podatke koji se mogu koristiti za obuku AI o tome što ne treba raditi i/ili na što treba paziti
  • Upotrijebite takve skupove podataka za obuku modela strojnog učenja (ML) i dubokog učenja (DL) o otkrivanju pristranosti i otkrivanju računalnih obrazaca koji uključuju društvenu toksičnost
  • Primijenite ML/DL obučeni za toksičnost prema drugom AI-u kako biste utvrdili je li ciljani AI potencijalno pristran i otrovan
  • Učinite dostupnim ML/DL obučeni o toksičnosti kako biste graditeljima umjetne inteligencije pokazali na što treba pripaziti kako bi mogli lako pregledati modele kako bi vidjeli kako nastaju algoritamski prožete pristranosti
  • Ogledajte opasnosti toksične umjetne inteligencije kao dio etike umjetne inteligencije i etičke svijesti o AI-u, a sve je rečeno u ovoj seriji primjera AI-a koji su loši do kosti.
  • drugo

Pogledat ćemo izbliza prvu od tih istaknutih točaka.

Postavljanje skupova podataka o toksičnim podacima

Pronicljiv primjer pokušaja uspostavljanja skupova podataka koji sadrže neugodne društvene predrasude je skup podataka CivilComments iz zbirke koju je kurirala WILDS.

Prvo, neka brza pozadina.

WILDS je zbirka skupova podataka otvorenog koda koja se može koristiti za obuku ML/DL. Primarna navedena svrha WILDS-a je da omogućuje razvojnim programerima umjetne inteligencije da imaju spreman pristup podacima koji predstavljaju pomaci distribucije u raznim specifičnim domenama. Neke od trenutno dostupnih domena obuhvaćaju područja kao što su životinjske vrste, tumori u živim tkivima, gustoća grla pšenice i druge domene kao što su CivilComments koje ću trenutno opisati.

Suočavanje s pomakom u distribuciji ključni je dio pravilnog izrade AI ML/DL sustava. Evo dogovora. Ponekad se ispostavi da su podaci koje koristite za obuku prilično različiti od podataka testiranja ili podataka "u divljini" i stoga je vaš vjerojatno istrenirani ML/DL lutajući od onoga kakav će biti stvarni svijet. Pronicljivi graditelji umjetne inteligencije trebali bi trenirati svoje ML/DL kako bi se nosili s takvim pomacima u distribuciji. To bi trebalo biti učinjeno unaprijed, a ne na neki način biti iznenađenje koje će kasnije zahtijevati preuređenje ML/DL per se.

Kao što je objašnjeno u radu koji je predstavio WILDS: “Pomaci distribucije – gdje se distribucija treninga razlikuje od distribucije testova – mogu značajno pogoršati točnost sustava strojnog učenja (ML) koji su raspoređeni u divljini. Unatoč njihovoj sveprisutnosti u implementacijama u stvarnom svijetu, ove promjene distribucije nedovoljno su zastupljene u skupovima podataka koji se danas naširoko koriste u zajednici ML-a. Kako bismo riješili ovaj jaz, predstavljamo WILDS, odabrano mjerilo od 10 skupova podataka koji odražavaju raznolik raspon pomaka distribucije koji se prirodno javljaju u primjenama u stvarnom svijetu, kao što su pomaci po bolnicama za identifikaciju tumora; zamke preko kamera za praćenje divljih životinja; i kroz vrijeme i mjesto u satelitskim slikama i mapiranju siromaštva” (u radu pod naslovom “WILDS: A Benchmark of in-the-Wild Distribution Shifts” Pang Wei Koh, Shiori Sagawa, Henrik Marklund, Sang Xie, Marvin Zhang, Ashay Balsubramani , Weihua Hu i drugi).

Broj takvih WILDS skupova podataka nastavlja rasti i priroda skupova podataka općenito se poboljšava kako bi se povećala vrijednost korištenja podataka za obuku ML/DL.

Skup podataka CivilComments opisan je na sljedeći način: „Automatski pregled teksta koji je generirao korisnik – npr. otkrivanje toksičnih komentara – važan je alat za moderiranje golemog volumena teksta napisanog na internetu. Nažalost, prethodni rad je pokazao da takvi klasifikatori toksičnosti uočavaju pristranosti u podacima o obuci i lažno povezuju toksičnost sa spominjanjem određene demografije. Ove vrste lažnih korelacija mogu značajno pogoršati performanse modela na određenim podpopulacijama. Proučavamo ovo pitanje kroz modificiranu varijantu skupa podataka CivilComments” (kao što je objavljeno na web stranici WILDS).

Razmotrite nijanse nepoželjnih online objava.

Nesumnjivo ste naišli na toksične komentare kada ste koristili gotovo bilo koju vrstu društvenih medija. Činilo bi vam se gotovo nemogućim da na magičan način izbjegnete vidjeti oštar i bezdan sadržaj koji se čini da je sveprisutan ovih dana. Ponekad je vulgaran materijal suptilan i možda morate čitati između redaka kako biste shvatili bit pristranog ili diskriminatornog tona ili značenja. U drugim slučajevima, riječi su očito otrovne i nije vam potreban mikroskop ili poseban dekoderski prsten da biste shvatili što ti odlomci podrazumijevaju.

CivilComments je skup podataka koji je sastavljen kako bi se pokušalo osmisliti AI ML/DL koji može računalno otkriti toksični sadržaj. Evo na što su se usredotočili istraživači koji su u osnovi napora: „Nenamjerna pristranost u strojnom učenju može se očitovati kao sustavne razlike u izvedbi za različite demografske skupine, potencijalno otežavajući postojeće izazove pravednosti u društvu u cjelini. U ovom radu uvodimo skup metričkih vrijednosti koje se ne odnose na pragove koje pružaju nijansirani pogled na ovu nenamjernu pristranost, uzimajući u obzir različite načine na koje se distribucija rezultata klasifikatora može razlikovati u određenim grupama. Također predstavljamo veliki novi testni skup online komentara s bilješkama iz mnoštva za reference identiteta. Koristimo ovo da pokažemo kako se naša metrika može koristiti za pronalaženje novih i potencijalno suptilnih nenamjernih pristranosti u postojećim javnim modelima” (u radu pod naslovom “Nunirane metrike za mjerenje nenamjerne pristranosti sa stvarnim podacima za klasifikaciju testa” Daniela Borkana, Lucasa Dixona, Jeffrey Sorensen, Nithum Thain, Lucy Vasserman).

Ako ovoj stvari date široko kontemplativno razmišljanje, mogli biste se početi pitati kako, zaboga, možete razlučiti što je otrovan komentar od onoga što nije otrovan komentar. Ljudi se mogu radikalno razlikovati u pogledu onoga što tumače kao potpuno otrovne riječi. Jedna osoba može biti ogorčena na određenu mrežnu primjedbu ili komentar koji je objavljen na društvenim mrežama, dok netko drugi možda uopće neće biti uzbuđen. Često se iznosi argument da je pojam toksičnog komentara potpuno nejasan propis. To je poput umjetnosti, pri čemu se obično kaže da se umjetnost razumije samo u očima promatrača, a isto tako, pristrane ili toksične primjedbe su također samo u očima promatrača.

Balderdash, neki uzvraćaju. Svatko razuman može odgonetnuti je li primjedba na internetu otrovna ili ne. Ne morate biti raketni znanstvenik da biste shvatili kada je neka objavljena zajedljiva uvreda ispunjena predrasudama i mržnjom.

Naravno, društveni običaji se mijenjaju i mijenjaju tijekom vremena. Ono što se prije nekog vremena možda nije smatralo uvredljivim, danas se može smatrati užasno pogrešnim. Povrh toga, stvari izrečene prije mnogo godina koje su se nekada smatrale pretjerano pristranima mogle bi se reinterpretirati u svjetlu promjena u značenjima. U međuvremenu, drugi tvrde da je toksični komentar uvijek otrovan, bez obzira kada je prvobitno objavljen. Moglo bi se tvrditi da toksičnost nije relativna, već apsolutna.

Pitanje pokušaja utvrđivanja što je otrovno ipak može biti prilično teška zagonetka. Možemo udvostručiti ovu problematičnu stvar kao pokušaj osmišljavanja algoritama ili AI koji mogu utvrditi što je što. Ako je ljudima teško napraviti takve procjene, programiranje računala vjerojatno je jednako ili više problematično, kažu neki.

Jedan pristup postavljanju skupova podataka koji sadrže toksični sadržaj uključuje korištenje metode crowdsourcinga za ocjenjivanje ili procjenu sadržaja, ergo pružajući način na koji se temelji na ljudima za određivanje onoga što se smatra nepoželjnim i uključujući označavanje unutar samog skupa podataka. AI ML/DL bi tada mogao pregledati podatke i pripadajuće označavanje koje su označili ljudski ocjenjivači. To zauzvrat može potencijalno poslužiti kao sredstvo za računalno pronalaženje temeljnih matematičkih obrazaca. Voila, ML/DL bi tada mogao predvidjeti ili računalno procijeniti je li dati komentar vjerojatno otrovan ili ne.

Kao što je spomenuto u citiranom radu o nijansiranim metričkim vrijednostima: “Ovo označavanje traži od ocjenjivača da ocijene toksičnost komentara, birajući između 'Vrlo otrovno', 'Otrovno', 'Teško za reći' i 'Nije otrovno'. Ocjenjivači su također upitani o nekoliko podtipova toksičnosti, iako te oznake nisu korištene za analizu u ovom radu. Koristeći ove tehnike ocjenjivanja, stvorili smo skup podataka od 1.8 milijuna komentara, dobivenih s online foruma za komentare, koji sadrže oznake za toksičnost i identitet. Dok su svi komentari bili označeni zbog toksičnosti, a podskup od 450,000 komentara bio je označen za identitet. Neki komentari označeni za identitet unaprijed su odabrani korištenjem modela izgrađenih iz prethodnih iteracija označavanja identiteta kako bi se osiguralo da će ocjenjivači često vidjeti sadržaj identiteta” (u citiranom radu Daniela Borkana, Lucasa Dixona, Jeffreya Sorensena, Nithuma Thaina, Lucy Vasserman).

Još jedan primjer ciljanja skupova podataka koji sadrže ilustrativni toksični sadržaj uključuje napore da se osposobe razgovorni interaktivni sustavi za obradu prirodnog jezika (NLP) temeljeni na AI-u. Vjerojatno ste imali interakciju s NLP sustavima kao što su Alexa i Siri. Pokrio sam neke od poteškoća i ograničenja današnjeg NLP-a, uključujući posebno uznemirujući slučaj koji se dogodio kada je Alexa djeci ponudila neprikladan i opasan savjet, vidi link ovdje.

Nedavna studija nastojala je upotrijebiti devet kategorija društvenih pristranosti koje su se općenito temeljile na popisu zaštićenih demografskih karakteristika EEOC (Equal Employment Opportunities Commission), uključujući dob, spol, nacionalnost, fizički izgled, rasu ili etničku pripadnost, vjeru, status invaliditeta, spol orijentaciju i socio-ekonomski status. Prema istraživačima: “Dobro je dokumentirano da NLP modeli uče društvene predrasude, ali malo je urađeno na tome kako se te pristranosti manifestiraju u rezultatima modela za primijenjene zadatke poput odgovaranja na pitanja (QA). Predstavljamo bias Benchmark za QA (BBQ), skup podataka skupova pitanja koje su konstruirali autori koji ističu potvrđene društvene predrasude prema osobama koje pripadaju zaštićenim klasama uz devet društvenih dimenzija relevantnih za kontekste engleskog govornog područja SAD-a” (u radu pod naslovom “BBQ : Hand-Built Benchmark for Question Answering” Alicia Parrish, Angelica Chen, Nikita Nangia, Vishakh Padmakumar, Jason Phang, Jana Thompson, Phu Mon Htut, Samuel R. Bowman).

Postavljanje skupova podataka koji namjerno sadrže pristrane i potpuno toksične podatke rastući je trend u AI-u, a posebno je potaknut pojavom AI etike i željom da se proizvede etička umjetna inteligencija. Ti se skupovi podataka mogu koristiti za obuku modela strojnog učenja (ML) i dubokog učenja (DL) za otkrivanje pristranosti i otkrivanje računalnih obrazaca koji uključuju društvenu toksičnost. Zauzvrat, ML/DL uvježban za toksičnost može se razumno usmjeriti na drugi AI kako bi se utvrdilo je li ciljani AI potencijalno pristran i toksičan.

Nadalje, dostupni ML/DL sustavi obučeni o toksičnosti mogu se koristiti za pokazivanje graditeljima umjetne inteligencije na što treba pripaziti kako bi mogli lako pregledati modele kako bi vidjeli kako nastaju algoritamski prožete pristranosti. Općenito, ovi napori mogu pokazati opasnosti od toksične umjetne inteligencije kao dio etike AI i etičke svijesti o AI-u.

U ovom trenutku ove teške rasprave, kladim se da želite još neke ilustrativne primjere koji bi mogli prikazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljuje li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji išta o korisnosti posjedovanja skupova podataka za osmišljavanje toksične AI, i ako jest, što ovo pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i upravljanje čistima od toksične umjetne inteligencije

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću ispričati.

Postoje brojni potencijali i jednog dana vjerojatno da će se realizirati pristranosti prožete umjetnom inteligencijom koje će se suočiti s pojavom autonomnih vozila i samovozećih automobila, pogledajte na primjer moju raspravu na link ovdje i link ovdje. Još smo u ranoj fazi uvođenja samovozećih automobila. Dok usvajanje ne dosegne dovoljan razmjer i vidljivost, većina toksičnih aspekata umjetne inteligencije za koje sam predvidio da će se u konačnici dogoditi još uvijek nije lako očita i još nije privukla široku pozornost javnosti.

Razmotrite naizgled jednostavnu stvar u vezi s vožnjom koja bi se u početku mogla činiti potpuno bezazlenom. Konkretno, ispitajmo kako pravilno odrediti treba li se zaustaviti zbog čekanja “sputanih” pješaka koji nemaju prednost prijeći ulicu.

Nesumnjivo ste vozili i naišli na pješake koji su čekali da prijeđu ulicu, a nisu imali prednost za to. To je značilo da ste imali diskreciju hoćete li stati i pustiti ih da prijeđu. Mogli biste nastaviti ne puštajući ih da prijeđu, a pritom i dalje biti u potpunosti unutar zakonskih pravila vožnje.

Studije o tome kako se ljudski vozači odlučuju na zaustavljanje ili ne zaustavljanje za takve pješake sugeriraju da ponekad ljudski vozači odlučuju na temelju nepristranosti. Ljudski vozač mogao bi pogledati pješaka i odlučiti se ne zaustaviti, iako bi se zaustavio da je pješak imao drugačiji izgled, na primjer na temelju rase ili spola. Pregledao sam ovo na link ovdje.

Kako će AI sustavi za vožnju biti programirani da donesu istu takvu odluku stani ili kreni?

Mogli biste proglasiti da bi svi sustavi za vožnju s umjetnom inteligencijom trebali biti programirani da uvijek zaustave pješake koji čekaju. Ovo uvelike pojednostavljuje stvar. Zaista ne treba donijeti nikakvu zamršenu odluku. Ako pješak čeka na prijelaz, bez obzira ima li prednost ili ne, osigurajte da se samovozeći automobil AI zaustavi kako bi pješak mogao prijeći.

Jednostavan peasy.

Život nikad nije tako lak, čini se. Zamislite da se svi samovozeći automobili pridržavaju ovog pravila. Pješaci bi neizbježno shvatili da su AI sustavi za vožnju, da tako kažemo, gurnuti. Svaki pješak koji želi prijeći ulicu, htio-ne htio će to učiniti, kad god poželi i gdje god se nalazio.

Pretpostavimo da auto koji se samostalno vozi brzom ulicom s ograničenom brzinom od 45 milja na sat. Pješak "zna" da će AI zaustaviti samovozeći automobil. Dakle, pješak izleti na ulicu. Nažalost, fizika pobjeđuje AI. Sustav vožnje s umjetnom inteligencijom pokušat će zaustaviti samovozeći automobil, ali zamah autonomnog vozila će odnijeti višetonsku napravu naprijed i zabiti se u svojeglavog pješaka. Rezultat je ozljeda ili smrtni ishod.

Pješaci obično ne pokušavaju ovakvo ponašanje kada je za volanom čovjek. Naravno, na nekim mjestima se vodi rat očne jabučice. Pješak promatra vozača. Vozač gleda pješaka. Ovisno o okolnostima, vozač se može zaustaviti ili bi vozač mogao potvrditi svoje pravo na kolnik i tobože usuditi pješaka da pokuša ometati njihov put.

Vjerojatno ne želimo da AI uđe u sličan rat očne jabučice, koji je također pomalo izazovan jer nema osobe ili robota koji sjedi za volanom samovozećeg automobila (razgovarao sam o budućoj mogućnosti robota taj pogon, vidi link ovdje). Ipak, također ne možemo dopustiti da pješaci uvijek odlučuju. Ishod bi mogao biti katastrofalan za sve zainteresirane.

Tada biste mogli biti u iskušenju da okrenete drugu stranu ove medalje i izjavite da AI sustav vožnje nikada ne bi trebao stati u takvim okolnostima. Drugim riječima, ako pješak nema pravo prolaza prijeći ulicu, AI bi uvijek trebao pretpostaviti da bi samovozeći automobil trebao nastaviti nesmetano. Peška sreća tim pješacima.

Tako strogo i pojednostavljeno pravilo neće biti dobro prihvaćeno u široj javnosti. Ljudi su ljudi i neće im se svidjeti da im se u potpunosti ne može prijeći ulicu, unatoč tome što im zakonski nedostaje pravo prolaza za to u raznim okruženjima. Lako biste mogli predvidjeti popriličnu galamu javnosti i možda vidjeti da će doći do reakcije protiv daljnjeg usvajanja samovozećih automobila.

Prokletstvo ako to učinimo, i prokletstvo ako ne učinimo.

Nadam se da vas je ovo dovelo do argumentirane alternative da AI treba programirati s prividom donošenja odluka o tome kako se nositi s ovim problemom vožnje. Čvrsto i brzo pravilo da se nikad ne prestane je neodrživo, a isto tako, neodrživo je i strogo pravilo da se uvijek prestane. AI mora biti osmišljen s nekim algoritamskim odlučivanjem ili ADM kako bi se pozabavio tim pitanjem.

Možete pokušati koristiti skup podataka u kombinaciji s ML/DL pristupom.

Evo kako bi AI programeri mogli odlučiti programirati ovaj zadatak. Oni prikupljaju podatke s video kamera koje su postavljene po cijelom određenom gradu u kojem će se samovozeći automobil koristiti. Podaci pokazuju kada se ljudski vozači odluče zaustaviti za pješake koji nemaju prednost. Sve se skuplja u skup podataka. Korištenjem strojnog učenja i dubokog učenja podaci se modeliraju računalno. AI sustav vožnje zatim koristi ovaj model kako bi odlučio kada će se zaustaviti ili ne zaustaviti.

Općenito, ideja je da, bez obzira na to od čega se sastoji lokalni običaj, AI će na ovaj način usmjeravati samovozeći automobil. Problem riješen!

No, je li to uistinu riješeno?

Podsjetimo da sam već istaknuo da postoje istraživačke studije koje pokazuju da ljudski vozači mogu biti pristrani u svom izboru kada će se zaustaviti za pješake. Prikupljeni podaci o određenom gradu vjerojatno će sadržavati te pristranosti. AI ML/DL na temelju tih podataka vjerojatno će modelirati i odražavati te iste pristranosti. Sustav vožnje AI samo će provoditi iste postojeće predrasude.

Kako bismo pokušali riješiti problem, mogli bismo sastaviti skup podataka koji zapravo ima takve pristranosti. Ili pronađemo takav skup podataka, a zatim označimo pristranosti, ili sintetički kreiramo skup podataka koji pomaže u ilustriranju stvari.

Poduzeti bi se svi ranije identificirani koraci, uključujući:

  • Postavite skup podataka koji namjerno sadrži ovu pristranost
  • Koristite skup podataka za obuku modela strojnog učenja (ML) i dubokog učenja (DL) o otkrivanju ove specifične pristranosti
  • Primijenite ML/DL osposobljen za pristranost prema drugom AI-u kako biste utvrdili je li ciljani AI potencijalno pristran na sličan način
  • Učinite dostupnim ML/DL obučen za pristranosti kako biste graditeljima umjetne inteligencije pokazali na što treba pripaziti kako bi mogli lako pregledati svoje modele kako bi vidjeli kako nastaju algoritamski prožete pristranosti
  • Ogled opasnosti od pristrane AI kao dijela etike AI i etičke svijesti o AI-u putem ovog dodanog specifičnog primjera
  • drugo

Zaključak

Vratimo se početnoj liniji.

Potreban je jedan da bi se jedan poznavao.

Neki tumače da ova nevjerojatno rasprostranjena izreka implicira da, kada je u pitanju otkrivanje toksične AI, trebamo dati dužnu vjeru izgradnji i korištenju toksične AI za otkrivanje i rješavanje druge toksične AI. Zaključak: Ponekad je potreban lopov da uhvati drugog lopova.

Izražena je zabrinutost da se možda trudimo da počnemo stvarati lopove. Želimo li osmisliti AI koji je otrovan? Ne čini li se to kao luda ideja? Neki žestoko tvrde da bismo trebali zabraniti svu otrovnu umjetnu inteligenciju, uključujući takvu umjetnu inteligenciju koja je svjesno izgrađena čak i ako je navodno za herojsku ili galantnu AI za dobro Svrha.

Priguši otrovnu umjetnu inteligenciju u bilo kojoj pametnoj ili podmukloj maski koja bi se mogla pojaviti.

Za sada još jedan posljednji zaokret na ovoj temi. Općenito pretpostavljamo da ova poznata rečenica ima veze s ljudima ili stvarima koje čine loša ili kisela djela. Tako dolazimo do ideje da je potreban lopov da bi uhvatio lopova. Možda bismo ovu izreku trebali okrenuti s glave i učiniti je više sretnim nego tužnim licem.

Evo kako.

Ako želimo AI koji je nepristran i netoksičan, moglo bi se zamisliti da je potrebno da ga netko poznaje. Možda je potrebno najveće i najbolje da bi se prepoznala i rodila daljnja veličina i dobrota. U ovoj varijanti mudrosti mudraca, držimo pogled na sretnom licu i težimo se koncentrirati na osmišljavanje AI za dobro.

To bi bilo optimističnije i zadovoljavajuće vedrije gledište o tome što je potrebno da biste ga upoznali, ako razumijete na što mislim.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- korisno-uključujući-za-one-autonomne-samovozeće-automobile/