Etika umjetne inteligencije i psihološka inokulacija izazvana umjetnom inteligencijom za pomoć ljudima s dezinformacijama

Što ćemo učiniti u vezi s ogromnim zasićenjem dezinformacijama i dezinformacijama?

Sve je evidentno sve gore i gore, svakim danom.

Možda nam umjetna inteligencija (AI) može pomoći. Da, tako je, možda bismo mogli iskoristiti korisne načine upotrebe umjetne inteligencije kako bismo se nosili s našim nemilosrdnim tsunamijem dezinformacija i dezinformacija. Možda bi bilo mudro pokušati to učiniti. Svaki put potencijalnog rješenja čini se vrijedan potrage.

Na stranu, želio bih odmah priznati i primijetiti da će umjetna inteligencija nedvojbeno Također budi i ti dio problema. Nema sumnje da ljudi mogu lako iskoristiti AI za stvaranje dezinformacija i dezinformacija. Nadalje, umjetna inteligencija se može podmuklo upotrijebiti kako bi dezinformacije i dezinformacije izgledale nevjerojatno valjane i zavarati ljude da povjeruju da su prezentirane informacije primamljivo točne i činjenične. Definitivno tužna strana onoga što AI donosi na stol. Vratit ćemo se ovoj zagonetki s lošom stranom pred kraj ove rasprave.

Za sada, nabacimo smajliće i istražimo koliko je umjetna inteligencija korisna u bacanju dezinformacija i dezinformacija na svoja moćna koljena. Jedna važna podstruja bit će da se sve to spaja s vitalnim elementima etike umjetne inteligencije. Moja kolumna o etici umjetne inteligencije i etičkoj umjetnoj inteligenciji je kontinuirana i opsežna, uključujući link ovdje i link ovdje, Samo da spomenemo nekoliko.

Razmotrite ove temeljne načine na koje umjetna inteligencija može biti posebno koristan saveznik u ratu protiv dezinformacija i dezinformacija:

  • Zaustavite se na početku: AI se može koristiti za otkrivanje i pokušaj uklanjanja dezinformacija i dezinformacija prije nego što izađu na vidjelo
  • Filtriranje prije gledanja: AI se može koristiti za filtriranje dezinformacija i dezinformacija tako da se ne morate brinuti hoćete li ih vidjeti
  • Pripremite se da budete imuni: AI se može koristiti za jačanje vaše spremnosti i sposobnosti da se borite s dezinformacijama i dezinformacijama (ponešto službeno poznate kao pružanje neke vrste psihološke cjepiva)
  • drugo

Prva navedena točka podrazumijeva pokušaj zaustavljanja dezinformacija i dezinformacija u najranijem mogućem trenutku, prije nego sadržaj dospije u svijet.

Ovo je vrlo problematičan pristup. Neki bi glasno tvrdili da bi ovo mogao biti pokušaj Big Brothera da uguši slobodu govora. Koliko daleko bi ovaj AI mogao ići? Može li spriječiti ljude da slobodno izražavaju svoje stavove? Ovo bi jezivo moglo postati sklizak teren AI-ja koji bi u konačnici postao najgora noćna mora zlih rezultata koji su nevino započeli s najboljim namjerama.

Sigurna sam da ste shvatili.

Druga točka je malo umjerenija i sugerira da bismo mogli koristiti AI za filtriranje sadržaja umjesto nas.

Možda imate AI filter bot koji će skenirati sve vaše dolazne feedove podataka iz raznih vijesti i drugih izvora. AI je prilagođen da uhvati sve dezinformacije ili dezinformacije koje odgovaraju vašim osobnim kriterijima. Dakle, u takvom scenariju, to nije situacija cenzure Big Brothera. Vi kontrolirate AI i način na koji filtrira vašu pravu pristiglu poštu s informacijama u vaše ime.

Zvuči prilično dobro.

Ipak, postoje neke zabrinutosti vrijedne pažnje.

Na primjer, već smo uvelike polarizirani u svojim pogledima i ova bi upotreba umjetne inteligencije mogla tu polarizaciju učiniti dubljom i mračnijom. Zamislite da s ovom uglađenom umjetnom inteligencijom koja radi non-stop 24×7 nikada ne trebate vidjeti niti mrvicu informacija koje ste klasificirali kao potencijalno dezinformacije i dezinformacije. Gotovo je zajamčeno da će vaša polarizirana perspektiva ostati netaknuta. Cijeli dan i kad god želite pogledati informacije koje čekaju vašu pozornost, one su uvijek potpuno unaprijed odabrane i nema šanse da bacite pogled na takozvane dezinformacije i dezinformacije.

Kažem da dezinformacija i dezinformacija može biti takozvani jer postoji ogromna količina kontroverzi oko toga što zapravo predstavlja dezinformaciju i dezinformaciju. Neki stručnjaci inzistiraju na tome da postoji apsolutna osnova za utvrđivanje što je dezinformacija, a što dezinformacija. Postoji ispravno i pogrešno. Sve se može izračunati, a da se ne pogriješi da je nešto dezinformacija ili dezinformacija.

Ne vide svi stvari tako jasne.

Kaže se da je poslovični on-or-off međusobno isključiv dihotomijski kontrast pogrešno razmišljanje. Dezinformacija jedne osobe ne može se smatrati dezinformacijom druge osobe. Isto tako i o dezinformacijama. Tvrdnja je da dezinformacije i dezinformacije variraju u smislu prirode i veličine. Pokušati definitivno klasificirati sve informacije na jednu ili drugu hrpu puno je teže nego što sugerira mahanje rukom.

Suština je da druga točka o korištenju umjetne inteligencije kao mehanizma za filtriranje ima svoje nedostatke. Nema sumnje da će se umjetna inteligencija sve više koristiti za ovu svrhu. U isto vrijeme, moramo imati na umu izazove koje će takva umjetna inteligencija staviti u prvi plan. AI kao filter za dezinformacije i dezinformacije nije neki srebrni metak ili zakucavanje.

To nas vodi do treće točke, odnosno mogućnosti korištenja umjetne inteligencije kako bi se ljudi bolje nosili s dezinformacijama i dezinformacijama.

Sumnjam da ste vjerojatno puno čuli o ovom trećem putu korištenja AI-ja u ovom kontekstu. Tek se počinje nazirati. Sada ste na samom vrhu nečega što će vjerojatno rasti i postupno se koristiti. Imajte na umu da će, kako se ova popularnost bude širila, kontroverze o tome je li to prikladan pristup također postati vrlo vidljive.

Dio problema je u tome što se AI donekle koristi za ono što bi neki pogrdno nazvali igranje umnih igara s ljudima.

To djeluje zlokobno.

Ovo nas također dovodi do područja AI etike.

Sve ovo također se odnosi na trezveno nastalu zabrinutost o današnjoj umjetnoj inteligenciji, a posebno o korištenju strojnog učenja i dubokog učenja kao oblika tehnologije i načina na koji se ona koristi. Vidite, postoje upotrebe ML/DL-a koje uključuju antropomorfizaciju umjetne inteligencije od strane šire javnosti, vjerujući ili odabirući pretpostaviti da je ML/DL ili osjetljiva AI ili blizu (nije). Osim toga, ML/DL može sadržavati aspekte računalnog podudaranja uzoraka koji su nepoželjni ili potpuno neprikladni ili nezakoniti iz etičke ili pravne perspektive.

Moglo bi biti korisno prvo razjasniti što mislim kada govorim o umjetnoj inteligenciji u cjelini te pružiti kratak pregled strojnog učenja i dubokog učenja. Postoji velika zbrka oko toga što umjetna inteligencija znači. Također bih vam želio predstaviti pravila Etike umjetne inteligencije, koja će biti posebno sastavni dio ostatka ovog diskursa.

Navođenje zapisa o AI

Uvjerimo se da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman.

Nemamo ovo.

Ne znamo hoće li razumna umjetna inteligencija biti moguća. Nitko ne može točno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva Singularnost, pogledajte moje izvješće na link ovdje).

Shvatite da današnja umjetna inteligencija nije u stanju "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, sposobnosti razgovora mogu se činiti sličnim ljudskim sposobnostima, ali stvarnost je da su računalne i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje i duboko učenje, koji iskorištavaju računalno podudaranje uzoraka. To je dovelo do AI sustava koji izgledaju poput ljudskih sklonosti. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma, niti ima ikakvo kognitivno čudo snažnog ljudskog razmišljanja.

Dio problema je naša tendencija da antropomorfiziramo računala, a posebno AI. Kada se čini da računalni sustav ili umjetna inteligencija djeluju na način koji povezujemo s ljudskim ponašanjem, postoji gotovo neodoljiva želja da se sustavu pripišu ljudske kvalitete. To je uobičajena mentalna zamka koja može uhvatiti čak i najnepopustljivijeg skeptika u vezi s izgledima za postizanje osjećaja.

Do neke mjere, to je razlog zašto je etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema.

Pravila AI Etike tjeraju nas da ostanemo budni. AI tehnolozi ponekad mogu biti zaokupljeni tehnologijom, osobito optimizacijom visoke tehnologije. Oni ne uzimaju u obzir nužno veće društvene posljedice. Imati način razmišljanja o etici umjetne inteligencije i činiti to integralno za razvoj i primjenu umjetne inteligencije ključno je za proizvodnju odgovarajuće umjetne inteligencije, uključujući procjenu načina na koji tvrtke usvajaju etiku umjetne inteligencije.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti. Pogledajte na primjer moju pokrivenost na link ovdje.

U prijašnjim sam kolumnama pokrio različite nacionalne i međunarodne napore u izradi i donošenju zakona koji reguliraju AI, vidi link ovdje, na primjer. Također sam pokrio različita načela i smjernice etike umjetne inteligencije koje su različite nacije identificirale i usvojile, uključujući na primjer napore Ujedinjenih naroda kao što je UNESCO-ov set etike AI koji je usvojilo gotovo 200 zemalja, vidi link ovdje.

Evo korisnog temeljnog popisa etičkih AI kriterija ili karakteristika u vezi sa AI sustavima koje sam prethodno pomno istražio:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Ta načela etičke AI iskreno trebaju koristiti programeri AI-a, zajedno s onima koji upravljaju razvojnim naporima AI-ja, pa čak i onima koji u konačnici postavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI-a razvoja i korištenja smatraju se unutar opsega poštivanja uspostavljenih normi Etičke AI-a. Ovo je važan naglasak budući da je uobičajena pretpostavka da "samo koderi" ili oni koji programiraju umjetnu inteligenciju podliježu pridržavanju etičkih pojmova umjetne inteligencije. Kao što je prethodno naglašeno, potrebno je selo da osmisli i postavi umjetnu inteligenciju, a za to cijelo selo mora biti upućeno i pridržavati se pravila etičke inteligencije.

Zadržimo stvari na zemlji i usredotočimo se na današnju računalnu ne-osjećajnu umjetnu inteligenciju.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vjerujem da sam sada pripremio pozornicu za dostatnu raspravu o ulozi umjetne inteligencije kao sredstvu za poticanje psihološke inokulacije u vezi s suočavanjem s dezinformacijama i dezinformacijama.

Ulazak u umove ljudi

Počnimo s osnovama ili osnovama koje stoje iza dezinformacija i dezinformacija.

Općenito, dezinformacija se odnosi na lažne ili obmanjujuće informacije.

Dezinformacije su otprilike iste iako se sastoje od dodatnog elementa namjera. Obično informacije tumačimo kao dezinformacije kada su to informacije namijenjen dezinformirati.

Mogao bih vam reći da je trenutno 10 sati navečer, što je recimo laž jer je stvarno ponoć. Da sam vam 10 sati rekao kao slutnju i da ne pokušavam biti obmana, obično bismo rekli da sam vas pogrešno informirao. Prenio sam dezinformacije. Možda sam bio lijen ili sam možda stvarno vjerovao da je 10 sati. S druge strane, da sam spomenuo 10 sati jer sam vas namjerno htio prevariti da je vrijeme 10 sati i da sam znao da je zapravo ponoć, moglo bi se reći da je to vrsta dezinformacije .

Jedan primjetan aspekt informacija općenito je taj da obično možemo širiti informacije i stoga informacije mogu postati donekle raširene. Informacije doista mogu teći poput vode, u širem smislu.

Kažem vam da je 10 sati navečer. Sada imate tu konkretnu informaciju. Možete naglas viknuti grupi ljudi u blizini da je 10 sati navečer. Sada također imaju te iste podatke. Možda neki od tih ljudi uzmu svoje mobitele i nazovu druge ljude da im kažu da je 10 sati. Sve u svemu, informacije se mogu širiti ili dijeliti i to ponekad tako brzo dok se u drugim slučajevima radi sporo.

U određenom smislu, mogli biste tvrditi da informacije mogu postati viralne.

Postoji skovana riječ ili terminologija koju možda niste baš vidjeli ili koristili, a koja pomaže u opisivanju ovog fenomena širenja informacija, riječ je infodemijska. Ova riječ je kombinacija informacija i epidemije. Uglavnom, infodemija je povezana s okolnostima koje uključuju širenje dezinformacija ili dezinformacija. Ideja je da lažne ili pogrešne informacije mogu postati virusne, nepoželjno, slično neželjenom širenju bolesti ili bolesti.

U primjeru da je bilo 10 sati navečer, ova prividna činjenica bila je informacija koja se proširila grupi ljudi u blizini. Oni su zauzvrat širili tu činjenicu drugima. Ako je 10 sati lažno, onda je ovaj konkretan slučaj dezinformacije ili dezinformacija proširen na mnoge druge. Možda ne znaju da je informacija dezinformacija ili možda dezinformacija.

Vjerujem da se sve te definicije i osnove čine razumnima i da ste se zasad složili.

Super, idemo dalje.

Uveo sam vas pomalo potajno u nešto što izaziva veliku fascinaciju i tjeskobu. Suština je da postoje nedvojbeno razumne paralele između onoga što bolesti čine virusno i onoga što dezinformacije ili dezinformacije čine virusno.

Ne slažu se svi s ovim tvrdim paralelama. Unatoč tome, oni su intrigantni i vrijedni pažnje.

Dopustite mi da elaboriram.

Vidite, možemo pokušati iskoristiti praktičnu analogiju upućivanja na bolesti koje prenose ljudi i bolesti koje se šire, čineći to kako bismo usporedili sličnu mogućnost sa širenjem dezinformacija i dezinformacija. Kako bismo pokušali zaustaviti širenje bolesti, možemo ciljati na rano otkrivanje i nastojanje da obuzdamo pojavu bolesnog izvora ukažemo na potencijalno širenje bolesti. Drugi pristup borbi protiv bolesti koja se širi bio bi zaštita od njezinog dobivanja razboritim korištenjem maske ili zaštitne opreme. Treći pristup mogao bi se sastojati od cijepljenja kako biste pokušali izgraditi svoj imunitet povezan s bolešću.

Sada smo završili puni krug u smislu da se ti isti pristupi suočavanju s bolestima mogu eksplicitno usporediti s suočavanjem s dezinformacijama i dezinformacijama. Ranije sam spomenuo da su u tijeku slični napori za korištenje umjetne inteligencije u svrhu pokušaja suočavanja s dezinformacijama i dezinformacijama, posebice (kao što je ranije spomenuto):

  • Zaustavite se na početku: AI se može koristiti za otkrivanje i pokušaj uklanjanja dezinformacija i dezinformacija prije nego što izađu na vidjelo
  • Filtriranje prije gledanja: AI se može koristiti za filtriranje dezinformacija i dezinformacija tako da se ne morate brinuti hoćete li ih vidjeti
  • Pripremite se da budete imuni: AI se može koristiti za jačanje vaše spremnosti i sposobnosti da se borite s dezinformacijama i dezinformacijama (ponešto službeno poznate kao pružanje neke vrste psihološke cjepiva)
  • drugo

Treći aspekt će ovdje biti od najvećeg interesa.

Evo dogovora.

Znamo da bolesti obično pogađaju ljudsko tijelo. Analogijom o tome kako nastaju dezinformacije i dezinformacije, mogli bismo sugerirati da pogrešne informacije pogađaju ljudski um. Da, vjerojatno možete doći u kontakt s dezinformacijama ili dezinformacijama koje ulaze u vaš um. Dezinformacije ili dezinformacije potencijalno kvare ili truju vaš način razmišljanja.

Ljudsko tijelo može se cijepiti kako bi se pokušalo pripremiti za dolazak u kontakt s bolestima. Postavlja se veliko pitanje možemo li učiniti isto za ljudski um. Je li moguće pokušati cijepiti um tako da kada vam dezinformacija ili dezinformacija padne na pamet da ste spremni za to i da ste cijepljeni u skladu s tim?

Područje studija poznato kao psihološka inokulacija tvrdi da se um doista može cijepiti u smislu da bude spreman nositi se s dezinformacijama ili dezinformacijama.

Razmotrite ovaj opis u nedavnoj istraživačkoj studiji u vezi s psihološkom inokulacijom i onim što se ponekad označava kao djelovanje prebunking:

  • “Otkrivanje dezinformacija također je problematično jer ispravljanje dezinformacija ne poništava uvijek u potpunosti njihove učinke, što je fenomen poznat kao učinak kontinuiranog utjecaja. Sukladno tome, za razliku od razotkrivanja, prebunking je stekao značaj kao sredstvo za preventivnu izgradnju otpornosti na očekivano izlaganje dezinformacijama. Ovaj se pristup obično temelji na teoriji inokulacije. Teorija cijepljenja slijedi analogiju medicinske imunizacije i tvrdi da je moguće izgraditi psihološki otpor protiv neželjenih pokušaja uvjeravanja, slično kao što medicinska cijepljenja grade fiziološki otpor protiv patogena” (Znanost Napredak, 24. kolovoza 2022., “Psihološka inokulacija poboljšava otpornost na dezinformacije na društvenim medijima” koautora Jona Roozenbeeka, Sandera van der Lindena, Beth Goldberg, Stevea Rathjea i Stephana Lewandowskog).

Vraćajući se na moj primjer o vremenu koje je 10 sati navečer, pretpostavimo da sam vam prethodno rekao da ponekad navedeno vrijeme nije stvarno vrijeme. Od sada imate oblik cijepljenja da budete oprezni s navedenim vremenima. Ova vas je inokulacija pripremila za dolazak u kontakt s tvrdim vremenima koja su dezinformacija ili dezinformacija.

Da sam vas prije nekoliko godina upozorio da navedena vremena nisu stvarna vremena, postoji mogućnost da se ne biste sjetili tog davnog upozorenja. Dakle, ranija inokulacija je (da tako kažemo) istrošena. Moje cijepljenje za vas možda treba pojačati.

Također postoji mogućnost da cijepljenje nije bilo dovoljno specifično da biste ga upotrijebili kada je to potrebno. Da sam vas prije nekoliko godina upozorio na navedena vremena u odnosu na stvarna vremena, to bi moglo biti preširoko. Cijepljenje možda neće uspjeti u konkretnom slučaju kada vam je rečeno da je oko 10 sati. U tom smislu, možda je moja inokulacija trebala biti da biste trebali biti oprezni kada se koristi navedeno vrijeme od 10 sati. Naravno, cijepljenja u slučaju bolesti donekle su ista, ponekad su vrlo specifična za poznate bolesti, dok su u drugim slučajevima široka spektra.

Često citirana istraživačka studija koju je 1961. godine proveo William McGuire sa Sveučilišta Columbia o psihološkoj inokulaciji danas se općenito smatra klasikom u ovom području proučavanja. Možda će vam biti zanimljive ove ključne točke koje je iznio u to vrijeme:

  • “Takva generalizirana imunizacija mogla bi proizaći iz bilo kojeg od dva mehanizma. Prethodno izlaganje moglo bi šokirati osobu da shvati da su "istine" koje je oduvijek prihvaćala doista ranjive, izazivajući je tako da razvije obranu svojih uvjerenja, što rezultira time da je otpornija na jake protuargumente kada se pojave. Alternativno, opovrgavanja uključena u prethodno izlaganje mogu učiniti sve naknadno predstavljene protuargumente protiv uvjerenja manje dojmljivima” (William McGuire, “Resistance to Persuasion Confered By Active And Passive Prior Refutation of the Same And Alternative Counterarguments”, Journal of Abnormal and Socijalna psihologija, 1961).

Smatrate li da je ova analogija cijepljenja i imunizacije korisna i prikladna usporedba s područjem dezinformacija i dezinformacija?

Neki da, neki ne.

Za potrebe ove rasprave prihvatite da je premisa razumna i prikladna.

Kako da pokušamo cijepiti ili imunizirati ljudske umove?

Mogli bismo natjerati ljude da čitaju knjige koje bi im mogle prosvijetliti um. Možemo im reći o tome, ili im dati da gledaju video ili slušaju audio vrpce. itd.

I mogli bismo koristiti AI da učinimo isto.

Sustav umjetne inteligencije mogao bi biti vaš inokulator. Kad god počnete ići na internet, kao što je gledanje interneta, aplikacija temeljena na umjetnoj inteligenciji mogla bi vas pripremiti za vaše internetsko putovanje. AI vam može dati malenu količinu dezinformacija koje su označene kao takve, omogućujući vam da shvatite da ćete vidjeti nešto što je namjerno lažno.

Nakon izlaganja ovim dezinformacijama hranjenim umjetnom inteligencijom, vaš se um sada priprema da se nosi s dezinformacijama ili dezinformacijama na koje biste mogli naići u divljini na internetu. Vaš um je spreman. Voila, vidite blog na Internetu koji nudi tvrdnju da su vanzemaljska stvorenja s Marsa već ovdje na zemlji i da se skrivaju naočigled, ali ovu prividnu dezinformaciju ili dezinformaciju vaš um spremno odbacuje zbog prethodne inokulacije (dobro, pa opet, možda je to istina i stvarno su ovdje!).

U svakom slučaju, nadam se da ste sada u stanju razlučiti kako to da umjetna inteligencija može pomoći u cijepljenju ili imunizaciji ljudi u odnosu na dezinformacije ili dezinformacije.

Osmišljavaju se razne AI aplikacije koje će djelovati kao inokulatori dezinformacija ili dezinformacija. AI bi mogao nastojati osigurati inokulaciju koja je široka i pruža opći privid imunizacije. AI se također može osmisliti za specifičnije oblike inokulacije. Nadalje, AI može raditi na personaliziranoj osnovi koja je usklađena s vašim posebnim potrebama ili interesima. Napredna umjetna inteligencija u ovom prostoru također će pokušati odrediti vašu razinu tolerancije, stopu mentalne apsorpcije, sposobnost zadržavanja i druge čimbenike prilikom sastavljanja i predstavljanja takozvanih snimaka imunizacije, kako je bilo.

Čini se prilično zgodnim.

AI kao igrač opasnih umnih igara

Umjetna inteligencija korištena na ovaj način na prvi bi se pogled činila vrlo zgodnom (hej, spomenuo sam to maloprije).

Postoji mnoštvo potencijalnih nedostataka i problema koji su zabrinjavajući i možda strašni.

U svojim kolumnama često raspravljam o dvonamjenskim kapacitetima umjetne inteligencije, pogledajte na primjer link ovdje. AI može biti vitalan doprinos čovječanstvu. Nažalost, AI je također opterećena mnogim opasnostima i nesretnim zamkama.

U slučaju umjetne inteligencije kao pokretača, razmotrimo ova pokazna pitanja povezana s etikom umjetne inteligencije:

  • Neželjene reakcije kod ljudi
  • Reakcije ljudi bez reakcije
  • AI pogrešno ciljanje
  • AI nedovoljno ciljanje
  • Cyber ​​proboj AI-ja
  • drugo

Ukratko ćemo istražiti te nedoumice.

Nuspojave kod ljudi

Pretpostavimo da čovjek koji prima ovu vrstu cijepljenja temeljenog na umjetnoj inteligenciji ima neželjenu reakciju ili proizvodi neželjeni učinak.

Osoba bi mogla pogrešno protumačiti cijepljenje i iznenada postati neosjetljiva na bilo koju informaciju koju dobije. Blokiraju sve informacije. Umjetna inteligencija ih je nekako natjerala da izbace bebu s vodom za kupanje (stara izreka, možda vrijedna povlačenja). Umjesto da se samo pokušava nositi s dezinformacijama i dezinformacijama, osoba je reagirala odlučivši da su sve informacije uvijek lažne.

Mislim da ne želimo da ljudi pretjeraju.

Postoji mnoštvo nuspojava koje AI može potaknuti. To je djelomično zbog načina na koji je umjetna inteligencija pokušala izvršiti cijepljenje, ali također moramo dio problema staviti na noge čovjeka koji je primio cijepljenje. Mogli su reagirati na divlje ili bizarne načine da drugi koji su primili istu AI inokulaciju to nisu učinili.

Opet, ovo možete usporediti s analogijom cijepljenja za bolesti.

Ukratko, bit će važno da se takvi pokušaji umjetne inteligencije koriste na odgovoran način koji nastoji minimizirati štetne učinke. Trebao bi postojati i dodatni aspekt AI kako bi se pokušalo utvrditi je li došlo do nuspojave. Ako postoji otkrivena nuspojava, treba osmisliti AI kako bi pokušao pomoći osobi u njezinoj štetnoj reakciji i nastojao nadvladati ili ublažiti reakciju.

Ljudske reakcije koje ne reagiraju

Druga je mogućnost da inokulacija hranjena AI nema utjecaja na osobu koja prima.

Osoba dobiva cijepljenje temeljeno na umjetnoj inteligenciji povezano s dezinformacijama ili dezinformacijama. Dok većina ljudi "dobije" i postaje imunizirana, sigurno će biti ljudi koji uopće neće reagirati. Ne uče ništa iz cijepljenja. Ne reagiraju na pokušaj umjetne inteligencije da ih imunizira protiv svih ili određenih vrsta dezinformacija ili dezinformacija.

Još jednom, ovo je usporedivo s cijepljenjem za bolesti.

Trebalo bi osmisliti AI da se nosi s takvim okolnostima.

AI pogrešno ciljanje

Zamislite da se umjetna inteligencija nada cijepiti ljude u vezi s određenom temom za koju ćemo reći da je tema X, ali ispada da je tema Y umjesto toga pokrivena. AI pogrešno cilja.

Ovo je dvojak problem. Prvo, tema X tada nije bila pokrivena kao pretpostavljena i očekivana svrha AI inokulatora. Drugo, tema Y je pokrivena, ali možda nismo htjeli da ljudi budu imunizirani na tu temu.

Ups.

Pitanja ima na pretek. Je li se to moglo spriječiti? Ako se dogodi, možemo li poništiti temu Y imunizacije? Možemo li pokušati pokriti temu X cijepljenje ili će osoba biti manje osjetljiva ili neće biti osjetljiva zbog pogrešnog ciljanja od strane AI izvorno?

Pojavljuje se mnogo problematičnih pitanja.

AI nedovoljno ciljanje

AI daje cijepljenje na temu Z. Čini se da ljudi koji primaju cijepljenje imaju minimalnu ili gotovo zanemarivu reakciju. Cijepljenje je bilo nedovoljno da se zaživi.

Možda ćete doći u iskušenje da brzo ustvrdite da se to lako rješava. Sve što trebate učiniti je ponoviti cijepljenje. Možda da, možda ne.

Inokulacija umjetne inteligencije mogla bi imati toliko ograničenu vrijednost da bez obzira na to što su je ljudi doživjeli sto puta, rezultat je još uvijek marginalan ishod. Možda ćete morati pojačati cijepljenje umjesto da ga jednostavno ponavljate.

U međuvremenu, zamislite da se pokušalo pojačati cijepljenje AI-om, ali to je pretjeralo. Pojačana verzija izaziva hiperreakcije. Joj, došli smo s lošeg na gore.

Cyber ​​upad AI

Zamislite da se umjetna inteligencija intenzivno koristi za pomoć ljudima u cijepljenju od dezinformacija i dezinformacija.

Ljudi se opće oslanjaju. Oni znaju i očekuju da će im AI predstaviti isječke koji će im otvoriti oči prema onome što je poznato kao dezinformacije i dezinformacije.

Čini se da je sve lijepo i dobro.

Zločinitelj je nekako u stanju napraviti cyber proboj u AI. Oni krišom ubacuju u AI neke željene dezinformacije za koje žele da ljudi misle da nisu dezinformacije. Umjetna inteligencija je uređena tako da stvarna dezinformacija izgleda kao istinita informacija. Također, prave se informacije prikazuju kao dezinformacije.

Ljudi su potpuno zaluđeni. AI ih dezinformira. Povrh toga, budući da su postali ovisni o umjetnoj inteligenciji i zbog uvjerenja da umjetna inteligencija radi pravu stvar, nasjedaju na udicu, konop i tonuće za ovu probijenu umjetnu inteligenciju. Bez oklijevanja.

S obzirom na to koliko se brzo dezinformacije mogu dalje širiti, zlobnici bi mogli uživati ​​u tome što je postojanje ove vrste umjetne inteligencije njihov najlakši i najbrži način da svoje podmukle laži obiđu svijetom. Ironično, naravno, iskoristivši AI inokulator za širenje bolesti.

Zaključak

Trebamo li AI igrati umne igre s nama?

Može li umjetna inteligencija za dezinformacije i cijepljenje dezinformacija biti prijeteći trojanski konj?

Možete dati značajan argument za zabrinutost zbog takve noćne more.

Drugi se rugaju takvoj mogućnosti. Ljudi su dovoljno pametni da znaju kada ih umjetna inteligencija pokuša prevariti. Ljudi neće nasjesti na takav dribling. Samo bi idioti mogli biti zavedeni takvom umjetnom inteligencijom. To su uobičajene replike i protuargumenti.

Ne želeći se činiti da se potpuno divim ljudima i ljudskoj prirodi, samo bih sugerirao da postoji dovoljno pokazatelja da bi ljudi mogli pasti na AI koja ih dovodi u zabludu.

Postoji još veći problem koji se možda nadvija nad svim ovim.

Tko čini AI i kako AI algoritamski odlučuje što se smatra dezinformacijom i dezinformacijom?

Danas se u cijelom svijetu vodi čitava paljba oko toga što su konkretno dezinformacije i dezinformacije. Neki tvrde da su činjenice činjenice, stoga nikada ne može biti zabune oko toga što su ispravne informacije naspram neispravnih informacija. Vrag je ponekad u detaljima, to je sigurno.

Konačna napomena za sada. Abraham Lincoln je slavno rekao: "Možete prevariti sve ljude neko vrijeme i neke od ljudi cijelo vrijeme, ali ne možete prevariti sve ljude cijelo vrijeme."

Hoće li umjetna inteligencija koja se koristi za pomoć u cijepljenju čovječanstva od dezinformacija i dezinformacija biti vitalni alat za osiguranje da se svi ljudi ne mogu stalno prevariti? Ili bi se to možda koristilo da se veći dio ljudi prevari?

Vrijeme će pokazati.

I to sigurno nije nikakva dezinformacija niti dezinformacija.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/