Etika umjetne inteligencije ljuta zbog rastućeg sindroma vrućeg krumpira koji koriste proizvođači umjetne inteligencije koji naizgled pokušavaju izbjeći odgovornost za svoje autonomne sustave koji odlučuju o životu

Svi znamo da se morate pobrinuti da ne završite s poslovično vrućim krumpirom.

Čini se da gambit vrućeg krumpira vuče korijene barem iz kasnih 1800-ih kada je salonska igra koja uključuje upaljene svijeće nekako pokrenula loptu. Ljudi bi obično sjedili u nizu drvenih stolaca koji su bili relativno blizu jedan drugome i igrali bi uzbudljivu igru ​​u to doba. Upaljenu svijeću igrači bi predavali od osobe do osobe i predstavljala je ono što smo kasnije odlučili nazvati predajom vrući krumpir.

Bio je običaj da se od svake osobe traži da naglas izgovori popularnu pjesmicu prije nego što može proći pored svijeće koja je postupno gorjela. Rima je izgleda izgledala ovako:

»Jack je živ i vjerojatno će preživjeti;

Ako on umre u tvojoj ruci, moraš dati gubitak.”

Ovaj rimovani recital bi vjerojatno omogućio svijeći malo vremena da nastavi gorjeti do konačnog završetka. Tko god je zapeo sa svijećom u svom posjedu nakon prirodnog gašenja na kraju, izgubio je utakmicu (igra riječi!).

Prema riječima navedenim u pjesmici, gubitnik je morao platiti "gubljenje" i stoga je obično morao izaći iz svih daljnjih rundi igre. To bi se zatim moglo kombinirati s onim što danas smatramo svakodnevnim glazbenim stolcima, tako da osoba koja je izgubila rundu više ne bi sudjelovala u sljedećim rundama (kao da je glazba prestala i nisu mogli dobiti slobodno mjesto). Na kraju bi ostalo samo dvoje ljudi koji bi prošli kraj upaljene svijeće i izgovorili pjesmicu, sve dok se konačni pobjednik ne bi odredio u konačnom gašenju.

Možda se pitate zašto više ne igramo ovu igru ​​s upaljenom svijećom i zašto umjesto toga to obično nazivamo vrućim krumpirom umjesto da to prikazujemo kao shemu "upaljene svijeće". Istraživači su došli do mnogih teorija o tome kako se to postupno dogodilo. Povijest se čini mutnom i neodlučnom o tome kako su se stvari razvijale po ovom pitanju. Pretpostavljam da možemo odahnuti što se upaljene svijeće obično ne koriste na ovaj način jer bi se vjerojatnost da nešto pođe po zlu činila izrazito zabrinjavajućom (netko ispusti svijeću i zapali vatru ili se netko opeče od svijeće kada mu se pruži od drugog igrača itd.).

Što se tiče vrućeg krumpira kao potencijalne zamjene za upaljenu svijeću, općenito se može reći da će krumpir općenito biti donekle sigurniji. Bez otvorenog plamena. Bez topljenja voska. Potencijalna osnova za korištenje krumpira u ovom kontekstu je činjenica da je poznato da lako zadržava toplinu nakon što se zagrije. Krumpir možete propasirati i on će neko vrijeme ostati vruć. Pretpostavlja se da bi odluka o tome kada vrući krumpir više nije vruć i umjesto toga se ocjenjuje kao hladan bila vrlo diskutabilna tvrdnja.

Naravno, pojam poslovičnog vrućeg krumpira ovih je dana više samostalan. Sve što je ocijenjeno ili rangirano kao vrući krumpir obično je kvalitetno koje se ozbiljno treba riješiti. Ne želite držati vruć krumpir. Želite biti sigurni da ide negdje drugdje. Do određenog stupnja, možda se nećete previše zabrinjavati oko toga kamo ide, jednostavno više nije u vašem posjedu.

Činili biste se prilično bešćutnim da potencijalno date vrući krumpir dragom prijatelju ili sličnom poznaniku. Ovo bi se činilo potpuno neprikladnim. Možda nađete nekog drugog ili negdje drugdje da stavite taj vrući krumpir, ako možete. Očajnički potez mogao bi biti natjerati vrući krumpir na ljubaznog kolegu, ali to se, nadamo se, čini samo u krajnjem slučaju.

Druga strana tog novčića je da biste mogli uživati ​​u davanju vrućeg krumpira nekome tko vam se ne sviđa ili kome se želite osvetiti. Naravno, vrući krumpir može biti gotovo veličanstveno zgodan ako namjeravate potkopati osobu koja se prema vama loše ponašala. Neka smisle što će učiniti s vrućim krumpirom. Sretno za krumpir i najgore za osobu s kojom ste ga označili.

U scenariju vrućeg krumpira koji uključuje samo dvoje ljudi, postoji mogućnost brze svađe naprijed-nazad oko toga koja osoba drži neukusan i nepoželjan predmet. Na primjer, ja tebi predam vrući krumpir, a ti mi ga žurno vratiš. Pod pretpostavkom da ne trebamo najavljivati ​​dječju pjesmicu između svake primopredaje, možemo prilično jednostavno proslijediti krumpir onoliko brzo koliko nam naše ruke to dopuštaju.

Možda ćete biti znatiželjni zašto sam se odlučio duboko zaroniti u cijenjeni i često citirani vrući krumpir.

Evo zašto.

Ispostavilo se da se krinka vrućeg krumpira sve više koristi u području umjetne inteligencije (AI).

Većina ljudi ne zna ništa o tome. Nikada nisu čuli za to. Oni su potpuno nesvjesni što je to. Čak ni mnogi programeri umjetne inteligencije nisu svjesni toga. Unatoč tome, postoji i čini se da se koristi u vrlo upitnim okolnostima, posebno u slučajevima kada se radi o okolnostima života ili smrti.

To nazivam AI Sindrom vrućeg krumpira.

Mnogo je ozbiljnih posljedica koje leže u pozadini ovog sindroma i moramo se pobrinuti da stavimo svoje etičke okvire razmišljanja o umjetnoj inteligenciji i razmotrimo što bi trebalo učiniti. Postoje otrežnjujuća etička razmatranja. Sigurno će biti i značajnih pravnih implikacija (koje još nisu dosegle društvenu vidljivost, iako predviđam da će uskoro biti). Za moje tekuće i opsežno pokrivanje AI etike, etičke AI pitanja i pravnih AI pitanja, pogledajte link ovdje i link ovdje, Samo da spomenemo nekoliko.

Raspakirajmo se AI sindrom vrućeg krumpira.

Zamislite AI sustav koji radi zajedno s čovjekom. Umjetna inteligencija i čovjek prenose kontrolu nad nekim aktivnostima koje su u tijeku, tako da ponekad kontrolira čovjek, a ponekad AI. To bi se u početku moglo učiniti na, da kažemo, dobro odgojen ili razuman način. Iz raznih razloga, u koje ćemo se odmah pozabaviti, umjetna inteligencija bi mogla računalno utvrditi da kontrolu treba žurno prenijeti na čovjeka.

To je vrući krumpir koja dolazi do ugrožavanja života u stvarnom svijetu, a ne samo da služi kao poučna dječja igra.

Problem s užurbanim prijenosom kontrole s umjetne inteligencije na čovjeka je u tome što se to može učiniti na razuman način ili se može postići na prilično nerazuman način. Ako čovjek ne očekuje posebno primopredaju, to je vjerojatno problem. Ako je čovjek općenito u redu s prenošenjem kontrole, okolnosti koje stoje u pozadini primopredaje mogu biti zastrašujuće kada čovjeku nije dano dovoljno vremena ili nije dovoljno svjestan zašto se kontrola na silu daje u njegove ljudske ruke.

Istražit ćemo primjere kako to može proizvesti životnu ili smrtnu opasnost za ljude i moguće druge ljude u blizini. To je ozbiljna stvar. Točka, točka.

Prije nego što uđemo u još neke od mesnatih aspekata divljeg i vunenog razmatranja koja se nalaze u podlozi AI sindrom vrućeg krumpira, izložimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno u pojavu strojnog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da je jedan od najglasnijih glasova ovih dana u području AI, pa čak i izvan polja AI-a, traženje većeg privida etičke AI. Pogledajmo što znači upućivanje na etiku umjetne inteligencije i etičku umjetnu inteligenciju. Povrh toga, istražit ćemo što mislim kada govorim o strojnom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da su “samo koderi” ili oni koji programiraju AI podložni poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na vrući krumpir i njegovu potencijalno katastrofalnu upotrebu u umjetnoj inteligenciji. Postoji i vragolija koja može vrebati i unutar smicalice s vrućim krumpirom.

Kao kratki rezime o AI manifestaciji gambita vrućeg krumpira:

  • AI i čovjek u petlji zajednički rade na zadanom zadatku
  • AI ima kontrolu dio vremena
  • Čovjek u petlji ima kontrolu dio vremena
  • Postoji neki oblik protokola prijenosa između umjetne inteligencije i čovjeka
  • Handoff može biti vrlo vidljiv ili može biti suptilan i gotovo skriven
  • Sve je to obično u kontekstu stvarnog vremena (nešto je aktivno u tijeku)

Primarni fokus ovdje je kada je primopredaja u biti vruć krumpir i AI odluči iznenada predati kontrolu čovjeku. Imajte na umu da ću kasnije u ovom tekstu obraditi i drugi aspekt, naime ljudsko prepuštanje kontrole AI-ju kao vrući krumpir.

Prvo, razmislite što se može dogoditi kada umjetna inteligencija izvrši predaju vrućih krumpirića čovjeku u petlji.

O čovjeku ću govoriti kao o čovjeku u petlji jer kažem da je čovjek već dio i čestica radne aktivnosti koja je u tijeku. Mogli bismo imati druge scenarije u kojima čovjeku koji nije bio posebno uključen u aktivnost, možda strancu u cijeloj stvari, AI preda vrući krumpir, stoga imajte na umu da postoje i drugi okusi ovog miljea.

Da vam predajem vrući krumpir i želim to učiniti na razuman način, možda bih vas upozorio da ću vam predati stvari. Nadalje, pokušao bih to učiniti kad bih istinski vjerovao da je to što ti posjeduješ vrući krumpir općenito bolje nego što ga ja imam. U mislima bih izračunao trebaš li ti to imati ili bih ja trebao nastaviti s tim.

Zamislite košarkašku utakmicu. Ti i ja smo u istom timu. Nadamo se da radimo zajedno kako bismo pokušali pobijediti u igri. Ostalo je još samo nekoliko sekundi na satu i očajnički moramo zabiti, inače ćemo izgubiti utakmicu. Dolazim u poziciju za posljednji udarac. Trebam li to učiniti ili da dodam loptu tebi i da ti zadaš posljednji udarac?

Ako sam bolji košarkaš i imam veću šansu da potopim šut, vjerojatno bih trebao zadržati košarkašku loptu i pokušati šutirati. Ako si bolji košarkaš od mene, vjerojatno bih ti trebao dodati loptu i pustiti te da šutneš. Ostala razmatranja dolaze u prvi plan, kao što je tko je od nas u boljoj poziciji na terenu da izvede udarac, plus je li netko od nas iscrpljen jer je utakmica skoro gotova i možda je istrošen i nije na visini njihovo strijeljanje. itd.

Uz sve te čimbenike usred mučnog trenutka, moram odlučiti hoću li zadržati loptu ili je dodati tebi.

Dobro shvatite da je u ovom scenariju sat ključan. I ti i ja smo suočeni s izuzetno pravodobnim odgovorom. Sada je cijela utakmica na kocki. Kad sat istekne, ili smo pobijedili jer je netko od nas pogodio, ili smo izgubili jer ga nismo potopili. Možda bih mogao biti heroj ako potopim koš. Ili bi ti mogao biti heroj ako ti dodam loptu, a ti je potopiš.

Ovo ima i lošu stranu ili loše strane. Ako zadržim loptu i promašim šut, svi bi me mogli optužiti da sam jarac ili da sam iznevjerio cijelu momčad. S druge strane, ako ti dodam loptu, a ti promašiš šut, pa, postaješ jarac. Ovo bi moglo biti potpuno nepravedno prema tebi jer sam te prisilio da budeš zadnji strijelac i da zadnji pucaš.

Definitivno biste znali da sam vas doveo u tu neugodnu poziciju. I premda su me svi mogli vidjeti kako to radim, oni će se koncentrirati samo na posljednju osobu koja je imala loptu. Moguće bih slobodno klizao. Nitko se ne bi sjetio da sam ti dodao loptu u zadnji čas. Sjetili bi se samo da si imao loptu i izgubio utakmicu jer nisi pogodio.

U redu, prebacujem loptu na tebe.

Zašto sam to učinio?

Ne postoji jednostavan način da se to utvrdi.

Moje prave namjere mogle bi biti da nisam želio zaglaviti kao koza, pa sam odlučio sav pritisak staviti na tebe. Na pitanje zašto sam dodao loptu, mogao bih reći da sam to učinio jer sam mislio da si ti bolji strijelac od mene (ali, hajde da se pravimo da u to uopće ne vjerujem). Ili sam ja mislio da si ti u boljem položaju od mene (ajmo se pretvarati da ni to nisam mislio). Nitko nikad ne bi znao da sam zapravo samo pokušavao izbjeći da zaglavim s vrućim krumpirom.

Iz vanjskog pogleda na stvari, nitko nije mogao lako razabrati moje pravo obrazloženje zašto sam loptu prebacio na vas. Možda sam to nedužno učinio jer sam vjerovao da si ti bolji igrač. To je jedan kut. Možda sam to učinio jer nisam želio da me svi nazivaju gubitnikom zbog mogućeg promašenog šuta, pa sam vam dao loptu i zaključio da je to veliko olakšanje za mene. Je li mi doista bilo stalo do tebe je sasvim druga stvar.

Sada možemo dodati još neke pojedinosti vrućem krumpiru povezanom s umjetnom inteligencijom:

  • AI odlučuje prepustiti kontrolu čovjeku u petlji u posljednjem trenutku
  • Posljednji trenutak možda je već daleko od bilo kakve ljudske održive akcije
  • Čovjek u petlji ima kontrolu, ali pomalo lažno zbog vremena primopredaje

Razmislite o ovome na trenutak.

Pretpostavimo da AI sustav i čovjek u petlji rade zajedno na zadatku u stvarnom vremenu koji uključuje pokretanje velikog stroja u tvornici. Umjetna inteligencija otkriva da strojevi rade po zlu. Umjesto da AI nastavi zadržati kontrolu, AI naglo predaje kontrolu čovjeku. Strojevi u ovoj tvornici brzo idu prema čistom haosu i nema vremena da ljudi poduzmu korektivne radnje.

Umjetna inteligencija predala je vrući krumpir čovjeku-u-petlji i zaglavila čovjeka pravim vrućim krumpirom tako da se ljudske okolnosti više ne mogu nositi s njima. Tag, ti si to, ide starim stilom kada ste igrali igre s oznakama kao dijete. Čovjek je, da tako kažemo, obilježen neredom.

Baš kao moj primjer o košarkaškoj utakmici.

Zašto je umjetna inteligencija izvršila primopredaju?

Pa, za razliku od situacije kad čovjek naglo preda košarkašku loptu, a zatim mahne rukom o tome zašto je to učinio, obično možemo ispitati programiranje umjetne inteligencije i shvatiti što je dovelo do toga da umjetna inteligencija izvrši ovakvu predaju vrućih krumpirića.

Razvojni programer umjetne inteligencije mogao je unaprijed odlučiti da bi, kada AI zapadne u stvarno lošu situaciju, trebao nastaviti s prepuštanjem kontrole čovjeku u petlji. Ovo se čini savršeno razumnim i razumnim. Čovjek bi mogao biti "bolji igrač" na terenu. Ljudi mogu koristiti svoje kognitivne sposobnosti da potencijalno riješe bilo koji problem koji im je pri ruci. AI je vjerojatno dosegao granice svog programiranja i ne postoji ništa drugo konstruktivno što može učiniti u ovoj situaciji.

Ako je umjetna inteligencija izvršila primopredaju s minutom preostalom prije nego što je stroj krenuo, možda je minuta heads-up dovoljno duga da čovjek-u-petlji može ispraviti stvari. Pretpostavimo ipak da je umjetna inteligencija obavila primopredaju s tri sekunde do kraja. Mislite li da bi čovjek mogao reagirati u tom roku? Malo vjerojatno. U svakom slučaju, samo da stvari budu još manje zapetljane, pretpostavimo da se predaja čovjeku u petlji dogodila s nekoliko nanosekundi do kraja (nanosekunda je milijardni dio sekunde, što je u usporedbi s brzim treptajem oko je tromo dugo 300 milisekundi).

Bi li čovjek u petlji mogao dovoljno reagirati ako je AI predao vrući krumpir s malim preostalim djelićima sekunde za poduzimanje bilo kakve otvorene radnje?

Ne.

Predaja je više laž nego što bi se inače moglo činiti.

U stvarnosti, primopredaja neće donijeti ništa dobro kada je u pitanju teška situacija. AI je prignječila čovjeka da postane koza.

Neki AI programeri ne razmišljaju o tome kada osmišljavaju svoju AI. Oni (pogrešno) blaženo ne uzimaju u obzir da je vrijeme presudan faktor. Sve što rade je da programiraju primopredaju kada stvari postanu teške. Kada umjetna inteligencija više nema ništa što bi mogla učiniti konstruktivno, baci loptu ljudskom igraču.

Razvojni programeri umjetne inteligencije mogli bi propustiti posvetiti ikakvo posvećeno razmišljanje o tome u vrijeme kodiranja AI-a, a onda često dvostruko pogriješe jer ne provedu testiranje koje bi to iznijelo na vidjelo. Sve što njihovo testiranje pokazuje jest da je umjetna inteligencija "poslušno" izvršila handoff kada su dostignuta ograničenja umjetne inteligencije. Voila, pretpostavlja se da je AI dobar i spreman za rad. Testiranje nije uključivalo stvarnog čovjeka koji je stavljen u tu nezavidnu i nemoguću poziciju. Nije postojao ispravan proces testiranja s ljudima u petlji koji bi mogao prosvjedovati da im je taj prijenos treptajem oka u posljednjem trenutku, ili zapravo nakon posljednjeg trenutka, učinio malo ili nimalo dobro.

Naravno, neki programeri umjetne inteligencije pronicljivo će razmotriti ovu vrstu nevolje, i to mudro.

Nakon razmišljanja o zagonetki, nastavit će s programiranjem umjetne inteligencije da svejedno djeluje na ovaj način.

Zašto?

Jer nema što drugo raditi, barem u njihovim mislima. Kad sve drugo zakaže, prepustite kontrolu čovjeku. Možda se dogodi čudo. Suština je ipak da se to ne tiče razvijača umjetne inteligencije i da čovjeku daju posljednju priliku da se nosi s neredom koji mu je pri ruci. Programer AI pere ruke od svega što se dogodi nakon toga.

Želim pojasniti da AI programeri nisu jedini kreatori ovih vrućih dizajna. Postoji mnoštvo drugih dionika koji dolaze za stol zbog toga. Možda je analitičar sustava koji je radio analizu specifikacija i zahtjeva rekao da je to ono što AI treba raditi. Uključeni AI programeri izradili su AI u skladu s tim. Voditelj projekta AI možda je ovo smislio. Rukovoditelji i menadžment koji nadziru razvoj umjetne inteligencije možda su ovo smislili.

Svatko je kroz cijeli životni ciklus razvoja umjetne inteligencije mogao prenijeti isti dizajn vrućeg krumpira. Je li to netko primijetio, ne možemo sa sigurnošću reći. Da su primijetili, oni bi mogli biti označeni kao skeptičari i izbačeni u stranu. Drugima se možda skrenula pozornost na stvar, ali nisu shvaćali posljedice. Smatrali su da je riječ o tehničkoj sitnici koja nije u njihovom djelokrugu.

Dodat ću ovom neformalnom popisu "razloga" jednu mnogo opakiju mogućnost.

Sindrom vrućeg krumpira umjetne inteligencije ponekad se namjerno koristi jer su oni koji stvaraju umjetnu inteligenciju željeli imati svoju strastvenu tvrdnju o prihvatljivom poricanju.

Pripremite se za ovaj dio priče.

U slučaju tvorničkih strojeva koji se poremete, morat će se puno upirati prstom o tome tko je odgovoran za ono što se dogodilo. Što se tiče upravljanja strojevima, imali smo AI sustav koji je to radio i imali smo čovjeka u petlji koji je to radio. To su naša dva košarkaša, metaforički.

Sat je tekao, a strojevi su bili na rubu kvara. Recimo da vi i ja znamo da je AI izvršio primopredaju čovjeku u petlji, čineći to bez dovoljno vremena da čovjek poduzme bilo kakvu dovoljnu radnju da ispravi ili izbjegne katastrofu. Nitko drugi ne shvaća da se to dogodilo.

Tvrtka koja proizvodi AI može u svakom slučaju odmah izjaviti da nije kriva jer je čovjek imao kontrolu. Prema njihovim besprijekornim zapisima, AI nije imao kontrolu u vrijeme kabooma. Ljudsko je bilo. Dakle, jasno je da je čovjek kriv.

Laže li tvrtka AI u osnovi kada iznosi ovu otvorenu tvrdnju?

Ne, čini se da govore istinu.

Na pitanje jesu li sigurni da AI nije kontrolirao, tvrtka bi glasno i ponosno izjavila da AI uopće nije kontrolirao. Imaju dokumentirane dokaze za ovu tvrdnju (pod pretpostavkom da je umjetna inteligencija vodila dnevnik incidenta). Zapravo, čelnici AI tvrtke mogli bi podići obrve s gnušanjem što bi itko mogao osporiti njihov integritet po ovom pitanju. Bili bi spremni zakleti se svojom svetom zakletvom da AI jest ne u kontroli. Čovjek u petlji imao je kontrolu.

Vjerujem da shvaćate koliko ovo može dovesti u zabludu.

Da, čovjeku je predana kontrola. U teoriji, čovjek je imao kontrolu. AI više nije imao kontrolu. Ali nedostatak dostupnog vremena i obavijesti uvelike čini ovu tvrdnju krajnje šupljom.

Ljepota ovoga, iz perspektive proizvođača umjetne inteligencije, bila bi u tome što bi malo tko mogao osporiti ponuđene tvrdnje. Proizvođač umjetne inteligencije možda neće objaviti zapisnike incidenta. To bi moglo odati namještenu situaciju. Tvrdi se da su zapisnici intelektualno vlasništvo (IP) ili na neki drugi način vlasničke i povjerljive prirode. Tvrtka bi vjerojatno tvrdila da bi, ako bi se prikazali zapisnici, to pokazalo tajni umak njihove umjetne inteligencije i iscrpilo ​​njihov cijenjeni IP.

Zamislite nevolju jadnog čovjeka u krugu. Zbunjeni su što ih svi krive da su stvari izmakle kontroli. AI je "učinio pravu stvar" i prepustio kontrolu ljudima. To je moglo biti ono što su specifikacije rekle da treba učiniti (i opet, specifikacije su bile neispravne jer nisu uzele u obzir faktore vremena i izvedivosti). Dnevnici koji nisu objavljeni, ali za koje tvorac umjetne inteligencije tvrdi da su oklopni, potvrđuju apsolutnu činjenicu da je AI dao kontrolu čovjeku.

Mogli biste ovo proglasiti jadnim zakucavanjem zbunjenog čovjeka koji će gotovo sigurno pasti.

Izgledi su da će stvarnost onoga što se dogodilo biti otkrivena samo ako ovo dođe do suda. Ako su lukavi legalni beagleovi svjesni ove vrste svirke, pokušali bi legalno doći do logova. Trebali bi dobiti vještaka (nešto što sam ja radio s vremena na vrijeme) da dešifriraju zapise. Samo cjepanice možda neće biti dovoljne. Zapisi mogu biti ispravljeni ili izmijenjeni ili namjerno osmišljeni da ne prikazuju detalje jasno. Kao takav, možda će se također trebati proniknuti u AI kod.

U međuvremenu, tijekom cijelog ovog mučnog i dugotrajnog procesa pravnog otkrivanja, čovjek-u-petlji izgledao bi jako loše. Mediji bi tu osobu opisali kao neodgovornu, izgubljenu glavu, nerevnu i trebala bi biti potpuno odgovorna. Moguće da bi mjesecima ili godinama, tijekom ovog procesa, ta osoba i dalje bila ona u koju su svi optužujuće upirali prstom. Smrad se možda nikada neće ukloniti.

Također imajte na umu da bi se ista okolnost lako mogla ponoviti. I opet. Pod pretpostavkom da proizvođač umjetne inteligencije nije promijenio AI, kad god se pojavi slična situacija u zadnjem trenutku, AI će izvršiti taj prijenos bez preostalog vremena. Moglo bi se nadati da se ovakve situacije ne događaju često. U rijetkim prilikama u kojima se dogodi, čovjek u petlji još uvijek je zgodan tip za padanje.

To je đavolski trik.

Možda želite inzistirati na tome da proizvođač umjetne inteligencije nije učinio ništa loše. Oni govore istinu. AI je prepustio kontrolu. Tada se smatralo da čovjek ima kontrolu. To su činjenice. Nema smisla osporavati.

Bilo da se netko opametio i postavio teška pitanja, plus hoće li proizvođač umjetne inteligencije odgovoriti na ta pitanja na bilo koji jednostavan način, ovo je nešto što se čini rijetko događa.

Pitanja uključuju:

  • Kada je umjetna inteligencija izvršila primopredaju čovjeku u petlji?
  • Na kojoj je programiranoj osnovi AI izvršio primopredaju?
  • Je li čovjeku u petlji dano dovoljno vremena da preuzme kontrolu?
  • Kako je umjetna inteligencija dizajnirana i osmišljena za te nedoumice?
  • I tako dalje.

Do neke mjere, to je razlog zašto je etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Pravila AI Etike tjeraju nas da ostanemo budni. AI tehnolozi ponekad mogu biti zaokupljeni tehnologijom, osobito optimizacijom visoke tehnologije. Oni ne uzimaju u obzir nužno veće društvene posljedice. Imati način razmišljanja o etičkoj inteligenciji i činiti to integralno za razvoj i primjenu umjetne inteligencije ključno je za proizvodnju odgovarajuće umjetne inteligencije, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji tvrtke usvajaju etiku umjetne inteligencije.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Zapravo, oni upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

U ovom trenutku ove teške rasprave, kladio bih se da ste željni nekih dodatnih ilustrativnih primjera koji bi mogli prikazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realne primjere koji prikazuju dileme etičke inteligencije kako bi se donekle teorijska priroda teme mogla lakše shvatiti. Jedno od najekzivnijih područja koje zorno predstavlja ovu etičku dilemu umjetne inteligencije je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj ili primjer za široku raspravu o temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji išta o sindromu vrućeg krumpira s umjetnom inteligencijom, i ako jest, što to pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Samovozeći automobili i AI sindrom vrućeg krumpira

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću ispričati.

Za potpuno autonomna vozila možda neće biti nikakve šanse da dođe do primopredaje između umjetne inteligencije i čovjeka, zbog mogućnosti da ne postoji niti jedan čovjek u petlji za početak. Težnja mnogih današnjih proizvođača samovozećih automobila je potpuno uklanjanje ljudskog vozača iz zadatka vožnje. Vozilo čak neće sadržavati upravljačke jedinice dostupne ljudima. U tom slučaju, ljudski vozač, ako je prisutan, neće moći sudjelovati u zadatku vožnje jer nema pristup bilo kakvim kontrolama vožnje.

Za neka potpuno autonomna vozila, neki dizajni još uvijek dopuštaju da čovjek bude u krugu, iako čovjek uopće ne mora biti dostupan ili sudjelovati u procesu vožnje. Dakle, čovjek može sudjelovati u vožnji, ako to želi. Ipak, AI se ni u jednom trenutku ne oslanja na čovjeka za obavljanje bilo kojeg zadatka vožnje.

U slučaju poluautonomnih vozila, postoji odnos ruku pod ruku između ljudskog vozača i umjetne inteligencije. Za neke dizajne, ljudski vozač može u potpunosti preuzeti kontrolu vožnje i u biti spriječiti AI da sudjeluje u vožnji. Ako ljudski vozač želi vratiti AI u ulogu vožnje, može to učiniti, iako to onda ponekad prisiljava čovjeka da se odrekne upravljanja vožnjom.

Drugi oblik polu-autonomnog rada podrazumijevao bi ljudski vozač i AI koji rade zajedno na timski način. AI vozi i čovjek vozi. Voze se zajedno. AI bi se mogla povinovati čovjeku. Čovjek bi se mogao prepustiti AI.

U nekom trenutku, AI sustav za vožnju mogao bi računalno utvrditi da se samovozeći automobil nalazi u neodrživoj situaciji i da će se autonomno vozilo sudariti.

Na stranu, neki stručnjaci kruže okolo i tvrde da se samovozeći automobili neće moći srušiti, što je čista besmislica i nečuvena i pogrešna stvar, pogledajte moje izvješće na link ovdje.

Nastavljajući scenarij samovozećeg automobila koji ide prema sudaru ili automobilskoj nesreći, sustav za vožnju AI može biti programiran da brzo preda upravljanje vožnjom ljudskom vozaču. Ako postoji dovoljno vremena za ljudskog vozača da poduzme akciju izbjegavanja, to bi doista moglo biti razumno i ispravno za AI.

Ali pretpostavimo da umjetna inteligencija obavi primopredaju s djelićem sekunde do kraja. Vrijeme reakcije ljudskog vozača nije ni blizu dovoljno brzo za adekvatan odgovor. Osim toga, ako je nekim čudom čovjek bio dovoljno brz, izgledi su da ne postoje održive radnje izbjegavanja koje se mogu poduzeti s ograničenim vremenom preostalim prije pada. Ovo je dvojako: (1) nedovoljno vremena za ljudskog vozača da poduzme radnju, (2) nedovoljno vremena da, ako je ljudskom vozaču bilo moguće djelovati, radnja se može izvršiti u manjkavom vremenu koje je predviđeno.

Sve u svemu, ovo je slično mojoj ranijoj raspravi o situaciji s košarkaškom zujalicom i scenariju tvorničkih strojeva koji su poludjeli.

Dodajmo ovome opaki sastojak.

Proizvođač automobila ili tehnološka tvrtka za samovozeće automobile ne želi biti označen raznim prometnim nesrećama koje su se događale u njihovoj floti. Sustav vožnje s umjetnom inteligencijom programiran je da uvijek prepusti kontrolu ljudskom vozaču, bez obzira na to ima li dovoljno vremena da ljudski vozač učini bilo što u vezi s teškoćom. Kad god se dogodi sudar ove vrste, proizvođač automobila ili tehnološka tvrtka za samovozeće automobile može glasno inzistirati da je ljudski vozač bio za komandama, dok AI nije.

Čini se da su njihovi rezultati za sustave vožnje s umjetnom inteligencijom sjajni.

Nijednom sustav za vožnju AI nije "kriv" za ove automobilske nesreće. Čini se da uvijek ti prokleti ljudski vozači ne drže pogled na cesti. Možda bismo bili skloni progutati ovu blamažu i vjerovati da potpuno precizna umjetna inteligencija vjerojatno nikada ne griješi. Možda smo skloni vjerovati (budući da znamo iz iskustva) da su ljudski vozači aljkavi i da rade gomilu pogrešaka u vožnji. Logičan zaključak je da su ljudski vozači odgovorni, a da je AI sustav vožnje potpuno nevin.

Prije nego što se neki zagovornici samovožnje uzrujaju zbog ove karakterizacije, priznajmo da je ljudski vozač vrlo vjerojatno kriv i da su trebali poduzeti mjere ranije, poput preuzimanja upravljanja vožnjom od umjetne inteligencije. Također postoji šansa da je ljudski vozač mogao učiniti nešto značajno kada je umjetna inteligencija predala upravljanje vožnjom. itd.

Fokus je ovdje bio na okolnostima u kojima se AI smatrao vozačem vozila, a zatim naglo i s malo pozornosti na ono što bi ljudski vozač mogao učiniti, baca vrući krumpir ljudskom vozaču. To je i razlog zašto su mnogi zabrinuti zbog dvojne uloge poluautonomnih vozila u vožnji. Mogli biste reći da je previše vozača za volanom. Čini se da bi cilj bio riješiti problem potpuno autonomnim vozilima kojima ne treba čovjek za volanom, a AI uvijek upravlja vozilom.

Ovo dovodi do srodnog pitanja o tome što ili tko je odgovoran kada AI vozi, o čemu sam se mnogo puta pozabavio u svojim kolumnama, kao što je link ovdje i link ovdje.

Zaključak

Moramo biti oprezni kada slušamo ili čitamo o prometnim nesrećama u kojima su sudjelovala poluautonomna vozila. Budite oprezni s onima koji nas pokušavaju prevariti objavljujući da njihov AI sustav vožnje ima besprijekornu evidenciju. Podvorna smicalica AI sindrom vrućeg krumpira može biti u kombinaciji.

Za tvrtke koje pokušavaju biti lukave u ovim stvarima, možda možemo zadržati blizu srca poznatu rečenicu Abrahama Lincolna: "Možete prevariti sve ljude neko vrijeme i neke od ljudi cijelo vrijeme, ali ne možete prevariti svi ljudi cijelo vrijeme.”

Pokušao sam ovdje otkriti magiju umjetne inteligencije skrivenu iza zaslona i ponekad smještenu ispod haube, koju sam razjasnio kako bi više ljudi neće biti prevaren više vremena.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- naizgled-pokušavaju-izbjeći-odgovornost-za-svoj-život-odlučujući-autonomni-sustavi/