Lekcije AI etike i autonomnih sustava izvučene iz onog nedavnog leta Alaska Airlinesa u kojem se pilot i kopilot nisu složili prije polijetanja i naglo su odlučili taksirati natrag do terminala i ići svojim putovima

Zračni prijevoznici su u posljednje vrijeme dosta u vijestima.

Nalazimo se u ljetnoj gužvi letova. Umorni i frustrirani putnici suočeni su sa svim vrstama prekida letova i nepravilnostima u rasporedu letova. Letovi se neočekivano otkazuju. Letovi kasne. Dimljenje putnika. Nažalost, bilo je mnogo slučajeva u kojima su putnici dopuštali erupciju ovih ozlojeđenosti, a vidjeli smo i previše viralnih videozapisa sukoba glava u glavu, a ponekad i tučnjava šakama.

Rjeđe saznajemo za nesporazume između pilota i kopilota koji se mogu dogoditi dok su u kokpitu.

To je pravo iznenađenje.

Doista, prirodno smo zatečeni kada pomislimo da bi pilot i kopilot imali bilo kakav privid ozbiljnog neslaganja tijekom bilo koje faze leta. Ako se neslaganje odnosi na to koja je marka kave najbolja, naša je pretpostavka da to ne bi ometalo radni napor koji uključuje upravljanje avionom. Njih dvoje bi jednostavno slegnuli ramenima zbog nedostatka oči u oči o naizgled nevažnoj temi za let. Njihovo profesionalno držanje i dugogodišnja pilotska obuka proradili bi i ponovno bi se usredotočili na pojedinosti leta.

Ipak, razmislite kada a profesionalno neslaganje intervenira.

Ukratko ću s vama podijeliti vijest koja je široko objavljena o nedavnom slučaju nečega što se dogodilo tijekom leta u SAD-u, a odnosi se na navodno profesionalno neslaganje u kokpitu.

Ovo se ovdje uglavnom navodi kako bismo mogli istražiti povezanu temu koja je od velike važnosti za pojavu umjetne inteligencije (AI). Vidite, može postojati oblik, da tako kažemo, profesionalnog neslaganja između ne samo ljudi u neslaganju između ljudi, već se također može dogoditi nešto slično usred usvajanja umjetne inteligencije i ergo rezultirajućih profesionalnih neslaganja između ljudi i umjetne inteligencije . Pojavljuju se razna razmatranja etičke inteligencije. Za moje opsežno i kontinuirano izvještavanje o etici umjetne inteligencije i etičkim pitanjima umjetne inteligencije, pogledajte link ovdje i link ovdje, da spomenemo samo neke.

Pripremite se za fascinantnu priču.

Kao što je nedavno objavljeno u vijestima, slučaj "profesionalnog neslaganja" očito je nastao tijekom leta Alaska Airlinea koji je letio iz Washingtona za San Francisco. Prema medijskim izvješćima, let se udaljio od izlaza i čekao je na pisti dozvolu za ruliranje i let. Bila je u tijeku oluja koja je dovela do kašnjenja leta više od sat i pol. Ispostavilo se da se zrakoplov na kraju okrenuo i krenuo natrag prema izlazu, što bi neki od putnika obično mogli pretpostaviti da je samo mjera opreza povezana s nevremenom.

Prema raznim tweetovima, čini se da su pilot i kopilot imali neku vrstu svađe izvan vidokruga tijekom vremena u kokpitu i nekako su došli do zaključka da bi najrazboritiji pristup bio očistiti let i vratiti se na terminal. . Tweetovi su sugerirali da se kapetan i prvi časnik očito nisu mogli slagati. Zrakoplovna tvrtka je kasnije objavila izjavu da je situacija bila nesretna (situacija nije izričito navedena ili objašnjena sama po sebi), dvojicu letačkih časnika ocijenila je uprava i smatrala ih sposobnima za let, posade su zamijenjene, a let se ipak dogodio a kasnije je stigao u San Francisco.

U jednom smislu, ako su pilot i kopilot doista imali profesionalna neslaganja poput toga je li zrakoplov bio prikladno spreman za let ili je li rizik od letenja kroz oluju unutar prikladnog sigurnosnog raspona, ti putnici bi trebali biti oslobođeni i zahvalan što je avion vraćen na kapiju. Bolje biti siguran nego žaliti. Dodatno kašnjenje vrijedno je pretpostavljenog smanjenja rizika povezanih s putovanjem koje se smatra teškim ili nepovoljnim letom.

Neki bi ljudi mogli biti iznenađeni što je moglo doći do takvog profesionalnog neslaganja.

Možda imamo pogrešan dojam da je sve što se događa u kokpitu posve precizno i ​​dobro napisano. Svaki oblik ljudske diskrecije je naizgled izbačen iz procesa. Na temelju preciznih i temeljito izračunatih karata, let je ili u redu za nastavak ili nije. Ne može biti nikakvog neslaganja kada se misli da se cijeli komplet i caboodle temelje na nepobitnoj računici činjenica i brojki.

To nije potpuna istina. Naravno, postoji mnoštvo protokola i svih vrsta provjera i ravnoteže, ali to ne istiskuje svu jotu ljudske prosudbe. Piloti i kopiloti još uvijek vrše ljudsku prosudbu. Srećom, ova ljudska prosudba je izbrušena godinama letenja. Vjerojatnost je da pilot i kopilot u komercijalnom putničkom zrakoplovu imaju gomilu prethodnog letačkog iskustva i spremno koriste svoje dugogodišnje temeljito razmišljanje i prosuđivanje povezano s boravkom na kontrolama leta.

S obzirom na značajnu ulogu ljudske prosudbe, mogli bismo logično predvidjeti da će pilot i kopilot ponekad imati profesionalna neslaganja. Većinu vremena vjerojatno je vrlo malo takvih neslaganja. Pilot i kopilot za svakodnevne letove vjerojatno će biti dobro usklađeni s obzirom na vrijeme. Tek kada bi scenarij leta mogao izaći izvan konvencionalnih granica, mogli bismo očekivati ​​da će se pojaviti napetije trenje.

Ako između njih dvoje postoji velika razlika u mišljenjima, usudio bih se reći da želimo da to razjasne.

Zamislite situaciju u kojoj pilot oštro želi nastaviti, ali kopilot smatra da su rizici preveliki. Samo da se kopilot klanja pilotu činilo bi se nepoželjnim. Kopilot je provjera i ravnoteža onoga što bi pilot mogao učiniti. Za one koji žele da kopilot šuti i samo se bezumno ponaša prema onome što pilot naredi, to nije neka uvjerljivost. Kopilot nije samo rezervni "pilot" koji se pojavljuje tek kada je pilot potpuno onesposobljen. To je pogrešno shvaćanje vrijednosti pilota i kopilota u kokpitu.

Postoji drugi kut ovoga.

Razmotrite slučaj pilota koji ne vjeruje da let treba nastaviti, au međuvremenu kopilot žarko želi ustati u zrak. Što onda? Prema očekivanoj hijerarhiji, pilot bi trebao konvencionalno prevladati nad kopilotom. Određena uloga primarne zaduženosti čini pilota većim od onoga što je inače donekle jednako. Uobičajeno, pilot ima više ukupnog vremena letenja nego kopilot i ergo kopilot bi se hijerarhijski trebao povinovati željama pilota (kada je unutar razuma).

U svakom slučaju, mislim da se svi možemo složiti da je odluka da se ne leti sigurno manje riskantan izbor od odluke da se leti. Jednom kada je avion u zraku, razine rizika postaju enormne u usporedbi s bilo kojim uobičajenim stabilnim tlom. Uobičajeni komercijalni let koji jednostavno taksira natrag do terminala bez dizanja u zrak bio bi prilično prijateljsko rješenje za bilo kakvu žestoku oštru raspravu o letu.

Promijenimo brzinu i iskoristimo ovu duhovitu vijest za sasvim drugu, ali srodnu svrhu.

Postupno među nama prevladavaju autonomni sustavi temeljeni na umjetnoj inteligenciji. Ponekad AI vodi glavnu riječ. Umjetna inteligencija radi sve od A do Ž, a ovo bismo mogli protumačiti kao potpuno autonomnu ili skoro autonomnu umjetnu inteligenciju. U drugim slučajevima, možemo imati umjetnu inteligenciju koja je u interakciji i do određenog je stupnja programirana da se oslanja na postojanje čovjeka u petlji.

Želio bih se usredotočiti na pitanje autonomnog ili poluautonomnog sustava temeljenog na umjetnoj inteligenciji koji od samog početka ima čovjeka u petlji. AI i čovjek su namjerno spojeni i trebali bi raditi u tandemu jedno s drugim. Oni su kohorte u obavljanju određenog zadatka. AI sama ne bi trebala djelovati na zadatak. AI mora komunicirati s određenim čovjekom u petlji.

Donosim ovu karakterizaciju kako bih se razlikovao od situacija u kojima se čovjek u petlji smatra izbornim aspektom. U biti, umjetna inteligencija dobiva odriješene ruke. Ako umjetna inteligencija odluči iskoristiti čovjeka, neka tako i bude. Ne postoji zahtjev da AI mora dodirivati ​​bazu ili raditi ruku pod ruku s određenim čovjekom. Analize koje ću iznijeti svakako su relevantne za tu vrstu opcionalno dogovor o interakciji, ali to nije ono na što konkretno ciljam u ovoj konkretnoj raspravi.

U redu, dakle imamo neku vrstu zadatka na kojem će čovjek i umjetna inteligencija raditi zajedno, neodvojivo jedno od drugog. U apstraktnom smislu, imamo čovjeka koji sjedi na jednom sjedalu i AI sustav koji sjedi na drugom pratećem sjedalu. Kažem ovo bezobrazno jer ovu raspravu ne ograničavamo na primjer na robota koji zapravo možda sjedi na sjedalu. Metaforički aludiram na ideju da umjetna inteligencija negdje sudjeluje u zadatku, kao i čovjek. Fizički, njihovo mjesto boravka nije osobito bitno za raspravu.

Možda niste sigurni kada bi se takva okolnost mogla pojaviti.

Jednostavan peasy.

Kasnije ću raspravljati o pojavi autonomnih vozila i samovozećih automobila. Na određenim razinama autonomije, AI i čovjek bi trebali raditi zajedno. AI možda vozi automobil i zahtijeva da čovjek preuzme kontrolu vožnje. Čovjek možda vozi auto i aktivira AI da preuzme kontrolu. Izmjenjuju se na komandama vožnje.

Osim toga, neki dizajni imaju AI koji je aktivan cijelo vrijeme (ili, osim ako nije isključen), tako da je AI uvijek spreman. Nadalje, AI može izravno intervenirati, čak i bez pitanja čovjeka, ovisno o situaciji koja se odvija. Pretpostavimo, na primjer, da se čini da je čovjek zaspao za volanom. Budući da čovjek naizgled ne može aktivirati AI (jer osoba spava), AI može biti programiran da preuzme kontrolu od čovjeka.

Neki dizajni dovode AI i ljude u dvostruki pristup vožnji. AI vozi i čovjek vozi. Ili, ako želite, čovjek vozi i AI također vozi. Svaki od njih upravlja vozilom. Uspoređujem ovo s onim posebno opremljenim automobilima koje ste možda koristili kada ste pohađali obuku za vozača i u vozilu su bila dva seta kontrola vožnje, jedan za vozača učenika i jedan za instruktora vožnje.

To je samo jedan primjer okruženja u kojem umjetna inteligencija i ljudi mogu zajednički raditi na zadatku. Svakakve mogućnosti postoje. Druge vrste autonomnih vozila mogle bi se osmisliti na sličan način, poput zrakoplova, dronova, podmornica, površinskih brodova, vlakova i tako dalje. Ne moramo uzeti u obzir samo postavke vozila i prijevoza. Zamislite medicinsku domenu i operacije koje zajedno izvode liječnik i sustav umjetne inteligencije. Popis je beskrajan.

Gotovo da mi dođe da se referiram na klasičnu razularenu šalu o čovjeku i umjetnoj inteligenciji koji zajedno ulaze u bar. To je pravi smijeh za one koji vole AI.

Ozbiljno, vratimo se fokusu na čovjeka i AI sustav koji zajedno rade na zadanom zadatku. Prvo, želim izbjeći antropomorfiziranje umjetne inteligencije, što je nešto što ću cijelo vrijeme naglašavati. AI nije osjećajan. Imajte to na umu.

Evo nešto za razmisliti: Hoće li imenovani čovjek u petlji uvijek biti u potpunom dogovoru s AI-om koji je zajednički tim?

Za bilo koji složeni zadatak, čini se malo vjerojatnim da će čovjek i umjetna inteligencija u potpunosti i uvijek biti u potpunosti usklađeni. Čovjek se u nekim prilikama vjerojatno neće složiti s umjetnom inteligencijom. Tu pretpostavku možemo odnijeti sve do banke.

Želio bih da razmotrite i ovu možda iznenađujuću mogućnost: Hoće li se AI uvijek potpuno slagati s određenim čovjekom u petlji?

Opet, za bilo koji složeni zadatak, čini se sasvim zamislivim da umjetna inteligencija u nekim prilikama neće biti u skladu s ljudima. Ako ste već naklonjeni ideji da umjetna inteligencija mora uvijek biti u krivu, dok ljudi uvijek moraju biti u pravu, bilo bi mudro ponovno razmisliti o tom ishitrenom zaključku. Zamislite automobil koji ima čovjeka i umjetnu inteligenciju koji zajedno upravljaju poluautonomnim vozilom. Čovjek upravlja prema zidu od opeke. Zašto? Ne znamo, možda je čovjek alkoholiziran ili je zaspao, ali znamo da zabijanje u zid od cigle nije dobra ideja, pod svim ostalim uvjetima. AI bi mogao otkriti nadolazeću nesreću i pokušati se skloniti od nadolazeće barijere.

Sve u svemu, imat ćemo jasnu mogućnost da se umjetna inteligencija i čovjek međusobno ne slažu. Drugi način da se ista stvar kaže je da ljudi i AI međusobno se ne slažu. Imajte na umu da ne želim da redoslijed AI-i-čovjeka naspram čovjeka-i-AI-ja sugerira bilo što o smjeru ili vjerojatnosti neslaganja.

Dva radnika, jedan čovjek i jedan koji je AI, ne slažu se jedan s drugim.

Mogli bismo unaprijed izjaviti da kad god dođe do nesuglasica između određene umjetne inteligencije i određenog čovjeka, unaprijed proglašavamo da čovjek prevladava nad umjetnom inteligencijom. Uz to, čini se da bi nas moj ilustrativni primjer o automobilu koji se zabija u zid od opeke razuvjerio da će čovjek uvijek nužno biti u pravu.

Mogli bismo, nasuprot tome, odlučiti unaprijed izjaviti da ćemo, kad god se pojavi neslaganje, unaprijed utvrditi da je AI u pravu, a čovjek u krivu. Ni ovo nije odredba koja se može razumno generalizirati. Zamislite automobil u kojem umjetna inteligencija ima ugrađenu softversku pogrešku ili bug, a umjetna inteligencija pokušava skrenuti vozilo s ceste u jarak. Pod pretpostavkom da je sve ostalo jednako, čovjek bi trebao biti u stanju nadvladati ovu radnju AI vožnje i spriječiti slijetanje vozila u jarak.

Napravimo kratki sažetak ovoga:

  • Hoće li se čovjek-u-petlji uvijek potpuno slagati s umjetnom inteligencijom? Odgovor: Ne.
  • Hoće li se umjetna inteligencija uvijek potpuno slagati s čovjekom u petlji? Odgovor: Ne.
  • Hoće li čovjek u petlji uvijek biti u pravu u usporedbi s umjetnom inteligencijom? Odgovor: Nije nužno.
  • Hoće li AI uvijek biti u pravu u usporedbi s čovjekom u petlji? Odgovor: Ne nužno.

Svakako možete postaviti AI da se prema zadanim postavkama smatra "pogrešnom" ili slabijom stranom i stoga se uvijek povinujte čovjeku kad god se pojavi neslaganje. Isto tako, možete postaviti AI da pretpostavi da se AI smatra "ispravnim" kad god se čovjek ne slaže s AI-om. Želim pojasniti da to možemo učiniti programski ako to želimo. Ipak, tvrdim da to općenito neće uvijek biti slučaj. Zasigurno postoje postavke u kojima ne znamo unaprijed je li umjetna inteligencija "u pravu" ili je čovjek "u pravu" u smislu opredjeljenja za jedno ili drugo u neslaganju u vezi s danim zadatkom.

Doveo sam vas do vrlo važnog i vrlo kompliciranog pitanja.

Što bismo trebali učiniti kada dođe do profesionalnog neslaganja između čovjeka u petlji i umjetne inteligencije (ili, ekvivalentno tome, to možemo izraziti kao između AI i čovjeka u petlji)?

Ne pokušavajte izbjeći pitanje.

Neki bi mogli tvrditi da se to nikada ne bi dogodilo, ali kao što sam izložio u svom primjeru o automobilu, sigurno bi se moglo dogoditi. Neki bi mogli tvrditi da je čovjek očito superioran i da mora biti pobjednik svakog neslaganja. Moj primjer automobila i zida od opeke to ruši. Postoje zagovornici umjetne inteligencije koji bi mogli inzistirati na tome da umjetna inteligencija mora biti pobjednik, zbog navodnog prevladavanja ljudskih emocija i razuzdanog razmišljanja od strane tih nasumičnih ljudi nejasnog razmišljanja. Još jednom, moj drugi primjer koji uključuje automobil koji ide u jarak potkopava tu tvrdnju.

U stvarnom svijetu, umjetna inteligencija i ljudi neće se slagati, čak i kada su njih dvoje namjerno dovedeni u timsku situaciju kako bi izvršili zajednički preuzeti zadatak. To će se dogoditi. Ne možemo zabiti glavu u pijesak i pretvarati se da se to neće dogoditi.

Vidjeli smo da su se ljudi koji su upravljali avionom očito posvađali. Srećom, složili su se da se ne slažu, tako se čini. Vratili su avion na terminal. Pronašli su način da se nose s neslaganjem. Rješenje njihovog neslaganja uspjelo je dobro, u usporedbi s tim da su se možda potukli u kokpitu ili možda odletjeli u zrak i nastavili se međusobno svađati. To je tužan scenarij koji je neodrživ i možemo biti zahvalni što se nije dogodio.

Dopustite mi da dam svoj popis različitih načina na koje bi se nesuglasice između AI i čovjeka u petlji (ili čovjeka u petlji i AI) mogle riješiti:

  • AI i udruženi ljudi rješavaju stvari (prijateljski ili ne)
  • Ljudsko prevladava nad umjetnom inteligencijom, prema zadanim postavkama
  • AI prevladava nad ljudskim, prema zadanim postavkama
  • Prema zadanim postavkama prevladava neka druga unaprijed određena fiksna razlučivost
  • Ljudska osoba treće strane uključena je u petlju i njihova indikacija prevladava nad stranama
  • AI treće strane uključen je u petlju i njegova indikacija prevladava nad stranama
  • Čovjek treće strane zamjenjuje postojećeg čovjeka, stvari se nastavljaju iznova
  • AI treće strane zamjenjuje postojeći AI, stvari se nastavljaju iznova
  • Čovjek treće strane zamjenjuje postojeći AI, stvari se nastavljaju iznova (sada čovjek-čovjeku)
  • AI treće strane zamjenjuje postojećeg čovjeka, stvari se nastavljaju iznova (sada AI-to-AI)
  • drugo

One su u izobilju vrijedne raspakiranja.

Prije nego što uđemo u još nešto mesa i krumpira o divljim i vunenim razmatranjima koja leže u pozadini kako se nositi s AI i ljudskim nesuglasicama, izložimo neke dodatne osnove o duboko bitnim temama. Moramo nakratko zaroniti u etiku umjetne inteligencije, a posebno u pojavu strojnog učenja (ML) i dubokog učenja (DL).

Možda ste nejasno svjesni da je jedan od najglasnijih glasova ovih dana u području AI, pa čak i izvan polja AI-a, traženje većeg privida etičke AI. Pogledajmo što znači upućivanje na etiku umjetne inteligencije i etičku umjetnu inteligenciju. Povrh toga, istražit ćemo što mislim kada govorim o strojnom učenju i dubokom učenju.

Jedan poseban segment ili dio etike umjetne inteligencije koji privlači veliku pažnju medija sastoji se od umjetne inteligencije koja pokazuje nepristrane pristranosti i nejednakosti. Možda ste svjesni da je kada je započela najnovija era umjetne inteligencije došlo do velikog naleta entuzijazma za ono što neki sada nazivaju AI za dobro. Nažalost, za petama tog bujnog uzbuđenja, počeli smo svjedočiti AI za loše. Na primjer, otkriveno je da različiti sustavi za prepoznavanje lica temeljeni na umjetnoj inteligenciji sadrže rasne i rodne pristranosti, o čemu sam raspravljao na link ovdje.

Napori za uzvrat AI za loše aktivno su u tijeku. Osim glasnog legalno u potrazi za obuzdavanjem nedjela, postoji i suštinski poticaj prema prihvaćanju etike umjetne inteligencije kako bi se ispravila podlost AI. Ideja je da bismo trebali usvojiti i podržati ključna etička načela umjetne inteligencije za razvoj i primjenu umjetne inteligencije na taj način kako bismo smanjili AI za loše a istodobno najavljujući i promičući poželjno AI za dobro.

U vezi s tim, ja sam zagovornik pokušaja korištenja AI-a kao dijela rješenja za nevolje AI-a, boreći se s vatrom vatrom na taj način razmišljanja. Mogli bismo na primjer ugraditi komponente etičke umjetne inteligencije u sustav umjetne inteligencije koji će pratiti kako ostatak AI radi stvari i tako potencijalno u stvarnom vremenu uhvatiti sve diskriminatorne napore, pogledajte moju raspravu na link ovdje. Također bismo mogli imati zaseban sustav umjetne inteligencije koji djeluje kao vrsta monitora etike umjetne inteligencije. Sustav umjetne inteligencije služi kao nadzornik za praćenje i otkrivanje kada druga AI ide u neetički ponor (pogledajte moju analizu takvih sposobnosti na link ovdje).

Za trenutak ću s vama podijeliti neka sveobuhvatna načela na kojima se temelji etika umjetne inteligencije. Mnogo je ovakvih popisa koji lebde tu i tamo. Moglo bi se reći da još ne postoji jedinstveni popis univerzalne privlačnosti i podudarnosti. To je nesretna vijest. Dobra vijest je da barem postoje lako dostupni popisi etike umjetne inteligencije i obično su prilično slični. Sve u svemu, ovo sugerira da svojevrsnim oblikom razumne konvergencije pronalazimo put prema općem zajedništvu onoga od čega se sastoji etika umjetne inteligencije.

Prvo, ukratko pokrijmo neke od ukupnih etičkih AI propisa kako bismo ilustrirali što bi trebalo biti od vitalnog značaja za svakoga tko radi, koristi ili koristi umjetnu inteligenciju.

Na primjer, kako navodi Vatikan u Rim poziva na etiku umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih identificiranih šest primarnih etičkih načela AI:

  • Transparentnost: U principu, AI sustavi moraju biti objašnjivi
  • Uključenje, Ubrajanje: Potrebe svih ljudskih bića moraju se uzeti u obzir kako bi svi imali koristi, a svim pojedincima mogli biti ponuđeni najbolji mogući uvjeti za izražavanje i razvoj
  • Odgovornost: Oni koji osmišljavaju i primjenjuju korištenje umjetne inteligencije moraju nastaviti s odgovornošću i transparentnošću
  • Nepristranost: Nemojte stvarati niti djelovati u skladu s pristranostima, štiteći na taj način pravednost i ljudsko dostojanstvo
  • Pouzdanost: AI sustavi moraju moći pouzdano raditi
  • Sigurnost i privatnost: Sustavi umjetne inteligencije moraju raditi sigurno i poštivati ​​privatnost korisnika.

Kako navodi američko Ministarstvo obrane (DoD) u svom Etička načela za korištenje umjetne inteligencije i kao što sam detaljno obradio na link ovdje, ovo je njihovih šest primarnih etičkih načela AI:

  • Odgovoran: Osoblje Ministarstva odbrane primjenjivat će odgovarajuću razinu prosuđivanja i brige, a pritom će ostati odgovorno za razvoj, implementaciju i korištenje sposobnosti umjetne inteligencije.
  • pravedno: Odjel će poduzeti namjerne korake kako bi minimizirao nenamjernu pristranost u sposobnostima umjetne inteligencije.
  • Sljedivo: AI sposobnosti Odjela bit će razvijene i raspoređene tako da relevantno osoblje posjeduje odgovarajuće razumijevanje tehnologije, razvojnih procesa i operativnih metoda primjenjivih na sposobnosti umjetne inteligencije, uključujući transparentne i podložne reviziji metodologije, izvore podataka te postupak i dokumentaciju dizajna.
  • Pouzdan: Mogućnosti umjetne inteligencije Odjela imat će eksplicitnu, dobro definiranu upotrebu, a sigurnost, sigurnost i učinkovitost takvih sposobnosti bit će podvrgnuti testiranju i jamstvu unutar tih definiranih upotreba tijekom cijelog njihovog životnog ciklusa.
  • Upravljiv: Odjel će dizajnirati i projektirati sposobnosti umjetne inteligencije kako bi ispunile svoje predviđene funkcije, a istovremeno će imati sposobnost otkrivanja i izbjegavanja neželjenih posljedica, te sposobnost isključivanja ili deaktiviranja raspoređenih sustava koji pokazuju nenamjerno ponašanje.

Također sam raspravljao o raznim kolektivnim analizama etičkih načela umjetne inteligencije, uključujući pokrivanje skupa koji su osmislili istraživači koji su ispitali i sažimali bit brojnih nacionalnih i međunarodnih etičkih načela umjetne inteligencije u radu pod naslovom “Globalni krajolik etičkih smjernica AI” (objavljeno u Priroda), a koje moje izvješće istražuje na link ovdje, što je dovelo do ovog popisa ključnih kamenaca:

  • Prozirnost
  • Pravda i pravednost
  • Ne-zlonamjernost
  • Odgovornost
  • Privatnost
  • Dobročinstvo
  • Sloboda i autonomija
  • Vjeruj
  • Održivost
  • Dostojanstvo
  • Solidarnost

Kao što možete izravno pretpostaviti, pokušaj utvrđivanja specifičnosti na kojima se temelje ova načela može biti iznimno težak. Čak štoviše, napor da se ti široki principi pretvore u nešto sasvim opipljivo i dovoljno detaljno da se koristi pri izradi AI sustava također je tvrd orah. Lako je općenito malo reći što su etički propisi umjetne inteligencije i kako ih općenito treba poštivati, dok je mnogo kompliciranija situacija u kodiranju umjetne inteligencije koja mora biti prava guma koja se susreće s cestom.

Načela etike umjetne inteligencije moraju se koristiti od strane AI programera, zajedno s onima koji upravljaju razvojnim naporima AI, pa čak i onima koji u konačnici obavljaju i održavaju AI sustave. Svi dionici tijekom cijelog životnog ciklusa AI razvoja i upotrebe smatraju se u okviru poštivanja postojećih normi etičke umjetne inteligencije. Ovo je važan naglasak budući da je uobičajena pretpostavka da se “samo koderi” ili oni koji programiraju AI podliježu poštivanju pojmova etike umjetne inteligencije. Kao što je ranije rečeno, potrebno je selo za osmišljavanje i postavljanje AI, a za što cijelo selo mora biti upućeno u etičke propise AI i pridržavati se njih.

Uvjerimo se i da smo na istoj stranici o prirodi današnje umjetne inteligencije.

Danas ne postoji AI koji je razuman. Mi ovo nemamo. Ne znamo hoće li razumna AI biti moguća. Nitko ne može prikladno predvidjeti hoćemo li postići osjećajnu umjetnu inteligenciju, niti hoće li osjetilna umjetna inteligencija nekako čudesno spontano nastati u obliku računalne kognitivne supernove (koja se obično naziva singularnost, pogledajte moje izvješće na link ovdje).

Tip AI na koji se fokusiram sastoji se od neosjetne umjetne inteligencije koju danas imamo. Kad bismo htjeli divlje nagađati o osjetan AI, ova bi rasprava mogla ići u radikalno drugom smjeru. Osjetna AI bi navodno bila ljudske kvalitete. Morali biste uzeti u obzir da je razumna AI kognitivni ekvivalent čovjeka. Štoviše, budući da neki nagađaju da bismo mogli imati superinteligentnu umjetnu inteligenciju, moguće je da bi takva AI mogla na kraju biti pametnija od ljudi (za moje istraživanje superinteligentne AI kao mogućnosti, vidi pokrivenost ovdje).

Zadržimo stvari prizemnije i razmotrimo današnji računalni neosjetni AI.

Shvatite da današnja umjetna inteligencija nije sposobna "razmišljati" ni na koji način na razini ljudskog razmišljanja. Kada komunicirate s Alexom ili Siri, konverzacijski kapaciteti mogu se činiti sličnim ljudskim kapacitetima, ali realnost je da su računalni i da im nedostaje ljudska spoznaja. Najnovija era umjetne inteligencije uvelike je koristila strojno učenje (ML) i duboko učenje (DL), koji koriste uparivanje računalnih uzoraka. To je dovelo do AI sustava koji nalikuju ljudskim sklonostima. U međuvremenu, danas ne postoji umjetna inteligencija koja ima privid zdravog razuma niti ima bilo kakvo kognitivno čudo snažnog ljudskog razmišljanja.

ML/DL je oblik podudaranja računalnog uzorka. Uobičajeni pristup je da prikupljate podatke o zadatku donošenja odluka. Podatke unosite u modele računala ML/DL. Ti modeli nastoje pronaći matematičke obrasce. Nakon pronalaženja takvih uzoraka, ako ih pronađe, AI sustav će koristiti te uzorke kada naiđe na nove podatke. Nakon predstavljanja novih podataka, obrasci temeljeni na "starim" ili povijesnim podacima primjenjuju se za donošenje trenutne odluke.

Mislim da možete pogoditi kamo ovo vodi. Ako su ljudi koji su donosili odluke po uzoru na njih inkorporirali neugodne predrasude, velika je vjerojatnost da podaci to odražavaju na suptilan, ali značajan način. Računalno uparivanje obrasca strojnog učenja ili dubokog učenja jednostavno će pokušati matematički oponašati podatke u skladu s tim. Ne postoji privid zdravog razuma ili drugih osjećajnih aspekata modeliranja izrađenog od umjetne inteligencije.

Nadalje, AI programeri možda neće ni shvatiti što se događa. Tajna matematika u ML/DL-u mogla bi otežati otkrivanje sada skrivenih predrasuda. S pravom se nadate i očekujete da će AI programeri testirati potencijalno skrivene predrasude, iako je to teže nego što se čini. Postoji velika šansa da će čak i uz relativno opsežna testiranja biti pristranosti i dalje ugrađene u modele podudaranja uzoraka ML/DL-a.

Mogli biste donekle upotrijebiti poznatu ili zloglasnu izreku smeće-u smeće-van. Stvar je u tome što je ovo više slično predrasudama koje se podmuklo ulijevaju kao pristranosti potopljene unutar AI. Algoritam odlučivanja (ADM) AI aksiomatski postaje opterećen nejednakostima.

Nije dobro.

Vratimo se našem fokusu na nesuglasice između umjetne inteligencije i čovjeka.

Ranije sam naznačio da su ovo neke od strategija za rješavanje nesuglasica:

  • AI i udruženi ljudi rješavaju stvari (prijateljski ili ne)
  • Ljudsko prevladava nad umjetnom inteligencijom, prema zadanim postavkama
  • AI prevladava nad ljudskim, prema zadanim postavkama
  • Prema zadanim postavkama prevladava neka druga unaprijed određena fiksna razlučivost
  • Ljudska osoba treće strane uključena je u petlju i njihova indikacija prevladava nad stranama
  • AI treće strane uključen je u petlju i njegova indikacija prevladava nad stranama
  • Čovjek treće strane zamjenjuje postojećeg čovjeka, stvari se nastavljaju iznova
  • AI treće strane zamjenjuje postojeći AI, stvari se nastavljaju iznova
  • Čovjek treće strane zamjenjuje postojeći AI, stvari se nastavljaju iznova (sada čovjek-čovjeku)
  • AI treće strane zamjenjuje postojećeg čovjeka, stvari se nastavljaju iznova (sada AI-to-AI)
  • drugo

Vrijeme je da ih raspakirate.

Prvo, uzmite u obzir da je ovo sve o tome profesionalac neslaganja.

Profesionalno neslaganje slobodno se definira kao neslaganje povezano sa zadatkom koji se odnosi na posao.

Na primjer, neslaganje koje se pojavi između pilota i kopilota o tome treba li nastaviti s letom koji se suočava s olujom moglo bi se razumno označiti kao profesionalno neslaganje. Nasuprot tome, žestoko neslaganje oko toga koju marku kave pilot zagovara u odnosu na marku koju preferira kopilot spremno se kategorizira kao neprofesionalno neslaganje u ovom konkretnom kontekstu.

Naravno, ako se neprofesionalno neslaganje uvuče u profesionalno neslaganje, u konačnici bi nas moglo zanimati neprofesionalno neslaganje kao pretpostavljeni izvor ili iskra profesionalnog. Zamislite da se pilot i kopilot žučno svađaju oko toga koja je marka kave najbolja, što se zatim, nažalost, prelijeva u pitanja vezana uz let (igra riječi!), poput toga treba li poletjeti ili ne.

Drugo, moramo imati na umu veličinu profesionalnog neslaganja.

Možda pilot i kopilot ili u blagom neslaganju oko nastavka letenja. Nisu u svađi i samo razmišljaju o prednostima i nedostacima toga hoće li poletjeti. Ovo nije kalibar ili veličina profesionalnog neslaganja koje ovdje obično razmatramo. Stvar je u tome što bi moglo biti da je profesionalno neslaganje prolazno i ​​da obje strane srdačno ili barem na vrijeme dogovore rješenje. Općenito, žarište profesionalnih nesuglasica unutar opsega su one koje su naizgled nerješive, a dvije strane ostaju uporno u neslaganju.

Treće, obično mora biti nešto ozbiljno na redu da bi te smjernice stupile na snagu.

Odabrati letjeti ili ne letjeti izrazito je odluka na život ili smrt ako je let u opasnosti zbog oluje ili se smatra da zrakoplov nije u potpunosti spreman za takvo putovanje. Ovo je ozbiljan posao. I dalje možemo primijeniti smjernice na manje utjecajne profesionalne nesuglasice, iako bi to moglo biti više nego što vrijedi.

U redu, naša razmatranja su sljedeća:

  • Neslaganje je uglavnom profesionalno orijentirano, a ne oko nečeg neprofesionalnog
  • Neslaganje je dugotrajne prirode, a ne samo prolazno ili se na drugi način lako rješava
  • Neslaganje predviđa ozbiljne posljedice i obično ima snažan ishod
  • Stranke su posvađane i čine se nepomirljivima

Pogledajmo sada pobliže svaku od mojih predloženih smjernica ili pristupa o tome kako se nositi s takvim profesionalnim nesuglasicama.

AI i udruženi ljudi rješavaju stvari (prijateljski ili ne)

Popis počinjem s jednostavnom mogućnošću da AI i čovjek u petlji mogu međusobno riješiti profesionalne nesuglasice. Čini se da možda primjer dva čovjeka, pilota i kopilota ilustrira ovu vrstu okolnosti. Nekako su se odlučili vratiti na terminal i otići svojim putem. Moguće je da sustav umjetne inteligencije i čovjek mogu smisliti pristup rješavanju problema koji je općenito zadovoljavajući za obje strane i stoga je stvar na zadovoljavajući način zaključena.

Ljudsko prevladava nad umjetnom inteligencijom, prema zadanim postavkama

Prilikom postavljanja umjetne inteligencije, mogli bismo programirati pravilo koje kaže da će čovjek-u-petlji uvijek prevladati kad god dođe do profesionalnog neslaganja. Ovo bi bila eksplicitno kodirana zadana vrijednost. Mogli bismo dopustiti i neki oblik nadjačavanja, za svaki slučaj, iako će stalno pravilo biti da čovjek prevladava.

AI prevladava nad ljudskim, prema zadanim postavkama

Prilikom postavljanja umjetne inteligencije, mogli bismo programirati pravilo koje kaže da će umjetna inteligencija uvijek prevladati nad čovjekom u petlji kad god dođe do profesionalnog neslaganja. Ovo je eksplicitno kodirana zadana vrijednost. Također bismo mogli dopustiti neki oblik nadjačavanja, za svaki slučaj, iako će stalno pravilo biti da AI prevladava.

Prema zadanim postavkama prevladava neka druga unaprijed određena fiksna razlučivost

Prilikom postavljanja umjetne inteligencije, mogli bismo programirati pravilo koje kaže da će neka druga unaprijed određena fiksna razlučivost prevladati kad god se pojavi profesionalno neslaganje s čovjekom u petlji. Human-in-the-loop ne prevladava prema zadanim postavkama. AI ne prevladava prema zadanim postavkama. Postoji neko drugo unaprijed određeno rješenje. Na primjer, možda postoji bacanje novčića koji će se koristiti za odlučivanje koja se od dvije strane smatra pravim putem. To bi se očito činilo prilično proizvoljnim; stoga bi još jedan primjer pristupa bio da se uključi specijalizirano pravilo koje izračunava vrijednost na temelju unosa dviju strana i dolazi do rezultata kao neizriješenog rezultata.

Ljudska osoba treće strane uključena je u petlju i njihova indikacija prevladava nad stranama

U slučaju profesionalnog nesporazuma, pravilo bi moglo biti da se pozove treća strana koja je čovjek i uključi se u okruženje kako bi se donijela odluka o rješavanju nesporazuma. Umjetna inteligencija je programirana da se pridržava onoga što čovjek treće strane odluči. Čovjeku koji je već u krugu čovjek-u-petlji unaprijed je dato uputstvo da, ako se takva situacija pojavi, i on treba prepustiti čovjeku treće strane. Na stranu, vjerojatno možete predvidjeti da bi čovjek u petlji mogao imati tjeskobu zbog prihvaćanja onoga što čovjek treće strane odluči ako se odluka ne slaže s položajem čovjeka u petlji.

AI treće strane uključen je u petlju i njegova indikacija prevladava nad stranama

U slučaju profesionalnog neslaganja, pravilo bi moglo biti da se treća strana koja je drugačiji sustav umjetne inteligencije pozove i uključi u postavku kako bi se donijela odluka o rješavanju nesporazuma. Izvorna umjetna inteligencija je programirana da se pridržava onoga što AI treće strane odluči. Čovjek koji je već u petlji čovjek-u-petlji unaprijed je dobio upute da, ako se takva situacija pojavi, i on treba prepustiti AI treće strane. Na stranu, vjerojatno možete predvidjeti da bi čovjek u petlji mogao imati tjeskobu zbog prihvaćanja bilo čega što AI treće strane odluči ako se odluka ne slaže s položajem čovjeka u petlji.

Čovjek treće strane zamjenjuje postojećeg čovjeka, stvari se nastavljaju iznova

Nakon profesionalnog neslaganja, čovjeka u petlji zamjenjuje treća strana koja je čovjek i koja ubuduće postaje čovjek u petlji. Čovjek koji je bio izvorni čovjek u petlji za zadatak više se ne smatra dijelom trenutnog zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenim čovjekom u petlji, ali mi kažemo da oni sigurno više nemaju nikakvu stalnu ulogu u radnom zadatku.

AI treće strane zamjenjuje postojeći AI, stvari se nastavljaju iznova

Nakon profesionalnog neslaganja, umjetna inteligencija se zamjenjuje umjetnom inteligencijom treće strane i ona ubuduće postaje umjetna inteligencija koja se koristi za predmetni radni zadatak. Umjetna inteligencija koja je izvorno korištena za zadatak više se ne smatra dijelom zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenim AI-jem, ali mi kažemo da AI sigurno više nema nikakvu stalnu ulogu u radnom zadatku.

Čovjek treće strane zamjenjuje postojeći AI, stvari se nastavljaju iznova (sada čovjek-čovjeku)

Nakon profesionalnog neslaganja, AI se zamjenjuje čovjekom treće strane za kojeg ta osoba sada postaje suradnik koji će se koristiti za radni zadatak koji je pri ruci. Umjetna inteligencija koja je izvorno korištena za zadatak više se ne smatra dijelom zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenim AI-jem, ali mi kažemo da AI sigurno više nema nikakvu stalnu ulogu u radnom zadatku. Ukratko, ovo sada postaje zadatak koji obavljaju dvije strane ljudi na ljude.

AI treće strane zamjenjuje postojećeg čovjeka, stvari se nastavljaju iznova (sada AI-to-AI)

Nakon profesionalnog neslaganja, čovjek-u-petlji se zamjenjuje AI treće strane i ovaj AI ubuduće postaje dopuna za prethodnog čovjeka-u-petlji. Čovjek koji je bio izvorni čovjek u petlji za zadatak više se ne smatra dijelom trenutnog zadatka. Otvoren je aspekt onoga što se inače događa sa sada zamijenjenim čovjekom u petlji, ali mi kažemo da oni sigurno više nemaju nikakvu stalnu ulogu u radnom zadatku. Ukratko, ovo sada postaje dvostrana AI-to-AI za obavljanje zadatka.

drugo

Mogu se osmisliti i druge varijante kako bi se riješilo profesionalno neslaganje, ali mi smo ovdje pokrili neke od ključnih kamenova.

Kako ćemo odlučiti koji će od tih pristupa biti pravi za danu situaciju?

Široka raznolikost pitanja povezana je s donošenjem takvog izbora. Postoje tehnološka razmatranja. Postoje poslovni razlozi. Postoje pravna i etička razmatranja.

Do neke mjere, to je razlog zašto je etika umjetne inteligencije i etička umjetna inteligencija tako ključna tema. Pravila AI Etike tjeraju nas da ostanemo budni. AI tehnolozi ponekad mogu biti zaokupljeni tehnologijom, osobito optimizacijom visoke tehnologije. Oni ne uzimaju u obzir nužno veće društvene posljedice. Imati način razmišljanja o etičkoj inteligenciji i činiti to integralno za razvoj i primjenu umjetne inteligencije ključno je za proizvodnju odgovarajuće umjetne inteligencije, uključujući (možda iznenađujuće ili ironično) procjenu načina na koji tvrtke usvajaju etiku umjetne inteligencije.

Osim primjene načela etike umjetne inteligencije općenito, postoji odgovarajuće pitanje trebamo li imati zakone koji bi regulirali različite upotrebe umjetne inteligencije. Na saveznoj, državnoj i lokalnoj razini razrađuju se novi zakoni koji se tiču ​​raspona i prirode načina na koji bi se umjetna inteligencija trebala osmisliti. Napori za izradu i donošenje takvih zakona postupni su. Etika umjetne inteligencije služi kao zaustavna točka, u najmanju ruku, i gotovo će sigurno u određenoj mjeri biti izravno uključena u te nove zakone.

Imajte na umu da neki uporno tvrde da nam ne trebaju novi zakoni koji pokrivaju umjetnu inteligenciju i da su naši postojeći zakoni dovoljni. Zapravo, oni upozoravaju da ćemo, ako donesemo neke od ovih zakona o umjetnoj inteligenciji, ubiti zlatnu gusku tako što ćemo obuzdati napredak u umjetnoj inteligenciji koji nudi goleme društvene prednosti.

U ovom trenutku ove teške rasprave, kladim se da ste željni nekih ilustrativnih primjera koji bi mogli pokazati ovu temu. Postoji poseban i sigurno popularan niz primjera koji su mi bliski srcu. Vidite, u mom svojstvu stručnjaka za umjetnu inteligenciju, uključujući etičke i pravne posljedice, od mene se često traži da identificiram realistične primjere koji prikazuju dileme etike umjetne inteligencije kako bi se donekle teoretska priroda teme mogla lakše shvatiti. Jedno od najzanimljivijih područja koje zorno predstavlja ovu etičku AI nedoumicu je pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji. Ovo će poslužiti kao zgodan slučaj upotrebe ili primjer za široku raspravu o toj temi.

Evo onda važnog pitanja o kojem vrijedi razmisliti: Rasvjetljava li pojava pravih samovozećih automobila temeljenih na umjetnoj inteligenciji išta o rješavanju nesporazuma između umjetne inteligencije i ljudi, i ako jest, što ovo pokazuje?

Dopustite mi trenutak da raspakiram pitanje.

Prvo, imajte na umu da nema ljudskog vozača koji je uključen u istinski samovozeći automobil. Imajte na umu da se pravi samovozeći automobili voze putem AI sustava vožnje. Ne postoji potreba za ljudskim vozačem za volanom, niti je predviđeno da čovjek upravlja vozilom. Za moju opsežnu i stalnu pokrivenost autonomnih vozila (AV) i posebno samovozećih automobila, pogledajte link ovdje.

Želio bih dodatno pojasniti što se misli kada govorim o pravim samovozećim automobilima.

Razumijevanje razina samovozećih automobila

Kao pojašnjenje, istinski samovozeći automobili su oni u kojima AI vozi automobil potpuno sam i nema nikakve ljudske pomoći tijekom zadatka vožnje.

Ova vozila bez vozača smatraju se razinom 4 i 5 (pogledajte moje objašnjenje na ova poveznica ovdje), dok se automobil za koji je potreban ljudski vozač da sudjeluje u vožnji obično se smatra na razini 2 ili razine 3. Automobili koji dijele zadatak vožnje opisani su kao poluautonomni i obično sadrže razne automatizirani dodaci koji se nazivaju ADAS (Napredni sustavi za pomoć vozaču).

Još ne postoji pravi samovozeći automobil na razini 5, a još ne znamo ni hoće li to biti moguće postići, niti koliko će vremena trebati da se stigne do toga.

U međuvremenu, napori razine 4 pokušavaju postići određenu vuču prolazeći vrlo uska i selektivna ispitivanja na javnim cestama, iako postoji kontroverza oko toga treba li ovo ispitivanje biti dopušteno samo po sebi (svi smo zamorci života ili smrti u eksperimentu koji se održavaju na našim autocestama i usputnim cestama, neki se tvrde, pogledajte moje pokriće na ova poveznica ovdje).

Budući da za poluautonomne automobile potreban je ljudski vozač, usvajanje tih vrsta automobila neće se znatno razlikovati od vožnje konvencionalnih vozila, tako da o ovoj temi nema mnogo novog što bi se moglo pokriti (iako, kao što ćete vidjeti u trenu su sljedeće točke općenito primjenjive).

Za poluautonomne automobile važno je da javnost treba upozoriti na uznemirujući aspekt koji se pojavljuje u posljednje vrijeme, naime da usprkos onim ljudskim vozačima koji objavljuju videozapise o sebi kako zaspaju za volanom automobila razine 2 ili 3 , svi trebamo izbjegavati zabludu da vjerujemo kako vozač može oduzeti njihovu pažnju vozačkom zadatku tijekom vožnje poluautonomnog automobila.

Vi ste odgovorna strana za upravljačke radnje vozila, bez obzira na to koliko se automatizacija može ubaciti u razinu 2 ili razinu 3.

Automobili koji se sami voze i neslaganje AI-versus-human

Za prava vozila sa samostalnom vožnjom razine 4 i 5, u vozačkoj zadaći neće sudjelovati ljudski vozač.

Svi putnici bit će putnici.

AI vozi vožnju.

Jedan od aspekata o kojem treba odmah razgovarati podrazumijeva činjenicu da AI uključen u današnje sustave vožnje AI nije osjetljiv. Drugim riječima, AI je sve skupa računalno zasnovanog programiranja i algoritama i zasigurno nije u stanju rasuđivati ​​na isti način na koji to mogu ljudi.

Zašto ovaj dodatni naglasak na tome da AI nije svjestan?

Budući da želim naglasiti da, raspravljajući o ulozi sustava upravljanja umjetnom inteligencijom, ne pripisujem ljudske osobine umjetnoj inteligenciji. Imajte na umu da danas postoji stalna i opasna tendencija antropomorfizacije AI. U osnovi, ljudi današnjoj umjetnoj inteligenciji dodjeljuju ljudsku osjetljivost, unatoč nepobitnoj i neupitnoj činjenici da još uvijek ne postoji takva umjetna inteligencija.

S tim pojašnjenjem možete predvidjeti da sustav upravljanja umjetnom inteligencijom neće nekako "znati" o aspektima vožnje. Vožnja i sve što to uključuje trebat će programirati kao dio hardvera i softvera samovozećeg automobila.

Zaronimo u bezbroj aspekata koji se mogu igrati na ovu temu.

Prvo, važno je shvatiti da nisu svi samovozeći automobili s umjetnom inteligencijom isti. Svaki proizvođač automobila i samovozeća tehnološka tvrtka zauzima svoj pristup osmišljavanju samovozećih automobila. Kao takav, teško je dati opširne izjave o tome što će AI sustavi za vožnju učiniti ili ne.

Nadalje, kad god konstatiraju da sustav upravljanja AI -om ne čini neku posebnu stvar, kasnije to mogu preuzeti razvojni programeri koji zapravo programiraju računalo da učini upravo tu stvar. Korak po korak, sustavi vožnje umjetne inteligencije postupno se poboljšavaju i proširuju. Današnje ograničenje danas možda više neće postojati u budućoj iteraciji ili verziji sustava.

Nadam se da to pruža dovoljan niz upozorenja koja će biti u osnovi onoga što ću ispričati.

Za potpuno autonomna vozila možda neće postojati nikakva šansa za profesionalno neslaganje između čovjeka i umjetne inteligencije zbog mogućnosti da ne postoji niti jedan čovjek u petlji za početak. Težnja mnogih današnjih proizvođača samovozećih automobila je potpuno uklanjanje ljudskog vozača iz zadatka vožnje. Vozilo čak neće sadržavati upravljačke jedinice dostupne ljudima. U tom slučaju, ljudski vozač, ako je prisutan, neće moći sudjelovati u zadatku vožnje jer nema pristup bilo kakvim kontrolama vožnje.

Za neka potpuno autonomna vozila, neki dizajni još uvijek dopuštaju da čovjek bude u krugu, iako čovjek uopće ne mora biti dostupan ili sudjelovati u procesu vožnje. Dakle, čovjek može sudjelovati u vožnji, ako to želi. Ipak, AI se ni u jednom trenutku ne oslanja na čovjeka za obavljanje bilo kojeg zadatka vožnje.

U slučaju poluautonomnih vozila, postoji odnos ruku pod ruku između ljudskog vozača i umjetne inteligencije. Ljudski vozač može u potpunosti preuzeti kontrolu vožnje i u biti spriječiti AI da sudjeluje u vožnji. Ako ljudski vozač želi vratiti AI u ulogu vožnje, može to učiniti, iako to onda ponekad prisiljava čovjeka da se odrekne upravljanja vožnjom.

Drugi oblik polu-autonomnog rada podrazumijevao bi ljudski vozač i AI koji rade zajedno na timski način. AI vozi i čovjek vozi. Voze se zajedno. AI bi se mogla povinovati čovjeku. Čovjek bi se mogao prepustiti AI.

U nekom trenutku, sustav vožnje AI i ljudski vozač u petlji mogu doći do točke "profesionalnog neslaganja" u pogledu zadatka vožnje.

Da bismo ilustrirali kako neka od gore navedenih pravila rješavanja profesionalnog neslaganja mogu biti izazovna za provedbu, razmotrite primjer pozivanja osobe treće strane da uđe u stvar i ponudi odluku za rješavanje neriješenog problema.

Pretpostavimo da je proizvođač automobila ili samovozeća tehnološka tvrtka organizirala udaljene ljudske operatere da imaju pristup kontrolama vožnje vozila unutar njihove flote. Ljudski operater sjedi u nekom udaljenom uredu ili sličnom okruženju. Putem računalnog sustava, oni mogu vidjeti scenu vožnje pristupom kamerama i drugim senzorskim uređajima učitanim u samovozeći automobil. Za njih je ovo gotovo kao igranje internetske video igrice, iako, naravno, okolnosti u stvarnom životu imaju potencijalno strašne posljedice.

Sustav umjetne inteligencije i ljudski vozač u automobilu voze poluautonomno vozilo dugom autocestom. Odjednom, AI želi skrenuti u jarak. Ljudski vozač ne želi to učiniti. Njih dvoje se natežu oko kontrola vožnje.

Kako će se to riješiti?

Mogli smo možda unaprijed ustanoviti da čovjek uvijek pobjeđuje. Pretpostavimo ipak da smo to odlučili ne učiniti.

Mogli smo unaprijed ustanoviti da AI uvijek pobjeđuje. Pretpostavimo da smo odlučili da to ne učinimo. Sve u svemu, nismo usvojili nijedno od tih pravila, osim što smo odlučili dopustiti ljudskoj osobi treće strane da intervenira i riješi profesionalni nesporazum bilo koje suštinske prirode.

U ovom slučaju upotrebe, AI i ljudski vozač za volanom bore se za kontrolu vožnje. Ovo se, recimo, prenosi udaljenom ljudskom operateru (našem čovjeku treće strane). Udaljeni ljudski operater ispituje što se događa i odlučuje se skloniti od jarka, naizgled sprječavajući ono što je AI pokušavala učiniti. U isto vrijeme, pretpostavimo da daljinski ljudski operater upravlja u nadolazeći promet, što možda ni umjetna inteligencija ni ljudski vozač u automobilu nisu htjeli učiniti.

Poanta je da je način na koji je ovo pravilo implementirano taj da ljudski operater treće strane može u potpunosti nadjačati i AI i čovjeka u petlji. Zasigurno nije sigurno hoće li to proizvesti dobar ishod.

Koristit ću se ovim primjerom kako bih istaknuo neke dodatne uvide u ova pitanja.

Ne možete napraviti drsku pretpostavku da samo zato što je jedno od ovih pravila postavljeno na mjesto, ishod riješenog nesporazuma nužno je zajamčeno dobar ishod. Možda i nije. Ne postoji nijedno željezno uvijek ispravno pravilo koje se može odabrati.

Dalje, neka od ovih pravila možda neće biti izvediva.

Razmotrite primjer daljinskog ljudskog operatera koji intervenira kada se umjetna inteligencija i ljudski vozač svađaju oko kontrola vožnje. Daljinskom ljudskom operateru može trebati mnogo sekundi da shvati što se događa. Dotad bi vozilo već moglo završiti u jarku ili imati neki drugi nepovoljan ishod. Također, pretpostavimo da lokacija vozila onemogućuje daljinski pristup kao što je na nekom mjestu gdje nema mrežne elektroničke povezanosti. Ili možda mrežne značajke vozila ne rade u tom trenutku.

Kao što vidite, pravilo bi moglo izgledati kicoško na papiru, iako bi stavljanje pravila u stvarnu upotrebu moglo biti vrlo težak ili vrlo slučajan pristup. Pogledajte moje kritičko izvješće o daljinskom operateru autonomnih vozila i samovozećih automobila na link ovdje.

Želio bih ukratko pokriti drugu srodnu temu koju ću detaljnije obraditi u nadolazećoj analizi.

Jedna od rastućih zabrinutosti u vezi s autonomnim vozilima i samovozećim automobilima koji su poluautonomni je tzv. Sindrom vrućeg krumpira.

Evo dogovora.

Sustav vožnje AI i čovjek suvoze. Nastaje strašna nevolja. Umjetna inteligencija je programirana da odustane od zadatka vožnje i preda stvari čovjeku kada se dogodi strašan trenutak. Ovo se možda čini "razumnim" jer se čini da se pozivamo na pravilo o ljudskom biću kao zadanom "pobjedniku" u svakom potencijalnom profesionalnom neslaganju.

Ali izostavljanje umjetne inteligencije moglo bi biti iz zločestijih ili podmuklijih razloga. Moguće je da proizvođač automobila ili tehnološka tvrtka za samovozeće automobile ne želi da se njihov AI smatra "krivcem" kada dođe do sudara. Kako bi naizgled izbjegao da bude tako zaglavljen, AI naglo predaje kontrolu čovjeku. Voila, čovjek je sada vjerojatno potpuno odgovoran za vozilo.

Problem je u tome što pretpostavimo da umjetna inteligencija izvrši ovaj handoff s recimo jednom preostalom sekundom prije nego što dođe do pada.

Bi li čovjek doista imao vremena da spriječi pad?

Vjerojatno ne.

Pretpostavimo da umjetna inteligencija izvrši handoff s nekoliko milisekundi ili nanosekundi do kraja. Usuđujem se reći da čovjek u suštini nema nikakve šanse učiniti bilo što da spriječi pad.

Iz perspektive proizvođača automobila ili tvrtke za samovozeće automobile, oni se mogu pokušati ponašati kao da su im ruke čiste kada se dogodi takva prometna nesreća. Automobilom je upravljao čovjek. AI nije vozio auto. Čini se da bi jedini "logičan" zaključak bio da čovjek mora biti kriv, a AI mora biti potpuno besprijekoran.

To je lonac.

O tome ću detaljnije raspravljati u nadolazećoj kolumni.

Zaključak

Doći će do profesionalnih nesuglasica.

Teško je zamisliti bilo koji složeni zadatak koji ima dvije strane koje suizvršavaju zadatak i za koji nikada ne bi bilo nikakvih profesionalnih nesuglasica. Ovo se čini kao zemlja fantazije ili barem velika rijetkost.

Danas imamo puno i puno slučajeva profesionalnih neslaganja između ljudi, za koje se na dnevnoj bazi mirno i razumno pronalaze rješenja, na ovaj ili onaj način. Zapravo, često namjerno postavljamo situacije kako bismo potaknuli i iznijeli profesionalna neslaganja. Mogli biste tvrditi da ovo pokazuje poznatu mudrost da su ponekad dvije glave bolje od jedne.

Kako umjetna inteligencija postaje sve raširenija, imat ćemo puno dvostranačkih izvođača zadataka AI-na-čovjeka ili čovjeka na AI-a i bit će profesionalna neslaganja koji će se dogoditi. Lijeni pristup je uvijek se povinovati ljudima. Ovo možda nije najprikladniji pristup. AI bi mogao biti bolji izbor. Ili bi jedno od drugih gore navedenih pravila moglo biti razumniji pristup.

Postoji ona mudra rečenica koja se često ponavlja da bismo se svi općenito trebali moći složiti da se ne slažemo, iako kada se svede na žicu, ponekad se neslaganje mora nedvosmisleno riješiti inače će predmetna stvar dovesti do neizrecive nesreće. Ne možemo samo dopustiti da neslaganje čami na lozi. Vrijeme bi moglo biti od presudne važnosti i životi bi mogli biti u pitanju.

Postoji jasan zahtjev za nekim razboritim načinima rješavanja nesuglasica, čak i ako to nije nužno prihvatljivo, uključujući kada AI i čovjek u petlji ne gledaju oči u oči niti bajt za bajt.

Vjerujem da se nećete složiti s ovom sasvim ugodnom tvrdnjom.

Izvor: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- pilot-i-kopilot-se-nisu-složili-prije-polijetanja-i-naglo-odlučili-taksirati-vratiti-na-terminal-i-otići-svojim-svojim putevima/