3 razloga zašto će vaša organizacija trebati vanjske procjenitelje algoritama

Autor Satta Sarmah-Hightower

Poslovni čelnici cijede svu vrijednost koju mogu iz umjetne inteligencije (AI). Studija KPMG-a iz 2021. pokazuje većina poslovnih čelnika u vladi, industrijskoj proizvodnji, financijskim uslugama, maloprodaji, znanosti o životu i zdravstvu kaže da je umjetna inteligencija barem umjereno funkcionalna u njihovim organizacijama. Studija također otkriva da polovica ispitanika kaže da je njihova organizacija ubrzala usvajanje umjetne inteligencije kao odgovor na pandemiju Covid-19. U organizacijama u kojima je AI usvojena, barem polovica kaže da je tehnologija premašila očekivanja.

Algoritmi umjetne inteligencije sve su odgovorniji za razne današnje interakcije i inovacije—od personaliziranih preporuke proizvoda i Služba za korisnike iskustva s bankama' odluke o kreditiranju pa čak i odgovor policije.

Ali usprkos svim prednostima koje nude, algoritmi umjetne inteligencije nose velike rizike ako se učinkovito ne prate i ne procjenjuju otpornost, pravednost, objašnjivost i integritet. Kako bi se pomoglo poslovnim vođama u praćenju i procjeni umjetne inteligencije, gore navedena studija pokazuje da a Sve veći broj poslovnih vođa želi da vlada regulira umjetnu inteligenciju kako bi omogućila organizacijama da ulažu u pravu tehnologiju i poslovne procese. Za potrebnu podršku i nadzor, pametno je razmotriti vanjske procjene koje nudi pružatelj usluga s iskustvom u pružanju takvih usluga. Evo tri razloga zašto.

1. Algoritmi su "crne kutije"

Algoritmi umjetne inteligencije—koji uče iz podataka kako bi riješili probleme i optimizirali zadatke— čine sustave pametnijima, omogućujući im prikupljanje i generiranje uvida puno brže nego što bi to ljudi ikada mogli.

Međutim, neki dionici ove algoritme smatraju "crnim kutijama", objašnjava Drew Rosen, direktor revizije u KPMG-u, vodećoj tvrtki za profesionalne usluge. Konkretno, određeni dionici možda neće razumjeti kako je algoritam došao do određene odluke i stoga možda neće biti sigurni u pravednost ili točnost te odluke.

"Rezultati prikupljeni iz algoritma mogu biti skloni pristranosti i pogrešnom tumačenju rezultata", kaže Rosen. "To također može dovesti do određenih rizika za subjekt jer oni iskorištavaju te rezultate i dijele [ih] s javnošću i svojim dionicima."

Na primjer, algoritam koji koristi neispravne podatke u najboljem je slučaju neučinkovit, a u najgorem slučaju štetan. Kako bi to moglo izgledati u praksi? Razmotrite chatbot temeljen na umjetnoj inteligenciji koji korisnicima daje pogrešne informacije o računu ili automatizirani alat za prevođenje jezika koji netočno prevodi tekst. Oba slučaja mogu rezultirati ozbiljnim pogreškama ili pogrešnim tumačenjima za vladine subjekte ili tvrtke, kao i za sastavnice i klijente koji se oslanjaju na odluke koje donose ti algoritmi.

Još jedan doprinos problemu crne kutije je kada inherentna pristranost prodre u razvoj modela umjetne inteligencije, potencijalno uzrokujući pristrano donošenje odluka. Kreditni zajmodavci, na primjer, sve više koriste umjetnu inteligenciju za predviđanje kreditne sposobnosti potencijalnih zajmoprimaca kako bi donijeli odluke o kreditiranju. Međutim, rizik može nastati kada ključni unosi u AI, kao što je kreditna ocjena potencijalnog zajmoprimca, ima materijalnu grešku, što je dovelo do uskraćivanja zajmova tim pojedincima.

Ovo naglašava potrebu za vanjskim procjeniteljem koji može služiti kao nepristrani ocjenjivač i pružiti fokusiranu procjenu, temeljenu na prihvaćenim kriterijima, relevantnosti i pouzdanosti povijesnih podataka i pretpostavki koje pokreću algoritam.

2. Dionici i regulatori zahtijevaju transparentnost

U 2022. nije bilo trenutačnih zahtjeva za izvješćivanje za odgovornu umjetnu inteligenciju. Međutim, kaže Rosen, "baš kao kako su upravljačka tijela uvela ESG [okolišne, društvene i upravljačke] propise izvješće o određenim ESG metrikama, samo je pitanje vremena kada ćemo vidjeti dodatne zahtjeve za izvješćivanje propisa za odgovornu umjetnu inteligenciju.”

Zapravo, stupa na snagu 1. siječnja 2023. u New Yorku Lokalni zakon 144 zahtijeva da se na automatiziranom alatu za odlučivanje o zapošljavanju provede revizija pristranosti prije njegove upotrebe.

I na saveznoj razini, Zakon o nacionalnoj inicijativi za umjetnu inteligenciju iz 2020— koji se nadovezuje na a Izvršna uredba iz 2019— fokusira se na tehničke standarde i smjernice AI. Osim toga, Zakon o algoritamskoj odgovornosti mogu zahtijevati procjene utjecaja automatiziranih sustava odlučivanja i proširenih kritičnih procesa odlučivanja. I u inozemstvu, Zakon o umjetnoj inteligenciji predložen je, nudeći sveobuhvatan regulatorni okvir sa specifičnim ciljevima o sigurnosti umjetne inteligencije, sukladnosti, upravljanju i pouzdanosti.

Uz ove promjene, organizacije su pod mikroskopom upravljanja. Procjenitelj algoritma može dati takva izvješća koja se odnose na regulatorne zahtjeve i povećavaju transparentnost dionika, izbjegavajući rizik da dionici pogrešno protumače ili zaveden prema rezultatima procjene.

3. Tvrtke imaju koristi od dugoročnog upravljanja rizikom

Steve Camara, partner u KPMG-ovoj praksi tehnološkog osiguranja, predviđa da će ulaganja u umjetnu inteligenciju nastaviti rasti kako subjekti budu nastavljali s automatizacijom procesa, razvojem inovacija koje unapređuju korisničko iskustvo i distribucijom razvoja umjetne inteligencije kroz poslovne funkcije. Kako bi ostale konkurentne i profitabilne, organizacije će trebati učinkovite kontrole koje ne samo da rješavaju neposredne nedostatke umjetne inteligencije, već i smanjuju sve dugoročne rizike povezane s poslovnim operacijama koje pokreću umjetna inteligencija.

Ovo je mjesto gdje vanjski procjenitelji stupaju na scenu kao pouzdani, pametni resurs. Kako organizacije sve više prihvaćaju AI integritet kao pokretač poslovanja, partnerstvo bi moglo postati manje ad hoc usluga, a više dosljedna suradnja, objašnjava Camara.

“Vidimo put naprijed gdje će trebati postojati stalni odnos između organizacija koje kontinuirano razvijaju i operacionaliziraju umjetnu inteligenciju i objektivnog vanjskog procjenitelja”, kaže on.

Pogled prema onome što slijedi

U budućnosti bi organizacije mogle koristiti vanjske procjene na više cikličkoj osnovi dok razvijaju nove modele, unose nove izvore podataka, integriraju rješenja dobavljača trećih strana ili se kreću prema novim zahtjevima sukladnosti, na primjer.

Kada su propisani dodatni propisi i zahtjevi usklađenosti, vanjski procjenitelji mogu moći pružiti usluge za izravnu procjenu koliko je dobro organizacija implementirala ili koristila AI u odnosu na te zahtjeve. Ti bi procjenitelji tada bili u najboljem položaju da razmjenjuju rezultate procjene na jasan i dosljedan način.

Kako bi kapitalizirala tehnologiju, a istodobno se zaštitila od njezinih ograničenja, organizacija mora tražiti vanjske procjenitelje koji će pružiti izvješća na koja se onda može osloniti kako bi pokazala veću transparentnost pri implementaciji algoritama. Odatle, i organizacija i dionici mogu bolje razumjeti snagu umjetne inteligencije—i njena ograničenja.

Izvor: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/