FBI upozorava na AI Deepfake prijevare iznude

Sposobnosti generativne umjetne inteligencije za stvaranje realističnih slika su impresivne, ali američki Federalni istražni ured kaže da kriminalci koriste deepfakeove kako bi ciljali žrtve za iznudu.

"FBI nastavlja primati izvješća od žrtava, uključujući maloljetnu djecu i odrasle osobe bez pristanka, čije su fotografije ili videozapisi izmijenjeni u eksplicitan sadržaj", rekla je agencija u upozorenju PSA-a u ponedjeljak.

FBI kaže da su agencije za provođenje zakona prošle godine primile više od 7,000 prijava online iznude usmjerene na maloljetnike, s porastom žrtava takozvanih "prijevara seksualnog iznuđivanja" koristeći deepfake od travnja.

Deepfake je sve češća vrsta video ili audio sadržaja stvorenog umjetnom inteligencijom koji prikazuje lažne događaje koje je sve teže prepoznati kao lažne, zahvaljujući generativnim AI platformama kao što su Midjourney 5.1 i OpenAI DALL-E 2.

U svibnju je deepfake Tesle i izvršnog direktora Twittera Elona Muska napravljen kako bi prevario kripto ulagače postao viralan. Video podijeljen na društvenim mrežama sadržavao je snimke Muska iz prethodnih intervjua, montirane kako bi odgovarale prijevari.

Deepfakeovi nisu svi zlonamjerni, deepfake pape Franje koji nosi bijelu Balenciaga jaknu postao je viralan ranije ove godine, a nedavno su se deepfakeovi generirani umjetnom inteligencijom također koristili za vraćanje žrtava ubojstava u život.

FBI je u svojim preporukama upozorio na plaćanje bilo kakve otkupnine jer to ne jamči da kriminalci ipak neće objaviti deepfake.

FBI također savjetuje oprez pri dijeljenju osobnih podataka i sadržaja na internetu, uključujući korištenje značajki privatnosti kao što su privatnost računa, praćenje online aktivnosti djece i praćenje neobičnog ponašanja ljudi s kojima ste u prošlosti komunicirali. Agencija također preporučuje česta pretraživanja osobnih podataka i podataka o članovima obitelji na internetu.

Ostale agencije koje su alarmirale uključuju Američku saveznu trgovinsku komisiju, koja je upozorila da su kriminalci koristili deepfakeove kako bi prevarili žrtve koje ništa ne sumnjaju da pošalju novac nakon što su napravili audiodeepfake prijatelja ili člana obitelji koji kaže da su oteli.

“Umjetna inteligencija više nije nategnuta ideja iz znanstveno-fantastičnog filma. Živimo s tim, ovdje i sada. Prevarant bi mogao upotrijebiti umjetnu inteligenciju za kloniranje glasa vaše voljene osobe”, rekao je FTC u upozorenju za potrošače u ožujku, dodajući da su sve potrebe kriminalaca kratki audio isječak glasa člana obitelji kako bi snimka zvučala stvarno.

FBI još nije odgovorio Dekodiranje-a zahtjev za komentar.

Budite u tijeku s kripto vijestima, primajte dnevna ažuriranja u svoju pristiglu poštu.

Izvor: https://decrypt.co/143479/fbi-warning-ai-extortion-sextortion-deepfake-scams