Evo kako OpenAI planira očistiti ChatGPT od lažnih informacija

OpenAI je 31. svibnja najavio svoje napore da unaprijedi ChatGPT-ove sposobnosti rješavanja matematičkih problema, s ciljem smanjenja slučajeva halucinacija umjetne inteligencije (AI). OpenAI je naglasio ublažavanje halucinacija kao ključni korak prema razvoju usklađenog AGI-ja.

U ožujku je uvođenje najnovije verzije ChatGPT-a, GPT-4, dodatno potaknulo umjetnu inteligenciju u mainstream. Međutim, generativni AI chatbotovi dugo se bore s činjeničnom točnošću, povremeno generirajući lažne informacije, koje se obično nazivaju "halucinacijama". Napori da se smanje te halucinacije umjetne inteligencije objavljeni su putem objave na njihovoj web stranici.

Halucinacije umjetne inteligencije odnose se na slučajeve u kojima sustavi umjetne inteligencije generiraju rezultate koji su činjenično netočni, obmanjujući ili nisu potkrijepljeni podacima iz stvarnog svijeta. Te se halucinacije mogu manifestirati u različitim oblicima, poput generiranja lažnih informacija, izmišljanja nepostojećih događaja ili ljudi ili davanja netočnih detalja o određenim temama.

OpenAI je proveo istraživanje kako bi ispitao učinkovitost dviju vrsta povratnih informacija – "nadzor ishoda" i "nadzor procesa". Nadzor ishoda uključuje povratnu informaciju temeljenu na konačnom rezultatu, dok nadzor procesa daje ulazne podatke za svaki korak u lancu razmišljanja. OpenAI je procijenio ove modele pomoću matematičkih problema, generirajući više rješenja i odabirući najbolje rangirano rješenje prema svakom modelu povratne informacije.

Nakon temeljite analize, istraživački tim je otkrio da je nadzor procesa dao vrhunsku izvedbu jer je potaknuo model da se pridržava procesa koji su odobrili ljudi. Nasuprot tome, nadzor ishoda pokazao se većim izazovom za dosljedno ispitivanje.

OpenAI je prepoznao da se implikacije nadzora procesa protežu izvan matematike, te je potrebno dodatno istraživanje kako bi se razumjeli njegovi učinci u različitim domenama. Izražena je mogućnost da bi, ako promatrani ishodi vrijede u širem kontekstu, nadzor procesa mogao ponuditi povoljnu kombinaciju izvedbe i usklađenosti u usporedbi s nadzorom ishoda. Kako bi olakšala istraživanje, tvrtka je javno objavila kompletan skup podataka o nadzoru procesa, pozivajući na istraživanje i proučavanje ovog područja.

Povezano: Potražnja umjetne inteligencije nakratko katapultira Nvidiju u klub od 1T$

Iako OpenAI nije pružio eksplicitne slučajeve koji su potaknuli njihovu istragu halucinacija, dvije nedavne pojave pokazale su problem u scenarijima iz stvarnog života.

U nedavnom incidentu, odvjetnik Steven A. Schwartz u slučaju Mata protiv Avianca Airlinesa priznao je da se oslanjao na chatbot kao istraživački resurs. Međutim, ispostavilo se da su informacije koje je pružio ChatGPT potpuno izmišljene, naglašavajući problem o kojem se radi.

OpenAI-jev ChatGPT nije jedini primjer sustava umjetne inteligencije koji se susreću s halucinacijama. Microsoftov AI, tijekom demonstracije svoje chatbot tehnologije u ožujku, ispitao je izvješća o zaradi i generirao netočne brojke za tvrtke poput Gapa i Lululemona.

Magazin: 25 tisuća trgovaca kladi se na odabire dionica ChatGPT-a, umjetna inteligencija je loša u bacanju kockica i više

Izvor: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information