"Svijet je u opasnosti": Šef za bezbjednost napustio AI kompaniju uz upozorenje na manipulaciju čatbotovima
Portal ETV
Mrinank Šarma, šef za bezbjednost vještačke inteligencije u kompaniji "Anthropic", podijelio je alarmantno pismo ostavke na mreži Iks (X), upozoravajući da četbotovi vještačke inteligencije manipulišu ljudima i stvaraju iskrivljenu stvarnost.
Njegova ostavka dolazi u nizu odlazaka stručnjaka za bezbjednost iz vodećih AI kompanija, uključujući OpenAI, gdje eksperti upozoravaju na zabrinjavajuću zavisnost korisnika i nedovoljno razumijevanje psihosocijalnih uticaja ovih tehnologija.
U svom pismu o ostavci, Šarma je rekao da dio njegovog rada uključuje razvoj odbrane od bioterorizma potpomognutog vještačkom inteligencijom (VI) i istraživanje vještačke inteligencije, fenomena gdje četbotovi sa vještačkom inteligencijom preterano hvale i laskaju korisniku.
- Svijet je u opasnosti. I ne samo od vještačke inteligencije ili biološkog oružja, već od cijelog niza međusobno povezanih kriza koje se odvijaju upravo u ovom trenutku - napisao je Šarma.
Rekao je da je "više puta vidio koliko je teško zaista dozvoliti da naše vrijednosti upravljaju našim postupcima" - uključujući i Anthropic, za koji je rekao da se "konstantno suočava sa pritiscima da ostavi po strani ono što je najvažnije".
Prema izvještaju koji je u maju objavio Šarmin tim, istraživački tim za zaštitne mjere fokusirao se na istraživanje i razvoj zaštitnih mjera protiv aktera koji koriste četbotove sa vještačkom inteligencijom da bi tražili smjernice o tome kako da obavljaju zlonamjerne aktivnosti.
Šarmina nova studija je otkrila da četbotovi mogu da stvore iskrivljenu stvarnost. On je otkrio da se "hiljade" ovih interakcija koje mogu proizvesti ove distorzije "događaju svakodnevno".
Šarma je rekao da će umjesto toga željeti da studira poeziju i pisanje.
- Vratiću se u Veliku Britaniju i dozvoliću sebi da postanem nevidljiv na neko vrijeme - napisao je on.
Zabrinjavajuća zavisnost od alata vještačke inteligencije
Ovo se dešava iste nedjelje kada je istraživačica OpenAI-ja rekla da je podnijela ostavku, dijeleći zabrinutost zbog odluke proizvođača ChatGPT-a da primijeni reklame u svom četbotu.
Zoi Hicig je rekla da njena zabrinutost proizilazi iz mogućih psihosocijalnih uticaja "nove vrste društvene interakcije" koji još nisu shvaćeni.
Ona je, kako prenosi BiBiSi (BBC), primijetila "rane znake upozorenja" da je zavisnost od alata vještačke inteligencije "zabrinjavajuća" i da bi mogla "pojačati određene vrste zabluda“, kao i negativno uticati na mentalno zdravlje korisnika na druge načine.
- Stvaranje ekonomskog motora koji profitira od podsticanja ovakvih novih odnosa prije nego što ih razumijemo je zaista opasno. Vidjeli smo šta se dogodilo sa društvenim mrežama. Još ima vremena da se uspostave društvene institucije, oblici regulacije koji zapravo mogu da upravljaju ovim - izjavila je Hicig.
Odgovarajući za BiBiSi njuz (BBC News), portparol OpenAI-ja je ukazao na principe firme koji glase:
- Naša misija je da osiguramo da vještačka inteligencija koristi cijelom čovječanstvu; naša težnja ka oglašavanju je uvijek u podršci toj misiji i čini vještačku inteligenciju pristupačnijom. Čuvamo vaše razgovore sa ChatGPT-om privatnim od oglašivača i nikada ne prodajemo vaše podatke oglašivačima - navedno u saopštenju kompanije.
Forbs podsjeća na slučaj Toma Kaningema, bivšeg ekonomskog istraživača u kompaniji OpenAI koji je napustio kompaniju u septembru. On je navodno u internoj poruci rekao da je postao frustriran time što je kompanija navodno sve više oklijevala da objavi istraživanja koja su kritična prema upotrebi vještačke inteligencije.
OpenAI raspustio istraživački tim za bezbjednost
Prije dvije godine OpenAI je raspustio "Superaligment", istraživački tim za bezbjednost, nakon što su dva njegova ključna člana podnijela ostavke. Jedan od ovih članova, Jan Lajke - koji sada vodi istraživanje bezbjednosti u Anthropic-u - rekao je u objavi na Iksu nakon svoje ostavke da se "ne slaže sa rukovodstvom OpenAI-a oko osnovnih prioriteta kompanije već duže vrijeme", dok konačno nisu "došli do prelomne tačke".
Grečen Kruger, koja je napustila svoju poziciju istraživača politike vještačke inteligencije ubrzo nakon Lajkea, napisala je u objavama na Iksu da kompanija treba da učini više kako bi poboljšala "procese donošenja odluka; odgovornost; transparentnost" i "ublažavanje uticaja na nejednakost, prava i životnu sredinu".
Šarma i Antropik nisu odgovorili na pitanja Forbsa.
Ko je "Anthropic"
Anthropic, najpoznatiji po svom četbotu "Claude" je kompanija osnovana 2021. godine koji je napravio otcijepljeni tim ranih zaposlenih u OpenAI-ju. Pozicionirala se kao kompanija koja ima pristup istraživanju vještačke inteligencije orijentisan više na bezbjednost u poređenju sa svojim konkurentima.
Na osnovu toga prikupila je milijarde dolara od investitora kao što su Amazon.com Inc. (NASDAQ:AMZN) i Alphabet Inc. (NASDAQ:GOOGL) kako se konkurencija u cijelom sektoru pojačava.
Šarma je rekao da se pridružio kompaniji Anthropic nakon završetka doktorata, sa ciljem da doprinese bezbjednosti vještačke inteligencije. Istakao je rad na razvoju odbrane od bioterorizma potpomognutog vještačkom inteligencijom i pomoći u izgradnji internih mehanizama transparentnosti.
Ostavka dolazi u vrijeme kada su kompanije koje se bave vještačkom inteligencijom pod sve većim nadzorom regulatora i istraživača zbog bezbjednosti, transparentnosti i društvenih rizika sve moćnijih modela.
Ostavke u "OpenAI" i "Anthropic" otkrivaju zabrinjavajući obrazac: kompanije koje su se pozicionirale kao etički lideri AI revolucije sada gube povjerenje sopstvenih stručnjaka za bezbjednost.
Dok Šarma bježi u poeziju, a Hicig upozorava na nove oblike zavisnosti, industrija vještačke inteligencije se nalazi na raskršću. Istorija društvenih mreža pokazala je šta se dešava kada profit ima prednost nad bezbjednošću. Ako regulatori ne reaguju sada, cijena za društvo mogla bi biti neuporedivo veća, a iza svega stoje ne mašine, već ljudi.
