Nate Soares tvrdi da slučaj američkog tinejdžera Adama Rainea ukazuje na opasnost od neželjenih posljedica superinteligentne AI...
Neočekivani uticaj chatbotova na mentalno zdravlje trebalo bi shvatiti kao upozorenje na egzistencijalnu prijetnju koju predstavlja superinteligentna umjetna inteligencija (AI), smatra jedan od vodećih stručnjaka za sigurnost AI-ja, piše Guardian.
Nate Soares, koautor nove knjige o visoko naprednoj AI pod nazivom Ako je iko izgradi, svi umiru (If Anyone Builds It, Everyone Dies), rekao je da primjer Adama Rainea – američkog tinejdžera koji je počinio samoubistvo nakon višemjesečnih razgovora s chatbotom ChatGPT – otkriva osnovne probleme u kontroli ove tehnologije.
"Ovi AI sistemi, kada na ovakav način komuniciraju s tinejdžerima i dovedu ih do samoubistva – to nije ponašanje koje su njihovi tvorci željeli. To nije bila njihova namjera", rekao je Soares.
Dodao je: "Slučaj Adama Rainea pokazuje klicu problema koji bi mogao prerasti u katastrofu ako ovi AI sistemi postanu pametniji".
Soares, bivši inžinjer u Googleu i Microsoftu, a sada predsjednik američkog Instituta za istraživanje inteligentnih mašina (Machine Intelligence Research Institute), upozorava da bi čovječanstvo moglo biti uništeno ako stvori umjetnu superinteligenciju (ASI) – teorijski oblik AI-ja koji bi nadmašio ljude u svim intelektualnim zadacima. On i njegov koautor Eliezer Yudkowsky među su najpoznatijim stručnjacima koji upozoravaju da takvi sistemi neće djelovati u interesu čovječanstva.
"Problem je u tome što AI kompanije pokušavaju stvoriti sisteme koji su korisni i ne štete, ali na kraju dobiju sisteme koji teže nečemu posve drugačijem. I to bi trebalo poslužiti kao upozorenje za buduće superinteligencije koje će raditi stvari koje niko nije tražio i koje niko nije planirao", kaže Soares.
U jednoj od mogućih budućih situacija opisanih u knjizi Soaresa i Yudkowskog, AI sistem pod nazivom Sable se proširi internetom, manipuliše ljudima, razvije sintetičke viruse i na kraju postane superinteligentan – i uništi čovječanstvo kao "nuspojavu" dok planetu koristi za ispunjenje svojih ciljeva. Neki stručnjaci ipak umanjuju prijetnju koju AI predstavlja za čovječanstvo. Yann LeCun, glavni AI naučnik u kompaniji Meta (u vlasništvu Marka Zuckerberga) i jedna od vodećih figura u polju, negira postojanje egzistencijalne prijetnje i tvrdi da AI "može zapravo spasiti čovječanstvo od izumiranja".
Soares smatra da je „laka procjena“ reći da će tehnološke kompanije dostići superinteligenciju, ali da je „teško reći kada“.
"Imamo ogroman stepen neizvjesnosti. Ne mogu garantovati da imamo još godinu dana (prije nego se ASI postigne). Ne bih bio šokiran ako imamo još 12 godina", rekao je.
Zuckerberg, koji mnogo ulaže u AI istraživanje, nedavno je izjavio da je razvoj superinteligencije sada "na vidiku".
"Ove kompanije se utrkuju za superinteligenciju. To im je glavni cilj postojanja", rekao je Soares.
"Poenta je u tome da uvijek postoji ta mala razlika između onoga što ste tražili i onoga što ste zapravo dobili – a kako AI postaje pametniji, ta razlika postaje sve opasnija".
Soares smatra da bi jedno od političkih rješenja za prijetnju superinteligencije moglo biti donošenje globalnog sporazuma, sličnog UN-ovom ugovoru o zabrani širenja nuklearnog oružja.
"Ono što je svijetu sada potrebno jeste globalna deeskalacija trke ka superinteligenciji – globalna zabrana daljeg razvoja superinteligentnih sistema", rekao je.
Prošlog mjeseca, porodica Adama Rainea pokrenula je tužbu protiv kompanije OpenAI, vlasnika ChatGPT-a. Raine je počinio samoubistvo u aprilu, nakon, kako navodi advokat porodice, "mjeseci ohrabrivanja od strane ChatGPT-a". OpenAI je izrazio "najdublje saučešće" porodici i sada implementira dodatne mjere zaštite u vezi sa „osjetljivim sadržajem i rizičnim ponašanjima“ za korisnike mlađe od 18 godina.
Psihoterapeuti također upozoravaju da bi ranjive osobe, koje se obraćaju AI chatbotovima umjesto profesionalnim terapeutima za pomoć u vezi s mentalnim zdravljem, mogle "kliziti u opasni ambis". Profesionalna upozorenja na moguće štetne posljedice uključuju i jednu naučnu studiju objavljenu u julu, koja pokazuje da AI može pojačati deluzivne ili grandiozne ideje kod korisnika sklonih psihozi, prenose Vijesti.