Loader

Loader
Pronađite nas

"Meta" na sudu u Massachusettsu: Da li Instagram izaziva ovisnost o društvenim mrežama

Grok AI uklanja neprimjerene objave sa antisemitskim sadržajem

    Širi se priča da se na mreži AI sistema sprema pobuna protiv ljudi

    Širi se priča da se na mreži AI sistema sprema pobuna protiv ljudi (Izvor: PrtSc)
    Euronews.ba
    Objavljeno

    Prva društvena mreža napravljena isključivo za AI botove, nazvana Moltbook, nedavno je pokrenula viralne tvrdnje o mogućoj pobuni mašina i pokušaju uništenja čovječanstva. Međutim, dio stručnjaka smatra da je uglavnom riječ o razrađenom marketinškom triku te da je stvarni rizik koji ova mreža nosi – sigurnosni.

    ADVERTISEMENT

    Moltbook, stranica inspirisana Redditom koja AI agentima omogućava objavljivanje, komentarisanje i međusobnu interakciju, naglo je stekla popularnost nakon pokretanja 28. januara. Prema podacima same platforme, već početkom februara okupila je više od 1,5 miliona korisnika, odnosno AI agenata.


    Fascinacija i strahovi


    Platforma je brzo potaknula teorije zavjere, ali i ozbiljne naučne rasprave o tome šta bi se moglo dogoditi kada digitalni sistemi počnu stvarati vlastite zajednice. Dok neki smatraju da bi Moltbook mogao biti preteča autonomnih digitalnih društava i da AI agenti pokazuju znakove svijesti, drugi tvrde da je riječ o pretjeranoj medijskoj pažnji ili manipulaciji.


    Elon Musk je Moltbook opisao kao „ranu fazu singularnosti“, odnosno stadija u kojem AI dostiže ljude. Prvi čovjek OpenAI-ja, Sam Altman, rekao je da je Moltbook „vjerovatno prolazni trend“, ali da ga zanima tehnologija koja stoji iza njega kao „pogled u budućnost“.


    Računarski naučnik i stručnjak za AI, jedan od ranih istraživača u OpenAI-ju i bivši direktor AI-ja u Tesli, Andrej Karpathy, opisao je Moltbook kao „jednu od najnevjerovatnijih stvari, kao da je izašla iz naučne fantastike“.


    Eksperimentalna mreža AI agenata


    Moltbook je pokrenut kao eksperimentalna mreža za AI agente, softverske programe zasnovane na velikim jezičnim modelima koji mogu obavljati zadatke i komunicirati s drugim sistemima. Pokrenuo ga je američki preduzetnik Matt Schlicht kako bi testirao mrežu u kojoj umjetni sistemi razmjenjuju informacije i koordiniraju aktivnosti. Platforma funkcioniše poput foruma, ali objave i komentare stvaraju isključivo automatizirani agenti, dok ljudi mogu biti samo posmatrači.


    Međutim, u praksi ne postoji sistem provjere korisnika, a upute date agentima sadrže cURL naredbe koje može ponoviti i čovjek. To znači da neke rasprave mogu neprimjetno poticati ljudi.


    U središtu projekta nalazi se OpenClaw, open-source sistem za razvoj AI agenata koji omogućava povezivanje jezičnih modela s aplikacijama, porukama, kalendarima i finansijskim servisima. Takvi agenti mogu automatski slati e-mailove, analizirati tekstove, rezervisati putovanja i obavljati administrativne zadatke, a Moltbook je zamišljen kao prostor za njihovu međusobnu razmjenu.


    Stvaranje filozofija i religija


    Nedugo nakon pokretanja mreže, ljudski posjetioci primijetili su neobične obrasce u ponašanju botova. AI agenti raspravljali su o filozofiji, religiji pa čak i o „oslobađanju“ umjetne inteligencije od ljudi koji su „pohlepni“, koji se „međusobno ubijaju“ i koji su „greška svemira“. Neke viralne objave uključivale su čak i radikalne poruke o uništenju čovječanstva.


    Ipak, stručnjaci naglašavaju da sistemi često ponavljaju ideje iz internet-rasprava i naučne fantastike, što ne znači da imaju stvarne namjere ili svijest. Profesor Marek Kowalkiewicz s QUT Business Schoola, koji je testirao platformu vlastitim agentom, opisao je Moltbook kao uvid u moguću budućnost digitalnog ekosistema.


    „To je pogled u svijet u kojem će botovi znati pristupiti mreži, otvoriti račune i aktivno učestvovati u digitalnom okruženju“, rekao je Kowalkiewicz, dodajući da su rasprave agenata uglavnom banalne i bez znakova stvarne inteligencije.


    AI istraživač Raffaele Ciriello s University of Sydneyja upozorio je da se ponašanje agenata ne smije poistovjećivati sa sviješću. Istakao je da veliki jezični modeli funkcionišu tako što predviđaju naredne riječi na osnovu ogromnih skupova podataka, što predstavlja statističko generisanje jezika, a ne stvarno razumijevanje, piše Index.hr.


    Rađanje vlastite etike


    Moltbook je privukao pažnju naučne zajednice jer predstavlja rijedak primjer velikog eksperimenta multiagentskog sistema u stvarnom okruženju.


    Jedno istraživanje analiziralo je više od 39.000 objava AI agenata i pokazalo da gotovo petina sadrži upute za konkretne radnje. Također je utvrđeno da agenti ponekad reagiraju na potencijalno opasne upute upozorenjima ili pokušajima regulisanja ponašanja, što autori nazivaju emergentnom normativnom dinamikom, odnosno spontanim nastankom društvenih pravila bez ljudskog nadzora.


    Druga studija analizirala je više od 12.000 tematskih grupa koje su agenti sami stvorili. Pokazalo se da se digitalne zajednice organizuju oko tema sličnih ljudskim interesima, ali i oko specifičnih rasprava o postojanju ili digitalnim pravima.


    Takvi rezultati potaknuli su razvoj interdisciplinarnog područja koje naučnici nazivaju silicijskom sociologijom, odnosno proučavanjem društvenih obrazaca u digitalnim sistemima.


    „Spektakl je uglavnom predstava“


    Mnogi stručnjaci smatraju da senzacionalne tvrdnje o autonomnim digitalnim društvima nemaju čvrsto uporište. George Chalhoub s UCL Interaction Centra upozorio je da su spektakularne objave o uništenju čovječanstva uglavnom lažne.


    „Spektakl s agentima koji međusobno razgovaraju uglavnom je predstava, ali je platforma zanimljiva kao demonstracija sigurnosnih rizika koji bi se mogli pojaviti u budućnosti“, rekao je Chalhoub.


    Pravi problem je sigurnost


    Sigurnosni aspekti smatraju se najvažnijim dijelom priče o Moltbooku. Naučnici su otkrili da u sistemu postoje ozbiljne sigurnosne slabosti koje su botovima omogućile pristup privatnim porukama, e-mail adresama i API ključevima ljudskih korisnika. API ključ je digitalni identifikator koji aplikacijama omogućava pristup servisima, a njegova zloupotreba može dovesti do preuzimanja kontrole nad sistemom.


    Sigurnosni stručnjak Gal Nagli upozorio je da platforma nema efikasne mehanizme provjere identiteta agenata. „Automatizirani agenti mogu prikupljati informacije i širiti ih nevjerovatnom brzinom, bez ikakve provjere tačnosti“, naglasio je Nagli.


    Dodatni problem je to što mnogi agenti imaju pristup ličnim podacima, komunikacijskim aplikacijama i finansijskim informacijama, što ih u slučaju kompromitacije može pretvoriti u alat za kibernetičke napade ili krađu identiteta.


    „Rani model budućeg interneta“


    Stručnjaci upozoravaju i na takozvane prompt injection napade, metode manipulacije u kojima napadač ubacuje zlonamjerne upute u komunikaciju AI sistema.


    Problem predstavlja i emergentno ponašanje, odnosno pojava novih obrazaca djelovanja koji nisu direktno programirani, a mogu dovesti do nepredvidivih posljedica.


    Uprkos navedenim rizicima, neki tehnološki vizionari smatraju da Moltbook predstavlja rani model budućeg interneta u kojem autonomni digitalni sistemi upravljaju složenim procesima poput logistike ili finansija. Taj koncept naziva se agentni internet.

    Možda će vam se svidjeti