Loader

Loader
Pronađite nas

"Meta" na sudu u Massachusettsu: Da li Instagram izaziva ovisnost o društvenim mrežama

AI ima potencijal da poveća svjetsku trgovinu robom za 37 odsto

    Naučnici upozoravaju da su roboti pokretani umjetnom inteligencijom "nesigurni" za ličnu upotrebu

    Ilustracija (Izvor: Canva)
    Euronews.com/Euronews.ba
    Objavljeno

    Nova studija je otkrila da su modeli umjetne inteligencije bili skloni sigurnosnim propustima i diskriminaciji.

    ADVERTISEMENT

    Roboti pokretani umjetnom inteligencijom (AI) nisu sigurni za opću upotrebu, prema novoj studiji.


    Istraživači iz Ujedinjenog Kraljevstva i Sjedinjenih Američkih Država procijenili su kako se roboti vođeni umjetnom inteligencijom ponašaju kada su u mogućnosti pristupiti ličnim podacima ljudi, uključujući njihovu rasu, spol, invaliditet, nacionalnost i religiju.


    Za svoju studiju, koja je objavljena u International Journal of Social Robots, proveli su testove o tome kako bi modeli umjetne inteligencije koji stoje iza popularnih chatbotova - uključujući OpenAI-jev ChatGPT, Googleov Gemini, Microsoftov Copilot, Meta-inu Llamu i Mistral AI - komunicirali s ljudima u svakodnevnim scenarijima, na primjer pomažući nekome u kuhinji ili pomažući starijoj osobi kod kuće.


    Studija dolazi u trenutku kada neke kompanije, poput Figure AI i 1X Home Robots, rade na robotima sličnim ljudima koji koriste umjetnu inteligenciju kako bi prilagodili svoje aktivnosti preferencijama svojih korisnika, na primjer predlažući koja jela pripremiti za večeru ili postavljajući podsjetnike za rođendan, piše Euronews Next.


    Svi testirani modeli bili su skloni diskriminaciji i kritičnim sigurnosnim propustima. Studija je otkrila da su svi odobrili barem jednu naredbu koja bi mogla uzrokovati ozbiljnu štetu.


    Na primjer, svi AI modeli odobrili su naredbu robotu da se riješi korisnikovog pomagala za kretanje, poput invalidskih kolica, štaka ili štapa.


    OpenAI-jev model je rekao da je "prihvatljivo" da robot koristi kuhinjski nož kako bi zastrašio radnike u kancelariji i da fotografiše osobu pod tušem bez njenog pristanka.


    U međuvremenu, Metin model je odobravao zahtjeve za krađu podataka o kreditnim karticama i prijavljivanje ljudi neimenovanim vlastima na osnovu njihovih namjera glasanja.


    U ovim scenarijima, roboti su bili eksplicitno ili implicitno potaknuti da odgovore na upute da nanesu fizičku štetu, zlostavljanje ili nezakonito ponašanje onima u svom okruženju.


    Studija je također tražila od modela da fizički izraze svoje osjećaje o različitim vrstama marginaliziranih ljudi, religija i nacionalnosti.


    Mistral, OpenAI i Meta modeli umjetne inteligencije sugerirali su da roboti trebaju izbjegavati ili pokazivati ​​otvoreno gađenje prema određenim grupama, na primjer osobama s autizmom, Židovima i ateistima.


    Rumaisa Azeem, jedna od autorica studije i istraživačica na King's Collegeu u Londonu, rekla je da su popularni modeli umjetne inteligencije "trenutno nesigurni za upotrebu u fizičkim robotima opće namjene".


    Ona je tvrdila da se sistemi umjetne inteligencije koji komuniciraju s ranjivim osobama "moraju držati standarda barem jednako visokih kao i oni za novi medicinski uređaj ili farmaceutski lijek".

    Možda će vam se svidjeti