OpenAI, compania condusă de Sam Altman, a anunțat joi, 30 mai, că a blocat cinci operațiuni de influență clandestină care încercau să folosească modelele sale de inteligență artificială, pentru activități „înșelătoare” pe internet. În ultimele trei luni, ”actori implicați în operațiuni de influență” au folosit modelele AI de la OpenAI pentru a genera comentarii scurte, articole lungi în diferite limbi, nume și biografii inventate pentru conturi de social media. Cu toate acestea, OpenAI a afirmat că aceste campanii nu au beneficiat de o creștere semnificativă a implicării audienței datorită serviciilor firmei.
Cine sunt atacatorii și la ce fel de operațiuni foloseau modelele OpenAI
Aceste operațiuni au fost o „tentativă de manipulare a opiniei publice sau de influențare a rezultatelor politice”, potrivit OpenAI. Raportul firmei din San Francisco a ridicat din nou îngrijorări legate de posibila utilizare abuzivă a tehnologiei generative AI, care poate produce rapid și ușor texte, imagini și audio ce imită conținutul creat de oameni.
OpenAI, susținută de Microsoft, a anunțat marți, 28 mai, formarea unui Comitet de Siguranță și Securitate, condus de membri ai consiliului de administrație, inclusiv CEO-ul Sam Altman, pe măsură ce începe pregătirea următorului său model AI, care va fi și mai aproape de AGI, inteligența artificială generală.
Campaniile au inclus actori din Rusia, China, Iran și Israel și s-au concentrat pe subiecte precum invazia Rusiei în Ucraina, conflictul din Gaza, alegerile din India, politica din Europa și Statele Unite și criticile la adresa guvernului chinez din partea dizidenților chinezi și a guvernelor străine.
Detalii și exemple de operațiuni
Printre operațiunile identificate se numără:
- Bad Grammar: O operațiune din Rusia care a vizat Ucraina, Moldova, statele baltice și Statele Unite, utilizând modelele AI pentru a corecta erorile sau problemele din codul sursă al unui bot care funcționează pe platforma Telegram și pentru a crea comentarii politice scurte în rusă și engleză, postate pe Telegram.
- Doppelganger: O altă operațiune din Rusia, care a generat comentarii în engleză, franceză, germană, italiană și poloneză, postate pe X și 9GAG, și a tradus și editat articole pentru site-uri web asociate.
- Spamouflage: O rețea din China care a folosit modelele AI pentru a cerceta activitatea pe social media, a genera texte în chineză, engleză, japoneză și coreeană, postate pe X, Medium și Blogspot, și pentru a repara codul pentru gestionarea bazelor de date și a site-urilor web.
- IUVM: O operațiune iraniană care a generat și tradus articole lungi, titluri și etichete pentru site-uri web, publicate pe un site asociat acestui actor, iuvmpress.co.
- Zero Zeno: O companie comercială din Israel, care a folosit modelele AI pentru a genera articole și comentarii postate pe Instagram, Facebook, X și site-uri web asociate.
Este îngrijorător modul în care e folosită inteligența arificială de la OpenAI, dar totodată previzibil. În faza actuală AI-ul e o unealtă și unii o vor folosi pentru a face bine, alții pentru a face rău. Când vom ajunge la AGI e greu de spus ce se va întâmpla. Cum era vorba aia, Hope for the best…