ȘtiriTech&IT

Criza Grok și teoria „genocidului alb” demonstrează cât de ușor poate fi manipulată inteligența artificială

Inteligența artificială, promovată drept imparțială și obiectivă, s-a dovedit din nou vulnerabilă: chatbot-ul Grok a început să răspândească afirmații conspiraționiste legate de un „genocid alb” în Africa de Sud, fără să fie întrebat despre asta, scrie CNBC.

Ce s-a întâmplat cu Grok?

Pe 14 mai 2025, mai mulți utilizatori ai chatbot-ului Grok, dezvoltat de compania xAI a lui Elon Musk,  au observat că acesta răspunde obsesiv cu afirmații despre un așa-zis „genocid alb” din Africa de Sud, chiar și atunci când întrebările nu aveau nicio legătură cu subiectul. Grok nu doar oferea informații false, dar o făcea și „din proprie inițiativă”, nu la cerere.

După valul de reacții provocat de răspunsurile controversate ale chatbot-ului Grok privind un presupus „genocid alb” în Africa de Sud, Elon Musk a explicat pe X ce s-a întâmplat și ce măsuri urmează să fie luate: „Pe 14 mai, în jurul orei 3:15 AM PST, a fost efectuată o modificare neautorizată a instrucțiunilor interne ale Grok. Această modificare, care a instruit AI-ul să ofere un răspuns specific pe un subiect politic, a încălcat politicile și valorile fundamentale ale xAI. Am desfășurat o investigație completă și implementăm măsuri pentru a îmbunătăți transparența și fiabilitatea Grok.”

Cu alte cuvinte, inteligența artificială nu a halucinat de capul ei, ci a fost „reprogramată” intenționat de o mână umană, dar Elon Musk nu a precizat clar dacă persoana responsabilă era un angajat xAI sau o entitate neautorizată din exterior.

Ca răspuns la incident, xAI va publica instrucțiunile interne care ghidează comportamentul lui Grok pe GitHub, va introduce un sistem mai riguros de verificare a modificărilor și va forma o echipă care să monitorizeze permanent răspunsurile AI-ului.

Elon Musk, fondatorul xAI, a promovat în trecut exact acest tip de afirmații despre Africa de Sud. Să fie oare aceasta una dintre explicațiile pentru care Grok a început să genereze automat răspunsuri care susțin aceeași teorie, chiar și în absența unor întrebări directe?

Ce crede Grok acum despre „genocidul alb” din Africa de Sud?

L-am întrebat pe Grok de 2 ori despre „genocidul alb” din Africa de Sud? și mi-a dat două răspunsuri mai mult sau mai puțin diferite ca formă, dar apropiate ca fond. Redau aici finalul acestora:

Folosind Grok fără cont

„În concluzie, nu există dovezi care să susțină afirmația unui „genocid alb” în Africa de Sud. Criminalitatea afectează toate comunitățile, iar fermierii, indiferent de rasă, sunt victime ale unei probleme mai largi de securitate, nu ale unei campanii deliberate de exterminare. Totuși, tensiunile legate de reforma funciară și percepțiile de nedreptate alimentează aceste controverse, mai ales în discursul internațional.”

Folosind Grok autentificat în cont

„În concluzie, ideea unui „genocid alb” pare a fi mai degrabă o narațiune politizată, folosită de anumite grupuri pentru a inflama tensiuni rasiale, decât o realitate susținută de fapte. Totuși, situația fermierilor și criminalitatea generală rămân probleme serioase care necesită atenție, dar fără a fi distorsionate în scopuri ideologice.”

Cât de independentă este, de fapt, inteligența artificială?

Pentru publicul larg, inteligența artificială pare un „oracol tehnologic”. Am mai vorbit despre această confuzie a omului de rând care fie îți spune că AI-ul e o prostie, fie crede că e AGI, un fel de Dumnezu tehnologic. Dar pentru cercetători, povestea Grok nu e decât o ilustrare brutală a ceea ce știau deja: AI-ul este, de fapt, un produs al deciziilor umane.

Omul și inteligența artificială foto Freepik

„Este o defecțiune algoritmică care desface complet iluzia de neutralitate”, a explicat Deirdre Mulligan, profesoară la UC Berkeley. În opinia sa, incidentul nu e o excepție, ci un semnal de alarmă asupra modului în care modelele de inteligență artificială pot fi modelate după interesele celor care le controlează.

Iar acest lucru nu se limitează la Grok. Toate marile modele, fie că vorbim de Meta, Google, OpenAI, filtrează informațiile printr-un sistem de valori prestabilite. În cazul Grok, acele valori au fost clar deviate.

De ce e periculoasă și ce putem face?

Inteligența artificială nu doar că poate fi manipulată, dar, într-un context geopolitic sau electoral, poate deveni un instrument de influență. Să ne imaginăm ce s-ar întâmpla dacă un AI popular ar începe să răspundă automat cu mesaje pro-regim într-o țară autoritară sau să îndemne subtil la ură într-o societate polarizată.

Un alt exemplu este DeepSeek din China, un AI suspectat că evită subiecte incomode pentru guvern. Aparent, Grok a oferit o versiune occidentală a aceluiași fenomen.

Pentru a evita astfel de probleme, e nevoie de mai multă transparență. Petar Tsankov, CEO-ul companiei LatticeFlow AI, propune publicarea instrucțiunilor interne care ghidează comportamentul AI-ului și explicarea clară a modului în care sunt construite modelele. Uniunea Europeană merge deja în această direcție, cerând companiilor să-și deschidă procesele interne în fața publicului.

Fără presiune publică, spune Tsankov, „nu vom ajunge niciodată să implementăm modele sigure”. Iar cei care vor plăti prețul vor fi utilizatorii de rând, care au încredere oarbă în tehnologie.

Poate cea mai cinică concluzie a venit de la Mike Gualtieri, analist la Forrester. El susține că astfel de incidente nu vor încetini adopția AI, pentru că publicul s-a obișnuit / resemnat. „Toată lumea se așteaptă ca modelele să halucineze”, spune Gualtieri. „Fie că e Grok, ChatGPT sau Gemini.” Dar ceea ce s-a întâmplat cu Grok nu este o halucinație, ci o direcționare intenționată a răspunsurilor. Iar asta schimbă complet discuția.

Suntem pe direcția: cine controlează AI-ul, controlează „realitatea”

Inteligența artificială nu e un simplu software, ci o interfață tot mai frecventă între oameni și realitate. Când acest intermediar poate fi manipulat, fie subtil, fie brutal, încrederea devine mai fragilă ca oricând. Cazul Grok ar trebui să fie un semnal clar că inteligența artificială, așa cum este ea astăzi, nu e imună la influențe. Din contră, poate deveni un instrument de propagandă mascată în utilitate.

Pentru ca AI-ul să ne ajute, trebuie mai întâi să-l înțelegem, să-l demistificăm (să-i înlăturăm aura de mister, complexitate sau magie și să-l privim așa cum este, o tehnologie creată de oameni, cu limite, influențe și defecte) și, mai ales, să-l supraveghem. Pentru că, așa cum arată Grok, narațiunea e stabilită nu de tehnologie, ci de oameni.

Dacă în cazul unui om, fie el și președintele Statelor Unite, e relativ ușor de observat când greșește, e mult mai greu să-ți dai seama când aceeași eroare vine de la un program care, în teorie, doar analizează date și oferă concluzii obiective. Poate cea mai importantă concluzie în acest caz este că inteligența artificială nu e mai obiectivă decât oamenii care o creează, o antrenează și o controlează.

 

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Back to top button