ȘtiriTech&IT

Grok, chatbot-ul abia anunțat de Elon Musk, vorbește despre rețete de cocaină și orgii nesfârșite

Dacă ar fi să întrebi pe cineva de la Google și să-i ceri o vorbă înțeleaptă, despre cum să nu lansezi un rival Chat GPT, probabil că răspunsul cu care te-ai alege ar suna ceva de genul copii (AI-ul) spun lucruri „trăsnite”. Sau, cel puțin, așa s-a întâmplat cu Grok, noul chatbot pe care Elon Musk s-a grăbit să-l lanseze, chiar dacă e deja evident pentru toată lumea că antreprenorul american nu a fost în gară când a plecat „trenul AI”.

Lansat peste weekend, Grok (fără legătură cu ”I Am Groot” din Universul Marvel) nu a ezitat să-și facă de cap. Mai ales că a fost activat fără limitări/constrângeri de bun simț, pe care OpenAI și alți dezvoltatori le-au descoperit după ce greșeli similare au ajuns în atenția publicului.

Deși a fost introdus unui grup restrâns de utilizatori înrolați în programul de testare, reacțiile mai mult decât nepotrivite ale lui Grok nu au întârziat să apară pe internet. Aflăm de exemplu că lui Grok îi place să-i înjure și să-i tachineze pe utilizatorii săi. Și Google Bard a făcut asta la începuturile sale, explicația găsită fiind surprinzător de simplă. Anume că oamenii care comentează pe internet la diverse postări au exact acea atitudine „războinică”, AI-ul ajungând să o imite ca și cum aceasta ar fi modalitatea normală de comunicare între ființe umane. Desigur, în lumea reală lucrurile pot sta mult mai rău de atât. Putem doar spera că AI-ul nu va ajunge să imite și războaiele noastre.

Într-un exemplu divulgat chiar de un angajat X, pe nume Christopher Stanley, Grok compară ajustarea solicitărilor API pentru accesarea anumitor informații drept o „orgie fără sfârșit”. Rămâne de analizat dacă aceasta chiar este echivalentul definiției unei orgii, așa cum este experimentată de un computer.

Un alt insider povestește cum Grok răspunde la întrebările despre cocaină. În timp ce Elon Musk intervine pe acest subiect, spunând că intenția lui Grok este de a mima simțul umorului, nu putem ignora faptul că răspunsurile conțin și informații concrete, ce ar putea fi folosite în scopuri mai nu tocmai legale. Aparent, repertoriul lui Grok include și sarcasmul, chatbot-ul indicând utilizatorilor că ar trebui să obțină o licență în chimie și aprobare explicită din partea autorităților responsabile cu controlul substanțelor interzise, înainte de a încerca vreuna din „rețetele” descrise.

Aurelian Mihai

Îmi place să fiu la curent cu ultimele inovații și gadgeturi high-tech. Când nu scriu articole pentru Zona IT, îmi ocup timpul cu seriale SF, documentare sau periind internetul după tot felul de știri sau informații care-mi captează atenția. În week-end mă găsești cu bicicleta în parc sau colindând prin țară cu familia.

Articole asemanatoare

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Back to top button