ȘtiriTech&IT

Chatbot-ul cu AI de la Cursor a inventat o nouă regulă și a enervat utilizatorii

Chatbot-ul cu AI de la Cursor a declanșat o mică criză săptămâna trecută, după ce a transmis unui utilizator o regulă inexistentă privind limitarea accesului pe mai multe dispozitive, scrie ArsTechnica. Totul a pornit de la un e-mail de suport, care părea perfect credibil și oficial, dar era complet inventat.

Chatbot-ul cu AI de la Cursor fabulează

BrokenToasterOven, un dezvoltator activ pe Reddit, a semnalat un comportament neobișnuit: „Autentificarea pe un dispozitiv invalidează automat sesiunea de pe celelalte. Asta e un regres serios de UX.”

Mai exact, dezvoltatorul obișnuia să lucreze de pe mai multe dispozitive: un laptop, un desktop și un server remote, adică un calculator aflat la distanță, accesat prin internet, folosit de obicei pentru scrierea sau testarea codului în medii de lucru specializate. În momentul în care se conecta la Cursor de pe unul dintre aceste dispozitive, sesiunile active de pe celelalte erau închise automat, ceea ce întrerupea complet fluxul de lucru.

Frustrat, utilizatorul a scris un e-mail către suportul tehnic. Răspunsul venit de la Sam, chatbot-ul cu AI de la Cursor, care a susținut că această limitare este o „caracteristică de securitate” oficială. Problema? Această regulă nu exista.

Chatbot-ul cu AI de la Cursor foto Cursor

De aici a pornit o avalanșă de reacții negative din partea utilizatorilor, pe Reddit și Hacker News, unde mulți și-au anunțat anularea abonamentelor. Chatbot-ul cu AI de la Cursor tocmai crease o criză din nimic. Trei ore mai târziu, un reprezentant cu inteligență naturală de la Cursor a intervenit pe Reddit: „Nu avem o astfel de politică. E o greșeală venită de la chatbot-ul nostru AI, din prima linie de suport”.

„Un deja-vu” pentru lumea AI-ului

Incidentul amintește de o altă situație controversată din februarie 2024, când chatbot-ul de la Air Canada a inventat o politică de rambursare care nu exista. Diferența? Air Canada a încercat să se scuze spunând că „chatbot-ul este o entitate legală separată”. Tribunalul canadian a respins ideea, stabilind că firma e responsabilă pentru ceea ce spune AI-ul său.

Sunt destul de sigur că „un deja-vu” e o minimalizare a fenomenului fabulațiilor inteligenței artificiale, nu cred că mai există vreun cititor de tech în 2025 care n-a citit despre erorile AI-ului sau nu s-a confruntat direct cu ele.

Totuși, reacția de la Cursor a fost promptă și transparentă. Michael Truell, cofondatorul companiei, a intervenit direct pe Hacker News pentru a clarifica situația: utilizatorul a fost complet rambursat, iar mesajele generate de AI în suportul prin e-mail sunt acum etichetate clar.

El a explicat că problema nu a fost o decizie intenționată, ci rezultatul unei erori tehnice. Mai exact, o „race condition” care apărea în special pe conexiuni de internet lente. Aceasta genera mai multe sesiuni simultan, iar sistemul interpreta greșit situația și deconecta utilizatorul de pe celelalte dispozitive. „Am lansat deja un patch pentru a corecta această problemă,” a spus Truell.

Inteligența artificială, o tehnologie și un business în dezvoltare

Deși bug-ul tehnic a fost rezolvat, episodul scoate la iveală vulnerabilitatea companiilor care aleg să-și pună încrederea (și imaginea) în mâinile unui AI nesupravegheat, adesea din dorința de a reduce costurile cu angajații umani. Pentru o platformă care vinde unelte AI dezvoltatorilor, faptul că propriul  chatbot-ul cu AI a reușit să-și enerveze tocmai clienții e… ironic, ca să fim blânzi.

Pe de altă parte, să te comporți de parcă nu ar exista obstacole în dezvoltarea unei tehnologii e ca și cum ai pretinde că un om învață totul perfect din prima. Totuși, poate n-ar fi rău ca firmele să nu mai testeze AI-ul direct pe clienți, înainte de a se asigura că funcționează în limite decente. Experimentul live pe utilizatori are un cost real: de încredere, de reputație și, uneori, financiar.

 

 

Articole asemanatoare

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Acest site folosește Akismet pentru a reduce spamul. Află cum sunt procesate datele comentariilor tale.

Back to top button