Vizat cu numeroase procese pentru cazuri de vătămare gravă și chiar sinucideri rezultate în urma folosirii ChatGPT, OpenAI se „blindează” împotriva viitoarelor acțiuni judecătorești echipând ChatGPT cu abilitatea de a „ghici” vârsta utilizatorilor pe baza interacțiunilor avute cu aceștia. Iar atunci când chatbotul are îndoieli cu privire la întrunirea vârstei legale conversația este oprită pentru verificări suplimentare. Spre exemplu, ți-ar putea fi cerut să accepți scanarea trăsăturilor faciale prin încărcarea unei poze, respectiv copie a cărții de identitate.
”ChatGPT va încerca acum să ghicească vârsta utilizatorilor și, în unele cazuri, ar putea solicita încărcarea copiei unui act de identitate pentru a verifica dacă au cel puțin 18 ani”, relatează 404 Media. „Știm că acesta este un compromis privind confidențialitatea pentru adulți, dar credem că este un compromis valoros”, a declarat compania în anunțul său . „Nu mă aștept ca toată lumea să fie de acord cu aceste compromisuri, dar având în vedere conflictul, este important să explicăm procesul nostru decizional”, a declarat CEO-ul OpenAI, Sam Altman, pe X.
La fel ca Meta pentru platformele Facebook și Instagram, OpenAI a introdus un mecanism mai strict pentru control parental, primele efecte fiind resimțite de utilizatorii ChatGPT la începutul lunii septembrie. Dar acum deja putem vorbi despre măsuri de securitate, mai stricte și mai invazive.
Pe lângă încercarea de a ghici sau verifica vârsta unui utilizator, ChatGPT va aplica și reguli diferite persoanelor încadrate la categoria adolescenti:
”De exemplu, ChatGPT va fi instruit să nu folosească discuțiile de flirt menționate mai sus, dacă este întrebat, sau să se angajeze în discuții despre sinucidere sau autovătămare, chiar și într-un context de scriere creativă”.
„Și, dacă un utilizator sub 18 ani are ideație suicidară, vom încerca să contactăm părinții utilizatorilor și, dacă nu putem, vom contacta autoritățile în caz de vătămare iminentă.”
Schimbarea de atitudine arătată de OpenAI vine în reacție la un fenomen tot mai răspândit asociat interacțiunii cu modele lingvistice mari, anumite categorii de utilizatori dezvoltând relații nesănătoase cu chatboții modelați pentru a da impresia unor persoane reale.
Dacă în anii de început ChatGPT era mult mai restricționat, refuzând să interacționeze cu utilizatorii pe o gamă largă de probleme pe care Open AI le considera periculoase sau nepotrivite, presiunea competiției și-a spus cuvântul, actuala versiune de ChatGPT venind fără multe dintre restricțiile cândva considerate de bun simț.
”Dorim ca utilizatorii să poată folosi instrumentele noastre așa cum doresc, în limite foarte largi de siguranță”, declară Open AI într-un mesaj oficial. Cât despre acuzațiile privind înmulțirea cazurilor de sinucidere în rândul adolescenților motivate de interacțiunea cu chatboți, OpenAI susține că trebuie ”să ne tratăm utilizatorii adulți ca pe niște adulți, extinzând libertatea de exprimare cât mai mult posibil fără a provoca daune sau a submina libertatea altcuiva”.

