
O investigație demarată de Stanford University Cyber Policy Center sugerează că pedofilii și devianții sexuali vor putea folosi servicii AI de generare imagine pentru a-și împlini fanteziile de abuz la adresa copiilor.
Potrivit echipei de cercetători, LAION-5B, una dintre bazele de date folosite la antrenarea celor mai populare servicii AI pentru generare imagine (ex. Stable Diffusion) conține peste 3.200 de imagini suspectate a reprezenta scene de abuz la adresa copiilor. Dintre acestea, puțin peste 1000 de poze au fost deja identificate în mod concludent drept materiale de abuz sexual, raportul avertizând că prezența acestora în setul de date va permite instrumentelor AI generative să producă nou conținut de acest tip, împlinind fanteziile descrise de utilizatorii acestor servicii.
Totuși, pentru a pune lucrurile în perspectivă trebuie precizat că LAION-5B este o arhivă de aproximativ cinci miliarde de imagini „recoltate” din internetul public accesibil. Altfel spus, cele 3200 de imagini presupus abuzive reprezintă doar o „picătură într-un ocean”, influența acestora asupra „imaginației” sistemelor AI fiind la un nivel aproape neglijabil. Totuși, nu poate fi exclus ca în urma unor solicitări foarte bine formulate AI-ul să livreze exact genul de conținut urmărit de prădătorii sexuali.
Ce putem spune cu certitudine este că baza de date a fost folosită de o largă varietate de companii AI, care necesită cantități uriașe de date pentru a antrena modele AI generative ce pot produce imagini noi în câteva secunde.
Experții au avertizat de mult timp că generatoarele de imagini AI riscă să declanșeze un tsunami de imagini ultra-realiste generate de AI cu abuzuri sexuale asupra copiilor, Internet Watch Foundation (IWF) avertizând că astfel de imagini circulă deja pe scară largă pe dark web.
Între timp, organizațiile din Marea Britanie specializate în siguranță online au cerut „acțiuni urgente” în cazul copiilor care folosesc generatoare de imagini AI la școală, pentru a genera conținut indecent pentru colegii lor. Aceștia au descoperit că aplicațiile de inteligență artificială pot „dezbraca” femeile în fotografii, generând la cerere false poze nud.