Google și-a creat propriul generator de imagini bazat pe inteligență artificială
Rezultatele sunt... dubios de detaliate...
SkyNet ar putea fi mai aproape de societatea noastră decât se vede în oglinzile retrovizoare ale francizei Terminator. La câteva săptămâni după ce OpenAI a lansat DALL·E 2, motorul bazat pe inteligență artificială care transformă propozițiile și frazele scrise în imagini impresionant de relevante și de precise, iată că Google lansează un contraatac similar, iar rezultatele sunt chiar disturbing.
Gigantul și-a anunțat propriul generator text-to-image, botezat Imagen, și la prima vedere pare că întrece performanțele oferite de platforma celor de la OpenAI. Google se laudă că Imagen este capabil de un fotorealism absolut și de un model de învățare al inteligenței artificiale deosebit de profund și de potent. Și pentru că nu este doar gura de companie, Google a postat și o serie de exemple care dovedesc faptul că AI-ul este aici să rămână, iar consecințele sunt în egală măsură fascinante și terrifying.
La fel ca DALL·E 2, nici Google nu a făcut Imagen disponibil publicului larg. Motivul principal se leagă de instabilitatea AI-ului din punct de vedere… etic. Da, știu, sună ciudat, dar inginerii de la Google susțin că Imagen tinde momentan să genereze rezultate poate prea… stereotipice și subiective, cum s-ar spune. În același timp, se pune problema și riscului ca AI-ul să fie folosit în scopuri mai puțin benefice și tocmai de aceea codul și demo-ul lui AI încă rămân aceesibile strict dezvoltatorilor.
Google are niște chestii importante de rezolvat cu Imagen
Ideea este că această creșetere a lui Imagen se datorează faptului că AI-ul adună de pe net și analizează volume imense de date, iar la un astfel de volum de informații, imaginile și datele cu pricina ajung de multe ori să nu fie verificate și „curățate” de subiecte controversate sau instigări la comportamente și ideologii abuzive. Un exemplu este cel mai recent dataset folosit de Google, denumit LAION-400M. Acesta conține foarte multe din cele amintite anterior și a ajuns să reprezinte un avertisment pe care compania l-a postat pe propriul blog.
Google recunoaște că există riscul ca Imagen să fi asimilat și stocat destule astfel de informații și date și tocmai de aceea platforma va continua să fie supravegheată îndeaproape. În plus, AI-ul este foarte limitat în generarea de imagini și artă care au în prim-plan ființe umane, pentru că are tendința să ofere doar rezultate stereotipice și anumite categorii rasiale și sociale. Whoops, vorba unui înțelept, „nu lăsa AI-ul liber la joacă!”
does anyone else get a deep sense of dread from DALL-E or Imagen -type software?
is there a reasonable expectation that the power of the underlying technology will remain directed towards "neat little image generation"? https://t.co/qb0LBYTQpR
— Max Latoche (@MaxLatoche) May 26, 2022