Alături de noua interfață Liquid Glass, despre care unii cârcotași spun că ar fi inspirată de Windows Vista, iOS 26 aduce și unele îmbunătățiri mult așteptate și necesare pentru platforma Apple Intelligence, AI-ul inclus cu dispozitivele iPhone și iPad putând analiza de acum și conținutul ecranului.
Aflam anul trecut că Google forțează aducerea funcției Circle to Search la utilizatorii iPhone, fentând piedicile ridicate de Apple în pregătire pentru funcționalitatea similară ce avea să fie inclusă în pachetul Apple Intelligence. Doar că așteptarea s-a dovedit mai lungă decât era anticipat, fanii Apple neprimind nici acum o alternativă Circle to Search în versiune Apple.
În schimb, vedem doar un prim pas în această direcție, Apple deschizând propria infrastructură Foundation Models pentru dezvoltatorii interesați să adauge funcții AI de nivel avansat în aplicațiile create pentru dispozitive iOS. Iar compania americană precizează că oferă aceste instrumentele API în mod gratuit, dezvoltatorii de aplicații având de introdus doar câteva linii de cod pentru ca aplicațiile lor să poate accesa noile capabilități Visual Intelligence.
Noile capabilități Apple Intelligence sunt demonstrate cu câteva dintre aplicațiile iOS. Spre exemplu, funcționalitatea Live Translation este suportată cu aplicațiile Messages, FaceTime și în apelurile de voce, folosind puterea de procesare proprie dispozitivului pentru a genera transcrieri în timp real, inclusiv cu traducerea într-o altă limbă de circulație. Spre exemplu, cu noua versiune de software telefonul poate traduce textul afișat în aplicația de mesagerie preferată, generând traduceri care pot apărea tot în formă text sau rostite cu ajutorul sintezei vocale.
Tot folosind procesare locală, motorul Visual Intelligence poate accesa ecranul iPhone pentru a răspunde la întrebări simple și iniția acțiunea relevantă pentru conținutul afișat. Spre exemplu ai putea cere selectarea unei poze și mutarea acesteia într-un folder anume, sau folosi imaginea biletului proaspăt achiziționat pentru a solicita adăugarea evenimentului în aplicația Calendar. Însă pentru solicitări mai complexe, cum ar fi analizarea unui obiect din imagine și furnizarea de informații despre acesta va trebui să apelezi tot la aplicații terțe, cum ar fi ChatGPT sau Gemini. De asemenea, acum poți folosi Google și alte aplicații suportate pentru a iniția căutări pornind direct de la conținutul afișat pe ecran.
Apple va continua integrarea funcțiilor de inteligență artificială în și mai multe aplicații iPhone, versiunile actualizate urmând să fie incluse cu următoarele revizii firmware. Spre exemplu, aplicația Wallet poate acum să rezume e-mailurile trimise de comercianți și de transportatori, permițând utilizatorilor să urmărească direct din aplicație detaliile comenzilor plasate online, cu tot cu notificările de progres și alte detalii. În aplicația Messages, Apple Intelligence poate sugera unde ar putea fi util un sondaj, iar utilizatorii pot crea fundaluri care să se potrivească chat-urilor lor folosind Image Playground.
Noile funcții Apple Intelligence sunt disponibile pentru testare pe iPhone, iPad, Mac, Apple Watch și Apple Vision Pro, prin intermediul programului Apple Developer. În afară de engleză, suita de inteligență artificială de la Apple va accepta (până la finalul anului în curs) și limbile daneză, olandeză, norvegiană, portugheză (doar în Portugalia), suedeză, turcă, chineză (tradițională) și vietnameză.





