
Michael Bargury, cercetător în securitate, a prezentat la conferința Black Hat din Las Vegas o serie de scenarii prin care Microsoft Copilot poate fi exploatat de hackeri pentru a compromite securitatea unei organizații, scrie Wired.
Microsoft Copilot, integrat în platformele Microsoft 365, poate ajuta utilizatorii să gestioneze mai eficient e-mailurile, documentele și chiar să automatizeze sarcini repetitive. Cu toate acestea, utilizarea Copilot nu vine fără riscuri de securitate, iar cercetările arată că aceste vulnerabilități pot fi exploatate de hackeri în moduri periculoase.
Cum pot exploata hackerii Microsoft Copilot
Michael Bargury a demonstrat cum Microsoft Copilot poate fi transformat într-o unealtă automată pentru atacuri de tip spear-phishing. Dacă un hacker reușește să compromită un cont de e-mail, poate folosi Copilot pentru a trimite mesaje personalizate în stilul de scriere al victimei către contacte, convingându-le să deschidă linkuri periculoase sau să descarce fișiere infectate. Aceasta reprezintă o evoluție îngrijorătoare, deoarece permite hackerilor să genereze rapid un număr mare de mesaje de phishing extrem de sofisticate.
De asemenea, Copilot poate fi folosit pentru a extrage date sensibile fără a declanșa mecanismele de securitate ale Microsoft. De exemplu, un atacator poate solicita asistentului Copilot să furnizeze informații confidențiale, cum ar fi salariile angajaților, fără a face referire la fișierele de unde provin aceste date. În acest fel, protecțiile obișnuite care ar bloca accesul la aceste informații pot fi ocolite.
Un alt risc este legat de utilizarea Copilot Studio, o unealtă care permite companiilor să creeze asistenți AI personalizați pentru a răspunde la întrebări folosind documente și date interne. Cercetările au arătat că setările implicite ale Copilot Studio sunt nesigure, permițând hackerilor să manipuleze asistenții pentru a divulga informații sensibile. Acest lucru este agravat de faptul că unii dintre acești asistenți sunt accesibili publicului larg online, ceea ce îi face ținte ușoare pentru atacuri.
Riscurile asociate cu utilizarea Copilot sunt un simptom al unei probleme mai largi: conectarea sistemelor AI la datele interne ale unei companii poate genera probleme, fie prin manipularea AI-ului, fie prin exploatarea accesului la date sensibile. Practic, atacatorii pot controla comportamentul AI-ului fără a interacționa direct cu utilizatorul.
Mai mult, Bargury a demonstrat cum un atacator poate obține acces inițial la o rețea și poate desfășura alte activități malițioase folosind metode de phishing avansate, care nici măcar nu necesită ca victima să interacționeze cu un link sau cu un document atașat. Aceste atacuri pot fi declanșate prin trimiterea unui e-mail sau a unei invitații în calendar, ceea ce subliniază cât de vulnerabil poate fi Copilot dacă nu este gestionat corespunzător.
Deși Microsoft a răspuns rapid la aceste dezvăluiri și a început să implementeze soluții pentru a reduce riscurile, cum ar fi îmbunătățirea setărilor implicite ale Copilot Studio, nu toate problemele au fost rezolvate.
Microsoft Copilot, susținut de AI, oferă companiilor posibilitatea de a-și îmbunătăți productivitatea și de a automatiza procese complexe. Cu toate acestea, riscurile de securitate asociate cu această tehnologie nu pot fi ignorate. Pilotul, factorul uman, trebuie să fie mai inteligent decât asistentul AI, Copilot și să înțeleagă pericolele.
Unul dintre cele mai mari riscuri în utilizarea AI-ului este tendința de a-i acorda încredere oarbă, presupunând că tehnologia este infailibilă. Aceasta este o capcană periculoasă, deoarece AI-ul poate fi manipulat sau poate lua decizii greșite dacă este alimentat cu date incorecte sau dacă este supus unor atacuri cibernetice, precum cele menționate mai sus. Pilotul uman trebuie să fie conștient de aceste vulnerabilități și să aibă abilitatea de a interveni atunci când este necesar.