SentinelLabs, divizie a SentinelOne, a prezentat în cadrul conferinței LABScon 2025 o descoperire care a stârnit interesul comunității de securitate cibernetică: MalTerminal, considerat cel mai vechi exemplu cunoscut până acum de malware bazat pe un LLM (Large Language Model).
Ce este MalTerminal și de ce e un caz special
MalTerminal este un fișier executabil pentru Windows, descoperit alături de câteva scripturi Python, toate având în comun integrarea GPT-4 pentru a genera cod malițios la cerere. Mai simplu spus, utilizatorul putea alege dacă programul să producă un ransomware sau să deschidă un reverse shell, adică să trimită o conexiune înapoi către atacator și să îi ofere acestuia acces de la distanță pe mașina compromisă. Cercetătorii nu au găsit dovezi că ar fi fost folosit în atacuri reale, ceea ce sugerează că MalTerminal ar putea fi doar un experiment demonstrativ sau un instrument de testare pentru echipele de securitate ofensivă care simulează atacuri.
Mostrele descoperite conțineau linkuri către un API de la OpenAI, retras din funcțiune în noiembrie 2023. Detaliul arată că MalTerminal a fost scris înainte de acea dată și îl transformă, deocamdată, în cel mai vechi exemplu cunoscut de malware bazat pe LLM.
Pe deasupra, pachetul de fișiere descoperit includea și un instrument numit FalconShield, cu rol de detecție a codului suspect. Acesta apela la GPT pentru a analiza un script Python și a genera un mini-raport de tip „malware analysis”. Cu alte cuvinte, autorii nu s-au limitat doar la ofensivă: au testat și posibile instrumente defensive bazate pe aceleași tehnologii.
MalTerminal, o nouă categorie de amenințări digitale?
SentinelLabs avertizează că integrarea LLM-urilor în malware schimbă fundamental modul de operare al atacatorilor. Spre deosebire de codul static clasic, care poate fi semnat și detectat prin reguli, un malware bazat pe LLM poate crea cod rău intenționat când este rulat, cu un comportament imprevizibil și capabil să se ajusteze automat la sistemul infectat. Pentru specialiștii în securitate, asta înseamnă că metodele tradiționale de detecție ar putea deveni rapid insuficiente.
Totodată, faptul că MalTerminal depinde de API-uri și de chei de acces lasă urme utile pentru investigații. Cercetătorii arată că artefactele găsite, precum cheile incluse în cod și șabloanele de prompturi, oferă indicii utile pentru a descoperi alte mostre asemănătoare.
Descoperirea vine pe fondul unei tendințe mai largi care constă în exploatarea modelelor de limbaj pentru a păcăli filtrele AI din soluțiile de securitate. Un exemplu recent arată cum emailuri de tip phishing ascund comenzi în HTML pentru a induce în eroare sistemele automate, tehnică denumită LLM Poisoning. În astfel de cazuri, mesajul pare inofensiv, dar codul ascuns activează lanțuri de atac cunoscute, precum exploatarea vulnerabilității Follina.
MalTerminal nu pare să fi ajuns „in the wild”, dar existența lui demonstrează că era malware-ului bazat pe LLM nu mai este o speculație, ci o realitate documentată. Dacă până acum discuția despre AI în securitate se concentra pe apărarea sistemelor, MalTerminal arată și ce poate însemna atunci când aceeași tehnologie trece de partea adversarilor. Cercetătorii văd în aceste descoperiri atât o provocare, cât și șansa de a învăța din prototipuri precum MalTerminal, pentru a anticipa viitoarele atacuri.

