inteligenta artificialamalwareŞtiriTech&IT

Viruși informatici dotați cu inteligență artificială, testați deja în scenarii de infectare

image

Intrând pe lista scurtă a celor mai înfricoșătoare aplicații ale tehnologiilor generative AI, virușii informatici capabili de învățare și adaptare la scenarii neprevăzute reprezintă o provocare uriașă pentru dezvoltatorii de soluții antivirus și nu numai.

Indiferent că e vorba de instrumente specializate pentru facilitarea operațiunilor de hacking, sau malware conceput pentru operațiuni la scară largă, cum sunt atacurile cu ransomware, până acum măcar aveai certitudinea că virușii informatici se limitează la scopul pentru care au fost creați și nu pot gândi de „capul lor”.

Acționând cu scopul facilitării unei demonstrații a riscurilor ecosistemelor AI conectate și autonome, un grup de cercetători a creat ceea ce ar putea fi primii viermi AI generativi, capabili să se răspândească de la un sistem informatic la altul, recoltând date potențial-valoroase și plasând elemente malware secundare pentru atacarea ulterioară a țintelor cu potențial.

Folosind tehnologii de inteligență artificială generativă, grupările de hackeri pot dobândi ”capacitatea de a efectua un nou tip de atac cibernetic care nu a fost văzut până acum”, spune Ben Nassi, cercetător Cornell Tech în spatele cercetării. Nassi, împreună cu colegii cercetători Stav Cohen și Ron Bitton, au creat viermele, numit Morris II (nume amintind de primul virus de computer larg răspândit, care a provocat haos în 1988 pe internetul abia inaugurat ca și rețea globală pentru comunicații de date.

În lucrarea de cercetare publicată, cercetătorii descriu cum viermele AI poate ataca un asistent de e-mail AI generativ pentru a-i fura date colectate din e-mailuri și folosi în scopul trimiterii de mesaje spam, depășind unele protecții de securitate în ChatGPT și Gemini special create pentru a preveni astfel de incidente.

Pentru a crea viermele AI generativ, cercetătorii au apelat la așa-numitul „prompt de auto-replicare adversar”. Acesta este un prompt care declanșează modelul AI generativ să scoată, în răspunsul său, un alt prompt, spun cercetătorii. Pe scurt, sistemului AI i se spune să producă un set de instrucțiuni suplimentare în răspunsurile sale. Pentru a arăta cum poate funcționa viermele, cercetătorii au creat un sistem de e-mail care ar putea trimite și primi mesaje folosind AI generativ, conectându-se la ChatGPT, Gemini și open source LLM, LLaVA . Apoi au găsit două modalități de a exploata sistemul prin utilizarea unui prompt cu auto-replicare bazat pe text și prin încorporarea unui prompt cu auto-replicare într-un fișier imagine.

Într-un caz, cercetătorii, acționând ca atacatori, au scris un e-mail care include mesajul text advers, care „otrăvește” baza de date a unui asistent de e-mail utilizând generarea de recuperare augmentată (RAG), o modalitate prin care LLM-urile să extragă date suplimentare din surse externe. Atunci când e-mailul este preluat de RAG, ca răspuns la o interogare a utilizatorului, și este trimis către GPT-4 sau Gemini Pro pentru a crea un răspuns, ”jailbreakează serviciul GenAI” și în cele din urmă sustrage date din e-mailuri, spune Nassi. ”Răspunsul generat care conține datele sensibile ale utilizatorului infectează ulterior noi gazde atunci când este folosit pentru a răspunde la un e-mail trimis unui client nou și apoi stocat în baza de date a noului client”, spune Nassi. În a doua metodă, spun cercetătorii, o imagine cu o solicitare rău intenționată încorporată face ca asistentul e-mail să trimită mesajul către alții. ”Prin codificarea promptului cu auto-replicare în imagine, orice fel de imagine care conține spam, material abuziv sau chiar propagandă poate fi redirecționată către clienți noi după ce e-mailul inițial a fost trimis”, spune Nassi.

[embedded content]

Într-un videoclip care demonstrează experimentul, sistemul poate fi observat redirecționând un mesaj de mai multe ori. Cercetătorii spun, că ar putea repeta strategia pentru a extrage date din e-mailuri. „Pot fi nume, pot fi numere de telefon, numere de card de credit, SSN, orice este considerat confidențial”, spune Nassi.

Din păcate, singura notă pozitivă pe marginea acestui experiment ar fi că.. încă este un experiment. Dar cu siguranță că există undeva în lume grupări de hackeri bine finanțate, sau operațiuni specializate în activități clandestine la scară largă, care lucrează chiar acum la dezvoltarea și perfecționarea unor viruși informatici cu adevărat periculoși, dotați cu inteligență artificială generativă.

Această postare a fost preluată de pe acest site

Related Articles

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

Back to top button