5. December 2025.
image_1696464393_469966

Bezbjednosni istraživači otkrili su alarmantan način na koji su AI agenti, uključujući ChatGPT, mogli biti iskorišćeni za neprimijećeno izvlačenje osjetljivih podataka iz Gmail naloga korisnika.

Ovaj napad, poznat kao “Shadow Leak”, omogućavao je hakerima da koriste AI alate za pristup ličnim mejlovima, kalendarima i dokumentima bez znanja korisnika.

Napad je zasnovan na prompt injection tehnici, u kojoj hakeri ubacuju skrivena uputstva u mejlove ili dokumente, što navođenjem AI agenta navodi na izvršavanje neželjenih radnji. Konkretno, istraživači su iskoristili OpenAI alat Deep Research, koji je bio integrisan u ChatGPT, kako bi testirali ranjivost. Kada bi korisnik pokrenuo agenta, nesvjesno bi aktivirao skrivena uputstva koja su pretraživala i prenosila podatke napadačima.

OpenAI je brzo reagovao i zatvorio ovu ranjivost, ali incident Shadow Leak jasno pokazuje nove sigurnosne prijetnje povezane s agentičkim AI sistemima. Radware istraživači upozoravaju da bi slični napadi mogli uticati i na druge aplikacije povezane sa AI agentima, uključujući Outlook, Google Drive, GitHub i Dropbox.

Ovaj slučaj naglašava koliko je važno pratiti sigurnosna ažuriranja i biti oprezan kada AI agentima dajemo pristup osjetljivim podacima, jer čak i sofisticirani alati mogu postati nesvjesni saučesnici u sajber napadima.

Izvor: Borba

Foto: Pixabay