Malware e intelligenza artificiale: come i chatbot possono essere usati negli attacchi

21 views

Negli ultimi anni, l’intelligenza artificiale ha rivoluzionato la sicurezza informatica, ma ultimamente sta emergendo il fenomeno contrario. I criminali sfruttano i chatbot AI con funzione di…

Marcello LegaMar 27, 20267 min di lettura

Negli ultimi anni, l’intelligenza artificiale ha rivoluzionato la sicurezza informatica, ma ultimamente sta emergendo il fenomeno contrario. I criminali sfruttano i chatbot AI con funzione di navigazione, come Copilot e Grok, per controllare i malware e lanciare attacchi.

L’ha dimostrato un gruppo di ricercatori di cybersecurity. È possibile creare un malware che, una volta installato, utilizza i chatbot per comunicare con l’esterno del sistema, aggirando così i controlli di sicurezza e aprendo nuove strade per il furto di dati e la compromissione dei dispositivi.

Ma è realmente possibile, al di là della teoria? Questo tipo di attacco che sfrutta l’intelligenza artificiale è già stato osservato nel mondo reale? E cosa puoi fare per proteggerti e continuare a usare in sicurezza i tuoi chatbot AI preferiti?

In questo articolo:

  • Nuovo scenario: malware controllati tramite AI.
  • Come funziona l’attacco.
  • Perché l’attacco con AI è pericoloso.
  • AI e cybercrimine: tutto cambia.
  • Il futuro: malware autonomi e AI agent.
  • Come difendersi dai nuovi attacchi AI.

Buona lettura!

Nuovo scenario: malware controllati tramite AI

Tradizionalmente i malware si installano sul dispositivo e poi si connettono a internet per comunicare con un server remoto controllato dal criminale, da cui ricevono istruzioni e a cui inviano i dati che rubano. Oggi, però, il modello sta cambiando.

Secondo recenti ricerche, i cybercriminali possono sfruttare i chatbot con capacità di navigazione web per:

  • Recuperare istruzioni da siti malevoli.
  • Inviare dati rubati. 
  • Ricevere comandi senza contattare direttamente server sospetti.

In pratica, l’AI diventa un intermediario, con il grande vantaggio – per i cybercriminali, ovviamente – che il traffico malevolo può sembrare traffico normale verso servizi legittimi, rendendo il rilevamento molto più difficile.

Come funziona l’attacco tramite AI

Vediamo come funziona questo nuovo flusso di attacco, secondo i ricercatori che l’hanno dimostrato empiricamente:

  • Il malware infetta il dispositivo. Una volta installato, il malware non comunica direttamente con l’hacker.
  • Invia un prompt a un chatbot AI. Il malware riconosce la presenza di un chatbot AI nel sistema, vi accede e invia richieste all’assistente AI, ad esempio un chatbot con navigazione web integrata o un AI agent completo.
  • L’AI visita un sito controllato dall’attaccante. Il chatbot recupera contenuti ospitati su una pagina web malevola, che possono includere istruzioni personalizzate in base al sistema della vittima (precedentemente analizzato).
  • Il malware riceve le istruzioni. Il chatbot risponde al prompt in modo apparentemente normale e innocuo, ma la risposta contiene le informazioni di cui ha bisogno il malware che, rimasto in ascolto, le legge e agisce di conseguenza.

In questo modo il chatbot AI diventa un intermediario che mette in contatto il malware con il criminale che lo controlla, senza far saltare i tipici campanelli d’allarme legati al traffico sospetto.

Perché questo attacco è così pericoloso

Questo nuovo tipo di attacco informatico con AI ha diversi vantaggi per i criminali informatici:

  • Invisibilità: il traffico malevolo passa da piattaforme considerate affidabili (AI, cloud, chatbot), per cui non viene controllato a dovere ed è più difficile da bloccare per i firewall tradizionali.
  • Automazione avanzata: il malware si adatta al sistema e alle diverse situazioni grazie alle istruzioni personalizzate che riceve tramite il chatbot AI. In questo modo diventa uno strumento intelligente che prende decisioni quasi in tempo reale, aumentando la portata e l’efficacia degli attacchi.
  • Furto di dati: con una tecnica ancora più semplice, il malware può usare il chatbot AI per visitare un sito malevolo aggiungendo un parametro all’URL (come “password123”) per comunicare indirettamente credenziali di accesso e dati personali al criminale.
  • Minore tracciabilità: a ogni passaggio aggiuntivo, il traffico malevolo diventa sempre più difficile da tracciare, riconoscere e bloccare, per cui un attacco tramite AI consente ai criminali di celare meglio la propria posizione e identità.

Importante: questo scenario di attacco è stato dimostrato in un ambiente sperimentale e, anche se molto plausibile, non è ancora stato osservato nel mondo reale.

AI e cybercrimine: un cambiamento importante

Questa evoluzione rientra in un trend molto più ampio a cui stiamo assistendo negli ultimi anni: l’uso dell’AI generativa nei cyberattacchi e nella creazione di malware.

Attualmente, l’AI viene già usata dai criminali per:

  • Scrivere codice malevolo, provarlo, migliorarlo e adattarlo.
  • Scrivere messaggi di phishing più credibili.
  • Potenziare gli attacchi di ingegneria sociale, soprattutto grazie a nuovi formati come deepfake e falsi vocali.
  • Creare malware polimorfici e adattabili quasi in tempo reale.
  • Rendere più facili i cyberattacchi, abbassando la soglia tecnica di accesso a malware e vettori di attacco (grazie al vibe coding e alle istruzioni dei chatbot stessi).
  • Automatizzare operazioni di cybercrimine su larga scala, grazie alla coordinazione e alla verifica tramite AI agent.

Il nuovo scenario ipotizzato si spinge oltre: inserisce il chatbot AI direttamente nella struttura dell’attacco, e non più solo come uno strumento di preparazione o controllo.

Chatbot con accesso web: comodissimo ma anche pericoloso

I chatbot moderni non sono più solo assistenti testuali. Molti possono navigare ed esplorare siti web, recuperare contenuti e perfino file, interagire con le API di altri software e molto altro ancora.

Di fatto, la prossima frontiera dell’evoluzione dei chatbot AI sono gli AI agent, ovvero assistenti basati sull’intelligenza artificiale generativa che possono anche compiere azioni per conto dell’utente, come modificare il calendario, scrivere un messaggio a un contatto o perfino acquistare un volo o un prodotto su un marketplace online.

Se da un lato si tratta di una grande comodità per l’utente, dall’altro aprono la porta a nuovi scenari di attacco e vulnerabilità. Se manipolato, infatti, un chatbot AI può:

  • Eseguire istruzioni nascoste e ignorare i propri controlli di sicurezza (prompt injection).
  • Recuperare dati sensibili contenuti nel dataset.
  • Fungere da ponte per i malware, come nello scenario di attacco descritto in questo articolo.

In pratica, un chatbot AI può diventare inconsapevolmente un assistente per gli attacchi informatici.

Come difendersi dai nuovi attacchi potenziati con l’AI

Se le minacce evolvono e integrano l’AI, anche le strategie di sicurezza devono adattarsi. Vediamo cosa possiamo fare nel 2026 per utilizzare i chatbot AI in modo sicuro e proteggerci da potenziali attacchi malware con AI:

  • Tieni d’occhio il traffico dati dell’AI: l’obiettivo è notare subito se il chatbot invia o riceve dati anomali, oltre a quelli che chiedi tu. Fai particolare attenzione a risposte che sembrano collegarsi a prompt che non riconosci.
  • Limita l’accesso. Visto che siamo agli inizi, utilizza con parsimonia l’AI con navigazione e gli AI agent, e controlla le autorizzazioni che concedi, in particolare per l’accesso a URL esterni.
  • Separa gli accessi. Imposta due profili o due browser diversi, uno per la navigazione normale e uno per i chatbot AI. Usa il secondo profilo per sperimentare, ma cercando di condividere poche informazioni personali.
  • Usa una scheda prepagata o un conto di pagamento online come PayPal, per associarlo al browser AI.
  • Sicurezza avanzata. Se hai una piccola impresa, investi in una soluzione di sicurezza informatica basata sui comportamenti e che integri l’AI come strumento per potenziare il rilevamento e l’analisi delle minacce.

L’obiettivo è chiaro: usare l’AI e le altre tecnologie disponibili per difenderti dai pericoli dell’AI stessa.

Riassumendo, i cybercriminali potrebbero usare l’AI per controllare i malware a distanza e aggirare i controlli di sicurezza tradizionali, ma prima devono infettare il dispositivo e installare il malware.

Per questo, le difese più efficaci di tutte rimangono la prevenzione e il controllo in tempo reale con strumenti come Panda Dome. Il nostro pacchetto di sicurezza informatica protegge continuamente i tuoi dati, anche quando usi i chatbot e le app basate sull’AI.

CONTINUA A LEGGERE: Stress da sicurezza informatica: anche tu ne soffri senza saperlo?

Buona navigazione e buona difesa dai malware che sfruttano l’AI!

Autore

  • immagine Marcello

    Giornalista e traduttore con oltre 18 anni di esperienza nel settore della tecnologia e della cybersecurity. Mi occupo di privacy online, minacce digitali e strategie pratiche per navigare in sicurezza.

    Il mio obiettivo è rendere chiari e utili anche gli aspetti più complessi della sicurezza informatica, sia per gli utenti comuni che per gli appassionati di tecnologia. Per Panda Security, scrivo articoli accurati e coinvolgenti che aiutano le persone a proteggere la propria vita digitale.

    Ho conseguito la certificazione professionale Google Cybersecurity Certificate, che approfondisce le basi della sicurezza informatica e delle pratiche di protezione dei dati.

     

    LinkedIn de Marcello Lega