Nel loro ultimo report, spiegano come gli hacker più pericolosi utilizzano l’IA, ma l’impatto effettivo sulla cybersecurity è ancora basso.

Microsoft e OpenAI, già partner per l’integrazione di ChatGPT negli assistenti intelligenti di Microsoft, hanno stretto un’altra partnership per analizzare l’impatto dell’IA generativa sulla cybersecurity a livello di minacce e gruppi hacker.

Partiamo con una buona notizia: per ora, analizzando gli attacchi rilevati, l’IA generativa non ha avuto un forte impatto negativo sul cybercrimine, cioè gli hacker hanno iniziato a usarla, ma ancora non li aiuta al punto da dover dichiarare un’emergenza.

In questo post vediamo i principi di Microsoft per il controllo dell’IA in cybersecurity. Come gli hacker usano l’IA generativa e quali sono i cybercriminali più potenti e attivi in questo momento. Buona lettura!


Principalmente, i cybercriminali utilizzano l’IA per raccogliere informazioni strategiche, programmare meglio e organizzare truffe in più lingue.


Cosa dice il report di Microsoft Threat Intelligence

Microsoft Threat Intelligence, la divisione di Microsoft che si occupa del monitoraggio del cybercrimine. Ha iniziato a collaborare con OpenAI per capire chi sono gli hacker che utilizzano l’IA generativa, come la usano, rilevare i primi attacchi andati a segno e produrre informazioni da condividere nel settore, a beneficio di tutti gli utenti e i partner.

Innanzitutto, Microsoft ha dichiarato i principi su cui basa le sue ricerche nel settore della cybersicurezza:

  • Identificare e agire contro gli usi criminali dell’IA.
  • Collaborare con altri fornitori di IA e altre persone coinvolte nell’uso di questi strumenti.
  • Garantire la trasparenza su problemi, incidenti e soluzioni relative ai propri sistemi.

Questi principi si basano sulle linee guida di Microsoft per l’uso responsabile dell’IA e il codice etico di Azure OpenAI, e si integrano con l’impegno di Microsoft a promuovere uno sviluppo sostenibile dell’IA a favore di tutta la società.

ChatGPT e hacker: come lo usano

Microsoft e OpenAI hanno già raccolto molti dati sull’uso per scopi criminali dei modelli di IA generativa, soprattutto gli LLM, i modelli linguistici di grandi dimensioni. L’IA è un potenziale alleato sia dei cybercriminali sia degli utenti e dei tecnici di cybersecurity. Ma molti esperti temono che l’IA generativa possa essere più pericolosa che benefica.

Microsoft ha sottolineato che finora non ha rilevato un impatto significativo dell’IA generativa sulle pratiche di hacking e cybercrimine, nonostante l’IA si presti a determinati usi che ha poi dettagliato nel report di cui stiamo parlando.

Gli hacker utilizzano l’IA generativa soprattutto per:

  • Trovare informazioni su bersagli, sistemi, vulnerabilità e altre cose che possono aiutarli a organizzare attacchi efficaci.
  • Farsi aiutare a programmare script e virus e a implementarli.
  • Scrivere e tradurre testi in più lingue per usarli nelle campagne di phishing e rendere i messaggi più verosimili.

I media si sono soffermati spesso sul terzo punto, perché sembra l’utilizzo più scontato e pericoloso dell’IA generativa. Noi non siamo d’accordo: dal nostro punto di vista di operatori di cybersecurity, pensiamo che il primo punto sia quello più pericoloso.

Grazie agli LLM, gli hacker possono trovare facilmente moltissime informazioni anche su argomenti molto complessi, come il funzionamento di determinati sistemi informatici o l’organizzazione del lavoro in una certa corporation. Non solo, l’IA generativa può spiegare i concetti, aiutando gli hacker a comprendere meglio le informazioni che trovano. E, infine, li aiuta ad accedere a quelle informazioni anche se sono in una lingua straniera, traducendole automaticamente.

Con questi strumenti, le tattiche di social engineering sono diventate molto più sofisticate e pericolose, e chi ricopre un ruolo importante in un’organizzazione dovrebbe adottare misure di sicurezza molto più stringenti.

LEGGI ANCHE: Phishing, vediamo un caso reale

Esempi di cybercriminali monitorati da Microsoft

Microsoft ha raccolto informazioni su alcuni gruppi di cybercriminali e ne ha rese pubbliche alcune per esemplificare come i cybercriminali utilizzano l’IA generativa in attacchi reali.

Ne riportiamo due piuttosto emblematici: Forest Blizzard ed Emerald Sleet.

Forest Blizzard

È un gruppo di hacker russo paramilitare che prende di mira le infrastrutture critiche dei paesi nemici della Russia.  Per rubare informazioni strategiche e, in certi casi, aiutare l’offensiva in Ucraina tramite operazioni online.

Forest Blizzard ha utilizzato attivamente l’IA generativa per comprendere i protocolli di comunicazione dei satelliti e raccogliere informazioni tecniche sul funzionamento di sistemi critici, come installazioni radar e reti di trasporto.

Emerald Sleet

È un gruppo di hacker politici al servizio del governo nordcoreano. Il loro obiettivo principale è scoprire i dati che gli altri governi hanno raccolto sulla Corea del Nord. Per riuscirci, lanciano attacchi di phishing mirato (spear phishing) contro personaggi pubblici che posseggono questo tipo di informazioni, impersonando ONG e altre organizzazioni che potrebbero richiederne legittimamente la condivisione.

In questo caso, gli hacker utilizzano principalmente l’AI generativa per trovare le organizzazioni, gli esperti e le agenzie governative che studiano la Corea del Nord, e per tenere conversazioni con questi target in varie lingue.


Gli esempi riportati da Microsoft sono relativi a gruppi hacker con scopi politici, che organizzano cyberattacchi complessi e articolati nel tempo.


Breve critica alle comunicazioni di Microsoft

Per concludere questo post, vogliamo condividere una riflessione basata su quello che abbiamo notato leggendo l’articolo di Microsoft Threat Intelligence (in inglese): il post presenta una narrativa che contrappone gli Stati Uniti a una coalizione di potenze straniere per cui lavorano i gruppi hacker citati (Russia, Corea del Nord, Iran, Cina).

Nel suo articolo, Microsoft prima cita la Casa Bianca e il proprio impegno verso la società. E poi presenta cybercriminali che appartengono solo ai paesi con cui gli USA hanno da sempre un pessimo rapporto.

In questo modo, Microsoft polarizza il discorso: da un lato l’America, con Microsoft e OpenAI che fanno un uso responsabile dell’IA e che ne promuovono lo sviluppo per il bene di tutti, dall’altro i paesi non democratici, dove i cybercriminali prosperano e lavorano al soldo dei governi sfruttando l’IA generativa per scopi criminali.

Le polarizzazioni sono pericolose nelle narrative perché ipersemplificano la realtà (che è sempre più complessa) e utilizzano meccanismi retorici e psicologici per diffondere una visione del mondo.

In questo caso, associare l’uso criminale dell’intelligenza artificiale a paesi come la Russia e l’Iran, consente a chi scrive di autoproclamarsi paladino della giustizia digitale. E, contemporaneamente, scaricare ogni responsabilità degli usi illeciti dell’IA su altri paesi e organizzazioni.

Conclusione

In questo post abbiamo visto come Microsoft e OpenAI collaborano per monitorare il panorama del cybercrimine e capire come e quando l’IA generativa viene utilizzata negli attacchi informatici. Abbiamo visto i principi di base di Microsoft, i modi in cui gli hacker usano l’IA e due esempi di gruppi hacker con obiettivi politici che usano attivamente l’IA nelle loro operazioni militari e di spionaggio. Infine abbiamo sottolineato che la visione di Microsoft, per quanto basata su dati reali, sembra proporre una versione semplificata del rapporto tra IA, Big Tech e criminali informatici.

Concludiamo ricordando che, dal punto di vista dell’utente, è importante considerare anche questo aspetto dell’intelligenza artificiale, oltre alle preoccupazioni per la privacy e la qualità delle informazioni pubblicate online. L’IA generativa sta davvero rivoluzionando il mondo, a volte in modi che non immaginiamo. Nei prossimi mesi vedremo come risponderanno i governi dei vari paesi. Come verrà implementata l’IA nei sistemi di difesa pubblica per proteggere i cittadini dai cybercriminali.

Continua a leggere: Trasformazione tecnologica ChatGPT, cos’è cambiato in un anno

Buona navigazione e buon utilizzo sostenibile dell’IA!