Oggi l’IA è ovunque: ci aiuta a scrivere email, creare piani di allenamento personalizzato, scrivere codice, trovare nuove molecole e ottimizzare un’infinità di processi. Ma quanto è sicura?
Sempre più persone si fanno questa domanda, e fanno bene a porsela: senza sicurezza e trasparenza, l’IA rischia di diventare un altro problema più che una soluzione.
Ad esempio, l’IA può raccogliere e usare male i dati personali, può essere manipolata o commettere errori e discriminare il pubblico, se non viene supervisionata da esseri umani e non è resa sicura con strumenti e standard ben precisi.
Infatti, le aziende e i governi si stanno muovendo in questa direzione, per affermare un nuovo principio basilare dell’IA: la fiducia. L’utente deve fidarsi dell’IA per delegare potere e attività, altrimenti le applicazioni più complesse – come la guida autonoma o le diagnosi mediche – non potranno mai essere affidate all’intelligenza artificiale.
In questo post parliamo di fiducia nell’IA, di come capire se un’IA è sicura e delle linee guida del SANS Institute e altre organizzazioni internazionali, che regolamentano l’uso sicuro dell’intelligenza artificiale.
In questo articolo:
- Rischi dell’IA
- Cosa fanno aziende e governi per rendere sicura l’IA
- Come capire se un’IA è affidabile
- Quali sono oggi le IA più sicure
- Futuro della sicurezza dell’IA
Buona lettura!
Rischi di sicurezza dell’IA
Per prima cosa, vediamo brevemente quali sono i rischi principali. L’intelligenza artificiale può:
- Raccogliere o usare male i dati personali. Gli strumenti di IA devono essere adattati alle normative sulla privacy di ciascun Paese e servono controlli rigorosi sul trattamento dei dati personali, per assicurarsi che non rimangano esposti o utilizzati in modi illeciti.
- Essere manipolata o ingannata. Esistono già vari tipi di attacchi contro le IA, come la prompt injection. Bisogna capire bene cosa succede in questi casi e quali sistemi e processi rendono disponibili le aziende per riparare i danni.
- Commettere errori o discriminazioni, se si basa su dati incompleti o di parte. Questo è il rischio più diffuso e peggiore dal punto di vista personale, come vedremo a breve.
Facciamo un esempio
Immagina di dover fare un esame diagnostico e di non aver capito bene se puoi assumere alcuni farmaci durante i giorni precedenti. La dottoressa ti ha proibito esplicitamente di non prendere un certo tipo di medicinali, ma non sei sicura riguardo ad altri farmaci simili.
Chiedi a ChatGPT se puoi prendere quei farmaci, l’IA ragiona e conclude che non puoi prendere le medicine proibite dal medico, ma gli altri farmaci – seppure simili – possono essere assunti anche nei giorni precedenti all’esame, perché non influiscono sui risultati.
Il giorno dell’esame ti presenti al laboratorio e per sicurezza chiedi al tecnico, il quale smentisce la risposta di ChatGPT e ti dice che non potevi assumere nessun tipo di farmaco, perché tutti invalidano i risultati dell’esame.
Hai appena buttato via diversi giorni di attesa e una mattinata per andare al laboratorio, dove alla fine non puoi fare l’esame (magari stando a digiuno da 6 ore). Cos’è successo?
I chatbot cercano sempre di soddisfare le richieste dell’utente e danno una risposta con i dati che ha, che possono essere parziali o confusi, come nel caso delle indicazioni mediche su certi esami, che possono variare anche molto da un luogo all’altro.
Come vedi, i rischi sono reali (l’esempio qui sopra è capitato a me) e si applicano a molti scenari diversi, dall’ambito medico agli investimenti finanziari fino all’educazione dei figli.
LEGGI ANCHE: Bambini e intelligenza artificiale: come guidarli all’uso consapevole e sicuro
Cosa stanno facendo governi e aziende per rendere più sicura l’IA
La grande novità degli ultimi mesi a livello concettuale è il principio della fiducia: gli strumenti di IA devono essere regolamentati e controllati, affinché le persone possano fidarsi di loro.
Questo principio, in particolare, è alla base della IA agentica, cioè delle applicazioni di intelligenza artificiale in cui l’utente delega una funzione a un chatbot di IA, ad esempio quando chiedi al nuovo browser agentico Comet di effettuare un acquisto online.
In Europa, esistono normative particolarmente rigorose e incentrate sulla privacy e la sicurezza delle persone, a differenza di quanto avviene in altri paesi con un approccio più aggressivo, come gli Stati Uniti, o totalitari, come la Cina e la Russia.
In concreto, l’UE ha varato l’AI Act, che introduce obblighi di trasparenza, classificazione del rischio e controlli per le aziende che sviluppano IA; ad esempio, le aziende che vogliono operare e vendere nel territorio europeo, devono superare verifiche indipendenti, soddisfare requisiti normativi e standard e pubblicare periodicamente informazioni esaustive sui propri servizi, in modo appunto che l’utente possa fidarsi quando li usa, ma sulla base di dati reali e non ciecamente!
A questa iniziativa si aggiungono le linee guida NIST e ISO, due organizzazioni internazionali che si occupano di standard di sicurezza e qualità e, più recentemente, il contributo del SANS Institute, a cui vogliamo dedicare un po’ più di attenzione, perché simboleggia alla perfezione il principio di fiducia e trasparenza che si vuole rispettare nel mondo emergente dell’IA.
Il contributo del SANS Institute alla sicurezza dell’IA
Il SANS Institute è un’organizzazione che fornisce formazione, addestramento e certificazioni nel campo della sicurezza informatica e della cybersecurity. Il suo nome originale, SANS, sta per SysAdmin, Audit, Network, and Security, ovvero Amministrazione di Sistemi, Revisione, Reti e Sicurezza.
Recentemente, ha pubblicato un documento intitolato Secure AI Blueprint, in cui racchiude i principi fondamentali per sviluppare IA sicure e affidabili. In particolare, il SANS propone 6 aree di controllo:
- Controllo degli accessi: limitare i privilegi e verificare chi (umano o IA) può accedere a dati e modelli.
- Gestione dei dati: validare e proteggere i dati usati per addestrare o alimentare l’IA, per evitare manipolazioni o fughe.
- Sicurezza delle implementazioni: testare e isolare i modelli prima del lancio, trattandoli come infrastrutture critiche.
- Sicurezza dell’inferenza: proteggere l’IA da prompt dannosi o abusi e definire limiti d’uso chiari.
- Monitoraggio continuo: osservare continuamente il comportamento dell’IA per individuare deviazioni o anomalie.
- Integrità dei modelli: firmare e verificare ogni versione per assicurarsi che non venga modificata o sostituita.
In sintesi, queste regole servono a fare in modo che l’AI sia tracciabile, controllabile e reversibile, cioè che si sappia sempre chi fa cosa, con quali dati e per quale scopo, e che quando si verifica un problema, ci siano delle procedure per mitigare i danni e ripristinare il corretto funzionamento.
Le IA che rispettano questi 6 principi possono essere considerate affidabili e protette, ma attenzione: non significa che non commettano mai errori, per cui è sempre necessario verificare le informazioni, i risultati e supervisionare l’attività dell’IA.
Come capire se un’IA è affidabile (anche senza essere degli esperti)
Vediamo quindi come fare a capire se un’IA è affidabile e (ragionevolmente) sicura. Ai fini del nostro articolo, ci occuperemo dei chatbot di IA, come Gemini e ChatGPT. Se vuoi capire se un’IA è sicura, ti consigliamo di valutare questi 5 aspetti:
- Trasparenza e chiarezza: l’IA spiega quali dati raccoglie e come li usa? L’app o il sito contiene un’informativa sulla privacy chiara e aggiornata?
- Controllo: puoi cancellare i dati o chiedere esplicitamente che non vengano usati per addestrare il modello?
- Reputazione: l’azienda che ha sviluppato l’IA è conosciuta e affidabile? Ha subito violazioni dei dati in passato? Utilizza sistemi di sicurezza informatica sufficienti?
- Sicurezza e protezione: l’IA ha degli strumenti di protezione, come crittografia, autenticazione e sistemi di verifica?
- Supervisione umana e correzione: se qualcosa va storto, l’IA ti permette di correggere, segnalare o bloccare un risultato sbagliato?
Se le risposte a queste domande ti soddisfano, vuol dire che hai trovato un’IA affidabile e puoi usarla in completa tranquillità, sapendo che la tua privacy è in buone mani.
Quali sono oggi le IA più sicure?
Quando si parla di IA, quasi tutti pensano subito ai chatbot, che sono il volto più visibile dell’intelligenza artificiale e all’occhio dell’utente comune possono sembrare un po’ tutti uguali.
Questa credenza è doppiamente sbagliata: l’IA va ben oltre i chatbot e questi ultimi non sono affatto tutti uguali. Alcuni mettono al centro la trasparenza e la protezione dei dati, altri invece non comunicano chiaramente cosa succede alle informazioni degli utenti.
I chatbot di IA più affidabili e trasparenti
Vediamo quali sono i chatbot di IA più sicuri e affidabili:
- ChatGPT (OpenAI): consente di disattivare l’uso delle conversazioni per l’addestramento e offre versioni dedicate alla privacy, come ChatGPT Team ed Enterprise, dove i dati restano di proprietà dell’utente.
- Claude (Anthropic): sviluppato con un approccio di constitutional AI che segue principi etici definiti e limita le risposte potenzialmente pericolose o manipolative.
- Copilot (Microsoft): integrato nei sistemi aziendali Microsoft 365, segue gli standard del GDPR europeo e offre controlli dettagliati per amministratori e utenti.
- Perplexity AI: cita le fonti direttamente nelle risposte e mantiene un buon equilibrio tra trasparenza, ricerca e rispetto della privacy.
- Mistral AI: punta su modelli open-source e su una maggiore trasparenza sull’origine dei dati di addestramento.
Per quanto riguarda gli altri tipi di applicazioni di IA, il discorso si fa più complicato, perché sono strumenti integrati all’interno di piattaforme o servizi più ampi, come filtri antispam, antivirus, algoritmi che suggeriscono musica, sistemi di sorveglianza o centri logistici.
Tuttavia, anche queste applicazioni di IA raccolgono e interpretano dati, per cui valgono gli stessi principi di sicurezza e affidabilità che abbiamo visto finora: trasparenza, controllo, supervisione umana e correzione tecnica.
Come vedi, non esiste un’IA che sia buona o cattiva in sé: dipende da come viene sviluppata, usata e controllata. Per questo i principi e gli standard del SANS Institute sono così importanti: obbligano le aziende a soddisfare requisiti di sicurezza e privacy e consentono agli utenti finali di valutarne l’affidabilità.
In questo modo, ognuna e ognuno di noi ha la possibilità di decidere in modo più razionale se fidarsi di uno strumento di IA e incorporarlo nelle sue attività quotidiane oppure no.
Per concludere, ti invitiamo a visitare il nostro blog, Panda mediacenter, dove troverai molte notizie e guide all’uso dell’intelligenza artificiale.
CONTINUA A LEGGERE: Come si misura l’intelligenza artificiale: i limiti dei benchmark
Buona navigazione e buon utilizzo sicuro dell’IA!