Site icon Panda Security Mediacenter

Intelligenza artificiale sicura: come riconoscerla

intelligenza-artificiale-sicura-come-riconoscerla

Oggi l’IA è ovunque: ci aiuta a scrivere email, creare piani di allenamento personalizzato, scrivere codice, trovare nuove molecole e ottimizzare un’infinità di processi. Ma quanto è sicura?

Sempre più persone si fanno questa domanda, e fanno bene a porsela: senza sicurezza e trasparenza, l’IA rischia di diventare un altro problema più che una soluzione.

Ad esempio, l’IA può raccogliere e usare male i dati personali, può essere manipolata o commettere errori e discriminare il pubblico, se non viene supervisionata da esseri umani e non è resa sicura con strumenti e standard ben precisi.

Infatti, le aziende e i governi si stanno muovendo in questa direzione, per affermare un nuovo principio basilare dell’IA: la fiducia. L’utente deve fidarsi dell’IA per delegare potere e attività, altrimenti le applicazioni più complesse – come la guida autonoma o le diagnosi mediche – non potranno mai essere affidate all’intelligenza artificiale.

In questo post parliamo di fiducia nell’IA, di come capire se un’IA è sicura e delle linee guida del SANS Institute e altre organizzazioni internazionali, che regolamentano l’uso sicuro dell’intelligenza artificiale.

In questo articolo:

Buona lettura!

Rischi di sicurezza dell’IA

Per prima cosa, vediamo brevemente quali sono i rischi principali. L’intelligenza artificiale può:

Facciamo un esempio

Immagina di dover fare un esame diagnostico e di non aver capito bene se puoi assumere alcuni farmaci durante i giorni precedenti. La dottoressa ti ha proibito esplicitamente di non prendere un certo tipo di medicinali, ma non sei sicura riguardo ad altri farmaci simili.

Chiedi a ChatGPT se puoi prendere quei farmaci, l’IA ragiona e conclude che non puoi prendere le medicine proibite dal medico, ma gli altri farmaci – seppure simili – possono essere assunti anche nei giorni precedenti all’esame, perché non influiscono sui risultati.

Il giorno dell’esame ti presenti al laboratorio e per sicurezza chiedi al tecnico, il quale smentisce la risposta di ChatGPT e ti dice che non potevi assumere nessun tipo di farmaco, perché tutti invalidano i risultati dell’esame.

Hai appena buttato via diversi giorni di attesa e una mattinata per andare al laboratorio, dove alla fine non puoi fare l’esame (magari stando a digiuno da 6 ore). Cos’è successo?

I chatbot cercano sempre di soddisfare le richieste dell’utente e danno una risposta con i dati che ha, che possono essere parziali o confusi, come nel caso delle indicazioni mediche su certi esami, che possono variare anche molto da un luogo all’altro.

Come vedi, i rischi sono reali (l’esempio qui sopra è capitato a me) e si applicano a molti scenari diversi, dall’ambito medico agli investimenti finanziari fino all’educazione dei figli.

LEGGI ANCHE: Bambini e intelligenza artificiale: come guidarli all’uso consapevole e sicuro

Cosa stanno facendo governi e aziende per rendere più sicura l’IA

La grande novità degli ultimi mesi a livello concettuale è il principio della fiducia: gli strumenti di IA devono essere regolamentati e controllati, affinché le persone possano fidarsi di loro.

Questo principio, in particolare, è alla base della IA agentica, cioè delle applicazioni di intelligenza artificiale in cui l’utente delega una funzione a un chatbot di IA, ad esempio quando chiedi al nuovo browser agentico Comet di effettuare un acquisto online.

In Europa, esistono normative particolarmente rigorose e incentrate sulla privacy e la sicurezza delle persone, a differenza di quanto avviene in altri paesi con un approccio più aggressivo, come gli Stati Uniti, o totalitari, come la Cina e la Russia.

In concreto, l’UE ha varato l’AI Act, che introduce obblighi di trasparenza, classificazione del rischio e controlli per le aziende che sviluppano IA; ad esempio, le aziende che vogliono operare e vendere nel territorio europeo, devono superare verifiche indipendenti, soddisfare requisiti normativi e standard e pubblicare periodicamente informazioni esaustive sui propri servizi, in modo appunto che l’utente possa fidarsi quando li usa, ma sulla base di dati reali e non ciecamente!

A questa iniziativa si aggiungono le linee guida NIST e ISO, due organizzazioni internazionali che si occupano di standard di sicurezza e qualità e, più recentemente, il contributo del SANS Institute, a cui vogliamo dedicare un po’ più di attenzione, perché simboleggia alla perfezione il principio di fiducia e trasparenza che si vuole rispettare nel mondo emergente dell’IA.

Il contributo del SANS Institute alla sicurezza dell’IA

Il SANS Institute è un’organizzazione che fornisce formazione, addestramento e certificazioni nel campo della sicurezza informatica e della cybersecurity. Il suo nome originale, SANS, sta per SysAdmin, Audit, Network, and Security, ovvero Amministrazione di Sistemi, Revisione, Reti e Sicurezza.

Recentemente, ha pubblicato un documento intitolato Secure AI Blueprint, in cui racchiude i principi fondamentali per sviluppare IA sicure e affidabili. In particolare, il SANS propone 6 aree di controllo:

  1. Controllo degli accessi: limitare i privilegi e verificare chi (umano o IA) può accedere a dati e modelli.
  2. Gestione dei dati: validare e proteggere i dati usati per addestrare o alimentare l’IA, per evitare manipolazioni o fughe.
  3. Sicurezza delle implementazioni: testare e isolare i modelli prima del lancio, trattandoli come infrastrutture critiche.
  4. Sicurezza dell’inferenza: proteggere l’IA da prompt dannosi o abusi e definire limiti d’uso chiari.
  5. Monitoraggio continuo: osservare continuamente il comportamento dell’IA per individuare deviazioni o anomalie.
  6. Integrità dei modelli: firmare e verificare ogni versione per assicurarsi che non venga modificata o sostituita.

In sintesi, queste regole servono a fare in modo che l’AI sia tracciabile, controllabile e reversibile, cioè che si sappia sempre chi fa cosa, con quali dati e per quale scopo, e che quando si verifica un problema, ci siano delle procedure per mitigare i danni e ripristinare il corretto funzionamento.

Le IA che rispettano questi 6 principi possono essere considerate affidabili e protette, ma attenzione: non significa che non commettano mai errori, per cui è sempre necessario verificare le informazioni, i risultati e supervisionare l’attività dell’IA.

Come capire se un’IA è affidabile (anche senza essere degli esperti)

Vediamo quindi come fare a capire se un’IA è affidabile e (ragionevolmente) sicura. Ai fini del nostro articolo, ci occuperemo dei chatbot di IA, come Gemini e ChatGPT. Se vuoi capire se un’IA è sicura, ti consigliamo di valutare questi 5 aspetti:

  1. Trasparenza e chiarezza: l’IA spiega quali dati raccoglie e come li usa? L’app o il sito contiene un’informativa sulla privacy chiara e aggiornata?
  2. Controllo: puoi cancellare i dati o chiedere esplicitamente che non vengano usati per addestrare il modello?
  3. Reputazione: l’azienda che ha sviluppato l’IA è conosciuta e affidabile? Ha subito violazioni dei dati in passato? Utilizza sistemi di sicurezza informatica sufficienti?
  4. Sicurezza e protezione: l’IA ha degli strumenti di protezione, come crittografia, autenticazione e sistemi di verifica?
  5. Supervisione umana e correzione: se qualcosa va storto, l’IA ti permette di correggere, segnalare o bloccare un risultato sbagliato?

Se le risposte a queste domande ti soddisfano, vuol dire che hai trovato un’IA affidabile e puoi usarla in completa tranquillità, sapendo che la tua privacy è in buone mani.

Quali sono oggi le IA più sicure?

Quando si parla di IA, quasi tutti pensano subito ai chatbot, che sono il volto più visibile dell’intelligenza artificiale e all’occhio dell’utente comune possono sembrare un po’ tutti uguali.

Questa credenza è doppiamente sbagliata: l’IA va ben oltre i chatbot e questi ultimi non sono affatto tutti uguali. Alcuni mettono al centro la trasparenza e la protezione dei dati, altri invece non comunicano chiaramente cosa succede alle informazioni degli utenti.

I chatbot di IA più affidabili e trasparenti

Vediamo quali sono i chatbot di IA più sicuri e affidabili:

Per quanto riguarda gli altri tipi di applicazioni di IA, il discorso si fa più complicato, perché sono strumenti integrati all’interno di piattaforme o servizi più ampi, come filtri antispam, antivirus, algoritmi che suggeriscono musica, sistemi di sorveglianza o centri logistici.

Tuttavia, anche queste applicazioni di IA raccolgono e interpretano dati, per cui valgono gli stessi principi di sicurezza e affidabilità che abbiamo visto finora: trasparenza, controllo, supervisione umana e correzione tecnica.

Come vedi, non esiste un’IA che sia buona o cattiva in sé: dipende da come viene sviluppata, usata e controllata. Per questo i principi e gli standard del SANS Institute sono così importanti: obbligano le aziende a soddisfare requisiti di sicurezza e privacy e consentono agli utenti finali di valutarne l’affidabilità.

In questo modo, ognuna e ognuno di noi ha la possibilità di decidere in modo più razionale se fidarsi di uno strumento di IA e incorporarlo nelle sue attività quotidiane oppure no.

Per concludere, ti invitiamo a visitare il nostro blog, Panda mediacenter, dove troverai molte notizie e guide all’uso dell’intelligenza artificiale.

CONTINUA A LEGGERE: Come si misura l’intelligenza artificiale: i limiti dei benchmark

Buona navigazione e buon utilizzo sicuro dell’IA!

Exit mobile version