L’Italia vuole fare da apripista nell’AI, sia investendo nello sviluppo sia con leggi che puniscano gli abusi.

Non siamo solo il paese del buon cibo e della cultura, ora l’Italia vuole posizionarsi sullo scacchiere internazionale come un leader dell’intelligenza artificiale. Per questa ragione, il Governo ha annunciato un piano di investimenti per un totale di quasi un miliardo di euro, suddivisi tra startup, grandi aziende e ricerca.

Contemporaneamente, vuole creare una serie di leggi per regolare l’uso dell’AI, punire gli abusi e le pratiche che mettono a rischio l’integrità delle persone, anche se con alcune eccezioni per la sicurezza pubblica.

In questo post parliamo del piano dell’Italia per l’AI, dei punti chiave della strategia di questo governo e dell’impatto che potrebbe avere sui cittadini. Buona lettura!


Gli investimenti “fino a 1 miliardo di euro” verranno divisi tra startup. Quote di grandi aziende e progetti di ricerca, e verranno gestiti da CDP Venture Capital.


L’intelligenza artificiale per l’Italia

In questo videomessaggio, il Presidente del Consiglio Giorgia Meloni sottolinea che l’intelligenza artificiale sta rivoluzionando il mondo, in quanto rischia non solo di soppiantare il lavoro fisico, ma anche quello intellettuale delle persone, per cui è necessario stabilire delle regole etiche e porre dei limiti all’utilizzo dell’AI, ma anche investire per creare applicazioni made in Italy, conformi alle leggi italiane e che non dipendano dalla legislazione straniera (e che non creino profitti all’estero).

Questa è una parte della strategia italiana per l’intelligenza artificiale, presentata con una bozza di disegno di legge il 23 aprile 2024 e che copre i seguenti punti chiave:

  • Investimenti fino a 1 miliardo di euro nell’AI. In realtà, questa affermazione non trova riscontro nei documenti ufficiali e risale alle dichiarazioni pubbliche di Meloni. Probabilmente, i fondi stanziati saranno di meno e verranno gestiti dall’organizzazione CDP Venture Capital, che si occupa di gestire investimenti in startup e progetti innovativi ma rischiosi dal punto di vista finanziario.
  • Creazione di una serie di regole e limiti per l’utilizzo dell’AI, soprattutto per quanto riguarda l’informazione (e la disinformazione), la proprietà intellettuale e l’uso in ambiti delicati, come la sanità o la giustizia (ad esempio, non potrà essere utilizzata per prendere decisioni con valore giuridico).
  • Istituzione di una fondazione per la ricerca e la coordinazione dei progetti di AI.
  • Un’aggravante per i reati commessi con l’ausilio dell’AI, che faccia da deterrente per i criminali.

Questi sono i punti più importanti. Che hanno in comune un obiettivo ambizioso e necessario: legiferare sull’AI e far partecipare il nostro paese nella corsa al dominio dell’intelligenza artificiale.

In particolare, la strategia del governo su questo punto si collega alla presidenza del G7 e alla volontà di posizionare l’Italia come pioniere delle nuove tecnologie e punto di riferimento in Europa. Effettivamente, se il governo dovesse trovare 1 miliardo di euro da destinare all’AI, saremmo il paese che investe di più in questo settore; tuttavia, molti esperti dubitano che sia possibile raccogliere così tanti fondi, anche per un settore emergente e cruciale come l’intelligenza artificiale.

Gli investimenti nell’AI

CDP Venture Capital dovrà gestire molti milioni di euro, di cui:

  • La parte più grande andrà alle startup, per promuovere lo sviluppo nel settore privato.
  • Un’altra parte verrà destinata all’acquisizione di quote in aziende più grandi già consolidate.
  • Una terza parte verrà assegnata alla ricerca e a tradurre in progetti aziendali le scoperte e le invenzioni.

All’inizio, il Governo ha parlato di investimenti “fino a 1 miliardo di euro”, che potrebbe essere un modo per coprirsi le spalle, se non dovesse raggiungere questa cifra (molto ambiziosa), mentre il pubblico ricorderà, appunto, “1 miliardo di euro”.

Molte persone, tra cui i giornalisti di Wired, hanno espresso delle perplessità sulla fattibilità di questo progetto, almeno per quanto riguarda le cifre, mentre sembrano più realistiche le proposte del PD in Italia e dei governi di altri paesi, che si aggirano sui 100-300 milioni di euro.

LEGGI ANCHE: Sondaggio di cybersecurity, italiani primi in Europa per il controllo dei figli online

Nuove leggi sull’intelligenza artificiale

Al di là degli investimenti. In quanto esperti di sicurezza informatica riteniamo una buona notizia che il Governo voglia creare una legislazione specifica per l’intelligenza artificiale (contrariamente agli approcci di altri paesi come il Regno Unito).

Le tecnologie più rivoluzionarie e potenti possono avere anche conseguenze nefaste sulla società, come abbiamo già visto per quanto riguarda la disinformazione, le truffe con i deepfake, la programmazione di script dannosi e molto altro ancora.

Dato che l’intelligenza artificiale sarà applicata a moltissimi settori, tra cui anche la sanità, la giustizia e l’istruzione, è importante, come si legge nel disegno di legge, garantire un “utilizzo corretto, trasparente e responsabile, in una dimensione antropocentrica”.

In particolare: “i sistemi e i modelli di intelligenza artificiale devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità”.

AI e sicurezza

Sempre nella bozza, si legge che l’AI “non deve pregiudicare lo svolgimento con metodo democratico della vita istituzionale e politica”, per cui deve essere limitata e integrata con tutte le misure di cybersecurity possibili, “secondo un approccio proporzionale e basato sul rischio”.

In altre parole. Più è alto il rischio associato a una specifica applicazione di AI. Più rigorose devono essere le misure di sicurezza implementate per proteggere i dati e garantire che l’AI sia usata in modo responsabile e sicuro.

Questo approccio proporzionale aiuta a bilanciare i benefici dell’AI con i potenziali pericoli. Garantendo che la tecnologia sia usata per sostenere, e non minacciare, la struttura democratica e la sicurezza delle informazioni.

L’idea di un approccio proporzionale basato sul rischio non è un’invenzione nostrana, ma il principio di base dell’AI Act, il nuovo regolamento dell’Unione europea che mira appunto a imporre limitazioni e misure di sicurezza più severe per le applicazioni più rischiose, come quelle che possono minare direttamente i diritti dei cittadini. Quest’ultima non è un’esagerazione, basta pensare all’evoluzione del killware con l’AIoT, cioè attraverso i dispositivi smart basati sull’intelligenza artificiale.

I sistemi e i modelli di intelligenza artificiale devono essere sviluppati ed applicati nel rispetto della autonomia e del potere decisionale dell’uomo, della prevenzione del danno, della conoscibilità, della spiegabilità”.

Bozza del disegno di legge sull’AI

Consigli per i cittadini

Si tratta di una vera e propria rivoluzione, paragonabile all’avvento di internet. Per cui è importantissimo che tutte le persone non la subiscano passivamente, ma che si preparino e la integrino attivamente nelle proprie vite.

Ecco alcuni consigli di sicurezza per utilizzare l’AI:

  1. Informati sulle leggi vigenti. Quando verranno pubblicate le versioni definitive dell’AI Act e le leggi italiane sull’intelligenza artificiale, ti consigliamo di stamparle e leggerle. Per capire cosa si può fare, quali sono i limiti e quali sono i tuoi diritti in qualità di cittadino italiano ed europeo.
  2. Usa servizi di aziende affidabili e trasparenti. Nei prossimi mesi assisteremo a un moltiplicarsi continuo delle offerte di servizi basati sull’AI. Quando deciderai di contrattarne uno, assicurati che l’azienda abbia una politica sulla privacy trasparente e che rispetti tutti gli standard di sicurezza e qualità.
  3. Leggi tutto quello che puoi sull’AI. È importantissimo rimanere al passo con le innovazioni e sapere, ad esempio, come funzionano gli LLM o il machine learning. L’informazione fa la differenza tra essere un utente passivo che subisce le tecnologie o un utente attivo che le sfrutta.
  4. Verifica le informazioni. Uno dei grandi problemi attuali è la disinformazione e la facilità con cui è possibile sintetizzare contenuti fraudolenti credibili. Per cui è importante coltivare uno spirito critico e non credere a tutto ciò che vediamo o leggiamo online.
  5. Segui le norme di sicurezza informatica. Oggi più che mai, è necessario conoscere i principi di base della cybersecurity, come l’uso di password complesse o l’autenticazione a due fattori, e usare un buon software antivirus.

Seguendo questi semplici consigli potrai prepararti e partecipare attivamente all’adozione dell’intelligenza artificiale.

In questo post abbiamo visto i punti chiave del disegno di legge sull’intelligenza artificiale, che vuole definire come può essere usata e creare una serie di fondi di investimenti per le aziende italiane.

Nei prossimi mesi e anni vedremo come si posizionerà il nostro paese in questo settore. E, cosa ancora più importante, quali strumenti avrà a disposizione il cittadino per utilizzare l’AI in modo sicuro e sfruttarla per migliorare la propria vita.

CONTINUA A LEGGERE: In Italia ci sono ancora 4 milioni di famiglie senza internet

Buona navigazione e buon viaggio nel futuro dell’AI italiana!