Inizia il braccio di ferro tra l’Italia e l’UE sul regolamento dell’intelligenza artificiale. Scopri che impatto avrà su persone, tecnologia e aziende.

L’AI Act è il nuovo regolamento dell’Unione europea sull’intelligenza artificiale e le sue applicazioni a livello pubblico e privato. Fin dall’inizio, l’obiettivo di queste nuove norme è stato salvaguardare la libertà e la privacy dei cittadini, ma l’introduzione di molte restrizioni rischia di limitare lo sviluppo delle nuove tecnologie basate sull’AI, impedendo alle aziende europee di competere con il resto del mondo.

In questo post vediamo cos’è l’AI Act, chi vuole meno restrizioni e perché, quali sono gli altri nodi da sciogliere e che impatto avrà sulla vita delle persone, sullo sviluppo dell’AI e sull’economia collegata a questo settore. Continua a leggere!

Cos’è l’AI Act

In seguito al crescente utilizzo di applicazioni di intelligenza artificiale in vari ambiti, e dopo alcuni incidenti dovuti ad errori degli algoritmi, nel 2020 l’Unione europea ha pubblicato le linee guida per lo sviluppo dell’AI in modo sostenibile e sicuro per i cittadini.

Contemporaneamente, la Commissione europea ha cominciato a raccogliere opinioni ed esperienze di vari settori della popolazione degli stati membri, fino ad arrivare alla conclusione che fosse necessario un regolamento internazionale da usare come standard di riferimento all’interno dell’UE.

Così, è nato l’AI Act, che in questi anni è già passato per varie revisioni e presto dovrà entrare in vigore e inserirsi nel quadro normativo che comprende già il GDPR e i nuovissimi DSA e DMA. In questo momento, agli inizi del 2024, l’AI Act non ha ancora raggiunto la sua versione finale e non è ancora entrato in vigore.

Questi sono gli aspetti più importanti coperti dall’AI Act:

  • Responsabilità dell’uso dell’AI
  • Rispetto della privacy dei cittadini
  • Rispetto dei diritti umani
  • Garanzia dello stato di diritto e della democrazia
  • Classificazione e regolamentazione dei tipi di AI
  • Trasparenza sul funzionamento e l’uso dei dati
  • Applicazioni nella sorveglianza pubblica e privata

L’iter legislativo è abbastanza rapido, ma ci sono dei rallentamenti dovuti a due problemi: innanzitutto, l’intelligenza artificiale è un campo complesso, che cambia continuamente e tocca molti ambiti della vita delle persone, per cui è difficile da regolamentare. E poi, è un settore che attira molti interessi economici e politici, per cui i valori dell’UE si scontrano con le priorità più pragmatiche di alcuni stati membri o di alcune categorie di imprese.


Le aziende vogliono più libertà per innovare, l’UE vuole più garanzie di sicurezza per i cittadini.


Critiche all’AI Act

Negli ultimi mesi, alcuni governi come quello italiano, francese e ungherese e le associazioni di aziende tecnologiche hanno presentato delle critiche all’Unione europea riguardo alle proposte dell’AI Act. Queste vertono principalmente intorno a 3 aspetti: limitazione dell’innovazione, uso nella sorveglianza (soprattutto per il riconoscimento facciale) e autoregolamentazione.

Limiti all’innovazione

Le aziende tecnologiche che stanno investendo nello sviluppo dell’intelligenza artificiale non sono d’accordo con la categorizzazione delle AI che prevede diversi livelli in base ai potenziali rischi per le persone e, di conseguenza, restrizioni e sanzioni più stringenti.

Le aziende sostengono che questo approccio limiterebbe lo sviluppo del settore, a cui danno la priorità rispetto alla sicurezza e alla privacy del cittadino europeo.

Uso nella sorveglianza

Uno degli ambiti che risentirebbe maggiormente delle limitazioni è la sorveglianza basata su AI, sia a livello pubblico sia a livello privato. Alcuni paesi, come l’Italia e la Francia, spingono per usare le nuove tecnologie per migliorare la sicurezza pubblica (e controllare i cittadini).

Tuttavia, questa tendenza si scontra con la difesa di uno stato libero in cui l’individuo non è sottoposto a controlli continui e non rischia altre conseguenze implicite come il social scoring (link in inglese), errori di riconoscimento e azioni giudiziarie basate sui risultati di analisi informatiche e non su prove fattuali.

Autoregolamentazione

Le aziende hi-tech propongono di favorire l’autoregolamentazione, fiduciose che il settore troverà la giusta misura nell’uso dell’AI e il giusto equilibrio tra diritti delle persone e funzionalità informatiche.

Questo approccio non trova il favore della Commissione europea, cosciente delle tendenze passate del settore, come l’uso di cookie di terze parti e la profilazione degli utenti online, che hanno finanziato per anni la pubblicità programmatica e un modello di internet “gratuito”, in cui le persone pagavano concedendo i propri dati.

LEGGI ANCHE: Trasformazione tecnologica ChatGPT, cos’è cambiato in un anno

Impatto sulla tecnologia e sulle aziende

L’AI Act, nella sua versione attuale, potrebbe effettivamente frenare lo sviluppo dell’intelligenza artificiale in Europa, nonché l’utilizzo di sistemi creati in altri continenti e applicati negli stati membri. La classificazione dei servizi in base al rischio e i relativi processi di regolamentazione, controllo e manutenzione rallenterebbero l’invenzione e il lancio sul mercato di servizi basati sull’AI, rendendo le aziende europee meno competitive rispetto a quelle di altri paesi in cui le normative non sono così complesse e severe.

Tuttavia, l’intelligenza artificiale è una tecnologia rivoluzionaria che tocca tutti gli ambiti di applicazione possibile, per cui un utilizzo sbagliato potrebbe avere conseguenze anche fatali sulla società.

Nei prossimi mesi, l’UE dovrà trovare un accordo con le associazioni del settore e le commissioni di alcuni governi, un punto di equilibrio che dia la priorità alla persona ma che salvaguardi, allo stesso tempo, la fattibilità dei progetti imprenditoriali nel settore dell’AI.


L’AI tocca tutti gli aspetti della società, per cui regolamentarla e far rispettare le norme sarà difficile.


Impatto sulle persone

La classificazione e la regolamentazione dei tipi di AI serve principalmente a proteggere le persone dai potenziali rischi dell’uso dell’intelligenza artificiale, come quelli a cui abbiamo accennato sopra.

Per questo motivo, le tecnologie basate sull’AI dovranno:

  • Garantire la trasparenza sul proprio funzionamento, spiegarlo in modo comprensibile ed evidente e informare le persone su come verranno utilizzati i loro dati.
  • Dare la possibilità alle persone di rimuovere tutti i propri dati e revocare il consenso all’utilizzo facilmente e in qualsiasi momento.
  • Non limitare la libertà delle persone e i diritti umani in nessun modo.
  • Garantire il rispetto di standard di qualità.
  • Sottoporsi a controlli periodici per rendere effettivo l’AI Act quando entrerà in vigore.

Questi sono i punti più importanti. Dalla decisione finale dell’UE dipenderà il modo in cui la vita dei cittadini europei cambierà nei prossimi anni, con la diffusione delle applicazioni di intelligenza artificiale in tutti gli ambiti sociali.

Esempio di un caso concreto

Vediamo un esempio di un aspetto dell’AI Act e di come potrebbe incidere sulla vita delle persone e sullo sviluppo tecnologico. Prendiamo l’AI generativa e in particolare gli LLM, ovvero i modelli di AI che imitano il linguaggio umano.

Uno dei problemi principali di questi sistemi è la diffusione di disinformazione, in parte perché a volte inventano dati e informazioni (le cosiddette allucinazioni dell’AI), in parte perché non verificano tutte le fonti da cui estraggono i dati contenuti nel proprio data set.

L’AI Act vuole disciplinare l’uso degli LLM, per cui le aziende europee farebbero più fatica rispetto alla concorrenza internazionale a innovare e competere. Le funzionalità dei loro modelli potrebbero essere limitate o potrebbero includere dei processi di verifica delle fonti più stringenti, che ne rallenterebbero la commercializzazione e ne limiterebbero le applicazioni.

Dal punto di vista delle persone, invece, questo tipo di norme ridurrebbe l’esposizione a fake news e informazioni incorrette, indipendentemente dalle loro competenze informatiche e dalle loro capacità di valutare ciò che leggono e vedono.

In conclusione, l’AI Act sta passando per una fase normale di dibattito e tensioni che ruotano intorno all’autoregolamentazione, l’uso nella sorveglianza e altri ambiti critici e la trasparenza nei confronti degli utenti.

Nei prossimi mesi, vedremo quale delle due parti riuscirà a imporre i propri valori e obiettivi sull’altra, quale sarà la versione definitiva dell’AI Act e come questo si inserirà nel più ampio quadro normativo europeo. Nel frattempo, ti consigliamo di informarti regolarmente sugli sviluppi dell’AI Act e proteggerti con un buon antivirus.

CONTINUA A LEGGERE: Sondaggio cybersecurity, il 70% delle persone condivide i propri dati senza pensare alle conseguenze

Buona navigazione e buona preparazione all’entrata in vigore dell’AI Act!