Siamo vicini all’approvazione del primo regolamento europeo sull’intelligenza artificiale, ma rimangono alcuni problemi da risolvere; scopriamoli insieme!

In questi giorni doveva essere approvato l’AI Act, ovvero il regolamento europeo sull’intelligenza artificiale, ma i tre organi legislativi non si sono ancora messi d’accordo su alcune questioni spinose, tra cui i problemi di trasparenza ed etica delle applicazioni di AI, sia in ambito privato che in quello pubblico.

In questo articolo vedremo quali sono gli aspetti più controversi dell’intelligenza artificiale e come vuole gestirli l’Unione europea con l’AI Act. Continua a leggere!

Cos’è l’AI Act

L’Artificial Intelligence Act è un regolamento simile al GDPR proposto nel 2021 in seno all’Unione Europea per regolamentare l’utilizzo dell’intelligenza artificiale. In questi due anni, i legislatori europei si sono dovuti mettere d’accordo su vari temi cruciali che vedono interpretazioni molto diverse tra loro, soprattutto in base alle opinioni politiche e agli interessi sociali difesi dai vari esponenti.

In teoria, a marzo di quest’anno era prevista l’approvazione della versione finale dell’AI Act, ma è slittata perché i problemi da risolvere sono molto complessi e il Parlamento europeo sta faticando a trovare una soluzione che vada bene a tutti.

Quando entrerà in vigore, l’AI Act regolerà l’uso dell’AI da parte delle aziende, dei privati e dello Stato. L’obiettivo principale, come vedremo tra poco, è tutelare i diritti del cittadino e obbligare chiunque sviluppi un’applicazione di intelligenza artificiale ad adottare un approccio incentrato sull’essere umano e non sul risultato prodotto dalla macchina.

L’uso dell’AI può causare problemi etici, di trasparenza, di controllo della giurisdizione e di disinformazione.

I problemi da risolvere

L’intelligenza artificiale sta rivoluzionando le nostre vite e ci aiuta a renderle più comode e sicure, ma a seconda di come viene utilizzato può anche trasformarsi in un pericolo per i diritti delle persone, come nel caso dei sistemi di sorveglianza biometrica o la produzione di testi che può favorire la diffusione di fake news.

In particolare, l’AI Act affronta i seguenti aspetti problematici dell’intelligenza artificiale:

Trasparenza

Quasi tutti i sistemi di AI sono sviluppati da aziende private, che non vogliono rivelare il funzionamento degli algoritmi. Questa mancanza di trasparenza impedisce ai governi di controllare la sicurezza e la legalità dei sistemi e ai privati di sapere esattamente come vengono utilizzati i dati raccolti su di loro.

Etica

Questo aspetto è strettamente collegato a quello precedente: le applicazioni di tecnologie critiche come l’AI devono essere trasparenti innanzitutto per motivi etici, a cui si aggiungono i principi di ciascuna legislazione statale che devono essere salvaguardati.

Uno degli usi proibiti dall’AI Act, ad esempio, sarà il cosiddetto social scoring, ovvero l’assegnazione di punteggi sociali alle persone, il loro monitoraggio e la discriminazione in base al punteggio di ciascuno.

Sembra la trama di una serie di fantascienza (di fatto Black Mirror gli ha dedicato un episodio), ma ci sono paesi nel mondo in cui la libertà individuale non è tutelata e che potrebbero introdurre un sistema di controllo sociale tramite punteggi e intelligenza artificiale.

Tuttavia, l’applicazione più controversa rimane il controllo biometrico, in particolare tramite videosorveglianza in tempo reale potenziata dall’AI. Per capire l’impatto di questa tecnologia sui diritti delle persone, basta pensare che l’Iran ha annunciato di volerla utilizzare per monitorare l’uso del velo da parte delle donne, mentre la Russia vuole usarla per trovare i disertori.

Più vicino a noi, la Francia ha presentato un disegno di legge per l’implementazione di un sistema di videocontrollo pubblico per le Olimpiadi del 2024. Questa misura ha suscitato le proteste di associazioni e partiti politici, che vedono in questo tipo di misure una minaccia alla libertà.

Antivirus GRATIS

Nazionalità

Un punto molto controverso è quello della nazionalità delle applicazioni e la conseguente giurisdizione e leggi a cui si deve attenere ciascun sistema. Moltissime tecnologie basate su AI sono sviluppate fuori dall’Europa per cui seguono norme e standard diversi dai nostri, ma vengono applicate anche agli utenti europei.

L’AI Act si propone di regolamentare questo difficile aspetto dell’uso dell’intelligenza artificiale, che crea conflitti e problemi legali soprattutto alle Big Tech, ma che potenzialmente mina i diritti dei cittadini dell’UE, in cui in generale le leggi sono più severe e restrittive rispetto agli Stati Uniti o altre potenze mondiali.

LEGGI ANCHE: Nuove leggi europee con limiti per le Big Tech

Disinformazione

Un capitolo a parte dell’AI Act è quello dei sistemi di AI che imitano il linguaggio umano e producono testi e conversazioni in tempo reale, come il famoso ChatGPT. Di fatto, il ritardo nell’approvazione del regolamento europeo è dovuto soprattutto al lancio di questa tecnologia, che a dicembre del 2022 ha costretto i legislatori a rivedere il testo dell’AI Act per includere alcune norme specifiche.

I sistemi di machine learning come ChatGPT creano problemi anche a livello etico e di trasparenza, ma il pericolo più grosso secondo l’UE rimane la disinformazione. ChatGPT non controlla le fonti durante il processo di apprendimento e può favorire la diffusione di opinioni infondate, pregiudizi e notizie false.

Per questo, una prima misura da prendere sarà sicuramente avvertire l’utente quando il contenuto che gli viene proposto è stato generato da un algoritmo di AI e non da una persona.

L’UE vuole obbligare le organizzazioni ad adottare un approccio incentrato sulla persona per le applicazioni di AI.

Possibili soluzioni dell’AI Act

Quelli che abbiamo visto erano i problemi principali da risolvere. L’AI Act, per quanto ne sappiamo finora, si propone di affrontarli con 3 grandi strategie:

  1. Approccio incentrato sulla persona. Il regolamento europeo obbligherà le aziende a sviluppare e applicare le tecnologie di AI pensando innanzitutto all’utente e ai diritti umani. Le aziende dovranno dimostrare attivamente che i propri prodotti e servizi basati su AI non ledono i diritti delle persone, da quello alla libertà alla mancanza di discriminazione, fino al diritto all’accesso all’informazione.
  2. Sicurezza e affidabilità. I sistemi di AI dovranno rispettare precisi standard di sicurezza e affidabilità prima di poter essere commercializzati, per ridurre al minimo gli errori e l’impatto che questi possono avere sulle infrastrutture critiche.
  3. Classificazione del rischio. Le applicazioni di AI verranno classificate in base al livello di pericolosità per le persone e a ciascun livello saranno applicati requisiti più o meno stringenti. Il rilevamento biometrico delle emozioni, ad esempio, sarà considerato un’applicazione ad alto rischio e sarà soggetto a molte limitazioni.

Abbiamo visto quali sono gli aspetti più problematici dell’uso dell’intelligenza artificiale e come, a grandi linee, l’Unione Europea intende regolamentarlo tramite l’emanazione dell’AI Act. A questo punto non resta che aspettare e vedere se i legislatori europei troveranno un accordo che rispetti davvero i diritti e la sicurezza delle persone, in linea con l’approccio del GDPR.

CONTINUA A LEGGERE: Anche nel metaverso c’è un gender gap

Buona navigazione e buon utilizzo dell’AI!