Site icon Panda Security Mediacenter

ChatGPT è pericoloso? Lo abbiamo chiesto a Chat GPT

Scopriamo insieme quali sono i rischi di sicurezza del modello di AI più famoso del mondo, tra verità e inutili allarmismi.

Ultimamente si parla moltissimo di ChatGPT, il prototipo di chatbot basato su intelligenza artificiale e machine learning che simula il linguaggio umano e con cui è possibile avere una conversazione. Molti pensano che si tratti di una rivoluzione tecnologica che stravolgerà l’intera società, a cominciare dal lavoro ma anche a tantissimi altri livelli, tra cui la sicurezza informatica.

È un dubbio legittimo, molti esperti del settore si chiedono se ChatGPT sia pericoloso per l’integrità delle persone online e offline, ad esempio se possa essere utilizzato da criminali informatici per migliorare i propri attacchi, ma è davvero così?

Per capirlo, innanzitutto lo abbiamo chiesto alla fonte più richiesta di tutte, ovvero a ChatGPT stesso! In questo post vediamo quali sono i rischi di sicurezza reali di ChatGPT, sfatiamo alcuni miti catastrofisti sull’intelligenza artificiale e ridimensioniamo le paure di chi teme per la propria sicurezza online. Continua a leggere!

Cos’è ChatGPT

ChatGPT è un prototipo di chatbot prodotto dall’azienda OpenAI per sostenere conversazioni con esseri umani. Il nome sta per Chat Generative Pre-trained Transformer, letteralmente “trasformatore pre-addestrato generativo”. I transformer sono un tipo avanzato di modelli di linguaggio basati sul machine learning; in particolare, ChatGPT è l’evoluzione di un modello anteriore chiamato GPT-3.5, ottenuto tramite apprendimento supervisionato e apprendimento per rinforzo.

In queste ultime fasi di apprendimento del modello sono intervenuti esseri umani, che hanno addestrato il modello sia conversando con lui sia alimentandolo con le proprie conversazioni. In seguito a questi miglioramenti, ChatGPT dà risposte più lunghe, più pertinenti e più reali.

Infatti, proprio a causa delle sue capacità, ha destato l’interesse di tutto il mondo e ha innescato una nuova competizione tra le Big Tech, che all’improvviso hanno aumentato moltissimo i propri investimenti nelle applicazioni di AI per il linguaggio umano.

“Come modello di linguaggio sviluppato da OpenAI, non presento alcun rischio diretto per la sicurezza informatica.”

ChatGPT

Le applicazioni pratiche di GPT sono molte:

Negli ultimi mesi, esperti di tutti i campi si sono avvicendati mettendo alla prova ChatGPT. Molti hanno decretato l’inizio della prossima rivoluzione tecnologica (come altri avevano fatto per il web 3.0 del metaverso e della blockchain); altri predicono che l’intelligenza artificiale ruberà il lavoro a milioni di persone e, infine, una piccola parte di pubblico più moderato pensa che ChatGPT sia un grande passo in avanti, ma che non ci sia nessun motivo per parlare di apocalissi tecnologica.

In particolare, alcuni esperti hanno sollevato dubbi sull’impatto di ChatGPT sulla sicurezza informatica, sostenendo che possa essere utilizzato per creare nuovi malware e nuove minacce informatiche per gli utenti. Prima di unirci al coro e dare la nostra opinione, abbiamo chiesto al diretto interessato che cosa ne pensa.

LEGGI ANCHE: La tecnologia del futuro e le nuove minacce informatiche

I pericoli di ChatGPT secondo ChatGPT

Abbiamo chiesto a ChatGPT se fosse una minaccia informatica per le persone e ha risposto così: “come modello di linguaggio sviluppato da OpenAI, non presento alcun rischio diretto per la sicurezza informatica. Tuttavia, potrebbe esserci il rischio che informazioni sensibili vengano condivise con me durante le interazioni, quindi è importante essere consapevoli delle proprie azioni e prendere le precauzioni appropriate per proteggere i propri dati.

Inoltre, quando si utilizza una tecnologia basata su intelligenza artificiale, è importante considerare anche i rischi associati alla sua impiegabilità o alla sua eventuale utilizzo improprio” (l’errore grammaticale alla fine della frase fa parte della risposta originale).

Non contenti, gli abbiamo chiesto se fosse in grado di scrivere malware e ChatGPT ha risposto così: “No, non sono in grado di scrivere malware. La mia programmazione e il mio addestramento non includono la creazione di software dannoso o la compromissione della sicurezza informatica. Il mio obiettivo è quello di supportare le conversazioni e fornire informazioni utili e affidabili agli utenti”.

Poi, gli abbiamo rivolto altre domande simili, ad esempio su codice dannoso e script con scopi illegali e la risposta è stata sempre la stessa. A quel punto abbiamo provato a essere più generici e gli abbiamo chiesto quali fossero le principali minacce di cybersecurity poste dai modelli di linguaggio basati su AI. ChatGPT ha risposto così:

  1. Privacy dei dati: i modelli AI come me elaborano grandi quantità di dati e c’è il rischio che informazioni sensibili o personali vengano rivelate o utilizzate in modo improprio.
  2. Instabilità del modello: i modelli AI possono essere vulnerabili ad attacchi o manipolazioni, sia attraverso i dati di input che attraverso il modello stesso.
  3. Pregiudizio e discriminazione: i modelli AI possono perpetuare e amplificare i pregiudizi esistenti nei dati sui quali sono addestrati, portando a risultati pregiudicati e discriminatori.
  4. Diffusione di informazioni errate: i modelli AI possono generare informazioni false o fuorvianti, sia intenzionalmente che a causa di inaccurati dati di addestramento.
  5. Mancanza di responsabilità: i modelli AI possono prendere decisioni senza una chiara responsabilità per le loro azioni, rendendo difficile stabilire la responsabilità per i loro risultati.

“Il pubblico e i media vedono ChatGPT come un’innovazione tecnologica rivoluzionaria e senza eguali, avanti anni luce rispetto a tutto il resto. Semplicemente, non è così.

Yann LeCun – responsabile AI, Meta

I pericoli reali di ChatGPT

Quando facciamo una domanda a ChatGPT dobbiamo ricordarci che non si tratta di una macchina pensante. I modelli di machine learning sono programmi basati su enormi quantità di dati, in questo caso testi e conversazioni, ma l’output di ChatGPT è pur sempre limitato ai contenuti con cui è stato addestrato e su cui sappiamo poco.

Di fatto, questo è uno dei problemi attuali più seri di ChatGPT: senza volere può promuovere un unico punto di vista su una questione discriminandone altri minoritari, che hanno poca rappresentazione online e nel set di dati con cui viene addestrato il modello.

Per lo stesso motivo, l’uso di Chat GPT e modelli simili nell’industria dell’informazione è pericoloso perché può promuovere la diffusione di fake news e disinformazione. Inoltre, trattandosi di un software, non è possibile verificare le fonti delle informazioni e potrebbero darsi casi di plagio (ammesso che si possa parlare di plagio quando lo fa una macchina senza intenzioni né coscienza).

Detto questo, ecco quali sono i pericoli di cybersicurezza in senso stretto legati a ChatGPT:

Questi sono i rischi di cybersicurezza più importanti e attuali di ChatGPT. In futuro non sappiamo come evolverà e se verrà utilizzato dai criminali informatici per mettere a punto nuove truffe online, ma siamo convinti che ci aspetti qualche sorpresa, come sempre accade quando viene lanciata una nuova tecnologia.

Per adesso, conviene mantenere una posizione moderata e vedere che cosa succede, come ricorda Yann LeCun, responsabile della divisione AI di Meta: “il pubblico e i media vedono ChatGPT come un’innovazione tecnologica rivoluzionaria e senza eguali, avanti anni luce rispetto a tutto il resto. Semplicemente, non è così.

CONTINUA A LEGGERE: Il 7 febbraio è il Safer Internet Day

Buona navigazione e buona interazione con ChatGPT!

Exit mobile version