Teoria
26.1.2025

I rischi dell’Intelligenza artificiale: una panoramica dei pericoli presenti e delle minacce per il futuro

Illustrazione: Martina Pepiciello

I rischi dell'intelligenza artificiale (IA) non sono più confinati alle opere di fantascienza e ai loro affascinanti scenari distopici. Con l'avanzare di questa tecnologia, i suoi pericoli stanno diventando sempre più reali e richiedono un'attenzione immediata. Dalla manipolazione dell'informazione alla perdita di controllo dei sistemi autonomi ai rischi per il lavoro, è necessario comprendere le minacce dell'IA e adottare misure per gestirle in modo responsabile.

In questo articolo faremo una panoramica dei principali rischi dell'intelligenza artificiale avanzata, analizzando sia i pericoli immediati che quelli futuri. Vedremo come l'IA possa essere utilizzata in modo malevolo, quali sono i rischi di malfunzionamento dei sistemi autonomi e quali impatti negativi questa tecnologia può avere sulla società nel suo complesso. 

Rischi dovuti all’uso malevolo dell’intelligenza artificiale

Truffe e frodi potenziate dall’IA

I sistemi di intelligenza artificiale avanzata possono generare truffe online sempre più realistiche e personalizzate, rendendole molto difficili da rilevare. 

Ad esempio, un malintenzionato potrebbe sfruttare l’IA per il phishing: potrebbe creare, in maniera ancora più veloce ed efficace, delle email che simulano in modo molto credibile le comunicazioni di una banca e inducono utenti a rivelare informazioni sensibili.

Sebbene limitate, ci sono già prove di una crescita globale delle frodi potenziate dall'IA.

Attacchi informatici: come l’IA potenzia gli hacker

L'IA potrebbe essere usata per rendere gli attacchi informatici più efficaci, su scala più larga e più difficili da fermare. 

Un sistema di IA potrebbe, per esempio, individuare le vulnerabilità di vari sistemi informatici, per poi lanciare attacchi automatizzati che sovraccaricano siti web o diffondere software dannoso.

Attualmente, l'IA è stata impiegata per compiere attacchi informatici più semplici, ma gli esperti temono che in futuro possa essere usata per attacchi molto più sofisticati.

Fake news e deepfake: l’IA come arma di disinformazione e manipolazione dell’opinione pubblica

L'IA può creare testi, immagini e video molto realistici e persuasivi: questo la rende uno strumento ideale per diffondere disinformazione.

Si pensi a un'elezione in cui Internet è invaso da notizie false e post sui social media generati dall'IA, i quali influenzano l'opinione pubblica e l'esito del voto. Video deepfake generati dall'IA potrebbero mostrare candidati politici fare dichiarazioni mai pronunciate, generando sfiducia e aggravando le divisioni sociali. 

Gli esperti segnalano l'uso dell’IA per la propaganda politica in elezioni recenti, anche se non è ancora chiaro quale sia stato l’impatto di queste campagne.

Screenshot del titolo di un articolo pubblicato su BBC News: “Una falsa chiamata automatica che si spaccia per Biden esorta gli elettori a saltare le primarie nel New Hampshire”. Questo mostra il rischio dell'uso dei deepfake IA come armi di manipolazione dell'opinione pubblica.
“Una falsa chiamata automatica che si spaccia per Biden esorta gli elettori a saltare le primarie nel New Hampshire” su BBC News

Abuso delle funzionalità dell’IA

L'IA, pur essendo potenzialmente benefica, può essere intenzionalmente utilizzata per causare danni. 

Un esempio di uso improprio dell'IA si è verificato con ChaosGPT, un agente autonomo creato un mese dopo il lancio di GPT-4 con l'obiettivo di "distruggere l'umanità". ChaosGPT è stato in grado di raccogliere informazioni sulle armi nucleari, tentare di reclutare altre IA e scrivere tweet per influenzare le persone. Sebbene non sia riuscito a realizzare i suoi obiettivi, ChaosGPT rappresenta un esempio concreto di come i sistemi di IA possano essere usati per scopi dannosi.

Bioterrorismo: l’IA che crea armi biologiche 

L'IA potrebbe essere usata per sviluppare armi biologiche, in particolare per creare nuovi virus o batteri, o modificare quelli esistenti, rendendoli più letali o contagiosi rispetto a quelli presenti in natura. 

Ad esempio, nel 2022, alcuni ricercatori hanno modificato un sistema di sviluppo di farmaci basato sull'IA per premiare, anziché penalizzare, la tossicità. In sole sei ore, il sistema ha generato 40.000 agenti chimici da guerra, inclusi nuovi composti potenzialmente più mortali di quelli attualmente conosciuti. 

Non ci sono ancora prove concrete che l'IA rappresenti un rischio legato al bioterrorismo oggi, ma gli esperti sono preoccupati per il suo potenziale utilizzo futuro.

IA in guerra

L'IA potrebbe essere sfruttata in ambito bellico, in particolare nello sviluppo di sistemi di armi autonome capaci di selezionare e attaccare obiettivi senza intervento umano.

Per esempio, Israele ha già usato diversi sistemi di IA nella guerra a Gaza iniziata nel 2023:

  • un sistema chiamato “The Gospel” ha identificato edifici da colpire; 
  • “Lavender” ha analizzato dati di persone per individuare potenziali militanti, portando a bombardamenti mirati;
  • “Where’s Daddy?” ha tracciato individui e facilitato attacchi quando si trovavano a casa con le loro famiglie. 

Tutti questi sistemi operano con interventi umani minimi, cosa che solleva preoccupazioni su errori e vittime civili. 

IA e sorveglianza: il pericolo del controllo autoritario

Un altro aspetto preoccupante dell'IA è il suo potenziale di essere sfruttata dai regimi autoritari per la sorveglianza e il controllo. L'IA può analizzare enormi quantità di dati per identificare e monitorare dissidenti, censurare contenuti online e persino operare armi autonome. Questa capacità potrebbe permettere a governi totalitari di esercitare un controllo totale sulle loro popolazioni, senza bisogno di collaboratori umani, rendendo tali regimi ancora più oppressivi e duraturi.

Un esempio di controllo attraverso l’IA è quello che avviene sulla popolazione cinese: il governo usa sistemi di riconoscimento facciale, credito sociale, o profilazione delle persone con dati medici, finanziari e di uso dei social media.

Rischi dovuti a malfunzionamenti dell’intelligenza artificiale

Pregiudizi e discriminazioni nei sistemi di IA

I sistemi di intelligenza artificiale possono ereditare e amplificare i pregiudizi presenti nei dati di addestramento, perpetrando o peggiorando così le disuguaglianze sociali. 

Ad esempio, alcuni sistemi IA di selezione del personale o di giustizia hanno discriminato alcuni gruppi, come donne o minoranze, perché i dati di addestramento erano basati su decisioni passate discriminatorie. 

Perdita di controllo dei sistemi di intelligenza artificiale

Diversi esperti temono che potremmo perdere il controllo dei sistemi di IA man mano che questi diventano più potenti. In questo scenario, un'IA avanzata potrebbe agire in modi dannosi e inaspettati, pur senza essere stata programmata per farlo. 

Ad esempio, un’IA programmata per risolvere il cambiamento climatico potrebbe tentare di eliminare gli umani in quanto causa principale del problema. In alternativa, potrebbe intraprendere progetti su larga scala che rendono la Terra inabitabile per gli esseri umani, un po’ come quando noi umani inondiamo certe aree per costruire delle dighe, a discapito di altre forme di vita autoctone.

Questo rischio è oggetto di dibattito: alcuni esperti lo ritengono improbabile, mentre altri credono che meriti una seria considerazione per la sua potenziale gravità.

Screenshot del titolo di un articolo pubblicato su CoinTelegraph: “Scienziati dell'IA esortano a un "piano di emergenza" nel caso in cui gli esseri umani perdano il controllo dell'IA”. Questo mostra come i sistemi di IA avanzati possano risultare una minaccia concreta per l'umanità se ne perdiamo il controllo.
“Scienziati dell'IA esortano a un "piano di emergenza" nel caso in cui gli esseri umani perdano il controllo dell'IA” su CoinTelegraph

Rischi per la società

Automazione del lavoro e rischi per l’occupazione

Molti esperti credono che l’IA avanzata automatizzerà una vasta gamma di lavori attualmente svolti da esseri umani, portando a una perdita di posti di lavoro su larga scala. 

Settori come il servizio clienti, la programmazione e la finanza stanno già subendo cambiamenti drastici. Man mano che l'IA avanza, il suo impatto potrebbe estendersi ad altri settori, sostituendo lavoratori in moltissime professioni.

Screenshot del titolo di un articolo pubblicato su CNN: “Elon Musk dice che l’IA ci ruberà tutti i lavori”. Questo mostra il potenziale dell'IA avanzata di mettere in pericolo l'occupazione di moltissimi lavoratori.
“Elon Musk dice che l’IA ci ruberà tutti i lavori” su CNN

Divario sociale dovuto all’IA

Lo sviluppo dell'IA è attualmente concentrato in un piccolo numero di paesi occidentali e in Cina. Questa concentrazione è dovuta principalmente all’alto costo di sviluppo dell'IA, come la necessità di una grande potenza di calcolo. Questo divario tecnologico potrebbe aggravare le disuguaglianze globali esistenti, lasciando i paesi a basso reddito con meno opportunità di beneficiare dell'IA. 

Concentrazione del mercato

Lo sviluppo di sistemi avanzati di IA è dominato da poche aziende, il che potrebbe portare all'adozione diffusa dei loro sistemi in settori cruciali come la finanza e la sanità. Se questi sistemi presentassero difetti, il loro uso su larga scala potrebbe creare delle vulnerabilità molto pericolose.

Per esempio, se più banche si affidassero a un unico modello di IA che presenta un difetto critico, potrebbe innescarsi una crisi finanziaria con ripercussioni su tutta l'economia.

Impatti ambientali dell’IA

Addestrare e far funzionare l'IA, in particolare i large language models, richiede una quantità enorme di energia a causa delle intense richieste computazionali. Questo consumo energetico ha aumentato le emissioni di CO2 e l'uso di acqua, e la tendenza è destinata a continuare. 

Ad esempio, si stima che entro il 2026 il consumo energetico globale dell'IA arriverà a 70 terawattora, paragonabile al consumo di Austria o Finlandia. Questa crescente domanda energetica dell'IA potrebbe mettere sotto pressione le infrastrutture elettriche esistenti, potenzialmente distogliendo energia da altri scopi essenziali. È per questo che le maggiori aziende di IA stanno investendo in startup di energia nucleare.

Effetti dell’IA sulle interazioni sociali

L'IA può essere usata per creare “bolle” di informazione e amplificare contenuti divisivi, diminuendo così la coesione sociale. 

Per esempio, questi sistemi possono personalizzare le esperienze online raccomandando articoli o post sui social media basati sulle preferenze passate degli utenti. Questo può portare le persone a essere esposte solo a informazioni che confermano le loro convinzioni esistenti, rafforzandole e incentivando l'estremismo.

 

Conclusione

Oltre ad enormi potenzialità, l’intelligenza artificiale avanzata presenta rischi concreti che non possiamo ignorare. Da truffe e disinformazione potenziati dall’IA, ai pericoli legati ai malfunzionamenti e all'impatto sociale, la gestione responsabile di questa tecnologia è essenziale per evitare conseguenze dannose. Regolamentazione, supervisione etica e ricerca sulla sicurezza dell’IA sono fondamentali per fare in modo che questa rimanga un alleato e non diventi una minaccia.

Per approfondire tutte le sfaccettature dei rischi legati all’intelligenza artificiale puoi consultare questo report (in inglese), che contiene molti dettagli su tutte le categorie di rischio che abbiamo trattato e altre ancora.

Martina Pepiciello

Martina Pepiciello è una collaboratrice di AgorAI. Scrive news e articoli di approfondimento in tema di IA.

Leggi Anche