Mondo
9.2.2025

Google apre all'intelligenza artificiale per guerra e sorveglianza: fine dei limiti etici all'IA?

In due parole

Google ha revocato il divieto sull'uso della sua intelligenza artificiale per scopi militari e di sorveglianza, suscitando preoccupazioni etiche e sollevando interrogativi sul futuro dell'IA e il suo impatto sulla società.

Google cambia le carte in tavola: addio ai principi etici sull'IA?

Google ha modificato in modo significativo le sue linee guida sull'uso dell'intelligenza artificiale (IA), eliminando il divieto di impiegare la sua tecnologia per scopi precedentemente considerati "sensibili". 

Questa decisione segna un punto di svolta rispetto all'impegno che l'azienda aveva assunto in passato per limitare l'uso della sua IA per tecnologie potenzialmente dannose. Nel 2018, infatti, Google aveva stabilito dei principi che vietavano esplicitamente l'uso della sua IA per lo sviluppo di armi, sistemi di sorveglianza che violassero le norme internazionali e tecnologie contrarie al diritto internazionale o ai diritti umani. Questi divieti sono stati ora rimossi, aprendo la strada a nuove applicazioni, prima impensabili.

Perché Google ha cambiato idea? Le ragioni dietro il voltafaccia

Le motivazioni ufficiali di Google per questo cambiamento includono la crescente diffusione dell'IA, l'evoluzione degli standard e le dinamiche geopolitiche che vedono l'IA come un campo di battaglia strategico. Google sostiene che le democrazie dovrebbero guidare lo sviluppo dell'IA, collaborando per creare un'IA che protegga le persone, promuova la crescita globale e supporti la sicurezza nazionale. L'azienda sembra suggerire che un impegno attivo nel settore militare sia necessario per garantire un "uso democratico" dell'IA.

Google promette misure per mitigare i rischi: basteranno?

Google ha promesso di mettere in atto alcune misure per ridurre i rischi legati a questi nuovi potenziali utilizzi della sua IA. L'azienda si è impegnata a implementare una supervisione umana, dei processi di accertamento e meccanismi di feedback per allinearsi alla responsabilità sociale, al diritto internazionale e ai diritti umani. Google ha dichiarato inoltre che si impegnerà a mitigare risultati indesiderati o dannosi. Resta da vedere come questi impegni si tradurranno in pratica e quanto saranno efficaci nel prevenire usi impropri dell'IA.

Le preoccupazioni dei dipendenti e di Human Rights Watch

La decisione di Google ha suscitato preoccupazioni tra i suoi dipendenti, che criticano la mancanza di consultazione e temono che l'azienda stia abbandonando il suo impegno per un uso etico dell'IA, soprattutto in relazione alla guerra. 

Anche organizzazioni per i diritti umani, come Human Rights Watch, hanno espresso preoccupazione per la decisione di Google. Anna Bacciarelli, ricercatrice senior di AI presso Human Rights Watch, ha dichiarato che l'IA può complicare l'attribuzione di responsabilità per decisioni letali sul campo di battaglia. L'organizzazione sottolinea la necessità di regolamentazioni più stringenti.

Il contesto: i giganti tech stanno sdoganando l’uso dell’IA per scopi militari

La decisione di Google di allentare le restrizioni sull'uso militare dell'IA ricorda da vicino il recente cambio di rotta di OpenAI, l'azienda dietro ChatGPT. Nel dicembre 2024, infatti, OpenAI ha modificato la sua politica sull'uso militare dell'IA, passando da un divieto rigoroso a una collaborazione diretta con Anduril, un'azienda di tecnologia per la difesa che sviluppa droni e sistemi d'arma controllati dall'IA. Anche in questo caso, la motivazione dichiarata è quella di proteggere la democrazia e prevenire l’uso improprio dell’IA.

Le dichiarazioni rassicuranti di Google e OpenAI non bastano certo a dissipare le preoccupazioni etiche legate all’uso dell’intelligenza artificiale in guerra. Inoltre, se le aziende leader continueranno a normalizzare sempre di più dell’uso dell’IA in campi estremamente sensibili, potremmo dimenticarci velocemente quanto questo sia problematico.

Ultime Notizie