Cina
10.9.2024

Preoccupazioni globali sull’uso dell’IA: la Cina non firma l’accordo per il controllo umano sulle armi nucleari

In breve

Durante il summit REAIM, la Cina ha rifiutato di firmare un accordo che garantisce che solo gli esseri umani, e non l'intelligenza artificiale, prendano decisioni riguardanti l'uso di armi nucleari. Questo ha generato preoccupazioni sul controllo e sull’impiego futuro dell’AI in ambito militare.

Il summit REAIM

Il summit REAIM (Responsible AI in the Military Domain) 2024, tenutosi a Seul il 9 e 10 settembre, ha riunito più di 100 nazioni per discutere un tema che diventa sempre più urgente: l’applicazione dell’intelligenza artificiale (IA) nel settore militare. Questo evento ha fatto seguito al primo summit REAIM, svoltosi nei Paesi Bassi l'anno scorso, e mira a promuovere un uso responsabile di tecnologie di IA in contesti bellici. L’obiettivo è evitare scenari in cui la tecnologia superi il controllo umano, rischiando di creare catastrofi.

Il rifiuto della Cina

Uno dei punti centrali della conferenza è stata la proposta di un accordo, non legalmente vincolante, che stabilisce la necessità di mantenere sempre un controllo umano nelle decisioni riguardanti l’uso delle armi nucleari. La dichiarazione afferma che l'IA non dovrebbe avere l’autorità di decidere autonomamente su questioni di tale portata, sottolineando che tali applicazioni devono rispettare leggi internazionali e principi etici. Sebbene l’accordo non preveda sanzioni per chi non aderisce, esso evidenzia la crescente preoccupazione per il ruolo dell’IA nelle armi di distruzione di massa.

La Cina ha scelto di non firmare questo accordo, creando timori globali sul potenziale utilizzo dell'IA per scopi militari senza sufficienti garanzie.

La Russia, invece, non era presente al summit, esclusa per via della guerra in Ucraina. 

L’uso dell’IA in ambito nucleare

L'idea che un’intelligenza artificiale possa decidere in merito all’uso di armi nucleari senza ulteriori controlli rappresenta una grave minaccia. La cosiddetta “scatola nera” dell’IA, cioè la difficoltà di comprendere e monitorare i processi decisionali di questi sistemi, rende impossibile prevedere con certezza le loro azioni in contesti estremi. L'assenza di trasparenza aumenta il rischio di errori fatali o abusi, soprattutto in situazioni di crisi globale. 

Il fatto che la Cina, uno dei maggiori attori sul piano tecnologico e militare, abbia scelto di non firmare l’accordo, solleva preoccupazioni profonde: questa decisione potrebbe accelerare lo sviluppo e l’adozione di sistemi d'arma non regolamentati. 

Nonostante il summit abbia sottolineato l'importanza del dialogo e della cooperazione internazionale, la mancanza di impegni vincolanti da parte di potenze globali rende il futuro del controllo dell'IA nel settore militare ancora incerto.

Ultime Notizie