OpenAI
10.12.2024

Intelligenza artificiale in guerra: il voltafaccia di OpenAI

In breve

OpenAI ha modificato la sua politica sull'uso militare dell'intelligenza artificiale, passando da un divieto rigoroso a una collaborazione diretta con Anduril per sviluppare sistemi di difesa con droni. Questa mossa, giustificata come necessaria per garantire un uso "democratico" dell' intelligenza artificiale (IA), ha sollevato preoccupazioni etiche tra i dipendenti e riflette una crescente tendenza delle aziende tecnologiche a essere coinvolte in applicazioni militari.

Dall’intelligenza artificiale per tutti alla difesa nazionale

OpenAI, l'azienda dietro il popolare chatbot ChatGPT, ha modificato in modo sostanziale la sua politica per l'uso militare della propria tecnologia. In precedenza, l'azienda proibiva rigorosamente l'uso dei suoi modelli di IA per lo "sviluppo di armi" o per "scopi militari e di guerra". Tuttavia, in meno di un anno, questa posizione chiara è venuta meno, e OpenAI è ora attivamente coinvolta in iniziative per la sicurezza nazionale.

Questa svolta è iniziata all'inizio del 2024 quando l'azienda ha allentato le sue restrizioni, dichiarando che la sua tecnologia non poteva essere utilizzata per "causare danni a sé stessi o ad altri" attraverso lo sviluppo di armi, lesioni o distruzione di proprietà. Poco dopo, OpenAI ha annunciato che avrebbe collaborato con il Pentagono per software di sicurezza informatica, ma non per armi.

I modelli di OpenAI nei droni: la collaborazione con Anduril

In un post recente sul suo blog, OpenAI ha annunciato il suo coinvolgimento nell’"ambito della sicurezza nazionale", sostenendo che l'intelligenza artificiale (IA) potrebbe "aiutare a proteggere le persone, scoraggiare gli avversari e persino prevenire futuri conflitti". È questa la motivazione di OpenAI per la sua nuova collaborazione con Anduril, un'azienda di tecnologia per la difesa che sviluppa droni, sistemi radar e missili controllati dall'IA.

Questa nuova partnership segna un distacco significativo dalla missione originale di OpenAI. La collaborazione vedrà la tecnologia di OpenAI dispiegata direttamente sul campo di battaglia per difendersi dagli attacchi con droni. OpenAI svilupperà modelli di IA per le forze statunitensi e alleate che "sintetizzino dati in tempo reale, riducano l'onere sugli operatori umani e migliorino la consapevolezza situazionale" per contrastare i droni nemici.

La giustificazione di OpenAI: una difesa della democrazia?

OpenAI sostiene che questa collaborazione sia in linea con la sua missione di garantire che i benefici dell'IA siano ampiamente condivisi. L’azienda afferma che collaborazioni in ambito militare e di difesa, se questo aiuta i paesi democratici a dominare la corsa all'IA, servirà a prevenirne l’uso improprio. Ma non si può fare a meno di notare come questo rappresenti un chiaro cambiamento di rotta rispetto alla volontà di evitare il coinvolgimento militare.

In un blog post che sollecitava il Pentagono e altre agenzie ad aumentare l'uso dell'IA per contrastare la Cina, OpenAI ha sottolineato l'importanza di una "visione democratica dell'IA". L'azienda ha sostenuto che le democrazie dovrebbero guidare lo sviluppo dell'IA, ispirandosi a valori come "libertà, equità e rispetto dei diritti umani". Secondo OpenAI, l'IA potrebbe studiare e mitigare danni civili, rimanendo al contempo vietata per causare danni alle persone, distruggere proprietà o sviluppare armi.

Il malcontento dei dipendenti

Questo approdo nel settore della difesa è stato accolto con preoccupazione e opposizione da alcuni dipendenti di OpenAI. Discussioni interne rivelano disagio riguardo all'uso della tecnologia dell'azienda da parte di un produttore di armi. I dipendenti hanno sollevato dubbi su come OpenAI possa garantire che i sistemi Anduril che utilizzano la loro tecnologia non prendano di mira aerei pilotati da esseri umani o vengano usati dall'esercito statunitense in modi imprevisti. Alcuni hanno espresso timori che l'accordo avrebbe danneggiato la reputazione di OpenAI e che, nonostante fosse presentato come difensivo, rappresentasse comunque una militarizzazione dell'IA.

I dirigenti di OpenAI hanno risposto riconoscendo queste preoccupazioni ma sostenendo che il lavoro con Anduril è limitato a sistemi difensivi volti a proteggere vite americane. Hanno sostenuto che è cruciale che i governi democratici abbiano accesso alla migliore tecnologia di IA, poiché i governi autoritari non esiterebbero a utilizzala per scopi militari.

IA e armi: il contesto globale

Questa mossa di OpenAI riflette una tendenza più ampia delle aziende della Silicon Valley a essere sempre più coinvolte in applicazioni militari. Nel 2018, Google ha affrontato proteste dei dipendenti e alla fine ha scelto di non rinnovare un contratto per fornire tecnologia di riconoscimento delle immagini al Pentagono. Tuttavia, questa resistenza sembra indebolirsi. Google, Amazon, Microsoft e Oracle sono ora tutte coinvolte in contratti da miliardi di dollari per fornire servizi cloud e software al Pentagono. Inoltre, Google ha recentemente licenziato dipendenti che protestavano contro il lavoro con il governo israeliano.

Anduril si unisce a un numero crescente di aziende, tra cui Palantir e Shield AI, che forniscono all'esercito statunitense IA e altre tecnologie avanzate. Queste aziende si presentano come sostenitori patriottici del predominio militare statunitense e hanno ottenuto contratti redditizi vendendo direttamente al comparto militare.

Ultime Notizie