Mondo
6.4.2025

Gemini 2.5 Pro: l'IA più potente di Google dimentica la sicurezza, esperti preoccupati

In due parole 

Google ha lanciato Gemini 2.5 Pro, considerato uno dei modelli di intelligenza artificiale (IA) più avanzati al mondo. Il tutto senza pubblicare alcuna informazione sulla sicurezza, nonostante gli impegni presi pubblicamente.

Rilasciato Gemini 2.5 Pro: Google accelera sull’IA ma dimentica la trasparenza

In un contesto di crescente competizione nel settore dell'intelligenza artificiale, Google ha recentemente lanciato Gemini 2.5 Pro, un modello che secondo numerosi test valutativi si posiziona tra i più potenti al mondo. Tuttavia, a differenza dei principali concorrenti come OpenAI, Anthropic e Meta, l'azienda di Mountain View non ha pubblicato alcuna “system card” o “model card”. Questa è una scheda tecnica che solitamente accompagna un modello IA avanzato e che contiene valutazioni sui rischi, limiti d’uso, bias rilevati e test di sicurezza. 

Perché Google ha rotto le sue promesse sulla sicurezza dell’IA

Il rilascio di model card non è solo una prassi ormai consolidata nel settore dell’IA, ma anche una promessa esplicita che Google aveva fatto nel 2023 alla Casa Bianca e in vari forum internazionali. Google si era impegnata ad accompagnare ogni rilascio “significativo” di un modello IA con un’analisi pubblica delle sue implicazioni in termini di sicurezza e rischio sociale. Gemini 2.5 Pro, stando alla stessa descrizione di Google, rientra chiaramente nella categoria “significativo”. Ma nessuna documentazione è stata resa disponibile.

Per di più, Google è stata tra le prime aziende a proporre le model card in un articolo di ricerca del 2019, definendole "un approccio per pratiche responsabili, trasparenti e affidabili nel machine learning".

Sicurezza rimandata: l’alibi dell’“esperimento”

Il blog post di annuncio di Gemini 2.5 Pro non contiene nemmeno una singola menzione della parola "sicurezza". Questa mancanza di trasparenza è allarmante, soprattutto alla luce delle recenti dichiarazioni di OpenAI e Anthropic riguardo ai potenziali rischi dei loro modelli avanzati, inclusa la possibilità che possano aiutare malintenzionati a sviluppare armi biologiche. Secondo un recente articolo di Wired, Google avrebbe una tendenza a ridurre i tempi di testing dei prodotti per accelerare il lancio sul mercato, con diversi revisori che avrebbero lasciato l'azienda sentendo che le loro preoccupazioni non venivano considerate adeguatamente.

Google giustifica l’assenza di report sulla sicurezza affermando che Gemini 2.5 Pro è una “release sperimentale”, diffusa in modo limitato per raccogliere feedback prima di un rilascio definitivo e che, solo in quel momento, verrà pubblicata una valutazione completa. Ma nel frattempo il modello è già operativo e accessibile in varie piattaforme, il che solleva dubbi sulla coerenza di questa giustificazione.

A dirla tutta, anche il modello Gemini 2.0 Flash, già disponibile per il pubblico, non ha ricevuto alcuna valutazione di sicurezza. L’ultimo documento di questo tipo pubblicato da Google risale a più di un anno fa, per Gemini 1.5 Pro. Nonostante ciò, un portavoce di Google ha dichiarato che la sicurezza continua a essere una "priorità assoluta" per l'azienda e che prevede di rilasciare maggiore documentazione sui suoi modelli di IA, incluso Gemini 2.0 Flash.

Un pericoloso precedente in un settore poco regolamentato

Gli esperti avvertono che il comportamento di Google sta creando un precedente pericoloso, specialmente in un momento in cui i modelli di intelligenza artificiale diventano sempre più potenti e sofisticati. Poiché gli sforzi di regolamentazione a livello nazionale non sono ancora sufficienti, infatti, l'autoregolamentazione e la trasparenza rimangono gli unici strumenti per valutare la sicurezza dei modelli IA.

Ultime Notizie