In breve
Gli sforzi della California per regolamentare l'IA hanno incontrato degli ostacoli: il governatore ha posto il veto a un disegno di legge volto a stabilire protocolli di sicurezza per i sistemi di IA, e un giudice ha bloccato una legge che puniva la diffusione di deepfake a fini politici.
Il governatore Newsom pone il veto al disegno di legge sulla sicurezza dell'IA
Il governatore della California Gavin Newsom ha posto il veto a un disegno di legge che avrebbe imposto norme di sicurezza alle grandi aziende di IA che operano nello Stato. Il disegno di legge, noto come Safe and Secure Innovation for Frontier Artificial Intelligence Models Act (SB 1047), mirava a rendere obbligatorie misure di sicurezza per proteggere il pubblico da potenziali danni causati dai più potenti sistemi di IA, come metodi per arrestarli rapidamente.
Newsom ha espresso la preoccupazione che l'ampio campo di applicazione del disegno di legge potesse soffocare l'innovazione e fornire un falso senso di sicurezza. Ha sostenuto che la normativa non distinguesse adeguatamente i sistemi di IA in base ai loro livelli di rischio o alle loro applicazioni. Pur riconoscendo la necessità di protocolli di sicurezza e di conseguenze per l'uso improprio dell'IA, Newsom ha sottolineato l'importanza di un approccio empirico alla regolamentazione.
Il veto è stato criticato dai sostenitori del disegno di legge, tra cui Elon Musk, figure di spicco di Hollywood e sindacati come SAG-AFTRA e SEIU, i quali ritengono ritenendo necessario adottare rigorose misure di sicurezza per l'IA. L’amministratore delegato di Anthropic Dario Amodei aveva inoltre riconosciuto i miglioramenti che erano stati apportati al disegno di legge, affermando che i suoi benefici fossero maggiori dei suoi costi.
Tra gli oppositori del disegno di legge troviamo invece OpenAI, Amazon, Meta, Google, l'ex presidente della Camera Nancy Pelosi e persino alcuni deputati democratici. OpenAI ha sostenuto che la regolamentazione dell'IA dovrebbe essere gestita a livello federale, mentre Google e Meta hanno espresso gratitudine al governatore Newsom per aver posto il veto al disegno di legge, sottolineando il loro impegno per lo sviluppo responsabile dell'IA ed evidenziando il potenziale impatto negativo del SB 1047 sull'innovazione e sui posti di lavoro.
Un giudice blocca la legge che prende di mira i deepfake politici generati dall'IA
Un’altra vicenda coinvolge il blocco, da parte di un giudice federale, della legge californiana AB 2839, che mirava a limitare la diffusione di deepfake generati dall'intelligenza artificiale durante le elezioni. La legge prendeva di mira le persone che diffondono online dei deepfake di candidati politici, poiché il contenuto falso potrebbe fuorviare gli elettori.
Il giudice John Mendez ha stabilito che la legge era eccessivamente ampia e violava il diritto alla libertà di parola sancito dal Primo Emendamento: il linguaggio vago della legge potrebbe infatti essere interpretato in modo da includere un'ampia gamma di satira e commenti politici protetti dal Primo Emendamento.
Questa sentenza è giunta in risposta a una causa intentata da un utente che aveva pubblicato un deepfake generato dall'IA della vicepresidente Kamala Harris, il quale sostiene che si trattasse di satira. L'avvocato del querelante ha inoltre sostenuto che le leggi esistenti in materia di diffamazione e privacy fornivano già una tutela sufficiente per gli individui danneggiati dai deepfake.
Implicazioni per la sicurezza dell'IA
Questi recenti eventi evidenziano le sfide della regolamentazione dell'IA. Il veto sul SB 1047 mostra la difficoltà e i conflitti di interesse nel bilanciare la sicurezza dell’IA con l’innovazione, mentre il blocco del AB 2839 evidenzia la complessità dell'affrontare la disinformazione generata dall'IA senza invadere il diritto alla libertà di parola.
Assistiamo ancora una volta a una tensione tra la volontà di colmare il vuoto normativo sull’IA che ne favorisce usi impropri, gli interessi delle aziende, e la necessità che le leggi abbiano un impatto corretto sulla società.