Il governatore della California, Gavin Newsom, ha posto il veto su una legge controversa. Il disegno di legge riguarda l’intelligenza artificiale (AI). In una dichiarazione rilasciata il 29 settembre, Newsom ha affermato che l’SB 1047 si concentra troppo sulla regolamentazione senza proteggere il pubblico dalle minacce reali.

Newsom ritiene che questo disegno di legge rallenterebbe l’innovazione senza garantire la sicurezza pubblica di fronte ai rischi posti dall’IA. Conosciuto come “Safe and Secure Innovation for Frontier Artificial Intelligence Models Act”, l’SB 1047 ha suscitato forti reazioni nella Silicon Valley.

Propone test di sicurezza obbligatori per i modelli di intelligenza artificiale e altre garanzie che le aziende tecnologiche ritengono possano soffocare l’innovazione.

L’Efficacia del Disegno di Legge Messa in Discussione

Il signor Newsom si è opposto al progetto di legge perché le norme proposte non affrontano i problemi reali. Ha fatto riferimento all’imposizione di standard severi per funzioni innocue.

Inoltre, la SB 1047 avrebbe costretto i leader dell’IA come OpenAI, Meta e Google a dotare i loro modelli più avanzati di un “kill switch”. Questo dispositivo avrebbe permesso di interrompere un’IA fuori controllo prima che causasse danni irreversibili.

Consapevole della posta in gioco, Gavin Newsom si è avvalso dell’aiuto dei più importanti specialisti di sicurezza delle IA del mondo per progettare solide misure di salvaguardia. Allo stesso tempo, ha incaricato le agenzie governative di effettuare analisi più approfondite dei rischi associati all’intelligenza artificiale. In particolare, quelli associati a eventi catastrofici.

A suo avviso, è imperativo mettere in atto solidi protocolli di sicurezza prima che si verifichi un disastro.

Politici e Grandi Aziende Tecnologiche Contro la Legge

Prima della decisione di Newsom, il disegno di legge è stato oggetto di pesanti critiche da parte di legislatori, consulenti e giganti tecnologici come OpenAI. Hanno avvertito che avrebbe ostacolato in modo significativo la crescita dell’IA.

Il responsabile delle politiche sull’IA dell’Abundance Institute, Neil Chilson, ha avvertito che la legge si rivolge principalmente ai modelli di un certo costo e di una certa dimensione (oltre i 100 milioni di dollari). Tuttavia, il suo campo di applicazione potrebbe essere facilmente ampliato per colpire gli sviluppatori più piccoli.

Tuttavia, alcuni sono favorevoli alla legge. Elon Musk è uno di questi. Il miliardario ha sviluppato un proprio modello di intelligenza artificiale chiamato “Grok”. Musk è uno dei pochi leader tecnologici a sostenere la proposta di legge e una più ampia regolamentazione dell’IA.

Queste proposte di legge potrebbero non solo avere un impatto positivo sui settori dell’IA, della blockchain e delle criptovalute, ma anche favorirne lo sviluppo creando un ambiente più stabile e attraente per gli investitori. È quindi essenziale seguire da vicino questi sviluppi per cogliere le nuove opportunità che emergeranno.