O autor do SB 1047 da Califórnia, a conta de segurança de IA mais controversa do país, de 2024, está de volta com uma nova lei de IA que pode abalar o Vale do Silício.
O senador estadual da Califórnia, Scott Wiener, apresentou um nova fatura Na sexta -feira, isso protegeria os funcionários dos principais laboratórios de IA, permitindo que eles se manifestassem se acharem que os sistemas de IA de sua empresa poderiam ser um “risco crítico” para a sociedade. O novo projeto de lei, SB 53, também criaria um cluster de computação em nuvem pública, chamada Calcompute, para dar aos pesquisadores e startups os recursos de computação necessários para desenvolver IA que beneficiem o público.
O último AI Bill de Wiener, o SB 1047 da Califórnia, provocou um debate animado em todo o país em torno de lidar com enormes sistemas de IA que poderiam causar desastres. SB 1047 pretendia Evite a possibilidade de modelos de IA muito grandes, criando eventos catastróficoscomo causar perda de vidas ou ataques cibernéticos que custam mais de US $ 500 milhões em danos. No entanto, o governador Gavin Newsom finalmente vetou a lei em setembro, dizendo SB 1047 não foi a melhor abordagem.
Mas o debate sobre o SB 1047 rapidamente se tornou feio. Alguns líderes do Vale do Silício disseram SB 1047 prejudicaria a vantagem competitiva da América Na corrida global da IA, e afirmou que o projeto foi inspirado por medos irreais de que os sistemas de IA pudessem trazer cenários de ficção científica do dia do juízo final. Enquanto isso, o senador Wiener alegou que alguns capitalistas de risco se envolveram em um “Campanha de propaganda” contra sua conta.
O SB 53 exige essencialmente as partes menos controversas do SB 1047 – como proteções de denunciantes e o estabelecimento de um cluster de calcomputa – e as reembalam em uma nova conta de IA.
Notavelmente, Wiener não está se esquivando do risco de IA existencial no SB 53. O novo projeto de lei protege especificamente os denunciantes que acreditam que seus empregadores estão criando sistemas de IA que representam um “risco crítico”. A conta define o risco crítico como um ““Risco previsível ou material de que o desenvolvimento, armazenamento ou implantação de um desenvolvedor de um modelo de fundação, conforme definido, resulte na morte ou ferimentos graves a mais de 100 pessoas, ou mais de US $ 1 bilhão em danos a direitos em dinheiro ou propriedade “.
O SB 53 limita os desenvolvedores de modelos de IA da Frontier – provavelmente incluindo o OpenAI, Antrópico e Xai, entre outros – de retaliar contra funcionários que divulgam informações sobre informações ao Procurador Geral, autoridades federais da Califórnia ou a outros funcionários. De acordo com o projeto, esses desenvolvedores seriam obrigados a se reportar aos denunciantes sobre certos processos internos que os denunciantes encontram em relação.
Quanto ao Calcompute, o SB 53 estabeleceria um grupo para criar um cluster de computação em nuvem pública. O grupo consistiria em representantes da Universidade da Califórnia, bem como de outros pesquisadores públicos e privados. Isso faria recomendações sobre como criar calcomputa, quão grande o cluster deve ser e quais usuários e organizações devem ter acesso a ele.
Obviamente, é muito cedo no processo legislativo do SB 53. O projeto de lei precisa ser revisado e aprovado pelos órgãos legislativos da Califórnia antes de chegar à mesa do governador Newsom. Os legisladores estaduais certamente estarão esperando a reação do Vale do Silício ao SB 53.
No entanto, 2025 pode ser um ano mais difícil para aprovar as contas de segurança da IA em comparação com 2024. A Califórnia aprovou 18 contas relacionadas à IA em 2024, mas agora Parece que o movimento da AI Doom perdeu terreno.
O vice -presidente JD Vance sinalizou na Cúpula de Ação de Paris AI que os Estados Unidos não estão interessados na segurança da IA, mas priorizam a inovação da IA. Embora o cluster Calcompute estabelecido pelo SB 53 certamente possa ser visto como o avanço do progresso da IA, não está claro como os esforços legislativos em torno do risco de IA existencial se sairão em 2025.