A notícia de que a OpenAI, uma das principais empresas de inteligência artificial do mundo, se opôs ao projeto de lei da Califórnia para prevenir desastres de IA, o SB 1047, tem causado comoção no setor. Dois ex-pesquisadores da OpenAI que renunciaram este ano por questões de segurança, Daniel Kokotajlo e William Saunders, expressaram sua decepção com a decisão da empresa.
Em uma carta compartilhada com o Politico, os dois ex-funcionários alertaram que a OpenAI está em uma corrida "imprudente" pelo domínio e que, apesar dos apelos anteriores do CEO Sam Altman por regulamentação de IA, a empresa agora se opõe a uma legislação real que visa garantir a segurança.
"Sam Altman, nosso antigo chefe, repetidamente pediu regulamentação de IA", escreveram Kokotajlo e Saunders. "Agora, quando a regulamentação real está na mesa, ele se opõe a ela."
Os dois acrescentaram que, "Com regulamentação apropriada, esperamos que a OpenAI ainda possa cumprir sua declaração de missão de construir AGI com segurança."
A rival da OpenAI, a Anthropic, expressou apoio ao projeto de lei ao apresentar preocupações específicas e pedir emendas, algumas das quais foram incorporadas desde então. Na quinta-feira, o CEO da Anthropic, Dario Amodei, escreveu ao governador da Califórnia, Gavin Newsom, dizendo que os "benefícios do projeto de lei atual provavelmente superam seus custos", embora não tenha endossado totalmente o projeto de lei.
A Corrida Imprudente pelo Domínio
Kokotajlo e Saunders, em sua carta, alertaram que a OpenAI está em uma corrida "imprudente" pelo domínio da IA, colocando a inovação e o lucro acima da segurança. Eles expressaram preocupação com a decisão da empresa de se opor ao projeto de lei, que visa estabelecer salvaguardas para evitar desastres de IA.
"Com regulamentação apropriada, esperamos que a OpenAI ainda possa cumprir sua declaração de missão de construir AGI com segurança", escreveram os ex-pesquisadores. "Mas a oposição da empresa a esse projeto de lei sugere que seus interesses corporativos estão se sobrepondo a essa missão."
A Importância da Regulamentação de IA
O projeto de lei da Califórnia, o SB 1047, foi projetado para estabelecer um quadro regulatório para a IA, exigindo que as empresas avaliem os riscos de segurança e tomem medidas para mitigá-los. Isso inclui a criação de um conselho consultivo de IA para assessorar o estado sobre questões de segurança e ética.
Especialistas em IA têm alertado há muito tempo sobre a necessidade de uma regulamentação adequada para evitar possíveis desastres causados por sistemas de IA mal projetados ou mal utilizados. A oposição da OpenAI a essa legislação é vista por muitos como uma ameaça à segurança pública e à confiança no setor de IA.
A Resposta da OpenAI
A OpenAI não respondeu imediatamente a um pedido de comentário sobre a carta de seus ex-funcionários. No entanto, em uma declaração anterior, a empresa disse que apoia "uma abordagem equilibrada e ponderada para a regulamentação da IA" e que está "empenhada em trabalhar com os formuladores de políticas para garantir que a IA seja desenvolvida de maneira segura e responsável".
Alguns defensores da regulamentação da IA, no entanto, criticaram a posição da OpenAI, afirmando que a empresa está colocando seus interesses corporativos acima da segurança pública.
O Papel da Anthropic
Em contraste com a posição da OpenAI, a Anthropic, uma empresa rival de IA, expressou apoio ao projeto de lei da Califórnia. A Anthropic apresentou preocupações específicas e pediu emendas, algumas das quais foram incorporadas desde então.
Em sua carta ao governador Newsom, o CEO da Anthropic, Dario Amodei, escreveu que os "benefícios do projeto de lei atual provavelmente superam seus custos", embora não tenha endossado totalmente o projeto de lei.
Essa posição da Anthropic é vista por muitos como um contraponto importante à oposição da OpenAI, demonstrando que é possível conciliar os interesses da inovação tecnológica com a segurança pública.
Conclusão
A decisão da OpenAI de se opor ao projeto de lei de segurança de IA da Califórnia tem sido amplamente criticada, especialmente por seus ex-funcionários que renunciaram por questões de segurança. Eles acusam a empresa de colocar seus interesses corporativos acima da segurança pública e da missão de construir IA de forma segura.
A Anthropic, por outro lado, expressou apoio ao projeto de lei, demonstrando que é possível conciliar a inovação tecnológica com a regulamentação adequada. À medida que a corrida pela liderança em IA continua, a necessidade de uma abordagem equilibrada e responsável se torna cada vez mais evidente.
A decisão da OpenAI pode ter consequências significativas, não apenas para a empresa, mas para todo o setor de IA. É fundamental que as empresas líderes do setor trabalhem em conjunto com os formuladores de políticas para garantir que a IA seja desenvolvida de maneira segura e responsável, protegendo o público e promovendo a inovação.