OpenAI e Anthropic concordaram em enviar os modelos de IA mais recentes para revisão pelas autoridades dos EUA

OpenAI e Anthropic fornecerão ao governo dos EUA acesso aos seus mais recentes modelos de linguagem de inteligência artificial antes do lançamento público, “para melhorar sua segurança”, escreve The Verge. Por outras palavras, as autoridades dos EUA verificarão se é seguro lançar novos modelos de IA no mundo.

Fonte da imagem: Andrew Neel/unsplash.com

Ambas as empresas assinaram um memorando de entendimento com o Instituto Americano de Segurança de IA, sob o qual se comprometem a disponibilizar modelos de IA antes e depois do seu lançamento público. A medida permitirá esforços conjuntos para realizar avaliações de riscos de segurança e resolver problemas potenciais, disse o departamento. A agência dos EUA acrescentou que o AI Safety Institute do Reino Unido também estará envolvido neste trabalho.

De acordo com The Verge, esta semana os legisladores da Califórnia aprovaram a Lei de Inovação em Inteligência Artificial Avançada Segura e Confiável. Esta lei exige que as empresas de IA na Califórnia tomem certas precauções antes de treinar modelos avançados de inteligência artificial. Tais medidas, em particular, incluem a capacidade de desativar rápida e completamente um modelo de IA, garantindo que os modelos de IA sejam protegidos de “modificações inseguras após o treinamento” e avaliando os riscos potenciais do uso de IA e seus componentes para “causar danos críticos”.

O documento não encontrou apoio de empresas envolvidas em tecnologias de IA. OpenAI e Anthropic se opuseram à sua adoção, observando que a nova lei poderia impactar negativamente as pequenas empresas que criam tecnologias de IA de código aberto. A nova lei ainda não foi adotada oficialmente e aguarda a assinatura do governador da Califórnia, Gavin Newsom.

Entretanto, a Casa Branca está a trabalhar para encorajar as empresas a adoptar e expandir de forma independente medidas de segurança relacionadas com tecnologias de IA. De acordo com o The Verge, várias empresas líderes já concordaram em investir em pesquisas sobre segurança cibernética e discriminação, bem como desenvolver sistemas de rotulagem (marcas d’água) para conteúdo gerado por IA.

avalanche

Postagens recentes

A Suprema Corte dos EUA considerou as tarifas de Trump ilegais, fazendo com que as ações americanas disparassem.

A última semana foi marcada por um evento significativo na vida política dos EUA: a…

29 minutos atrás

Em 2030, a receita da OpenAI crescerá para US$ 280 bilhões, mas seus gastos chegarão a US$ 600 bilhões.

Apesar do envolvimento de muitas grandes empresas de tecnologia no financiamento das iniciativas da OpenAI,…

2 horas atrás

No Japão, os preços das placas gráficas AMD, que estão em falta, caíram entre 15% e 20% em comparação com dezembro.

Em meio à rápida alta dos preços da memória, o aumento nos preços das placas…

2 horas atrás

Phil Spencer e a presidente do Xbox, Sarah Bond, deixaram a Microsoft, e um especialista em inteligência artificial assumiu a liderança da Microsoft Gaming.

O CEO da Microsoft, Satya Nadella, anunciou mudanças significativas na liderança da divisão de jogos…

7 horas atrás

Phil Spencer e a presidente do Xbox, Sarah Bond, deixaram a Microsoft, e um especialista em inteligência artificial assumiu a liderança da Microsoft Gaming.

O CEO da Microsoft, Satya Nadella, anunciou mudanças significativas na liderança da divisão de jogos…

7 horas atrás

Mewgenics – Nove Vidas Podem Não Ser Suficientes. Análise / Jogos

IgralinaPC Os jogos de Edmund McMillen têm um efeito interessante, simultaneamente repulsivo e cativante —…

7 horas atrás