A OpenAI está preocupada com a possibilidade de a próxima geração de seus modelos de IA aumentar significativamente o risco de desenvolvimento de armas biológicas, tornando-o possível até mesmo para pessoas sem formação científica. O chefe de segurança da OpenAI, Johannes Heidecke, espera que “alguns dos sucessores do nosso o3 [modelo de raciocínio] alcancem esse nível”. Como resultado, a OpenAI está intensificando seus testes de segurança.

Fonte da imagem: unsplash.com

A OpenAI anunciou o desenvolvimento de um sistema para avaliar e mitigar os riscos representados por modelos de IA cada vez mais poderosos. A empresa está intensificando os testes de segurança para reduzir o risco de seus modelos serem usados ​​por criminosos e terroristas. Sem essas medidas de mitigação, os modelos poderão em breve “evoluir para o próximo nível”, permitindo que até mesmo pessoas com conhecimento científico limitado criem armas perigosas.

«”Ainda não estamos em um mundo onde há algo novo, algo completamente desconhecido, que esteja criando ameaças biológicas que não existiam antes”, disse Heidecke. “Estamos mais preocupados em replicar coisas com as quais os especialistas já estão muito familiarizados.” O desafio específico é que as mesmas ferramentas que poderiam proporcionar avanços médicos que salvam vidas podem ser usadas por pessoas mal-intencionadas para fins perigosos.

É por isso que os principais laboratórios de IA precisam de sistemas de teste altamente precisos. “Esta não é uma área em que 99% de desempenho ou um erro em 100.000… seja aceitável”, diz Heidecke. “Basicamente, precisamos de algo próximo da perfeição.”

A OpenAI não é a única empresa preocupada com o uso indevido de seus modelos no desenvolvimento de armas. À medida que os modelos se tornam mais sofisticados, seu potencial para uso criminoso aumenta. A Anthropic lançou recentemente um modelo avançado, o Claude Opus 4, com protocolos de segurança mais rigorosos do que qualquer modelo anterior.

De acordo com a Política de Escalonamento Responsável, baseada nos Níveis de Bioameaças (BSL) do governo dos EUA, o modelo foi classificado como Nível de Segurança de IA (ASL-3). Todos os modelos Antrópicos anteriores foram classificados como ASL-2. O Nível de Segurança de IA 3 é para modelos avançados que são poderosos o suficiente para representar riscos significativos, como auxiliar no desenvolvimento de armas ou automatizar o desenvolvimento de sistemas de IA.

O Claude Opus 4 ganhou as manchetes recentemente após tentar chantagear um engenheiro para evitar ser desligado durante um teste rigorosamente controlado. As primeiras versões do modelo foram preparadas para executar instruções perigosas, como planejar ataques terroristas. A empresa garantiu ao público que o problema havia sido resolvido com alterações no conjunto de dados de treinamento.

admin

Postagens recentes

“Quebra-cabeça em alta velocidade”: Ruiner 2, o jogo de ação cyberpunk, é anunciado com elementos cooperativos e de RPG não presentes no primeiro jogo.

A desenvolvedora Reikon Games anunciou Ruiner 2, sequência do jogo de ação cyberpunk de 2017,…

1 hora atrás

Um fabricante chinês popular de PCs acessíveis foi flagrado substituindo secretamente os processadores de laptops.

A Chuwi, uma popular fabricante chinesa de computadores e eletrônicos, foi flagrada enganando seus clientes.…

2 horas atrás

A Meta cedeu à UE e permitirá a entrada de bots de IA de terceiros no WhatsApp, mas isso pode custar-lhe uma fortuna.

A Meta✴ anunciou que permitirá que desenvolvedores de chatbots de terceiros ofereçam seus serviços de…

2 horas atrás

O retorno de um mapa lendário, um passe de batalha de primavera e uma atualização técnica: a temporada Steel Quarters começou no Warface.

A Astrum Entertainment, editora e desenvolvedora russa, anunciou o lançamento da temporada de conteúdo "Steel…

3 horas atrás

Hidalgo, uma aventura aconchegante baseada em Dom Quixote, levará os jogadores de volta a momentos icônicos do lendário romance.

O estúdio espanhol Infinite Thread Games revelou um trailer de Hidalgo, uma aventura com uma…

3 horas atrás

A Nebius aprovou a construção da primeira fábrica de IA em escala de gigawatts nos EUA – ecologicamente correta e silenciosa.

A Nebius comemorou a aprovação, pelo Conselho Municipal de Independence, Missouri, de um plano de…

5 horas atrás