A OpenAI está preocupada com a possibilidade de a próxima geração de seus modelos de IA aumentar significativamente o risco de desenvolvimento de armas biológicas, tornando-o possível até mesmo para pessoas sem formação científica. O chefe de segurança da OpenAI, Johannes Heidecke, espera que “alguns dos sucessores do nosso o3 [modelo de raciocínio] alcancem esse nível”. Como resultado, a OpenAI está intensificando seus testes de segurança.

Fonte da imagem: unsplash.com

A OpenAI anunciou o desenvolvimento de um sistema para avaliar e mitigar os riscos representados por modelos de IA cada vez mais poderosos. A empresa está intensificando os testes de segurança para reduzir o risco de seus modelos serem usados ​​por criminosos e terroristas. Sem essas medidas de mitigação, os modelos poderão em breve “evoluir para o próximo nível”, permitindo que até mesmo pessoas com conhecimento científico limitado criem armas perigosas.

«”Ainda não estamos em um mundo onde há algo novo, algo completamente desconhecido, que esteja criando ameaças biológicas que não existiam antes”, disse Heidecke. “Estamos mais preocupados em replicar coisas com as quais os especialistas já estão muito familiarizados.” O desafio específico é que as mesmas ferramentas que poderiam proporcionar avanços médicos que salvam vidas podem ser usadas por pessoas mal-intencionadas para fins perigosos.

É por isso que os principais laboratórios de IA precisam de sistemas de teste altamente precisos. “Esta não é uma área em que 99% de desempenho ou um erro em 100.000… seja aceitável”, diz Heidecke. “Basicamente, precisamos de algo próximo da perfeição.”

A OpenAI não é a única empresa preocupada com o uso indevido de seus modelos no desenvolvimento de armas. À medida que os modelos se tornam mais sofisticados, seu potencial para uso criminoso aumenta. A Anthropic lançou recentemente um modelo avançado, o Claude Opus 4, com protocolos de segurança mais rigorosos do que qualquer modelo anterior.

De acordo com a Política de Escalonamento Responsável, baseada nos Níveis de Bioameaças (BSL) do governo dos EUA, o modelo foi classificado como Nível de Segurança de IA (ASL-3). Todos os modelos Antrópicos anteriores foram classificados como ASL-2. O Nível de Segurança de IA 3 é para modelos avançados que são poderosos o suficiente para representar riscos significativos, como auxiliar no desenvolvimento de armas ou automatizar o desenvolvimento de sistemas de IA.

O Claude Opus 4 ganhou as manchetes recentemente após tentar chantagear um engenheiro para evitar ser desligado durante um teste rigorosamente controlado. As primeiras versões do modelo foram preparadas para executar instruções perigosas, como planejar ataques terroristas. A empresa garantiu ao público que o problema havia sido resolvido com alterações no conjunto de dados de treinamento.

admin

Postagens recentes

Um novo “retrato” da supernova mais antiga conhecida foi publicado; ela explodiu em 185 d.C.

O Explorador de Polarimetria de Raios X de Imagem (IXPE) da NASA capturou um "retrato"…

19 minutos atrás

Rumor: Cortes de custos da Ubisoft podem colocar em risco os maiores jogos da empresa, incluindo o novo Ghost Recon.

Tom Henderson, fonte confiável e com informações privilegiadas, em uma reportagem exclusiva para o Insider…

53 minutos atrás

O primeiro voo da espaçonave russa de próxima geração Oryol foi adiado para 2028.

O primeiro voo da nova espaçonave tripulada russa está previsto para 2028. O anúncio foi…

2 horas atrás

O PS5, o PS5 Pro e o PlayStation Portal estão prestes a sofrer um aumento considerável de preço – a Sony está elevando os preços em todo o mundo.

Na sequência de rumores recentes, a Sony Interactive Entertainment, detentora da plataforma japonesa, anunciou oficialmente…

2 horas atrás

Imagens do Motorola Razr 70 Ultra apareceram – e, por algum motivo, ele ficou maior.

A Motorola está se preparando para lançar um smartphone topo de linha com formato dobrável…

2 horas atrás