Anteriormente, Meta✴ Mark Zuckerberg, CEO da Mark Zuckerberg, prometeu que ele tornaria forte inteligência artificial (AGI), isto é, não inferior a uma pessoa, publicamente disponível. Mas agora, em um dos documentos da empresa que definem a política, estão listados cenários nos quais ela pode cancelar o lançamento do sistema avançado de IA.

Fonte da imagem: Christopher Burns / Unsplash.com

O documento intitulado “Fundamentos da Organização da Estrutura Avançado de AI) define meta✴ dois tipos de sistemas de IA que são muito arriscados para liberação: sistemas de alto risco e“ risco crítico ”. São sistemas que podem fornecer aos atacantes hipotéticos assistência para superar a segurança cibernética, conduzindo ataques químicos e biológicos. A diferença é que os sistemas de “risco crítico” podem levar a um “resultado catastrófico que não pode ser suavizado no contexto da implantação”; Sistemas de alto risco também são capazes de facilitar os atacantes, mas são menos confiáveis ​​do que os sistemas de “risco crítico”.

A Meta✴ fornece vários exemplos hipotéticos de tais ataques, incluindo “Compromisso automático completo do ambiente de escala corporativa, protegida por métodos avançados” e “crescimento de armas biológicas altamente eficazes”. A lista de ameaças fornecidas no documento não é exaustiva, observada na empresa – inclui apenas as posições consideradas as mais urgentes e prováveis ​​como resultado da operação direta da poderosa IA. As ameaças do sistema são classificadas não com base em experimentos práticos, mas levando em consideração esses estudos internos e externos aprovados por pessoas que tomam decisões: Meta✴ não tem certeza de que meios científicos são “bastante confiáveis ​​para fornecer indicadores quantitativos finais” que determinam o grau de grau de ameaça que apresenta sistema.

Se a Meta✴ decidir que um dos sistemas pertence à categoria de “alto risco”, o acesso a esse sistema dentro da empresa será limitado e sua liberação será adiada até que as medidas sejam tomadas para mitigar as consequências “a um nível moderado” . Se o risco for classificado como “crítico”, a Meta✴ será obrigada a implantar medidas de segurança que não listou e interrompem o desenvolvimento até que o sistema se torne menos perigoso. A empresa pretende fazer alterações no documento à medida que o setor II se desenvolver e será publicado antes da cúpula da ação da França AI, que ocorrerá este mês.

Meta✴, ao contrário de outros gigantes tecnológicos americanos, abre o código -fonte de seus modelos de IA da LLAMA. A empresa pode estar tentando contrastar -se com o Chinês Deepseek, que também publicará seus modelos abertamente, mas até agora não fala sobre medidas de proteção.

avalanche

Postagens recentes

A Rivian iniciou a produção do SUV elétrico R2, com a primeira unidade já saindo da linha de montagem.

A Rivian iniciou oficialmente a produção em massa do SUV elétrico R2 em sua fábrica…

2 horas atrás

Teste rápido do SSD externo MSI Datamag de 40 Gbps / Armazenamento

A MSI continua a desenvolver sua série de SSDs portáteis magnéticos. Há um ano, a…

6 horas atrás

A Cisco apresentou um protótipo de um switch quântico universal.

A Cisco Systems apresentou um protótipo de um switch de rede universal para sistemas quânticos,…

7 horas atrás

A Microsoft Gaming é coisa do passado – a divisão de jogos recuperou o nome Xbox.

A Microsoft aposentou oficialmente o nome Microsoft Gaming para sua divisão de jogos, retornando à…

7 horas atrás

Os assinantes do Game Pass não ficarão sem Call of Duty em 2026.

Os novos jogos da franquia Call of Duty chegarão ao Game Pass com um atraso…

7 horas atrás

A Intel apresentou um laptop de referência baseado no processador Wildcat Lake – ele se parece com um MacBook Neo.

Jornalistas tiveram a oportunidade de testar um dos primeiros laptops baseados no processador Intel Wildcat…

7 horas atrás