Anteriormente, Meta✴ Mark Zuckerberg, CEO da Mark Zuckerberg, prometeu que ele tornaria forte inteligência artificial (AGI), isto é, não inferior a uma pessoa, publicamente disponível. Mas agora, em um dos documentos da empresa que definem a política, estão listados cenários nos quais ela pode cancelar o lançamento do sistema avançado de IA.

Fonte da imagem: Christopher Burns / Unsplash.com

O documento intitulado “Fundamentos da Organização da Estrutura Avançado de AI) define meta✴ dois tipos de sistemas de IA que são muito arriscados para liberação: sistemas de alto risco e“ risco crítico ”. São sistemas que podem fornecer aos atacantes hipotéticos assistência para superar a segurança cibernética, conduzindo ataques químicos e biológicos. A diferença é que os sistemas de “risco crítico” podem levar a um “resultado catastrófico que não pode ser suavizado no contexto da implantação”; Sistemas de alto risco também são capazes de facilitar os atacantes, mas são menos confiáveis ​​do que os sistemas de “risco crítico”.

A Meta✴ fornece vários exemplos hipotéticos de tais ataques, incluindo “Compromisso automático completo do ambiente de escala corporativa, protegida por métodos avançados” e “crescimento de armas biológicas altamente eficazes”. A lista de ameaças fornecidas no documento não é exaustiva, observada na empresa – inclui apenas as posições consideradas as mais urgentes e prováveis ​​como resultado da operação direta da poderosa IA. As ameaças do sistema são classificadas não com base em experimentos práticos, mas levando em consideração esses estudos internos e externos aprovados por pessoas que tomam decisões: Meta✴ não tem certeza de que meios científicos são “bastante confiáveis ​​para fornecer indicadores quantitativos finais” que determinam o grau de grau de ameaça que apresenta sistema.

Se a Meta✴ decidir que um dos sistemas pertence à categoria de “alto risco”, o acesso a esse sistema dentro da empresa será limitado e sua liberação será adiada até que as medidas sejam tomadas para mitigar as consequências “a um nível moderado” . Se o risco for classificado como “crítico”, a Meta✴ será obrigada a implantar medidas de segurança que não listou e interrompem o desenvolvimento até que o sistema se torne menos perigoso. A empresa pretende fazer alterações no documento à medida que o setor II se desenvolver e será publicado antes da cúpula da ação da França AI, que ocorrerá este mês.

Meta✴, ao contrário de outros gigantes tecnológicos americanos, abre o código -fonte de seus modelos de IA da LLAMA. A empresa pode estar tentando contrastar -se com o Chinês Deepseek, que também publicará seus modelos abertamente, mas até agora não fala sobre medidas de proteção.

avalanche

Postagens recentes

A Honda registrou prejuízo pela primeira vez desde 1957, já que sua estratégia de veículos elétricos se mostrou contraproducente.

A montadora japonesa Honda Motor anunciou seu primeiro prejuízo operacional desde sua abertura de capital…

2 horas atrás

O valor de mercado da Take-Two aumentou em quase US$ 3 bilhões em meio a rumores de que as pré-vendas de GTA VI estão prestes a começar.

Os rumores sobre o lançamento iminente da pré-venda do ambicioso thriller de mundo aberto e…

3 horas atrás

A China criou um computador quântico fotônico que os supercomputadores não conseguem alcançar, nem mesmo durante a existência do universo.

Cientistas chineses criaram uma nova versão do computador quântico fotônico Jiuzhang, apresentado pela primeira vez…

3 horas atrás

A Microsoft está preparando um controle Xbox Elite Series 3 de última geração com volante e Wi-Fi.

A Anatel, agência reguladora brasileira, divulgou imagens do próximo controle Xbox Elite, que apresenta diversas…

3 horas atrás

As vendas do sucesso pirata Windrose ultrapassaram dois milhões de cópias em um mês no Acesso Antecipado do Steam.

Os desenvolvedores do estúdio uzbeque Kraken Express relataram novos sucessos para seu simulador de sobrevivência…

4 horas atrás