Anteriormente, Meta✴ Mark Zuckerberg, CEO da Mark Zuckerberg, prometeu que ele tornaria forte inteligência artificial (AGI), isto é, não inferior a uma pessoa, publicamente disponível. Mas agora, em um dos documentos da empresa que definem a política, estão listados cenários nos quais ela pode cancelar o lançamento do sistema avançado de IA.

Fonte da imagem: Christopher Burns / Unsplash.com

O documento intitulado “Fundamentos da Organização da Estrutura Avançado de AI) define meta✴ dois tipos de sistemas de IA que são muito arriscados para liberação: sistemas de alto risco e“ risco crítico ”. São sistemas que podem fornecer aos atacantes hipotéticos assistência para superar a segurança cibernética, conduzindo ataques químicos e biológicos. A diferença é que os sistemas de “risco crítico” podem levar a um “resultado catastrófico que não pode ser suavizado no contexto da implantação”; Sistemas de alto risco também são capazes de facilitar os atacantes, mas são menos confiáveis ​​do que os sistemas de “risco crítico”.

A Meta✴ fornece vários exemplos hipotéticos de tais ataques, incluindo “Compromisso automático completo do ambiente de escala corporativa, protegida por métodos avançados” e “crescimento de armas biológicas altamente eficazes”. A lista de ameaças fornecidas no documento não é exaustiva, observada na empresa – inclui apenas as posições consideradas as mais urgentes e prováveis ​​como resultado da operação direta da poderosa IA. As ameaças do sistema são classificadas não com base em experimentos práticos, mas levando em consideração esses estudos internos e externos aprovados por pessoas que tomam decisões: Meta✴ não tem certeza de que meios científicos são “bastante confiáveis ​​para fornecer indicadores quantitativos finais” que determinam o grau de grau de ameaça que apresenta sistema.

Se a Meta✴ decidir que um dos sistemas pertence à categoria de “alto risco”, o acesso a esse sistema dentro da empresa será limitado e sua liberação será adiada até que as medidas sejam tomadas para mitigar as consequências “a um nível moderado” . Se o risco for classificado como “crítico”, a Meta✴ será obrigada a implantar medidas de segurança que não listou e interrompem o desenvolvimento até que o sistema se torne menos perigoso. A empresa pretende fazer alterações no documento à medida que o setor II se desenvolver e será publicado antes da cúpula da ação da França AI, que ocorrerá este mês.

Meta✴, ao contrário de outros gigantes tecnológicos americanos, abre o código -fonte de seus modelos de IA da LLAMA. A empresa pode estar tentando contrastar -se com o Chinês Deepseek, que também publicará seus modelos abertamente, mas até agora não fala sobre medidas de proteção.

avalanche

Postagens recentes

Crossover elétrico Porsche Cayenne terá função de carregamento sem fio

A ideia de carregar veículos sem uma conexão direta a cabo não é totalmente nova,…

40 minutos atrás

O aspirador robô Dreame Cyber10 Ultra é apresentado para limpar locais de difícil acesso

A Dreame apresentou o Cyber10 Ultra, seu primeiro robô aspirador de pó com braço mecânico…

59 minutos atrás

Dreame revela o aspirador de pó robô Cyber ​​​​X Concept com plataforma sobre esteiras

A Dreame revelou o conceito original do Cyber ​​X — um sistema de limpeza completo…

59 minutos atrás

Google desafia a NVIDIA ao oferecer seus próprios aceleradores TPU AI para pequenos provedores de nuvem

De acordo com as informações mais recentes, o Google abordou pequenos provedores de nuvem que…

1 hora atrás