Anteriormente, Meta✴ Mark Zuckerberg, CEO da Mark Zuckerberg, prometeu que ele tornaria forte inteligência artificial (AGI), isto é, não inferior a uma pessoa, publicamente disponível. Mas agora, em um dos documentos da empresa que definem a política, estão listados cenários nos quais ela pode cancelar o lançamento do sistema avançado de IA.

Fonte da imagem: Christopher Burns / Unsplash.com
O documento intitulado “Fundamentos da Organização da Estrutura Avançado de AI) define meta✴ dois tipos de sistemas de IA que são muito arriscados para liberação: sistemas de alto risco e“ risco crítico ”. São sistemas que podem fornecer aos atacantes hipotéticos assistência para superar a segurança cibernética, conduzindo ataques químicos e biológicos. A diferença é que os sistemas de “risco crítico” podem levar a um “resultado catastrófico que não pode ser suavizado no contexto da implantação”; Sistemas de alto risco também são capazes de facilitar os atacantes, mas são menos confiáveis do que os sistemas de “risco crítico”.
A Meta✴ fornece vários exemplos hipotéticos de tais ataques, incluindo “Compromisso automático completo do ambiente de escala corporativa, protegida por métodos avançados” e “crescimento de armas biológicas altamente eficazes”. A lista de ameaças fornecidas no documento não é exaustiva, observada na empresa – inclui apenas as posições consideradas as mais urgentes e prováveis como resultado da operação direta da poderosa IA. As ameaças do sistema são classificadas não com base em experimentos práticos, mas levando em consideração esses estudos internos e externos aprovados por pessoas que tomam decisões: Meta✴ não tem certeza de que meios científicos são “bastante confiáveis para fornecer indicadores quantitativos finais” que determinam o grau de grau de ameaça que apresenta sistema.
Se a Meta✴ decidir que um dos sistemas pertence à categoria de “alto risco”, o acesso a esse sistema dentro da empresa será limitado e sua liberação será adiada até que as medidas sejam tomadas para mitigar as consequências “a um nível moderado” . Se o risco for classificado como “crítico”, a Meta✴ será obrigada a implantar medidas de segurança que não listou e interrompem o desenvolvimento até que o sistema se torne menos perigoso. A empresa pretende fazer alterações no documento à medida que o setor II se desenvolver e será publicado antes da cúpula da ação da França AI, que ocorrerá este mês.
Meta✴, ao contrário de outros gigantes tecnológicos americanos, abre o código -fonte de seus modelos de IA da LLAMA. A empresa pode estar tentando contrastar -se com o Chinês Deepseek, que também publicará seus modelos abertamente, mas até agora não fala sobre medidas de proteção.
