Anteriormente, Meta✴ Mark Zuckerberg, CEO da Mark Zuckerberg, prometeu que ele tornaria forte inteligência artificial (AGI), isto é, não inferior a uma pessoa, publicamente disponível. Mas agora, em um dos documentos da empresa que definem a política, estão listados cenários nos quais ela pode cancelar o lançamento do sistema avançado de IA.
Fonte da imagem: Christopher Burns / Unsplash.com
O documento intitulado “Fundamentos da Organização da Estrutura Avançado de AI) define meta✴ dois tipos de sistemas de IA que são muito arriscados para liberação: sistemas de alto risco e“ risco crítico ”. São sistemas que podem fornecer aos atacantes hipotéticos assistência para superar a segurança cibernética, conduzindo ataques químicos e biológicos. A diferença é que os sistemas de “risco crítico” podem levar a um “resultado catastrófico que não pode ser suavizado no contexto da implantação”; Sistemas de alto risco também são capazes de facilitar os atacantes, mas são menos confiáveis do que os sistemas de “risco crítico”.
A Meta✴ fornece vários exemplos hipotéticos de tais ataques, incluindo “Compromisso automático completo do ambiente de escala corporativa, protegida por métodos avançados” e “crescimento de armas biológicas altamente eficazes”. A lista de ameaças fornecidas no documento não é exaustiva, observada na empresa – inclui apenas as posições consideradas as mais urgentes e prováveis como resultado da operação direta da poderosa IA. As ameaças do sistema são classificadas não com base em experimentos práticos, mas levando em consideração esses estudos internos e externos aprovados por pessoas que tomam decisões: Meta✴ não tem certeza de que meios científicos são “bastante confiáveis para fornecer indicadores quantitativos finais” que determinam o grau de grau de ameaça que apresenta sistema.
Se a Meta✴ decidir que um dos sistemas pertence à categoria de “alto risco”, o acesso a esse sistema dentro da empresa será limitado e sua liberação será adiada até que as medidas sejam tomadas para mitigar as consequências “a um nível moderado” . Se o risco for classificado como “crítico”, a Meta✴ será obrigada a implantar medidas de segurança que não listou e interrompem o desenvolvimento até que o sistema se torne menos perigoso. A empresa pretende fazer alterações no documento à medida que o setor II se desenvolver e será publicado antes da cúpula da ação da França AI, que ocorrerá este mês.
Meta✴, ao contrário de outros gigantes tecnológicos americanos, abre o código -fonte de seus modelos de IA da LLAMA. A empresa pode estar tentando contrastar -se com o Chinês Deepseek, que também publicará seus modelos abertamente, mas até agora não fala sobre medidas de proteção.
Nas últimas duas semanas, pelo menos cinco publicações apareceram no Reddit relatando falhas em processadores…
A Microsoft foi obrigada a lançar uma atualização de emergência para o Windows 11, apenas…
O TikTok lançou discretamente um novo aplicativo, o PineDrama, para microdramas — vídeos curtos na…
Elon Musk anunciou em sua página na rede social X que o projeto do chip…
Os usuários do Google Chrome agora podem desativar o modelo de IA executado localmente que…
A maioria dos proprietários de carros ainda está considerando a troca de veículos com motor…