A OpenAI, sem atrair muita atenção, recusou a proibição total do uso de sua tecnologia para fins militares. Até 10 de janeiro, a política da OpenAI proibia “atividades que envolvessem alto risco de danos físicos”, incluindo “desenvolvimento de armas” e “atividades militares”. A nova linguagem mantém a proibição contra usos nocivos da OpenAI e cita o desenvolvimento ou uso de armas como exemplo, mas a proibição geral do uso militar acabou.

Fonte da imagem: Difusão Estável de geração de IA/3DNews

A edição não anunciada faz parte de uma mudança maior na página da política de uso que, segundo a empresa, foi projetada para tornar o documento “mais claro e legível” e inclui muitas outras mudanças significativas. As consequências reais da mudança desta política não são claras. No ano passado, a OpenAI já se recusou a responder a questões sobre se iria impor a sua própria proibição clara de acção militar face ao crescente interesse do Pentágono e da comunidade de inteligência dos EUA.

«Nosso objetivo era criar um conjunto de princípios universais que fossem fáceis de lembrar e aplicar, especialmente porque nossas ferramentas agora são usadas em todo o mundo por usuários comuns que também podem criar GPTs”, disse o porta-voz da OpenAI, Niko Felix. — O princípio de “Não prejudicar os outros” é amplo, mas facilmente compreendido e relevante em muitos contextos. Além disso, citamos especificamente armas e ferimentos em outras pessoas como exemplos marcantes.” No entanto, ele recusou-se a dizer se a proibição vaga de “dano” se aplica a qualquer uso militar.

«A OpenAI está bem ciente dos riscos e danos que podem surgir do uso de suas tecnologias e serviços para fins militares”, afirma Heidy Khlaaf, especialista em aprendizado de máquina e segurança de sistemas autônomos. Na sua opinião, a nova política coloca o Estado de direito acima da segurança: “Há uma clara diferença entre as duas políticas: a primeira afirma claramente que o desenvolvimento de armas, bem como as actividades militares e a guerra são proibidos, enquanto a segunda enfatiza a flexibilidade e respeito pela lei.”

Klaaf acredita que o desenvolvimento de armas e as actividades relacionadas com a guerra são legais em vários graus e que as potenciais implicações para a segurança são muito prováveis. Recordou os conhecidos preconceitos e alucinações inerentes aos grandes modelos de linguagem e à sua imprecisão geral. Segundo ela, o uso da IA ​​em combate pode levar a operações imprecisas e tendenciosas e agravar os danos e as baixas entre os civis.

«Dado o uso de sistemas de inteligência artificial para atacar civis na Faixa de Gaza, é uma decisão digna de nota remover as palavras “hostilidades” da política de uso aceitável da OpenAI, afirma Sarah Myers West, diretora do AI Now Institute. “A redação da política permanece vaga e levanta questões sobre como a OpenAI pretende abordar a aplicação.”

Embora a IA não possa ser usada hoje para violência direta e assassinato, há um grande número de tarefas relacionadas que a IA executa para os militares. Os militares dos EUA já estão usando a tecnologia OpenAI para agilizar a papelada. A Agência Nacional de Inteligência Geoespacial, que auxilia diretamente os Estados Unidos em operações de combate, afirma abertamente o uso do ChatGPT por seus analistas. Mesmo que as ferramentas OpenAI nas forças armadas sejam utilizadas para tarefas que não envolvem violência direta, ainda assim ajudam indiretamente no combate e na morte de pessoas.

Militares de todo o mundo estão buscando implementar técnicas de aprendizado de máquina para obter vantagem. Embora os resultados de grandes modelos linguísticos pareçam extremamente convincentes, muitas vezes sofrem das chamadas alucinações, que põem em causa a precisão dos resultados e a sua correspondência com a realidade. No entanto, a capacidade dos grandes modelos de linguagem de ingerir rapidamente texto e realizar análises – ou pelo menos um simulacro de análise – torna a IA uma escolha natural para um Departamento de Defesa sobrecarregado de dados.

Embora alguns líderes militares dos EUA tenham manifestado preocupações sobre os riscos de segurança da utilização do ChatGPT para analisar dados confidenciais e outros dados sensíveis, o Pentágono não está a abandonar a utilização da IA. A vice-secretária de Defesa, Kathleen Hicks, acredita que a IA é “uma parte fundamental de uma abordagem abrangente para a inovação militar centrada em rede”. No entanto, ela admite que a maioria das propostas atuais “ainda não estão tecnicamente maduras o suficiente para cumprir os nossos princípios éticos de inteligência artificial”.

avalanche

Postagens recentes

Um raio laser pode projetar uma sombra, descobriram os cientistas

A imperfeição de um simulador 3D de fenômenos ópticos não lineares em materiais, que no…

7 minutos atrás

Sonos relatou queda na receita após o fiasco com seu aplicativo proprietário

A Sonos ainda tenta superar os problemas associados a uma atualização radical da aplicação proprietária,…

7 minutos atrás

“Já estou farto”: após a vitória de Trump, começou um êxodo em massa de usuários do X

No dia 6 de novembro, a rede social X registou a maior saída de utilizadores…

7 minutos atrás

Phil Spencer explicou por que a Bethesda não lançou Fallout 5 para o início da série Fallout

Você pode pensar que a falta de um novo Fallout em meio à popularidade explosiva…

27 minutos atrás

Agora qualquer pessoa pode baixar o Windows 11 para Arm – a Microsoft lançou uma imagem ISO

Computadores equipados com chips Qualcomm Snapdragon X Arm estão à venda há vários meses, mas…

37 minutos atrás

Phison lançou a série PCIe 5.0 SSD Pascari D205V com capacidade de 122,88 TB

Phison anunciou oficialmente o SSD Pascari D205V com capacidade de 122,88 TB, cuja preparação foi…

1 hora atrás