A Microsoft desenvolveu várias novas ferramentas de segurança de aplicativos baseadas em inteligência artificial – essas ferramentas são dirigidas a clientes que não têm a capacidade de realizar testes de estresse de seus produtos de forma independente.

Fonte da imagem: azure.microsoft.com

Os controlos de segurança, eles próprios baseados num grande modelo de linguagem, detectam alucinações de aplicações de IA – isto é, informações que produzem que são plausíveis mas não verdadeiras – e bloqueiam pedidos de utilizadores potencialmente perigosos em tempo real. Isto ajudará a evitar discussões indesejadas sobre IA generativa geradas por vários incidentes: deepfakes com celebridades, tentativas de falsificar a história e a criação de outros materiais inadequados.

Na fase inicial, os recursos de segurança incluem três funções principais. Os Prompt Shields bloqueiam avisos potencialmente perigosos que provocam a violação de regras específicas pela IA. A Groundedness Detection (“avaliação da conexão com a realidade”) detecta e bloqueia alucinações. E, por fim, trata-se da detecção de materiais protegidos – aqueles que estão sujeitos a direitos autorais. Em breve serão adicionadas ferramentas para orientar a IA no fornecimento de respostas seguras e no monitoramento de usuários potencialmente problemáticos. As proteções são projetadas para avaliar a segurança das solicitações à IA e das respostas a elas.

Em um incidente recente, o próprio gerador de imagens do Google Gemini sofreu com filtros que visavam expandir a inclusão racial – a Microsoft decidiu se proteger contra tais incidentes usando um método de controle individual. Por outro lado, a empresa não quer assumir o papel de ditadora e autoridade final sobre o caráter moral da IA, pelo que os clientes do Azure podem desativar os filtros que ela oferece.

No futuro, o sistema oferecerá aos clientes do Azure relatórios sobre usuários que tentam provocar respostas inadequadas na IA – isso ajudará os administradores de recursos a descobrir quais dessas solicitações foram enviadas como parte do teste e quais vieram de pessoas com provável Más intenções. Já estão disponíveis ferramentas de segurança para trabalhar com os modelos mais populares, incluindo GPT-4 e Llama 2. O desenvolvimento de segurança para plataformas menos populares será realizado individualmente.

avalanche

Postagens recentes

O Japão está enfrentando uma escassez de placas de vídeo, com o problema afetando atualmente os modelos GeForce RTX 5060 Ti de 16 GB e superiores.

Segundo a ITmedia, surgiu uma escassez de aceleradores gráficos de alta gama no mercado japonês.…

3 horas atrás

O Instagram vazou dados de 17,5 milhões de contas, e esses dados já estão sendo usados ​​por hackers.

A empresa de software de cibersegurança Malwarebytes anunciou uma violação de dados confirmada que afetou…

4 horas atrás

A IBM declarou 2026 como o ano em que a computação quântica irá surgir.

Na CES 2026, a IBM lotou o auditório com uma apresentação fascinante sobre o iminente…

5 horas atrás

O setor de tecnologia perderá mais de 240.000 empregos até 2025.

Segundo a RationalFX, 244.851 pessoas foram demitidas no setor de tecnologia global no ano passado.…

5 horas atrás

A China domina a conversão de placas gráficas GeForce RTX para uso em fazendas de IA.

As placas gráficas Nvidia GeForce para consumidores, com ventoinhas tipo turbina redesenhadas para cargas de…

6 horas atrás

A Asus aumentou a ROM UEFI nas placas-mãe AM5 para 64 MB — e agora inclui até mesmo um driver de Wi-Fi.

A Asus confirmou que suas novas placas-mãe da série AMD 800 para a plataforma AM5…

6 horas atrás