O Instituto Nacional de Padrões e Tecnologia (NIST), parte do Departamento de Comércio dos EUA, que desenvolve e testa tecnologias para o governo, empresas e o público americano, revelou um banco de testes Dioptra atualizado. Ele foi projetado para avaliar como os ataques maliciosos, incluindo aqueles que visam envenenar os dados usados ​​para treinar grandes modelos de linguagem, impactam o desempenho dos sistemas de IA.

Fonte da imagem: Copiloto

A primeira versão da ferramenta web modular de código aberto Dioptra foi lançada em 2022. O software atualizado deverá ajudar os criadores de modelos de IA e as pessoas que utilizam esses algoritmos a avaliar, analisar e monitorizar os riscos associados à IA. O NIST disse que o Dioptra pode ser usado para benchmarking e pesquisa de modelos de IA, bem como uma plataforma geral para simular o impacto de vários tipos de ameaças nos modelos.

«Testar o impacto dos ataques adversários nos modelos de aprendizado de máquina é um dos objetivos da Dioptra. O software de código aberto está disponível para download gratuito e pode ajudar a comunidade, incluindo agências governamentais e pequenas e médias empresas, a realizar avaliações para testar as afirmações dos desenvolvedores de IA sobre o desempenho de seus sistemas”, disse o NIST em um comunicado à imprensa.

Juntamente com a Dioptra, os desenvolvedores publicaram uma série de documentos descrevendo maneiras de reduzir os riscos associados aos modelos de IA. O software foi criado como parte de uma iniciativa apoiada pelo presidente dos EUA, Joe Biden, que orienta o NIST, entre outras coisas, a fornecer suporte para testes de sistemas de IA. A iniciativa também estabelece uma série de padrões de segurança de IA, incluindo a exigência de que as empresas que desenvolvem algoritmos de IA notifiquem o governo federal e compartilhem dados de avaliação de riscos de segurança antes que a IA seja disponibilizada ao público.

O benchmarking da IA ​​é um desafio, até porque algoritmos complexos são atualmente “caixas pretas” onde a infraestrutura, os dados de treinamento e outros detalhes importantes são mantidos em segredo pelos desenvolvedores. Alguns especialistas acreditam que as avaliações por si só não são suficientes para determinar o quão segura é a IA no mundo real, em parte porque os desenvolvedores têm a capacidade de escolher quais testes serão executados para avaliar os seus modelos de IA.

O NIST não está dizendo que o Dioptra será capaz de eliminar quaisquer riscos aos sistemas de IA. No entanto, os desenvolvedores desta ferramenta estão confiantes de que ela pode esclarecer quais tipos de ataques podem tornar um determinado sistema de IA menos eficaz, bem como avaliar o impacto negativo no desempenho do algoritmo. Observe que o Dioptra só pode funcionar com modelos que podem ser baixados para o dispositivo e usados ​​localmente.

avalanche

Postagens recentes

A BioWare explicou por que Dragon Age: The Veilguard teve que esperar tanto tempo

Dragon Age: Inquisition completará dez anos no próximo outono, e Dragon Age: The Veilguard, o…

23 minutos atrás

À frente da Intel: a TSMC começará a construir uma fábrica de chips em Dresden dentro de algumas semanas

Na véspera, soube-se das intenções da Intel de abandonar a construção de um centro de…

1 hora atrás

As autoridades japonesas esperam que o Rapidus continue a ser apoiado pelos bancos através de empréstimos

As ambições do Japão no campo das tecnologias avançadas de litografia estão concentradas nas mãos…

3 horas atrás

Os usuários do iPhone na UE agora poderão baixar aplicativos de torrent

Os usuários europeus do iPhone agora podem baixar aplicativos torrent da alternativa AltStore PAL, cujo…

5 horas atrás

Apple Intelligence para iOS, iPadOS e macOS Sequoia adiado até outubro

A Apple adiou a data de lançamento planejada para seu recurso de inteligência artificial Apple…

10 horas atrás

AMD apresentou Amuse 2.0 – software de geração de imagens AI para Ryzen e Radeon

A AMD lançou o Amuse 2.0, uma ferramenta de software para geração de imagens de…

11 horas atrás