A Microsoft desenvolveu uma ferramenta para verificar a segurança dos sistemas II

A Microsoft continua a melhorar sua infraestrutura de segurança cibernética e solicita aos seus parceiros a fazer o mesmo. De acordo com o gigante de software, a segurança das plataformas usando tecnologias de inteligência artificial hoje não está pagando atenção suficiente, portanto, a empresa desenvolveu uma ferramenta especial para testar a segurança desse tipo de sistema. Ele conseguiu o nome de contas.

A ContraFit é uma ferramenta de código aberto automatizada para testar a segurança das organizações de organizações II. A tarefa do instrumento é fornecer uma empresa usando a tecnologia da AI, a confiança de que seu sistema AI é protegido de forma confiável de ataques externos. De acordo com a Microsoft, de 28 organizações pesquisadas 25 afirmam que não têm mecanismos necessários para proteger sua infraestrutura, e seus especialistas em segurança digital não estão suficientemente equipados com fundos para enfrentar tais ameaças.

Inicialmente, a contrafita foi um conjunto de scripts especiais que poderiam ser usados ​​para simular ataques em vários modelos AI. A Microsoft aplicou primeiro esses scripts para testes internos, mas com o tempo de contas desenvolvido em uma ferramenta automatizada, que permite testar ataques de uma vez para vários modelos AI. A empresa declara que a ContraFit tornou-se parte integrante do programa de teste de segurança, que já usava pelas plataformas e produtos em desenvolvimento.

A vantagem da vantagem é que ela pode ser usada em qualquer ambiente, em quaisquer modelos II. Pode ser usado para verificar a eficiência da segurança dos sistemas AI no servidor local, na fronteira entre o servidor e a rede, bem como em qualquer plataforma de nuvem, que são usados ​​no processamento de dados recebidos, em qualquer formato, exceto texto e imagens.

A empresa indica que a contrafita será fácil de usar para especialistas em segurança digital, trabalhando com ferramentas como MetaPloit ou PowerShell Empyre. Pode ser usado para verificar a estabilidade da proteção para penetração, bem como para varredura de vulnerabilidades. Durante a simulação do ataque ao modelo da AI da ContraFIT, ele cria registros que os especialistas podem se familiarizar ainda mais e, em seguida, usar essas informações para melhorar suas ferramentas de segurança para a AI.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *