AlphaZero gaming AI descobriu uma nova maneira de multiplicar matrizes pela primeira vez em 50 anos

O sistema de inteligência artificial AlphaZero da DeepMind, originalmente projetado para jogos de tabuleiro, apresentou uma maneira mais rápida de fazer a multiplicação de matrizes, um problema matemático fundamental que não é resolvido há mais de 50 anos.

Fonte da imagem: technologyreview.com

O problema da multiplicação de matrizes está subjacente a uma variedade de aplicações, desde a exibição de uma imagem em uma tela até a modelagem de física complexa, bem como o treinamento da própria inteligência artificial. A otimização da solução para esse problema ajudaria a simplificar o desempenho de muitas operações do computador, reduzindo custos e economizando energia. Apesar da onipresença do problema, ainda é pouco estudado.

Uma matriz é uma matriz de números, e a multiplicação de matrizes geralmente é a multiplicação sequencial dos números nas linhas de um pelos números nas colunas de outro. A tarefa parece relativamente simples, mas se torna muito mais difícil quando se tenta encontrar um método rápido para resolvê-la, e esse é um dos problemas em aberto na ciência da computação. Supõe-se que o número de formas disponíveis para multiplicar matrizes excede o número de átomos no universo – em alguns casos até 10³³ opções.

Para “interessar” a rede neural AlphaTensor, a nova versão do AlphaZero, a tarefa de multiplicação de matrizes foi transformada em uma espécie de jogo de tabuleiro, cada ação de multiplicação foi comparada a uma jogada de jogo, e a IA recebeu uma recompensa para ganhar com o número mínimo de movimentos. Como resultado, o AlphaTensor encontrou uma nova maneira de multiplicar matrizes 4×4, mais eficiente do que o matemático alemão Volker Strassen sugeriu em 1969. O método básico envolve resolver o problema em 64 etapas, Strassen tem 49 etapas e AlphaTensor lida com 47. Em geral, a IA aprimorou algoritmos para matrizes de mais de 70 tamanhos: com um tamanho de 9 × 9, o número de etapas foi reduzido. diminuiu de 511 para 498 e com 11 × 11 – de 919 para 896. Em vários outros casos, o AlphaTensor repetiu os algoritmos mais conhecidos.

Depois de receber os resultados, os engenheiros da DeepMind decidiram adaptá-los para os aceleradores NVIDIA V100 e Google TPU, que são mais usados ​​em aprendizado de máquina. Descobriu-se que os métodos propostos pelo AlphaTensor funcionam 10 a 20% mais rápido que os tradicionais.

avalanche

Postagens recentes

O RPG sandbox no estilo Minecraft, Hytale, que foi revitalizado, tornou-se um sucesso, com quase 3 milhões de jogadores simultâneos no início do Acesso Antecipado.

Os desenvolvedores do estúdio canadense Hypixel esperavam que cerca de um milhão de jogadores lançassem…

1 hora atrás

A China instalou a maior turbina eólica offshore do mundo – com 20 MW e tão alta quanto a Torre Eiffel.

Os engenheiros chineses continuam a surpreender com seus projetos ambiciosos. Um desses projetos foi a…

1 hora atrás

A startup chinesa Zhipu treinou completamente um modelo de IA em chips da Huawei.

A startup chinesa Knowledge Atlas Technology JSC Ltd. (também conhecida como Zhipu) lançou um modelo…

1 hora atrás

A alfândega chinesa negou a entrada de placas gráficas Nvidia H200.

Surgiram relatos ontem de que as autoridades chinesas exigiriam que os desenvolvedores locais comprassem placas…

2 horas atrás

Cientistas resolveram um dos principais problemas dos modelos de IA: criaram a primeira IA com memória “infinita”.

Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) resolveram de forma elegante um dos principais…

2 horas atrás

O VoidLink, um vírus modular perigoso para Linux, foi descoberto.

Especialistas em cibersegurança da Check Point Research descobriram um malware exclusivo, chamado VoidLink, em seu…

2 horas atrás