O sistema de inteligência artificial AlphaZero da DeepMind, originalmente projetado para jogos de tabuleiro, apresentou uma maneira mais rápida de fazer a multiplicação de matrizes, um problema matemático fundamental que não é resolvido há mais de 50 anos.
Fonte da imagem: technologyreview.com
O problema da multiplicação de matrizes está subjacente a uma variedade de aplicações, desde a exibição de uma imagem em uma tela até a modelagem de física complexa, bem como o treinamento da própria inteligência artificial. A otimização da solução para esse problema ajudaria a simplificar o desempenho de muitas operações do computador, reduzindo custos e economizando energia. Apesar da onipresença do problema, ainda é pouco estudado.
Uma matriz é uma matriz de números, e a multiplicação de matrizes geralmente é a multiplicação sequencial dos números nas linhas de um pelos números nas colunas de outro. A tarefa parece relativamente simples, mas se torna muito mais difícil quando se tenta encontrar um método rápido para resolvê-la, e esse é um dos problemas em aberto na ciência da computação. Supõe-se que o número de formas disponíveis para multiplicar matrizes excede o número de átomos no universo – em alguns casos até 10³³ opções.
Para “interessar” a rede neural AlphaTensor, a nova versão do AlphaZero, a tarefa de multiplicação de matrizes foi transformada em uma espécie de jogo de tabuleiro, cada ação de multiplicação foi comparada a uma jogada de jogo, e a IA recebeu uma recompensa para ganhar com o número mínimo de movimentos. Como resultado, o AlphaTensor encontrou uma nova maneira de multiplicar matrizes 4×4, mais eficiente do que o matemático alemão Volker Strassen sugeriu em 1969. O método básico envolve resolver o problema em 64 etapas, Strassen tem 49 etapas e AlphaTensor lida com 47. Em geral, a IA aprimorou algoritmos para matrizes de mais de 70 tamanhos: com um tamanho de 9 × 9, o número de etapas foi reduzido. diminuiu de 511 para 498 e com 11 × 11 – de 919 para 896. Em vários outros casos, o AlphaTensor repetiu os algoritmos mais conhecidos.
Depois de receber os resultados, os engenheiros da DeepMind decidiram adaptá-los para os aceleradores NVIDIA V100 e Google TPU, que são mais usados em aprendizado de máquina. Descobriu-se que os métodos propostos pelo AlphaTensor funcionam 10 a 20% mais rápido que os tradicionais.
Os desenvolvedores do estúdio canadense Hypixel esperavam que cerca de um milhão de jogadores lançassem…
Os engenheiros chineses continuam a surpreender com seus projetos ambiciosos. Um desses projetos foi a…
A startup chinesa Knowledge Atlas Technology JSC Ltd. (também conhecida como Zhipu) lançou um modelo…
Surgiram relatos ontem de que as autoridades chinesas exigiriam que os desenvolvedores locais comprassem placas…
Pesquisadores do Instituto de Tecnologia de Massachusetts (MIT) resolveram de forma elegante um dos principais…
Especialistas em cibersegurança da Check Point Research descobriram um malware exclusivo, chamado VoidLink, em seu…