AlphaZero gaming AI descobriu uma nova maneira de multiplicar matrizes pela primeira vez em 50 anos

O sistema de inteligência artificial AlphaZero da DeepMind, originalmente projetado para jogos de tabuleiro, apresentou uma maneira mais rápida de fazer a multiplicação de matrizes, um problema matemático fundamental que não é resolvido há mais de 50 anos.

Fonte da imagem: technologyreview.com

O problema da multiplicação de matrizes está subjacente a uma variedade de aplicações, desde a exibição de uma imagem em uma tela até a modelagem de física complexa, bem como o treinamento da própria inteligência artificial. A otimização da solução para esse problema ajudaria a simplificar o desempenho de muitas operações do computador, reduzindo custos e economizando energia. Apesar da onipresença do problema, ainda é pouco estudado.

Uma matriz é uma matriz de números, e a multiplicação de matrizes geralmente é a multiplicação sequencial dos números nas linhas de um pelos números nas colunas de outro. A tarefa parece relativamente simples, mas se torna muito mais difícil quando se tenta encontrar um método rápido para resolvê-la, e esse é um dos problemas em aberto na ciência da computação. Supõe-se que o número de formas disponíveis para multiplicar matrizes excede o número de átomos no universo – em alguns casos até 10³³ opções.

Para “interessar” a rede neural AlphaTensor, a nova versão do AlphaZero, a tarefa de multiplicação de matrizes foi transformada em uma espécie de jogo de tabuleiro, cada ação de multiplicação foi comparada a uma jogada de jogo, e a IA recebeu uma recompensa para ganhar com o número mínimo de movimentos. Como resultado, o AlphaTensor encontrou uma nova maneira de multiplicar matrizes 4×4, mais eficiente do que o matemático alemão Volker Strassen sugeriu em 1969. O método básico envolve resolver o problema em 64 etapas, Strassen tem 49 etapas e AlphaTensor lida com 47. Em geral, a IA aprimorou algoritmos para matrizes de mais de 70 tamanhos: com um tamanho de 9 × 9, o número de etapas foi reduzido. diminuiu de 511 para 498 e com 11 × 11 – de 919 para 896. Em vários outros casos, o AlphaTensor repetiu os algoritmos mais conhecidos.

Depois de receber os resultados, os engenheiros da DeepMind decidiram adaptá-los para os aceleradores NVIDIA V100 e Google TPU, que são mais usados ​​em aprendizado de máquina. Descobriu-se que os métodos propostos pelo AlphaTensor funcionam 10 a 20% mais rápido que os tradicionais.

avalanche

Postagens recentes

Novo Capítulo, Nome Antigo: Blizzard Anuncia Reboot de Overwatch 2

Conforme prometido, em 4 de fevereiro, durante a transmissão do Overwatch Spotlight, os desenvolvedores da…

42 minutos atrás

Nos Estados Unidos, foi criada uma impressora 3D subaquática capaz de imprimir concreto diretamente no fundo do mar.

Pesquisadores da Universidade Cornell desenvolveram uma tecnologia para impressão 3D de estruturas de concreto diretamente…

3 horas atrás

O Spotify tornou as letras das músicas mais claras, mesmo em idiomas desconhecidos e offline.

O serviço de streaming de música Spotify anunciou diversos novos recursos projetados para facilitar o…

3 horas atrás

“Fez por Nioh o que Elden Ring fez por Dark Souls”: Veredicto da crítica sobre Nioh 3

Nioh 3, um ambicioso RPG de ação e fantasia em mundo semiaberto da Koei Tecmo…

3 horas atrás