AlphaZero gaming AI descobriu uma nova maneira de multiplicar matrizes pela primeira vez em 50 anos

O sistema de inteligência artificial AlphaZero da DeepMind, originalmente projetado para jogos de tabuleiro, apresentou uma maneira mais rápida de fazer a multiplicação de matrizes, um problema matemático fundamental que não é resolvido há mais de 50 anos.

Fonte da imagem: technologyreview.com

O problema da multiplicação de matrizes está subjacente a uma variedade de aplicações, desde a exibição de uma imagem em uma tela até a modelagem de física complexa, bem como o treinamento da própria inteligência artificial. A otimização da solução para esse problema ajudaria a simplificar o desempenho de muitas operações do computador, reduzindo custos e economizando energia. Apesar da onipresença do problema, ainda é pouco estudado.

Uma matriz é uma matriz de números, e a multiplicação de matrizes geralmente é a multiplicação sequencial dos números nas linhas de um pelos números nas colunas de outro. A tarefa parece relativamente simples, mas se torna muito mais difícil quando se tenta encontrar um método rápido para resolvê-la, e esse é um dos problemas em aberto na ciência da computação. Supõe-se que o número de formas disponíveis para multiplicar matrizes excede o número de átomos no universo – em alguns casos até 10³³ opções.

Para “interessar” a rede neural AlphaTensor, a nova versão do AlphaZero, a tarefa de multiplicação de matrizes foi transformada em uma espécie de jogo de tabuleiro, cada ação de multiplicação foi comparada a uma jogada de jogo, e a IA recebeu uma recompensa para ganhar com o número mínimo de movimentos. Como resultado, o AlphaTensor encontrou uma nova maneira de multiplicar matrizes 4×4, mais eficiente do que o matemático alemão Volker Strassen sugeriu em 1969. O método básico envolve resolver o problema em 64 etapas, Strassen tem 49 etapas e AlphaTensor lida com 47. Em geral, a IA aprimorou algoritmos para matrizes de mais de 70 tamanhos: com um tamanho de 9 × 9, o número de etapas foi reduzido. diminuiu de 511 para 498 e com 11 × 11 – de 919 para 896. Em vários outros casos, o AlphaTensor repetiu os algoritmos mais conhecidos.

Depois de receber os resultados, os engenheiros da DeepMind decidiram adaptá-los para os aceleradores NVIDIA V100 e Google TPU, que são mais usados ​​em aprendizado de máquina. Descobriu-se que os métodos propostos pelo AlphaTensor funcionam 10 a 20% mais rápido que os tradicionais.

avalanche

Postagens recentes

NASA convida a todos para ajudar na busca de exoplanetas: se você não tem seu próprio telescópio, basta um smartphone

A NASA anunciou o acesso gratuito para todos ao programa Exoplanet Watch (“Observação de exoplanetas”).…

6 dias atrás

Fabricante de carros elétricos Rivian perde vários executivos seniores

No início de janeiro, soube-se que a jovem montadora americana Rivian produziu 24.337 veículos elétricos…

6 dias atrás