AlphaZero gaming AI descobriu uma nova maneira de multiplicar matrizes pela primeira vez em 50 anos

O sistema de inteligência artificial AlphaZero da DeepMind, originalmente projetado para jogos de tabuleiro, apresentou uma maneira mais rápida de fazer a multiplicação de matrizes, um problema matemático fundamental que não é resolvido há mais de 50 anos.

Fonte da imagem: technologyreview.com

O problema da multiplicação de matrizes está subjacente a uma variedade de aplicações, desde a exibição de uma imagem em uma tela até a modelagem de física complexa, bem como o treinamento da própria inteligência artificial. A otimização da solução para esse problema ajudaria a simplificar o desempenho de muitas operações do computador, reduzindo custos e economizando energia. Apesar da onipresença do problema, ainda é pouco estudado.

Uma matriz é uma matriz de números, e a multiplicação de matrizes geralmente é a multiplicação sequencial dos números nas linhas de um pelos números nas colunas de outro. A tarefa parece relativamente simples, mas se torna muito mais difícil quando se tenta encontrar um método rápido para resolvê-la, e esse é um dos problemas em aberto na ciência da computação. Supõe-se que o número de formas disponíveis para multiplicar matrizes excede o número de átomos no universo – em alguns casos até 10³³ opções.

Para “interessar” a rede neural AlphaTensor, a nova versão do AlphaZero, a tarefa de multiplicação de matrizes foi transformada em uma espécie de jogo de tabuleiro, cada ação de multiplicação foi comparada a uma jogada de jogo, e a IA recebeu uma recompensa para ganhar com o número mínimo de movimentos. Como resultado, o AlphaTensor encontrou uma nova maneira de multiplicar matrizes 4×4, mais eficiente do que o matemático alemão Volker Strassen sugeriu em 1969. O método básico envolve resolver o problema em 64 etapas, Strassen tem 49 etapas e AlphaTensor lida com 47. Em geral, a IA aprimorou algoritmos para matrizes de mais de 70 tamanhos: com um tamanho de 9 × 9, o número de etapas foi reduzido. diminuiu de 511 para 498 e com 11 × 11 – de 919 para 896. Em vários outros casos, o AlphaTensor repetiu os algoritmos mais conhecidos.

Depois de receber os resultados, os engenheiros da DeepMind decidiram adaptá-los para os aceleradores NVIDIA V100 e Google TPU, que são mais usados ​​em aprendizado de máquina. Descobriu-se que os métodos propostos pelo AlphaTensor funcionam 10 a 20% mais rápido que os tradicionais.

avalanche

Postagens recentes

O C5, de baixíssimo consumo de energia, pode funcionar até mesmo sem baterias.

A STMicroelectronics anunciou os microcontroladores STM32U3B5 e STM32U3C5, projetados para dispositivos autônomos com recursos de…

45 minutos atrás

A OpenAI adiou o lançamento do “Modo Adulto” do ChatGPT para resolver problemas de detecção de idade.

No final do ano passado, a OpenAI anunciou sua intenção de lançar um "modo adulto"…

45 minutos atrás

Pela primeira vez, a China conseguiu suprir todas as suas novas necessidades de eletricidade com energia renovável.

A China, considerada o maior emissor de CO₂ do mundo, registrou sua primeira queda nas…

4 horas atrás

Um desenvolvedor confiou a gestão da AWS à Claude Code – a IA apagou completamente dois sites e um banco de dados.

Agentes de inteligência artificial que auxiliam na escrita de software, como o Anthropic Claude Code,…

4 horas atrás

A Mozilla está preparando uma grande reformulação do Firefox, com o codinome Nova – veja como ele ficará.

A Mozilla está desenvolvendo um Firefox radicalmente redesenhado, com o codinome Nova. O navegador atualizado…

6 horas atrás