Os matemáticos descobriram uma maneira mais simples de multiplicar matrizes – ela poderia se tornar a base para um avanço na IA

No centro da inteligência artificial está o cálculo matricial, que acaba de experimentar seu maior aumento em mais de uma década. Quase simultaneamente, foram publicados dois artigos nos quais matemáticos explicavam como aumentar a eficiência da multiplicação de matrizes. Com a ajuda de novos algoritmos, a inteligência artificial será capaz de aprender mais rápido em hardware menos potente e resolver problemas com mais rapidez da mesma maneira.

Fonte da imagem: geração AI Kandinsky 3.0/avalanche noticias

A essência do problema é que, até há relativamente pouco tempo, a humanidade, representada pelos matemáticos, não imaginava outra forma de multiplicar matrizes senão realizando n3 operações (onde n é a dimensão das matrizes). Para uma matriz 3×3, por exemplo, foi necessário realizar 27 multiplicações. Num mundo ideal para os matemáticos, a multiplicação de matrizes seria realizada em n2 operações. E no início da década de 70 começou a busca por um algoritmo adequado. Não é difícil adivinhar o que motivou isso com a disseminação dos computadores.

Progressos significativos nesta área foram feitos em 1981 pelo matemático Arnold Schönhage. Ele provou que a multiplicação de matrizes pode ser realizada em n2.522 passos. Mais tarde, esse método foi chamado de “método laser”. Todos os avanços subsequentes em direção ao cobiçado “segundo grau” foram baseados em melhorias no método laser.

O avanço anunciado nos novos artigos, feitos em 2023, ocorreu em decorrência da descoberta de “perdas ocultas” no método laser. Em novembro de 2023, Ran Duan e Renfei Zhou, da Universidade de Tsinghua, apresentaram um método que eliminou a ineficiência do método a laser, estabelecendo um novo limite superior para o número de operações necessárias em aproximadamente n2,371866. Esta conquista marcou o progresso mais significativo nesta área desde 2010. Mas apenas dois meses depois, Virginia Wasilewski Williams, Yingzhang Xu e Zixuan Xu do MIT publicaram um segundo artigo detalhando outra otimização que reduziu o limite superior do número de operações para n2,371552.

Etapas do caminho para o “segundo grau” e os nomes dos cientistas que fizeram descobertas

É claro que o impacto exato na velocidade dos modelos de IA depende da arquitetura de hardware específica do sistema de IA e do quanto as tarefas de um modelo específico dependem da multiplicação de matrizes. Portanto, a melhoria da eficiência dos algoritmos será combinada com a otimização do hardware para concretizar plenamente os ganhos potenciais de velocidade. Mesmo assim, à medida que as melhorias nos métodos algorítmicos se acumulam ao longo do tempo, a inteligência artificial se tornará mais rápida – isso é um fato.

avalanche

Postagens recentes

Deixe o Silício Brilhar / Offsyanka

A fotônica, como nossos leitores habituais provavelmente já sabem, é uma área extremamente promissora de…

1 hora atrás

A Microsoft anunciou uma parceria entre o Xbox e o Discord, mas manteve os detalhes em segredo.

A Microsoft anunciou uma nova parceria envolvendo sua divisão Xbox apenas um dia após reduzir…

3 horas atrás

O novo telescópio espacial Roman da NASA concluiu seus principais testes, a menos de cinco meses do lançamento.

A NASA anunciou a conclusão dos principais testes do novo Observatório Espacial Nancy Grace Roman.…

4 horas atrás

Os centros de dados causam mais danos do que benefícios à economia — o meio ambiente e a saúde humana sofrem.

Segundo estudos recentes, os centros de dados causam danos ambientais e à saúde pública que…

4 horas atrás

A Tencent e o Alibaba estão prontos para investir na DeepSeek, uma startup já avaliada em mais de 20 bilhões de dólares.

As gigantes chinesas de tecnologia Tencent Holdings e Alibaba Group estão em negociações para investir…

5 horas atrás