A empresa Yandex anunciou a rede neural YaLM 100B, projetada para gerar e processar textos em russo e inglês. Alega-se ser o maior modelo do mundo do tipo GPT (transformador pré-treinado generativo) publicado em domínio público até o momento.

Fonte da imagem: pixabay.com/geralt
O YaLM 100B contém 100 bilhões de parâmetros – mais do que qualquer um dos modelos existentes para o idioma russo. Graças a isso, a rede neural pode ser usada para resolver uma ampla gama de problemas relacionados ao processamento de linguagem natural.
Os modelos de linguagem da família YaLM determinam o princípio de construção de textos e geram novos com base nas leis da linguística e seu conhecimento do mundo. Qualquer tipo de texto é permitido: podem ser respostas, poemas, parabéns, etc. Além disso, os algoritmos são capazes de gerar ideias para campanhas publicitárias, criar descrições de produtos e vídeos e classificar textos.

Fonte da imagem: pixabay.com / Gerd Altmann
No processo de treinamento da rede, os supercomputadores Yandex, reconhecidos como os mais poderosos da Europa Oriental, estiveram envolvidos. O YaLM 100B processou cerca de 2 TB de textos de fontes abertas e da Internet em inglês e russo.
Agora a rede neural pode ser usada por desenvolvedores e pesquisadores de todo o mundo. O modelo é fornecido sob a licença aberta Apache 2.0 e está disponível no GitHub.
