O campo da IA ​​​​se interessou por pequenos modelos de linguagem – eles são mais baratos e mais eficazes do que os grandes em tarefas específicas

O mercado de IA está atualmente observando uma tendência de uso de modelos de linguagem pequena (SLMs), que têm menos parâmetros do que modelos de linguagem grande (LLMs) e são mais adequados para uma gama mais restrita de tarefas, escreve a revista Wired.

Fonte da imagem: Luke Jones/unsplash.com

As versões mais recentes dos LLMs da OpenAI, Meta✴ e DeepSeek têm centenas de bilhões de parâmetros, o que os torna melhores na detecção de padrões e relacionamentos, tornando-os mais poderosos e precisos. Entretanto, seu treinamento e uso exigem enormes recursos computacionais e financeiros. Por exemplo, treinar o modelo Gemini 1.0 Ultra custou ao Google US$ 191 milhões. De acordo com o Electric Power Research Institute, executar uma única consulta no ChatGPT requer cerca de 10 vezes mais energia do que uma única pesquisa no Google.

IBM, Google, Microsoft e OpenAI lançaram recentemente SLMs com apenas alguns bilhões de parâmetros. Eles não podem ser usados ​​como ferramentas de uso geral, como os LLMs, mas fazem um ótimo trabalho em tarefas mais específicas, como resumir conversas, responder perguntas de pacientes como um chatbot de saúde e coletar dados em dispositivos inteligentes. “Eles também podem ser executados em um laptop ou celular, em vez de em um enorme centro de dados”, disse Zico Kolter, cientista da computação da Universidade Carnegie Mellon.

Para treinar modelos pequenos, os pesquisadores usam vários métodos, como a destilação de conhecimento, na qual o LLM gera um conjunto de dados de alta qualidade transferindo conhecimento para o SLM, como um professor dando aulas para um aluno. Pequenos modelos também são criados a partir de modelos maiores por meio de “aparamento” – remoção de partes desnecessárias ou ineficazes da rede neural.

Como os SLMs têm menos parâmetros que os modelos maiores, seu raciocínio pode ser mais transparente. Um modelo de alvo pequeno terá um desempenho tão bom quanto um grande na execução de tarefas específicas, mas será mais fácil de desenvolver e treinar. “Esses modelos eficientes podem economizar dinheiro, tempo e recursos de computação”, disse Leshem Choshen, cientista pesquisador do MIT-IBM Watson AI Lab.

avalanche

Postagens recentes

A Microsoft restaurou o ícone de login por senha na tela de bloqueio do Windows 11, que havia desaparecido em agosto.

Seis meses depois, a Microsoft corrigiu um problema conhecido em que a opção de login…

2 horas atrás

Uma fonte interna decepcionou os fãs que esperavam ver Ada Wong e Chris Redfield em Resident Evil Requiem.

O lançamento do ambicioso jogo de terror Resident Evil Requiem marcará o grande retorno do…

6 horas atrás

O Samsung Galaxy S26 Ultra com caneta stylus aparece em imagem de pré-anúncio.

No final de janeiro, foi noticiado que os smartphones da série Samsung Galaxy S26 provavelmente…

7 horas atrás

“Vivo e bem”: Um analista de dados revelou o que está acontecendo com Half-Life 3.

O minerador de dados Maxim Poletaev (também conhecido como Gabe Follower) comentou recentemente sobre rumores…

8 horas atrás

A Ford manteve conversas com a Xiaomi sobre a produção de veículos elétricos nos EUA.

A Ford Motor, uma das maiores montadoras americanas, inicialmente se comprometeu com uma estreita cooperação…

9 horas atrás

A CATL apresentou baterias para veículos elétricos com autonomia de até 1,8 milhão de km e carregamento rápido.

Os longos tempos de carregamento são considerados uma das desvantagens operacionais dos veículos elétricos, mas…

9 horas atrás