O campo da IA ​​​​se interessou por pequenos modelos de linguagem – eles são mais baratos e mais eficazes do que os grandes em tarefas específicas

O mercado de IA está atualmente observando uma tendência de uso de modelos de linguagem pequena (SLMs), que têm menos parâmetros do que modelos de linguagem grande (LLMs) e são mais adequados para uma gama mais restrita de tarefas, escreve a revista Wired.

Fonte da imagem: Luke Jones/unsplash.com

As versões mais recentes dos LLMs da OpenAI, Meta✴ e DeepSeek têm centenas de bilhões de parâmetros, o que os torna melhores na detecção de padrões e relacionamentos, tornando-os mais poderosos e precisos. Entretanto, seu treinamento e uso exigem enormes recursos computacionais e financeiros. Por exemplo, treinar o modelo Gemini 1.0 Ultra custou ao Google US$ 191 milhões. De acordo com o Electric Power Research Institute, executar uma única consulta no ChatGPT requer cerca de 10 vezes mais energia do que uma única pesquisa no Google.

IBM, Google, Microsoft e OpenAI lançaram recentemente SLMs com apenas alguns bilhões de parâmetros. Eles não podem ser usados ​​como ferramentas de uso geral, como os LLMs, mas fazem um ótimo trabalho em tarefas mais específicas, como resumir conversas, responder perguntas de pacientes como um chatbot de saúde e coletar dados em dispositivos inteligentes. “Eles também podem ser executados em um laptop ou celular, em vez de em um enorme centro de dados”, disse Zico Kolter, cientista da computação da Universidade Carnegie Mellon.

Para treinar modelos pequenos, os pesquisadores usam vários métodos, como a destilação de conhecimento, na qual o LLM gera um conjunto de dados de alta qualidade transferindo conhecimento para o SLM, como um professor dando aulas para um aluno. Pequenos modelos também são criados a partir de modelos maiores por meio de “aparamento” – remoção de partes desnecessárias ou ineficazes da rede neural.

Como os SLMs têm menos parâmetros que os modelos maiores, seu raciocínio pode ser mais transparente. Um modelo de alvo pequeno terá um desempenho tão bom quanto um grande na execução de tarefas específicas, mas será mais fácil de desenvolver e treinar. “Esses modelos eficientes podem economizar dinheiro, tempo e recursos de computação”, disse Leshem Choshen, cientista pesquisador do MIT-IBM Watson AI Lab.

avalanche

Postagens recentes

A Apple está preparando quatro modelos de óculos inteligentes com armação de acetato.

A Apple está testando ativamente pelo menos quatro designs de armação diferentes para seus óculos…

29 minutos atrás

O robô chinês Unitree H1 demonstrou a capacidade de correr a uma velocidade de 36 km/h.

Em diversas áreas, estão sendo feitos esforços para igualar as capacidades cinéticas de robôs humanoides…

2 horas atrás

Os computadores empresariais MSI Cubi NUC TWG, com refrigeração ativa e passiva, estão alojados em um gabinete de 0,55 litros.

A MSI apresentou os computadores de formato compacto Cubi NUC TWG, projetados para uso empresarial…

13 horas atrás

O mercado de smartphones cresceu 1% no primeiro trimestre, mas espera-se uma queda de 15% até o final do ano.

De acordo com a Omdia, empresa líder em pesquisa de mercado, o mercado global de…

14 horas atrás

O mercado de smartphones cresceu 1% no primeiro trimestre, mas espera-se uma queda de 15% até o final do ano.

De acordo com a Omdia, empresa líder em pesquisa de mercado, o mercado global de…

14 horas atrás