Gigantes da tecnologia e startups estão migrando para modelos de IA menores e mais eficientes, à medida que buscam cortar custos e melhorar a produtividade. Esses modelos, diferentemente de seus “irmãos mais velhos”, como o GPT-4, podem ser treinados em uma quantidade menor de dados e especializados na resolução de problemas específicos.
Microsoft, Google, Apple e startups como Mistral, Anthropic e Cohere estão cada vez mais recorrendo a modelos de linguagem de inteligência artificial de pequeno e médio porte. Ao contrário dos modelos de grande escala (LLMs), como o GPT-4 da OpenAI, que usam mais de um trilhão de parâmetros e custam bem mais de US$ 100 milhões para serem desenvolvidos, os modelos compactos são treinados em conjuntos de dados mais restritos e podem custar menos de US$ 10 milhões, com isso usando menos de 10 bilhões de parâmetros.
A Microsoft, uma das líderes na área de IA, introduziu uma família de pequenos modelos chamada Phi. Segundo o CEO da empresa, Satya Nadella, esses modelos são 100 vezes menores que a versão gratuita do ChatGPT, mas ao mesmo tempo lidam com muitas tarefas com quase a mesma eficiência. Yusuf Mehdi, diretor comercial da Microsoft, observou que a empresa percebeu rapidamente que executar grandes modelos de IA era mais caro do que se pensava inicialmente, o que levou a Microsoft a procurar soluções mais econômicas.
Outros gigantes da tecnologia também não ficam de fora. Google, Apple, assim como Mistral, Anthropic e Cohere lançaram suas próprias versões de modelos pequenos e médios. A Apple, em particular, planeja usar esses modelos para executar IA localmente, diretamente em smartphones, o que deverá melhorar a velocidade e a segurança. Ao mesmo tempo, o consumo de recursos nos smartphones será mínimo.
Os especialistas observam que para muitas tarefas, como resumir documentos ou criar imagens, modelos grandes podem ser um exagero. Ilya Polosukhin, um dos autores do artigo seminal do Google de 2017 sobre inteligência artificial, comparou figurativamente o uso de grandes modelos para tarefas simples com a condução de um tanque até o supermercado. “A computação 2+2 não deveria exigir quatrilhões de operações”, enfatizou.
As empresas e os consumidores também procuram formas de reduzir o custo de operação de tecnologias generativas de IA. De acordo com Yoav Shoham, cofundador da empresa de IA AI21 Labs, sediada em Tel Aviv, pequenos modelos podem responder a perguntas, quando traduzidos em dinheiro, por apenas um sexto do custo de grandes modelos de linguagem.
Curiosamente, a principal vantagem dos modelos pequenos é a capacidade de ajustá-los a tarefas e conjuntos de dados específicos. Isto permite-lhes operar de forma eficiente em áreas especializadas a um custo menor, como apenas no setor jurídico.
No entanto, os especialistas observam que as empresas não vão abandonar completamente o LLM. Por exemplo, a Apple anunciou a integração do ChatGPT ao Siri para realizar tarefas complexas, e a Microsoft planeja usar o modelo OpenAI mais recente na nova versão do Windows. E empresas como a Experian na Irlanda e a Salesforce nos EUA já mudaram para modelos de IA mais pequenos para chatbots e descobriram que proporcionam o mesmo desempenho que modelos maiores, mas a custos significativamente mais baixos e com menor latência de processamento.
A mudança para modelos pequenos ocorre à medida que o progresso em modelos grandes de IA disponíveis publicamente diminui. Os especialistas atribuem isto à falta de novos dados de formação de alta qualidade e, em geral, apontam para uma nova e importante etapa na evolução da indústria.