A Apple tem sido discreta sobre seus planos para IA generativa, mas demonstrou interesse significativo em ser capaz de executar modelos de IA localmente em seus dispositivos.
Os pesquisadores da Apple revelaram hoje oito modelos de linguagem OpenELM extremamente pequenos, adicionando-os à biblioteca Hugging Face. Nos comentários, a Apple disse que esses “Modelos de linguagem eficientes de código aberto” (OpenELM) são ótimos para tarefas baseadas em texto, como escrever e-mails. E todos esses modelos já estão disponíveis para desenvolvedores.
A série OpenELM de modelos de IA possui variedades com diferentes conjuntos de parâmetros: 270 e 450 milhões, 1,1 e 3 bilhões. Aqui, os parâmetros referem-se ao número de variáveis que o modelo usa ao tomar decisões com base em conjuntos de dados de treinamento. Por exemplo, o recém-lançado Phi-3 da Microsoft tem 3,8 bilhões de parâmetros e o Gemma do Google tem 2,2 bilhões. No entanto, os modelos menores são mais baratos de usar e otimizados para uso em telefones e laptops.
A Apple permite que o OpenELM seja usado sob uma “licença de código de amostra” em conjunto com vários benchmarks de treinamento, estatísticas de desempenho de modelo, pré-treinamento, avaliação e instruções de ajuste. Esta licença não proíbe o uso comercial ou a modificação do código, mas exige a redistribuição do software Apple juntamente com a licença e a isenção de responsabilidade. Este último implica a falta de garantias de segurança e a possibilidade de respostas imprecisas, tendenciosas, inaceitáveis e até prejudiciais às solicitações dos utilizadores.