A Apple tem sido discreta sobre seus planos para IA generativa, mas demonstrou interesse significativo em ser capaz de executar modelos de IA localmente em seus dispositivos.

Fonte da imagem: Bangyu Wang/unsplash.com

Os pesquisadores da Apple revelaram hoje oito modelos de linguagem OpenELM extremamente pequenos, adicionando-os à biblioteca Hugging Face. Nos comentários, a Apple disse que esses “Modelos de linguagem eficientes de código aberto” (OpenELM) são ótimos para tarefas baseadas em texto, como escrever e-mails. E todos esses modelos já estão disponíveis para desenvolvedores.

A série OpenELM de modelos de IA possui variedades com diferentes conjuntos de parâmetros: 270 e 450 milhões, 1,1 e 3 bilhões. Aqui, os parâmetros referem-se ao número de variáveis ​​que o modelo usa ao tomar decisões com base em conjuntos de dados de treinamento. Por exemplo, o recém-lançado Phi-3 da Microsoft tem 3,8 bilhões de parâmetros e o Gemma do Google tem 2,2 bilhões. No entanto, os modelos menores são mais baratos de usar e otimizados para uso em telefones e laptops.

A Apple permite que o OpenELM seja usado sob uma “licença de código de amostra” em conjunto com vários benchmarks de treinamento, estatísticas de desempenho de modelo, pré-treinamento, avaliação e instruções de ajuste. Esta licença não proíbe o uso comercial ou a modificação do código, mas exige a redistribuição do software Apple juntamente com a licença e a isenção de responsabilidade. Este último implica a falta de garantias de segurança e a possibilidade de respostas imprecisas, tendenciosas, inaceitáveis ​​e até prejudiciais às solicitações dos utilizadores.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *