A Open Source Initiative (OSI), que há décadas define padrões de software aberto, introduziu uma definição para o conceito de “IA aberta”. Agora, para que um modelo de IA seja considerado verdadeiramente aberto, o OSI requer acesso aos dados usados para treiná-lo, ao código-fonte completo e a todos os parâmetros e pesos que determinam seu comportamento. Estas novas condições podem ter um impacto significativo na indústria tecnológica, uma vez que modelos de IA como o Llama da Meta✴ não cumprem estes padrões.
Não é de surpreender que Meta✴ tenha uma visão diferente, acreditando que a abordagem OSI não leva em consideração os recursos dos sistemas modernos de IA. A porta-voz da empresa, Faith Eischen, enfatizou que a Meta✴, embora apoie muitas iniciativas OSI, não concorda com a definição proposta porque, em suas palavras, “não existe um padrão único para IA aberta”. Ela também acrescentou que a Meta✴ continuará a trabalhar com a OSI e outras organizações para garantir a “expansão responsável do acesso à IA”, independentemente dos critérios formais. Ao mesmo tempo, Meta✴ enfatiza que seu modelo Llama é limitado no uso comercial em aplicações com público superior a 700 milhões de usuários, o que contraria os padrões OSI, que implicam total liberdade de uso e modificação.
Os princípios OSI, que definem os padrões de software de código aberto, são reconhecidos e usados ativamente pela comunidade de desenvolvedores há 25 anos. Graças a esses princípios, os desenvolvedores podem usar livremente o trabalho de terceiros, sem medo de ações legais. A nova definição OSI para modelos de IA sugere uma aplicação semelhante de princípios de abertura, mas para gigantes da tecnologia como a Meta✴ isto pode representar um sério desafio. Recentemente, a organização sem fins lucrativos Linux Foundation também entrou na discussão, oferecendo a sua interpretação de “IA aberta”, o que sublinha a importância crescente deste tópico para toda a indústria de TI.
O Diretor Executivo da OSI, Stefano Maffulli, observou que o desenvolvimento da nova definição de “IA aberta” levou dois anos e incluiu consultas com especialistas na área de aprendizado de máquina (ML) e processamento de linguagem natural (PNL), filósofos, representantes do Creative Commons e outros especialistas. Este processo permitiu à OSI criar uma definição que poderia tornar-se a base para combater a chamada “lavagem aberta”, onde as empresas afirmam ser abertas, mas na verdade limitam a forma como os seus produtos podem ser utilizados e modificados.
A Meta✴ explica a sua relutância em divulgar dados de formação em IA devido a preocupações de segurança, mas os críticos apontam para outros motivos, incluindo a minimização de riscos legais e a manutenção de uma vantagem competitiva. Muitos modelos de IA provavelmente são treinados em material protegido por direitos autorais. Assim, na primavera, o The New York Times informou que Meta✴ reconheceu a presença de tal conteúdo em seus dados de treinamento, já que filtrá-lo é quase impossível. Embora a Meta✴ e outras empresas, incluindo OpenAI e Perplexity, enfrentem ações judiciais por possível violação de direitos autorais, o modelo Stable Diffusion AI continua sendo um dos poucos exemplos de acesso aberto a dados de treinamento de IA.
Maffulli vê as ações da Meta✴ como paralelos com a postura da Microsoft na década de 1990, quando via o software de código aberto como uma ameaça aos seus negócios. A Meta✴, de acordo com Maffulli, enfatiza o volume do seu investimento no modelo Llama, sugerindo que tais desenvolvimentos intensivos em recursos estão ao alcance de poucos. O uso de dados de treinamento proprietários pela Meta✴, de acordo com Maffulli, tornou-se o “molho secreto” que permite às empresas manter uma vantagem competitiva e proteger sua propriedade intelectual.