Categorias: Sistemas operacionais

Após meses de intenso debate, o Linux adotou uma política oficial sobre o uso de código de IA.

Os desenvolvedores do kernel Linux aprovaram formalmente sua política de inteligência artificial (IA) após meses de intenso debate. Linus Torvalds e parceiros da indústria chegaram a um acordo que permite o uso de assistentes de IA, mas impõe regras rígidas de transparência e atribui total responsabilidade por quaisquer erros aos desenvolvedores humanos.

Fonte da imagem: xAI

As novas regras proíbem o uso da etiqueta “Assinado por”, legalmente vinculativa, para código criado por sistemas de IA, substituindo-a por uma nova etiqueta “Assistido por” para garantir a transparência da origem das edições. Essa decisão, como aponta o Tom’s Hardware, é uma resposta às crescentes tensões na comunidade causadas pela enxurrada de código de baixa qualidade e pelo uso oculto de redes neurais. Agora, cada bug ou vulnerabilidade nesse código será legalmente atribuído à pessoa específica que publicou as alterações. Isso eliminará a possibilidade de transferir a culpa para os algoritmos e permitirá a integração de ferramentas modernas aos fluxos de trabalho sem violar os princípios da certificação de Origem do Desenvolvedor (DCO).

Fonte da imagem: tomshardware.com

A controvérsia em torno da integração da IA ​​atingiu o ápice em janeiro, quando representantes da Intel e da Oracle entraram em conflito público sobre a regulamentação de redes neurais no projeto. Torvalds criticou duramente a ideia de bani-las completamente, chamando-a de inútil, e insistiu que a IA é apenas uma ferramenta, como qualquer outro software. Ele enfatizou que os atacantes não lerão a documentação de qualquer forma, então é mais eficaz controlar os resultados por meio da responsabilidade de indivíduos específicos do que tentar banir tecnologias nas máquinas locais dos desenvolvedores.

Antes da adoção de uma política unificada, os principais projetos de código aberto demonstraram abordagens variadas para a questão, incluindo proibições diretas. Por exemplo, as distribuições Gentoo e NetBSD bloquearam anteriormente a aceitação de código gerado por IA, argumentando que os dados usados ​​para treinar modelos frequentemente continham código com licenças restritivas, tornando os resultados ilegais. Especialistas da Red Hat, por sua vez, alertaram que o uso dessas ferramentas poderia violar inadvertidamente a licença GNU GPL e comprometer todo o sistema DCO, já que o desenvolvedor não pode garantir a pureza de cada linha de código.

Além dos riscos legais, a comunidade enfrentou o problema de um enorme volume de edições de baixa qualidade, apelidadas de “código de IA de baixa qualidade”. Os criadores de projetos populares como cURL e tldraw foram forçados a encerrar programas de recompensas ou rejeitar automaticamente solicitações externas devido a spam contendo código com alucinações de IA. No caso do kernel do Linux, a situação foi agravada por um incidente de grande repercussão envolvendo o mantenedor Sasha Levin.(Sasha Levin), um engenheiro da Nvidia que implementou um patch para o kernel 6.15 escrito inteiramente por um modelo de IA sem aviso prévio. O código era funcional, mas apresentava uma regressão de desempenho, apesar de ter sido verificado e testado.

A questão da desconfiança devido ao uso oculto de IA afetou não apenas a programação de sistemas, mas também outras áreas, como a comunidade de modding de Doom. Em particular, o líder do projeto GZDoom, Christoph Oelckers, enfrentou um êxodo em massa de colaboradores após usar patches de IA sem divulgação e se recusar a fazer concessões às críticas. Como resultado, a maioria dos colaboradores deixou o projeto original e criou o fork UZDoom, demonstrando a importância da transparência e da honestidade para a comunidade.

admin

Postagens recentes

A Sony e o YouTuber Jacksepticeye estão transformando Bloodborne em um filme de animação “adulto” – primeiros detalhes revelados.

A Sony não tem pressa em anunciar uma remasterização, remake ou sequência do cultuado jogo…

1 hora atrás

A Microsoft criará uma alternativa segura ao agente de IA OpenClaw para empresas.

A Microsoft iniciou os testes de funcionalidades de agentes no Microsoft 365 Copilot, semelhantes ao…

2 horas atrás

O Google começará a penalizar sites nos resultados de pesquisa por interceptarem o botão “voltar”.

O Google começará a classificar o sequestro do botão "voltar" do navegador como uma violação…

4 horas atrás

A Microsoft aumentou os preços de todos os tablets e laptops Surface, em alguns casos em US$ 500.

A Microsoft aumentou os preços de todos os seus computadores Surface na Microsoft Store, e…

6 horas atrás