A Apple aderiu a um compromisso voluntário proposto pela Casa Branca para desenvolver inteligência artificial segura e ética, tornando-se a 16ª empresa de tecnologia a apoiar a iniciativa. Esta decisão foi tomada às vésperas do lançamento do Apple Intelligence, o seu próprio modelo generativo de IA, que abrangerá mais de 2 mil milhões de utilizadores Apple em todo o mundo.

Fonte da imagem: Apple

A Apple se junta a outros 15 gigantes da tecnologia, incluindo Amazon, Google, Microsoft e OpenAI, que se comprometeram a seguir os princípios da Casa Branca para o desenvolvimento de IA em julho de 2023, relata o TechCrunch. Notavelmente, a Apple não revelou os seus planos de integrar IA no iOS até a recente conferência WWDC em junho, onde a empresa anunciou as suas intenções de desenvolver IA generativa, começando com uma parceria com ChatGPT no iPhone.

Os analistas veem a decisão da Apple como uma tentativa da empresa, conhecida por seu relacionamento controverso com os reguladores, de demonstrar sua disposição para cooperar na área de IA. Em meio à crescente pressão dos legisladores e às preocupações do público sobre o desenvolvimento descontrolado da IA, a Apple decidiu mostrar-se como uma empresa responsável e disposta a seguir princípios éticos.

Como parte do compromisso voluntário, as empresas comprometem-se a testar exaustivamente a segurança dos modelos de IA antes de os divulgarem ao público, bem como a fornecer ao público informações sobre os resultados dos testes. Além disso, devem garantir a confidencialidade dos modelos de IA que desenvolvem, limitando o acesso ao desenvolvimento a uma vasta gama de colaboradores. Também foi assinado um acordo sobre um sistema de rotulagem de conteúdo gerado por IA, para que os usuários possam distingui-lo facilmente do conteúdo gerado por humanos.

Embora estes compromissos sejam voluntários, a Casa Branca vê-os como “o primeiro passo para a criação de uma IA segura e fiável”. Além disso, vários projetos de lei para regulamentá-lo estão atualmente em tramitação nos níveis federal e estadual.

Paralelamente, o Departamento de Comércio dos EUA está a preparar um relatório sobre os potenciais benefícios, riscos e consequências dos modelos de IA de código aberto. Ao mesmo tempo, os modelos de IA de acesso fechado tornaram-se objeto de acalorado debate, uma vez que limitar o acesso a modelos generativos poderosos pode impactar negativamente o desenvolvimento de startups e de investigação no domínio da IA.

As autoridades dos EUA também registaram progressos significativos por parte das agências federais no cumprimento dos objectivos estabelecidos pela ordem de Outubro. Até à data, foram contratados mais de 200 especialistas em IA, mais de 80 grupos de investigação têm acesso a recursos computacionais e foram lançadas diversas estruturas para o desenvolvimento de IA.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *