Apple adere à iniciativa voluntária de segurança de IA

A Apple aderiu a um compromisso voluntário proposto pela Casa Branca para desenvolver inteligência artificial segura e ética, tornando-se a 16ª empresa de tecnologia a apoiar a iniciativa. Esta decisão foi tomada às vésperas do lançamento do Apple Intelligence, o seu próprio modelo generativo de IA, que abrangerá mais de 2 mil milhões de utilizadores Apple em todo o mundo.

Fonte da imagem: Apple

A Apple se junta a outros 15 gigantes da tecnologia, incluindo Amazon, Google, Microsoft e OpenAI, que se comprometeram a seguir os princípios da Casa Branca para o desenvolvimento de IA em julho de 2023, relata o TechCrunch. Notavelmente, a Apple não revelou os seus planos de integrar IA no iOS até a recente conferência WWDC em junho, onde a empresa anunciou as suas intenções de desenvolver IA generativa, começando com uma parceria com ChatGPT no iPhone.

Os analistas veem a decisão da Apple como uma tentativa da empresa, conhecida por seu relacionamento controverso com os reguladores, de demonstrar sua disposição para cooperar na área de IA. Em meio à crescente pressão dos legisladores e às preocupações do público sobre o desenvolvimento descontrolado da IA, a Apple decidiu mostrar-se como uma empresa responsável e disposta a seguir princípios éticos.

Como parte do compromisso voluntário, as empresas comprometem-se a testar exaustivamente a segurança dos modelos de IA antes de os divulgarem ao público, bem como a fornecer ao público informações sobre os resultados dos testes. Além disso, devem garantir a confidencialidade dos modelos de IA que desenvolvem, limitando o acesso ao desenvolvimento a uma vasta gama de colaboradores. Também foi assinado um acordo sobre um sistema de rotulagem de conteúdo gerado por IA, para que os usuários possam distingui-lo facilmente do conteúdo gerado por humanos.

Embora estes compromissos sejam voluntários, a Casa Branca vê-os como “o primeiro passo para a criação de uma IA segura e fiável”. Além disso, vários projetos de lei para regulamentá-lo estão atualmente em tramitação nos níveis federal e estadual.

Paralelamente, o Departamento de Comércio dos EUA está a preparar um relatório sobre os potenciais benefícios, riscos e consequências dos modelos de IA de código aberto. Ao mesmo tempo, os modelos de IA de acesso fechado tornaram-se objeto de acalorado debate, uma vez que limitar o acesso a modelos generativos poderosos pode impactar negativamente o desenvolvimento de startups e de investigação no domínio da IA.

As autoridades dos EUA também registaram progressos significativos por parte das agências federais no cumprimento dos objectivos estabelecidos pela ordem de Outubro. Até à data, foram contratados mais de 200 especialistas em IA, mais de 80 grupos de investigação têm acesso a recursos computacionais e foram lançadas diversas estruturas para o desenvolvimento de IA.

avalanche

Postagens recentes

A Anthropic ensinou o chatbot Claude a imitar o estilo de escrita de um usuário

A Anthropic introduziu um novo recurso para seu chatbot de inteligência artificial Claude, semelhante ao…

2 horas atrás

A audiência do Threads cresceu em 35 milhões de usuários em novembro de 2024

A plataforma de microblog Threads, criada pela Meta✴ como alternativa à rede social X (antigo…

4 horas atrás

Análise do aspirador robô Midea VCR M7 EVO: limpar o ambiente é minha principal vocação

Recentemente falamos sobre o modelo VCR V12, o principal robô de limpeza da Midea. Ele…

9 horas atrás