Apple adere à iniciativa voluntária de segurança de IA

A Apple aderiu a um compromisso voluntário proposto pela Casa Branca para desenvolver inteligência artificial segura e ética, tornando-se a 16ª empresa de tecnologia a apoiar a iniciativa. Esta decisão foi tomada às vésperas do lançamento do Apple Intelligence, o seu próprio modelo generativo de IA, que abrangerá mais de 2 mil milhões de utilizadores Apple em todo o mundo.

Fonte da imagem: Apple

A Apple se junta a outros 15 gigantes da tecnologia, incluindo Amazon, Google, Microsoft e OpenAI, que se comprometeram a seguir os princípios da Casa Branca para o desenvolvimento de IA em julho de 2023, relata o TechCrunch. Notavelmente, a Apple não revelou os seus planos de integrar IA no iOS até a recente conferência WWDC em junho, onde a empresa anunciou as suas intenções de desenvolver IA generativa, começando com uma parceria com ChatGPT no iPhone.

Os analistas veem a decisão da Apple como uma tentativa da empresa, conhecida por seu relacionamento controverso com os reguladores, de demonstrar sua disposição para cooperar na área de IA. Em meio à crescente pressão dos legisladores e às preocupações do público sobre o desenvolvimento descontrolado da IA, a Apple decidiu mostrar-se como uma empresa responsável e disposta a seguir princípios éticos.

Como parte do compromisso voluntário, as empresas comprometem-se a testar exaustivamente a segurança dos modelos de IA antes de os divulgarem ao público, bem como a fornecer ao público informações sobre os resultados dos testes. Além disso, devem garantir a confidencialidade dos modelos de IA que desenvolvem, limitando o acesso ao desenvolvimento a uma vasta gama de colaboradores. Também foi assinado um acordo sobre um sistema de rotulagem de conteúdo gerado por IA, para que os usuários possam distingui-lo facilmente do conteúdo gerado por humanos.

Embora estes compromissos sejam voluntários, a Casa Branca vê-os como “o primeiro passo para a criação de uma IA segura e fiável”. Além disso, vários projetos de lei para regulamentá-lo estão atualmente em tramitação nos níveis federal e estadual.

Paralelamente, o Departamento de Comércio dos EUA está a preparar um relatório sobre os potenciais benefícios, riscos e consequências dos modelos de IA de código aberto. Ao mesmo tempo, os modelos de IA de acesso fechado tornaram-se objeto de acalorado debate, uma vez que limitar o acesso a modelos generativos poderosos pode impactar negativamente o desenvolvimento de startups e de investigação no domínio da IA.

As autoridades dos EUA também registaram progressos significativos por parte das agências federais no cumprimento dos objectivos estabelecidos pela ordem de Outubro. Até à data, foram contratados mais de 200 especialistas em IA, mais de 80 grupos de investigação têm acesso a recursos computacionais e foram lançadas diversas estruturas para o desenvolvimento de IA.

avalanche

Postagens recentes

Análise do aspirador robô Midea VCR M7 EVO: limpar o ambiente é minha principal vocação

Recentemente falamos sobre o modelo VCR V12, o principal robô de limpeza da Midea. Ele…

4 horas atrás

Asus lançou uma placa-mãe com soquete girado para Intel Arrow Lake-S

A Asus lançou a placa-mãe Pro WS Z890-ACE SE para a criação de estações de…

6 horas atrás

Huawei Mate 70 recebeu um novo processador soberano Kirin 9020, que é muito semelhante ao antigo

A Huawei apresentou hoje a série Mate 70 de smartphones emblemáticos, bem como o smartphone…

7 horas atrás

O sensacional gerador de vídeo AI OpenAI Sora foi aberto a todos sem permissão

Um grupo de criadores de conteúdo de vídeo recrutados pela OpenAI para ajudar a desenvolver…

7 horas atrás