As empresas americanas OpenAI, Anthropic e Cohere, que trabalham na área da inteligência artificial, estão a manter negociações secretas com especialistas de segurança chineses nesta área. Isto surge no meio da preocupação generalizada de que os algoritmos de IA possam ser usados para espalhar desinformação e ameaçar a coesão social. O Financial Times escreve sobre isto, citando as suas próprias fontes informadas.
Fonte da imagem: Gerd Altmann / pixabay.com
O relatório refere que em Julho e Outubro do ano passado foram realizadas reuniões em Genebra com a participação de especialistas e cientistas norte-americanos especializados na componente política do desenvolvimento da IA, bem como de representantes da Universidade de Tsinghua e de uma série de outras instituições apoiadas pelo Governo chinês. Fonte conhecedora disse que durante estas reuniões as partes puderam discutir os riscos associados às novas tecnologias, bem como estimular o investimento na investigação na área da segurança na área da IA. Nota-se que o principal objetivo destas reuniões foi encontrar uma forma segura de desenvolver tecnologias de IA mais complexas.
«Não temos capacidade para estabelecer normas de segurança internacionais e harmonizar os desenvolvimentos da IA sem chegar a um acordo entre os membros deste grupo. Se eles concordarem, será mais fácil atrair os outros”, disse uma fonte bem informada.
A publicação observa que estas conversações não divulgadas são um raro sinal de cooperação sino-americana no meio de uma corrida pela supremacia entre as duas potências em tecnologias avançadas, como a inteligência artificial e a computação quântica. Quanto às negociações propriamente ditas, foram organizadas pela empresa de consultoria Shaikh Group e a sua conduta foi conhecida na Casa Branca, bem como nos governos da Grã-Bretanha e da China.
«Vimos uma oportunidade de reunir os principais intervenientes dos EUA e da China que trabalham no domínio da inteligência artificial. Nosso principal objetivo era destacar as vulnerabilidades, riscos e oportunidades associadas à adoção generalizada de modelos de IA que estão sendo usados em todo o mundo. O reconhecimento destes factos, na nossa opinião, pode tornar-se a base para um trabalho científico conjunto, que acabará por levar ao desenvolvimento de padrões globais de segurança para modelos de IA”, comentou Salman Shaikh, diretor executivo do Grupo Shaikh, sobre esta questão.
Os negociadores discutiram oportunidades de cooperação técnica entre as partes, bem como propostas políticas mais específicas, que formaram a base das discussões durante a reunião do Conselho de Segurança da ONU sobre IA em Julho de 2023 e a Cimeira de IA do Reino Unido em Novembro de 2023. Segundo fontes, o sucesso das reuniões anteriores levou ao desenvolvimento de um plano para futuras negociações, que irá explorar propostas científicas e tecnológicas específicas destinadas a alinhar o campo da IA com os códigos legais, bem como com as normas e valores. de cada sociedade.
A Qualcomm publicou resultados de benchmark para seu processador Snapdragon X2 Elite Extreme, projetado para…
A Nothing anunciou oficialmente o CMF Headphone Pro, o primeiro fone de ouvido full-size da…
Foi noticiado anteriormente que fornecedores chineses de chips aceleradores de IA pretendem triplicar seus volumes…
A fabricante chinesa Xiaomi fez uma pausa após o lançamento do Apple iPhone 17 Pro…
A Cerebras Systems, desenvolvedora de aceleradores de IA, inaugurou um novo data center em Oklahoma…
Lançado na semana passada, o jogo de terror psicológico Silent Hill da editora japonesa Konami…