As empresas americanas OpenAI, Anthropic e Cohere, que trabalham na área da inteligência artificial, estão a manter negociações secretas com especialistas de segurança chineses nesta área. Isto surge no meio da preocupação generalizada de que os algoritmos de IA possam ser usados ​​para espalhar desinformação e ameaçar a coesão social. O Financial Times escreve sobre isto, citando as suas próprias fontes informadas.

Fonte da imagem: Gerd Altmann / pixabay.com

O relatório refere que em Julho e Outubro do ano passado foram realizadas reuniões em Genebra com a participação de especialistas e cientistas norte-americanos especializados na componente política do desenvolvimento da IA, bem como de representantes da Universidade de Tsinghua e de uma série de outras instituições apoiadas pelo Governo chinês. Fonte conhecedora disse que durante estas reuniões as partes puderam discutir os riscos associados às novas tecnologias, bem como estimular o investimento na investigação na área da segurança na área da IA. Nota-se que o principal objetivo destas reuniões foi encontrar uma forma segura de desenvolver tecnologias de IA mais complexas.

«Não temos capacidade para estabelecer normas de segurança internacionais e harmonizar os desenvolvimentos da IA ​​sem chegar a um acordo entre os membros deste grupo. Se eles concordarem, será mais fácil atrair os outros”, disse uma fonte bem informada.

A publicação observa que estas conversações não divulgadas são um raro sinal de cooperação sino-americana no meio de uma corrida pela supremacia entre as duas potências em tecnologias avançadas, como a inteligência artificial e a computação quântica. Quanto às negociações propriamente ditas, foram organizadas pela empresa de consultoria Shaikh Group e a sua conduta foi conhecida na Casa Branca, bem como nos governos da Grã-Bretanha e da China.

«Vimos uma oportunidade de reunir os principais intervenientes dos EUA e da China que trabalham no domínio da inteligência artificial. Nosso principal objetivo era destacar as vulnerabilidades, riscos e oportunidades associadas à adoção generalizada de modelos de IA que estão sendo usados ​​em todo o mundo. O reconhecimento destes factos, na nossa opinião, pode tornar-se a base para um trabalho científico conjunto, que acabará por levar ao desenvolvimento de padrões globais de segurança para modelos de IA”, comentou Salman Shaikh, diretor executivo do Grupo Shaikh, sobre esta questão.

Os negociadores discutiram oportunidades de cooperação técnica entre as partes, bem como propostas políticas mais específicas, que formaram a base das discussões durante a reunião do Conselho de Segurança da ONU sobre IA em Julho de 2023 e a Cimeira de IA do Reino Unido em Novembro de 2023. Segundo fontes, o sucesso das reuniões anteriores levou ao desenvolvimento de um plano para futuras negociações, que irá explorar propostas científicas e tecnológicas específicas destinadas a alinhar o campo da IA ​​com os códigos legais, bem como com as normas e valores. de cada sociedade.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *