Sam Altman da OpenAI, Jensen Huang da Nvidia, Satya Nadella da Microsoft, Sundar Pichai da Alphabet, Dario Amodei da Anthropic e outros representantes das maiores empresas, associadas ao desenvolvimento da IA, faziam parte de um grupo do governo dos EUA de quase duas dezenas pessoas destinadas a proteger a infra-estrutura crítica do país dos perigos potenciais do uso da inteligência artificial.
É formado o Conselho de Segurança e Proteção de Inteligência Artificial, um novo conselho consultivo federal que trabalhará com o Departamento de Segurança Interna dos EUA para desenvolver recomendações para operadores de rede, empresas de transporte e fábricas sobre como usar IA e proteger sistemas contra falhas potenciais que podem ser causado pelo seu uso.
As autoridades de segurança nacional dos EUA há muito alertam sobre as vulnerabilidades da infraestrutura crítica do país, incluindo possíveis ataques e acidentes físicos e cibernéticos. A inteligência artificial tem potencial para melhorar a eficiência e a segurança dos gasodutos de combustível, das redes de comunicações, da aviação e dos hospitais, mas também pode criar problemas inesperados.
Na sua entrevista, o Secretário da Segurança Interna e Presidente do novo Conselho, Alejandro Mayorkas, sublinhou que a utilização da IA não só abre enormes oportunidades, mas também apresenta riscos consideráveis. “A falha na implementação segura e responsável da IA em infraestruturas críticas pode ter consequências terríveis”, disse ele.
O Presidente dos EUA ordenou a criação do Conselho de Segurança de IA no outono passado, emitindo uma ordem executiva sobre inteligência artificial, exigindo, entre outras coisas, que os desenvolvedores de IA notifiquem o governo sobre o desenvolvimento de qualquer sistema que represente uma “ameaça séria para o segurança nacional e económica, bem como a saúde e segurança do país.”