A OpenAI, que iniciou a corrida da IA com o chatbot extremamente eficiente ChatGPT, formou uma equipe dedicada para gerenciar e controlar sistemas de IA “superinteligentes”, de acordo com relatórios recentes. Um dos fundadores da empresa e seu pesquisador-chefe, Ilya Sutskever, tornou-se seu chefe.
Fonte da imagem: D5000/pixabay.com
De acordo com uma postagem no blog OpenAI, a IA além das capacidades da mente humana pode surgir dentro de uma década. Ao mesmo tempo, não é necessário que essa “supermente” seja benevolente para com a humanidade – portanto, é necessário buscar maneiras de controlar e limitar as capacidades de tais sistemas.
De acordo com a OpenAI, hoje não há soluções para controlar e gerenciar com eficácia a IA superinteligente e evitar a “agressão” de sua parte. As tecnologias de ajuste de inteligência artificial existentes são baseadas no aprendizado por reforço com base no feedback humano. Ao mesmo tempo, tais técnicas dependem do fato de que as pessoas, em princípio, podem controlar a IA, o que é improvável com sistemas potencialmente mais inteligentes que as pessoas. Para estudar o assunto, uma equipe especial terá acesso a 20% do poder computacional da empresa. Eles serão acompanhados por cientistas e programadores do departamento de personalização de IA da empresa, bem como de outras divisões. Nos próximos quatro anos, a equipe pretende dominar os principais desafios técnicos associados ao controle de IA superinteligente.
Na verdade, estamos falando de treinamento de IA usando feedback. Isso usará uma inteligência artificial especial projetada para avaliar outros sistemas de IA e fornecer os resultados desejados, além de garantir a segurança de sua operação. A OpenAI acredita que a inteligência artificial lidará com isso melhor e mais rápido do que os humanos. À medida que o sistema de IA amadurece, espera-se que as empresas assumam cada vez mais tarefas e, como resultado, criem e implementem melhores tecnologias de personalização do que as disponíveis atualmente. Eles trabalharão com o povo para tornar seus próprios sucessores mais sintonizados com as necessidades do povo, que apenas supervisionarão, não diretamente envolvidos na pesquisa.
Obviamente, nenhum método possui proteção absoluta contra erros, conforme declarado no OpenAI. Usar uma IA para avaliar outras pode levar a um aumento no número de bugs e vulnerabilidades nas IAs que estão sendo criadas e, em geral, pode revelar que a parte mais difícil da customização pode estar associada aos aspectos mais inesperados da IA. No entanto, a empresa está convencida de que ajustar a superinteligência é basicamente uma tarefa de aprendizado de máquina e os especialistas nesse setor desempenharão um papel crítico. A empresa espera compartilhar os frutos de suas pesquisas no futuro para configurar e garantir projetos, mesmo aqueles não relacionados ao OpenAI.
De acordo com a Reuters, os oponentes da iniciativa acreditam que a IA com pensamento de nível humano pode ficar fora de controle antes mesmo de garantir a operação segura de outros sistemas de IA. Em abril, representantes da comunidade de especialistas e empresas publicaram uma carta aberta, alertando contra a criação de uma IA mais avançada que o GPT-4.
No último dia de 2025, a Epic Games Store distribuiu o 15º jogo secreto de…
O Modo Leitura estreou oficialmente no Google Chrome para Android em 2023, mas até agora,…
Em meados do mês passado, surgiram notícias de que a Nvidia teria que aumentar a…
Cientistas anunciaram uma descoberta astronômica rara: pela primeira vez na história registrada, um sistema de…
A Doogee lançou o robusto smartphone Doogee Fire 7 Pro 5G. Além da resistência aprimorada…
A DapuStor anunciou a implementação bem-sucedida de sistemas de armazenamento baseados em SSD com resfriamento…