A OpenAI, que iniciou a corrida da IA ​​com o chatbot extremamente eficiente ChatGPT, formou uma equipe dedicada para gerenciar e controlar sistemas de IA “superinteligentes”, de acordo com relatórios recentes. Um dos fundadores da empresa e seu pesquisador-chefe, Ilya Sutskever, tornou-se seu chefe.

Fonte da imagem: D5000/pixabay.com

De acordo com uma postagem no blog OpenAI, a IA além das capacidades da mente humana pode surgir dentro de uma década. Ao mesmo tempo, não é necessário que essa “supermente” seja benevolente para com a humanidade – portanto, é necessário buscar maneiras de controlar e limitar as capacidades de tais sistemas.

De acordo com a OpenAI, hoje não há soluções para controlar e gerenciar com eficácia a IA superinteligente e evitar a “agressão” de sua parte. As tecnologias de ajuste de inteligência artificial existentes são baseadas no aprendizado por reforço com base no feedback humano. Ao mesmo tempo, tais técnicas dependem do fato de que as pessoas, em princípio, podem controlar a IA, o que é improvável com sistemas potencialmente mais inteligentes que as pessoas. Para estudar o assunto, uma equipe especial terá acesso a 20% do poder computacional da empresa. Eles serão acompanhados por cientistas e programadores do departamento de personalização de IA da empresa, bem como de outras divisões. Nos próximos quatro anos, a equipe pretende dominar os principais desafios técnicos associados ao controle de IA superinteligente.

Na verdade, estamos falando de treinamento de IA usando feedback. Isso usará uma inteligência artificial especial projetada para avaliar outros sistemas de IA e fornecer os resultados desejados, além de garantir a segurança de sua operação. A OpenAI acredita que a inteligência artificial lidará com isso melhor e mais rápido do que os humanos. À medida que o sistema de IA amadurece, espera-se que as empresas assumam cada vez mais tarefas e, como resultado, criem e implementem melhores tecnologias de personalização do que as disponíveis atualmente. Eles trabalharão com o povo para tornar seus próprios sucessores mais sintonizados com as necessidades do povo, que apenas supervisionarão, não diretamente envolvidos na pesquisa.

Obviamente, nenhum método possui proteção absoluta contra erros, conforme declarado no OpenAI. Usar uma IA para avaliar outras pode levar a um aumento no número de bugs e vulnerabilidades nas IAs que estão sendo criadas e, em geral, pode revelar que a parte mais difícil da customização pode estar associada aos aspectos mais inesperados da IA. No entanto, a empresa está convencida de que ajustar a superinteligência é basicamente uma tarefa de aprendizado de máquina e os especialistas nesse setor desempenharão um papel crítico. A empresa espera compartilhar os frutos de suas pesquisas no futuro para configurar e garantir projetos, mesmo aqueles não relacionados ao OpenAI.

De acordo com a Reuters, os oponentes da iniciativa acreditam que a IA com pensamento de nível humano pode ficar fora de controle antes mesmo de garantir a operação segura de outros sistemas de IA. Em abril, representantes da comunidade de especialistas e empresas publicaram uma carta aberta, alertando contra a criação de uma IA mais avançada que o GPT-4.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *