Ilya Sutskever, cofundador da OpenAI, alertou que o desenvolvimento extensivo de IA tornou-se obsoleto.

A julgar pela atividade dos participantes do mercado de IA, eles estão atualmente focados em aumentar o poder computacional, na esperança de que, em determinado momento, a quantidade se traduza em qualidade. Ilya Sutskever, um dos fundadores da OpenAI, está convencido de que a era da escalabilidade está chegando ao fim e que o progresso significativo no desenvolvimento da IA ​​exigirá pesquisa séria e aprofundada.

Fonte da imagem: Departamento de Empreendedorismo da Universidade de Toronto

Na OpenAI, Ilya era responsável pela pesquisa e foi forçado a deixar a startup não apenas pelo conflito em torno da renúncia fracassada do CEO Sam Altman, mas também por discordar da estratégia de desenvolvimento da empresa. Como ficou claro em uma entrevista recente, Ilya Sutskever está alarmado com o foco contínuo da indústria de IA no desenvolvimento extensivo. Grandes modelos de linguagem têm sido aprimorados até agora pela incorporação de mais dados, recursos computacionais ou pelo aumento do número de parâmetros dentro do próprio modelo.

Para os participantes do mercado, essa abordagem era conveniente porque fornecia resultados claros com risco e incerteza mínimos. Não era necessário um grande número de pesquisadores qualificados e talentosos, já que o progresso era alcançado pelo aumento do número de recursos utilizados. De acordo com Sutskever, esse caminho de desenvolvimento se esgotará em breve, principalmente devido ao esgotamento dos dados adequados para o treinamento de modelos de linguagem. Todas as informações disponíveis online já foram utilizadas para treinar IA.

Sutzkever está convencido de que mesmo um aumento de 100 vezes na escala da infraestrutura existente não garantirá um avanço qualitativo no desenvolvimento da IA. Embora algumas melhorias sejam perceptíveis, a chamada “inteligência artificial forte” (AGI) não será criada dessa forma. Segundo o fundador da Safe Superintelligence, a humanidade será forçada a retornar à era da pesquisa, equipada com novas e poderosas ferramentas para auxiliar os cientistas em seu trabalho. Sua startup se dedica justamente a esse tipo de esforço.pesquisa, como fica claro na entrevista.

Ao longo do caminho, Sutskever faz um esclarecimento importante. Em sua opinião, grandes modelos de linguagem generalizam o conhecimento muito pior do que os humanos. Por exemplo, se um colega sênior treina um jovem pesquisador usando seu próprio trabalho como exemplos, fornecendo explicações e discutindo ideias em conjunto, o treinamento de um modelo requer um plano preciso, onde a obtenção de resultados estritamente formalizados é verificada em cada etapa, e enormes conjuntos de dados com exemplos são usados ​​para o treinamento. Mesmo nesse caso, os humanos demonstrarão resultados de aprendizado superiores aos da IA. A comunidade científica ainda não tem certeza de como reduzir essa diferença.

admin

Compartilhar
Publicado por
admin

Postagens recentes

O Instagram permite que você remova seu nome da lista de “Amigos Próximos” de outras pessoas.

O Instagram pode lançar um recurso que permitirá aos usuários removerem seus nomes da lista…

3 horas atrás

Um ex-engenheiro do Google foi condenado por roubar segredos comerciais para a China.

Na quinta-feira desta semana, um júri federal em São Francisco considerou o ex-engenheiro de software…

4 horas atrás

SpaceX encerra 2025 com lucro de US$ 8 bilhões – avaliação da empresa após IPO pode chegar a US$ 1,5 trilhão.

A SpaceX, empresa espacial de Elon Musk, encerrou 2025 com um lucro de aproximadamente US$…

6 horas atrás

O serviço de internet via satélite da Amazon está paralisado, o que levou a empresa a pedir mais tempo para implantar o satélite Leo.

A Amazon informou à Comissão Federal de Comunicações (FCC) dos EUA que não conseguirá implantar…

6 horas atrás