Ilya Sutskever, cofundador da OpenAI, alertou que o desenvolvimento extensivo de IA tornou-se obsoleto.

A julgar pela atividade dos participantes do mercado de IA, eles estão atualmente focados em aumentar o poder computacional, na esperança de que, em determinado momento, a quantidade se traduza em qualidade. Ilya Sutskever, um dos fundadores da OpenAI, está convencido de que a era da escalabilidade está chegando ao fim e que o progresso significativo no desenvolvimento da IA ​​exigirá pesquisa séria e aprofundada.

Fonte da imagem: Departamento de Empreendedorismo da Universidade de Toronto

Na OpenAI, Ilya era responsável pela pesquisa e foi forçado a deixar a startup não apenas pelo conflito em torno da renúncia fracassada do CEO Sam Altman, mas também por discordar da estratégia de desenvolvimento da empresa. Como ficou claro em uma entrevista recente, Ilya Sutskever está alarmado com o foco contínuo da indústria de IA no desenvolvimento extensivo. Grandes modelos de linguagem têm sido aprimorados até agora pela incorporação de mais dados, recursos computacionais ou pelo aumento do número de parâmetros dentro do próprio modelo.

Para os participantes do mercado, essa abordagem era conveniente porque fornecia resultados claros com risco e incerteza mínimos. Não era necessário um grande número de pesquisadores qualificados e talentosos, já que o progresso era alcançado pelo aumento do número de recursos utilizados. De acordo com Sutskever, esse caminho de desenvolvimento se esgotará em breve, principalmente devido ao esgotamento dos dados adequados para o treinamento de modelos de linguagem. Todas as informações disponíveis online já foram utilizadas para treinar IA.

Sutzkever está convencido de que mesmo um aumento de 100 vezes na escala da infraestrutura existente não garantirá um avanço qualitativo no desenvolvimento da IA. Embora algumas melhorias sejam perceptíveis, a chamada “inteligência artificial forte” (AGI) não será criada dessa forma. Segundo o fundador da Safe Superintelligence, a humanidade será forçada a retornar à era da pesquisa, equipada com novas e poderosas ferramentas para auxiliar os cientistas em seu trabalho. Sua startup se dedica justamente a esse tipo de esforço.pesquisa, como fica claro na entrevista.

Ao longo do caminho, Sutskever faz um esclarecimento importante. Em sua opinião, grandes modelos de linguagem generalizam o conhecimento muito pior do que os humanos. Por exemplo, se um colega sênior treina um jovem pesquisador usando seu próprio trabalho como exemplos, fornecendo explicações e discutindo ideias em conjunto, o treinamento de um modelo requer um plano preciso, onde a obtenção de resultados estritamente formalizados é verificada em cada etapa, e enormes conjuntos de dados com exemplos são usados ​​para o treinamento. Mesmo nesse caso, os humanos demonstrarão resultados de aprendizado superiores aos da IA. A comunidade científica ainda não tem certeza de como reduzir essa diferença.

admin

Compartilhar
Publicado por
admin

Postagens recentes

A primeira turbina a gás do mundo com 30 MW movida a hidrogênio puro foi lançada na China.

A primeira turbina a gás de 30 megawatts do mundo, construída na China e movida…

5 horas atrás

A China vai proibir carros elétricos com maçanetas retráteis a partir de 2027.

A China vai proibir a venda de novos veículos elétricos equipados com maçanetas retráteis. Esse…

6 horas atrás

A fabricante chinesa Zephyr relatou falhas na placa de vídeo Radeon RX 6000 devido a rachaduras, inchaço e curto-circuito na GPU.

Em 2023, começaram a surgir relatos de falhas em placas gráficas Radeon RX 6000 baseadas…

6 horas atrás

A TSMC evacuou algumas de suas fábricas devido ao terremoto.

A TSMC de Taiwan, maior fabricante de chips sob encomenda do mundo, informou no sábado…

9 horas atrás

Entusiastas chineses começaram a aumentar a memória de vídeo da GeForce RTX 5080 para 32 GB.

Especialistas chineses em reparo de placas de vídeo descobriram uma maneira de aumentar a memória…

11 horas atrás