Os desenvolvedores de software mais avançados já “fizeram a transição da escrita de código para o design e validação de implementações que executam agentes de IA”, escreveu o CEO do GitHub, Thomas Dohmke, em uma postagem de blog pessoal.











Fonte da imagem: Emile Perron / unsplash.com
Esta não é a primeira vez que ele expressa essa opinião: em março, Domke repetiu a declaração do CEO da Anthropic, Dario Amodei, de que “em breve, 90-100% de todo o código será escrito por IA”. O CEO do GitHub conversou com 22 desenvolvedores que usam ferramentas de IA e identificou quatro estágios de sua transição para uma nova qualidade: “cético”, “pesquisador”, “coautor” e “estrategista”. No último estágio, os desenvolvedores não escrevem mais código, mas delegam essa tarefa a agentes de IA, enquanto os humanos são deixados para esclarecer as solicitações e verificar as implementações geradas.
Também é necessário realizar uma análise completa dos resultados do trabalho com IA, de modo que o desenvolvedor deve compreender os fundamentos da programação, algoritmos e estruturas de dados e, com base nesse conhecimento, realizar uma revisão de código por conta própria. Não está totalmente claro como essas habilidades serão adquiridas no futuro, pois, segundo o Sr. Domke, o ensino de ciência da computação será transformado em ensino de compreensão de sistemas, depuração de código gerado por IA e formulação clara de ideias tanto para humanos quanto para grandes modelos de linguagem. Agora, em vez da programação propriamente dita, devem ser ensinadas as etapas de abstração, decomposição e especificação que tradicionalmente precedem a escrita do código.
No entanto, sua visão otimista sobre o futuro não é compartilhada por todos — há estudos que mostram que trabalhar com IA reduz a qualidade do código. Existem outros problemas associados à IA: formulações maliciosas de consultas para gerar código malicioso; divulgação de informações confidenciais; introdução de bibliotecas desatualizadas, vulneráveis ou maliciosas em projetos; bem como ações maliciosas que visam degradar a qualidade do modelo, inclusive na fase de seu treinamento. Além disso, para treinar modelos futuros, é necessário manter os volumes de dados gerados por humanos, caso contrário, as respostas da IA se tornarão de menor qualidade e mais uniformes. Isso não é motivo para abandonar a codificação com IA, mas sim para pensar na necessidade de dedicar seu tempo aqui.
