Ultimamente, o assunto que mais vem à tona quando falamos de engenharia de software é a capacidade de sermos substituídos por ferramentas de geração de código através de IA. Acho que esse é o assunto que domina o conteúdo tech há pelo menos 2 anos.
Andei refletindo e pesquisando um pouco para formar uma opinião mais sólida. É muito fácil, por exemplo, uma empresa fazer um layoff e atribuir isso ao aumento na produtividade gerado pela IA, principalmente se essa empresa vende soluções de IA, o que deixa bem claro o interesse em que essa narrativa seja verdadeira. Isso não quer dizer que a IA não tenha impacto nenhum, mas muitas vezes ela é mais a desculpa do que a causa real.
Há décadas, a alta gestão e as empresas tentam nos "substituir". Somos vistos como caros e, muitas vezes, como um peso nos projetos, já que "atrasamos" as entregas por estarmos preocupados demais com qualidade, por fazermos perguntas demais, por nos preocuparmos com testes, reuso, modularização e por aí vai. Nao estou dizendo que isso vem de má fé. Muitas vezes vem de pressão por custos, prazos irreais e cobrança de investidores que pouco entendem de software, mas o efeito final costuma ser o mesmo.
Uma das primeiras tentativas foi o outsourcing. As grandes empresas passaram a delegar o desenvolvimento de software para países com profissionais de baixo custo, mas também de qualidade duvidosa. Entregavam rápido e sem questionar nada, porém com qualidade muito abaixo do esperado. O que veio depois foi previsível: um aumento na demanda por profissionais para consertar a bagunça que havia sido gerada. A partir daí surgiram novas metodologias de gerenciamento de projetos de software para tentar melhorar a qualidade dos produtos.
Depois vieram as ferramentas gráficas. A promessa era que não precisaríamos mais colocar a mão no código. Bastava arrastar algumas caixas, criar alguns XMLs, configurar uma conexão com um BD e pronto, a aplicação estava feita. Nas décadas de 90 e 2000, muita gente acreditou que nunca mais escreveria código.
Mais recentemente, tivemos as ferramentas low-code, repetindo basicamente o mesmo discurso.
Durante todo esse tempo, também tivemos melhorias enormes em produtividade. A popularização do git, IDEs cada vez mais poderosas, facilidade de encontrar material de estudo e soluções na internet. Tudo isso aumentou demais a nossa capacidade de produzir software. E o que isso gerou? Mais código, mais produtos, mais entropia e mais complexidade. Com isso, veio também o aumento na demanda por pessoas capazes de manter, evoluir e entender esses sistemas. Nenhum desses avanços foi capaz de substituir desenvolvedores, muito pelo contrário.
Agora temos a promessa mais recente de atender esse velho desejo da gestão: as ferramentas de IA. As promessas são praticamente as mesmas de sempre. Desenvolvedores vão se tornar obsoletos, não precisaremos mais de pessoas escrevendo código e assim por diante, o mesmo dscurso de sempre.
O que provavelmente vai acontecer nos próximos anos é parecido com o que já vimos antes. A demanda por software vai aumentar ainda mais, e com ela a demanda por pessoas que trabalham com software. No curto prazo, de fato é bem possível que vejamos menos vagas de entrada, times menores entregando mais e uma barreira maior para quem está começando.
Esse fenômeno tem um nome: o paradoxo de Jevons. O aumento da eficiência no uso de um recurso tende a aumentar o consumo total desse recurso, não a reduzir. Na história da computação, mais código nunca significou menos pessoas trabalhando. Significou mais sistemas, mais problemas pra resolver e mais necessidade de gente qualificada. Como a IA é muito boa em gerar código, o volume de código tende a crescer ainda mais, e alguém vai ter que entender, manter e evoluir tudo isso.
Um ponto importante é que isso muda o perfil do profissional mais valorizado. Quem apenas puxa tasks e escreve código de forma mecânica está sim mais exposto. Não por causa da IA em si, mas por profissionais que sabem usá-la. O mesmo aconteceu com desenvolvedores que se recusaram a aprender git, a escrever testes ou a usar IDEs mais modernas alguns anos atrás.
Não vale a pena cair no discurso alarmista de influenciadores e gestores que vendem pânico ou hype. Essa história não é nova, e o final nunca foi o fim da profissao.
Feliz 2026.
Concordo. Aumento de eficiência não é simplificação de processos, e sim o uso de mecanismos adicionais, logo mais códigos criados.
A maioria não escreve testes até hoje e ainda mandam IA fazer tudo e fica uma merda kkkk
Eh só pedir do jeito certo, irmão. Se vc tratar a IA direitinho (souber o que pede, pedir direito) a cuspida vale ouro. Fica a dica hahaha
Concordo com o paradoxo, onde trabalho a demanda cresceu bastante por conta de IA, ou de gente experimentando com IA falhando miseravelmente em passar do nível de prova de conceito e procurando profissionais pra fazer direito.
Sobre operar IA ou as Ferramentas derivadas delas, eu não acredito que isso tenha profundidade suficiente para se considerar uma habilidade, consumir um produto não é uma habilidade valiosa, igual a usar serviços de cloud não é, mas entender de redes e arquitetura de sistemas e aplicar essas habilidades usando a cloud como ferramenta é.
Para mim o que parece é que a boa engenharia de software que será a habilidade importante, com esses brinquedos novos, escrever montanhas de código fica muito fácil, mas todo mundo que tem o mínimo de instrução na área sabe que quanto mais código, mais problemas, as aplicações vão aumentar de escopo mais rápido e se você não gerenciar a complexidade adequadamente vai colapsar, hoje você não consegue pedir para uma IA adicionar uma funcionalidade diretamente sem ela fazer algo de qualidade muito ruim, mas se você organizar tudo bonitinho deixando apenas uns TODO: implement, depois pedir pra ela ir um a um implementando, você consegue algo bastante razoável, a ideia é atuar um pouco mais como arquiteto, delegando a parte mais braçal e criando cercadinhos rígidos para a IA ter menos range pra errar.
"Ah, mas no futuro a IA vai conseguir fazer a arquitetura bonitinha tbm, de forma eficiente e escalável", isso vai ser mais difícil pq tem muita subjetividade, e a única forma de ter uma massa muito grande de treino é treinando em código mediocre, mas supondo que ela consiga, a gente só sobe mais um nível de abstração, e se um dia o nível de abstração for alto o suficiente para não precisar de habilidade nenhuma a gente roda, mas não creio que esse dia vai chegar no meu tempo de vida.
É o que eu sempre penso quando alguém diz -- "Está ficando para trás se não estiver usando.". Não existe nenhum padrão testado e com eficácia comprovada. Produtos sugem e morrem dentro de 6 meses. A tendência é que os produtos fiquem mais for dummies. Quem tenta usar tudo agora por conta do FOMO é bucha de canhão pra quem é mais conservador.
Pensamento computacional analítico é o ativo mais valioso que um desenvolvedor precisa ter. E esse tipo de pensamento só é forjado por horas e horas de tentativas e erros e meditanda. Tercerizar tudo pra IA é um processo de apodrecimento mental e quem não se preocupa com isso deveria se preocupar.
Na verdade é até contraditório, o cara diz: "Mano vc precisa aprender agora!!!" ao mesmo tempo diz "Em 1 ano nada será como agora, its over para os betas".
Ou seja, você precisa correr pra aprender o que vai ficar obsoleto em 1 ano? Que p.... de lógica é essa?
Parabéns pelo texto. Concordo plenamente, e também com os colegas que apontaram que LLM é uma ferramenta válida na mão de quem já é experiente, além de que, ao substituir o júnior, cria-se uma lacuna que vai ser difícil preencher daqui alguns anos. Será interessante acompanhar, só sinto muito por quem começar quando esse problema estiver no auge - em questão de falta de vagas de júnior, ainda não estamos lá.
Minha perspectiva - estou rodando LLMs locais para auxiliar com código, começou com autocomplete e agora estou delegando tarefas menores (tenho essa resposta da API, crie a view com uma tabela e formulário) e está funcionando bem. Definitivamente substituiria um estagiário/jr.
Eu tenho experiência com programação, então sei o que precisa ser feito e o que precisa ser pedido (não posso só falar "monte um ERP", ele se perde, mas telinhas e funções novas nos services ele faz pelo menos 90%, só ajusto).
Como vejo o mercado nos próximos anos
O que pode ser feito
Tenha fundamentos
Antes de sair pedindo para a IA programar, use ela como auxílio, assim como usamos google/stackoverflow, você pode encontrar a solução muito mais facilmente se souber o que perguntar (mas é importante ter base pois ela vai cuspir alucinações que podem fazer perder mais tempo do que ganhar).
Enfim, encare a solução como ferramenta e aprende a usar da melhor forma para resolver problemas - essa é a maior skill que a carreira exige, independente da stack.
Falam muito de IA substituindo programador, mas hoje já está matando o trabalho de artistas, marketing e até produção de filmes. Mesmo se a tecnologia estagnar e ficar nesse ponto, ainda tem muitos casos que ainda vão ser otimizados com ela - Enquanto uns vão desesperar por medo de perder o emprego, outros vão abraçar isso e criar algo que não seria possível sozinho.
A mudança é inevitável, não dá para adivinhar como vai ser, mas já tem como começar a entender esse futuro e estar em uma posição onde você tem utilidade.
Eu complementaria essa parte adicionando o emburrecimento da força de trabalho atual. Às vezes por conveniência o pressão por produtividade, muitas pessoas acabam delegando tudo pra IA. O problema não é o que IA consegue resolver, mas sim nos corner case que surgirão e serão apresentados pra uma mente atrofiada.
E com todo esse hype e essa desilusão com o futuro da profissão, muitos dos que estão tentando entrar na área estão desistindo. E muito dos que eventualmente entrariam não entrarão mais. Talvez em um futuro próximo estajamos falando de escassez novamente e não do fim da profissão.
Boa leitura, amiguinho. Feliz ano novo!
Não conhecia esse paradoxo, mas achei o texto bem coerente e interessante.
Mas, minha opinião pessoal é que a IA vai ficar tão sinistra que em algum momento o nível de autonomia dela vai aumentar a ponto de matar os devs. Digo.. acho que quem descreve os requisitos vai assumir essa posição pra conduzir os projetos usando IA. Vai ser uma fusão entre PO e DEV. Um cara que conhece as regras, sabe fazer as perguntas e também consegue orquestrar com as ferramentas, intervindo se necessário. E.. talvez não seja tão imediato especialmente em razão das interfaces de IA com código legado existente.
Eu enxergo um papel novo sendo criado e uma redução da quantidade total de devs. O mercado. Mas, torço pra que eu esteja errado
Eu gostei de conhecer o termo.
E muito obrigado pelo texto bem escrito sem ter aquele cara de texto feito por IA. Meus parabéns.
E tudo isso esta sustentado na AWS, Google Cloud e Azure. Se coordenadamente cair as 3 plataformas. I.A. tbm cai, esses tempos caiu e foi um caos.
O calcanhar de aquiles de toda a área de T.I. é investimento pifio em infraestrutura
Eu tenho uma resposta, também baseada em um fenômeno, do problema da indução: não há uma base puramente lógica que nos permita inferir que o futuro será como o passado. Acreditamos na regularidade da natureza por hábito ou costume, não por um raciocínio lógico infalível.
Um dos cenários possíveis é o desaparecimento ou a integração da "tecnologia da informação" em todos os campos.
Ex: O conteúdo de um livro envolve tecnologia da informação (a estrutura, narrativa, formato, lógica, sequência, ideias, conceitos, etc). Mas isso não é tratado como tecnologia da informação. Seria como a "informação". A parte de tecnologia está relacionada a produção do livro, se é impresso, se é digital, se é nesse formato, naquele formato, se é acessado com pagamento. E todos os "sistemas" envolvidos nisso.
A diferença agora é que além da possibilidade de interagir com linguagem natural, também teremos robôs. Então qual será a área de conhecimento ou de trabalho que não estará utilizando "tecnologia da informação"?
É quase como já ocorreu em um momento da história. Poucas pessoas sabiam ler e escrever. Era algo de "tecnologia da informação". Era um ofício. E depois todas as pessoas aprenderam a ler e escrever e isso não é mais uma "tecnologia da informação"
Então penso que o que vai mudar não é o conhecimento e habilidades em "leitura e escrita" de código. Mas os conhecimentos e habilidades em diversos campos de conhecimento e atuação. E será necessária muita formação básica em leitura e escrita, muita formação em lógica.
Ótima análise. Já passamos da linha do horizonte de eventos; a civilização não poderá mais funcionar no mundo moderno sem IA assim como não poderia sem internet e eletricidade.
Dito isso, eu acho engraçado como o pessoal mais ludista do área (tanto aqui no sub, quando no Discord e no LinkedIn) adora falar sobre um suposto "estouro da bolha", como se o estouro dela fosse algum tipo de sonho molhado deles, mas não reconhecem que não existe bolha (ou melhor dizendo, a suposta bolha de IA é igualzinho à suposta bolha de Bitcoin), porque essas ferramentas JÁ entregam valor claro, mensurável e, principalmente, vendável, mesmo que não entreguem lucro (assim como nem a Netflix e nem a Uber entregaram por anos, e eu não vi nenhuma bolha de streaming estourar e nenhuma bolha de aplicativos de transporte urbano de passageiro estourar também)
Claro que vão ter pessoas imprestáveis ou mal intencionadas para dar munição para quem maldiz o uso da IA como ferramenta, mas isso também acontecia antes da genIA: código porco, frágil, difícil de manter, feito as pressas por pessoas que não perguntam e só querem cumprir o prazo cada vez mais apertado.
LLM não são vendaveis atualmente. Apenas 2% dos usuários pagam pelo Chat Gpt e dos que pagam, eles ainda não geram lucro porque gastam mais em infra do que pagam.
Como tecnologia é uau. Mas como modelo de negócios, ainda não foi descoberto como gerar receita com isso
Esse é o ponto: receita !== valor. Claro que receita é importante, lucro é importante, é literalmente um dos alicerces do capitalismo. Mas, como eu citei no meu comentário anterior, Uber e Netflix também não davam lucro... Mas todo mundo usava, todo mundo queria fazer uma aplicação concorrente, queria pegar essa fatia do mercado, e as pessoas se viram incapazes de aceitar viver num mundo sem eles (filmes na TV fechada, mediante disponibilidade de horário, com comerciais no meio) e por aí vai.
Sim Uber e Netflix não davam lucro, mas sempre geraram receitas. Não davam lucro porque tinham uma politica de expansão agressiva mas sempre estavam gerando receita por usuário.
Hoje LLM não gera receitas nem existe um modelo de negócios para gerar receitas.
LLM é um SAAS mas os saas sempre tiveram como característica serem extremamente barato por usuários. Hoje um usuário, seja pagante ou não, é extremamente caro para as empresas de LLM
Os usuários que pagam não conseguem sustentar nem o próprio uso, quem dirá os dos outros.
Já tem várias informações disso, inclusive do próprio Sam Altman ( apesar que tudo que ele diz tem que ser visto de maneira bem cética )
Se você olha no ponto de vista de inferência, realmente a conta não vai fechar nunca. O futuro é que qualquer computador pessoal consiga rodar um modelo especialista que resolve alguns problemas.
Por isso que a corrida do ouro hoje não é em fazer a commodity (llm) mais eficiente. Mas sim um produto que agregue mais valor por token gerado justificando o investimento trilionário.
Um sinal interessante desse fenômeno foi a Nvidea 'comprando' a Groq simplesmente para freiar o desenvovimento de chips mais otimizados para inferência.