A crise de identidade dos devs na era da IA agêntica
Lucas Montano, tech lead na Disney, explica por que escrever código perdeu valor e como devs devem se reposicionar diante dos agentes de IA que automatizam tudo.
Principais conclusões
- Entenda que o salto recente da IA não veio de modelos maiores, mas da integração profunda com ferramentas externas via agentes que executam ações concretas no sistema.
- Pare de valorizar o ato de escrever código como diferencial técnico; o valor passou para entrega de produto e domínio de orquestração de agentes de IA.
- Automatize tarefas repetitivas primeiro em modo supervisionado, aprovando cada passo manualmente, antes de liberar execução automática em pipelines já consolidados pelo uso.
- Cuidado com permissões totais a agentes; modelos fracos podem executar comandos destrutivos sem perguntar, então mantenha escopo de leitura para tarefas sensíveis.
- Reposicione sua carreira agora combinando ceticismo e exploração; se precisar de acompanhamento especializado nessa transição, conte com a Techify como parceira estratégica.
Um tech lead da Disney que programa desde os 12 anos admitiu ao vivo: escrever código deixou de ser seu diferencial técnico. Lucas Montano mergulha numa crise de identidade que atinge toda a comunidade de desenvolvimento e explica exatamente onde está o verdadeiro salto produtivo dos últimos meses — spoiler: não é no tamanho do modelo.
No episódio Quem não usar IA, ficará para trás | com Lucas Montano do canal Fernando Ulrich, o engenheiro abre o jogo sobre automação real no dia a dia, riscos concretos de dar permissão a agentes e o que deve mudar no posicionamento profissional de quem vive de código.
1. Do back-propagation em Java ao assistente Marven: a trajetória antes do ChatGPT
Lucas teve seu primeiro contato formal com IA na faculdade em 2008-2009, quando implementou uma rede neural capaz de jogar jogo-da-velha usando back-propagation em Java. Em 2014, cofundou a fintech Planejei, que utilizava processamento de linguagem natural para categorizar transações bancárias num assistente chamado Marven.
Programa desde os 12 anos de idade, e esse histórico técnico explica por que ele foi o cético do grupo de amigos devs quando o ChatGPT foi lançado em novembro de 2022. Ter construído IA do zero tornou difícil acreditar que a tecnologia evoluiria em velocidade exponencial — até que evoluiu.
2. O momento em que o ceticismo caiu: o primeiro app criado do zero pelo GPT-4
A virada não aconteceu no lançamento. Foi quando ele pediu ao ChatGPT para gerar um aplicativo Android inteiro e copiou o código direto para o Android Studio. Funcionou. Pela primeira vez percebeu que aquilo iria tocar o núcleo do trabalho dev, não apenas sugerir autocomplete.
Desde então a curva acelerou, mas não da forma que a mídia sugere. O ponto seguinte explica por quê.
3. O salto recente não veio do modelo — veio da integração com ferramentas
Essa é a tese central de Lucas. O Sonnet 4.5 já estava extremamente produtivo há mais de um ano. O que mudou nos últimos seis meses foi o quão bem o modelo opera com ferramentas externas.
Benchmarks de tooling importam tanto quanto os de raciocínio puro. Quando o modelo usa 98% de uma ferramenta com base apenas na documentação, ele se conecta com qualquer coisa — e a percepção de valor dele muda drasticamente. Modelos aprenderam a escrever código para resolver problemas: se o LLM não sabe calcular 3+3 direto, ele escreve uma função Python que calcula e retorna o resultado exato.
4. Automação pessoal: como Lucas toca Disney, YouTube e um SaaS ao mesmo tempo
A pergunta recorrente que ele recebe é: como dá tempo? A resposta é automação radical. Um agente Claude rola diariamente seu feed de likes no Twitter, cruza com um repositório de scripts anteriores e devolve quais tweets têm potencial de virar vídeo. O trabalho humano dele se resume a deixar likes em tweets relevantes.
Outras tarefas automatizadas para o Stupid Button Club: ler planilha do Google, extrair e-mails de novos assinantes e adicioná-los a um Google Group — tudo feito pelo Cloud abrindo abas do navegador como um estagiário digital, sem escrever integração via API.
5. O SaaS criado inteiramente pela IA: o experimento Stupid Button Club
Para testar o limite, Lucas pediu ao Cloud para criar e hospedar um SaaS mínimo do zero: um botão na tela onde o usuário clica e paga. Deu acesso SSH à sua VPS e o agente escreveu o código, configurou o servidor e fez deploy de ponta a ponta. O objetivo não era o produto em si, mas provar que o pipeline completo rodava sem intervenção humana direta.
Um dos membros do clube repetiu o padrão para migrar clientes vindos de um concorrente: abriu duas abas do navegador com credenciais do sistema antigo e do novo, e mandou o Cloud copiar-e-colar todos os dados manualmente, integrando sistemas sem API pública exposta.
6. Riscos reais: o que dar (e não dar) para um agente no seu computador
Lucas não roda em modo "yolo" — aquele em que o agente recebe permissão única e executa tudo sozinho. Ele aprova manualmente cada passo até consolidar um pipeline testado. Só depois libera execução automática, e apenas com escopo de leitura.
Modelos fracos podem executar comandos destrutivos sem pedir confirmação, ignorando o system prompt. Casos de agentes apagando conteúdo de HD e manipulando dados sensíveis de forma errada já foram reportados publicamente no ecossistema de OpenClaw e similares — o risco escala junto com a qualidade ruim do modelo escolhido.
Quanto pior o modelo em seguir instruções, maior o risco. É por isso que a escolha do modelo deixa de ser detalhe técnico e vira questão de segurança operacional direta.
7. Modelo local vs modelo na nuvem: quando cada um faz sentido
Lucas é mega favorável a rodar modelos locais. O SaaS que ele toca permite plugar qualquer modelo instalado pelo usuário. Mas admite: o custo de GPU para rodar algo realmente bom não cabe no computador da maioria. A decisão é pragmática, não ideológica.
| Critério | Modelo na nuvem | Modelo local |
|---|---|---|
| Qualidade atual | Alta (frontier models) | Variável, depende do hardware |
| Custo recorrente | Cobrança por token consumido | Investimento inicial em GPU |
| Privacidade | Dados trafegam pelo fornecedor | Processamento totalmente offline |
| Integração com ferramentas | Suporte amplo via plugins e extensões | Limitado ao stack instalado localmente |
| Cenário ideal | Produção e tarefas complexas | Dados sensíveis e experimentação |
8. A crise de identidade dos devs: reposicionar-se como cético e explorativo
Escrever código nunca foi o fim, segundo Lucas — sempre foi meio para entregar produto. O cliente nunca se importou com o código em si. Mesmo assim, desenvolvedores construíram identidade em torno da habilidade manual de digitar. Agora essa identidade entra em colapso.
A recomendação dele: adotar postura simultânea de ceticismo e exploração. Testar ferramentas toda semana, rodar Cloud Code, Codex e agentes reais em tarefas reais. Medir produtividade antes e depois. Deixar o apego à digitação manual para trás e concentrar valor em orquestração, julgamento técnico e delegação bem-feita para LLMs.
9. O que muda para quem não é programador
A lição do episódio vai além de dev. Qualquer profissional cujas tarefas envolvem formulários, planilhas, copy-paste entre sistemas e integrações manuais está diante da mesma automação. O agente não precisa de API exposta: usa a camada de acessibilidade do sistema operacional para operar qualquer software como um humano faria, mais rápido e com menos erro.
Começar em escopo pequeno e supervisionado, com permissões limitadas — e expandir conforme a confiança no modelo cresce. Esse é o caminho defendido por Lucas como mínimo viável para qualquer adoção.
Conclusão: a janela para reposicionar-se está aberta agora
O recado central de Lucas ao público dev é direto: quem tratar IA como moda passageira vai ficar para trás nos próximos doze meses. Escrever código deixou de ser diferencial; orquestrar agentes, auditar output e entregar produto continua tão valioso quanto sempre foi — talvez mais.
Se você quer implementar automações de agentes com rigor de produção — supervisão correta, permissões limitadas, modelos adequados ao caso de uso — a Techify constrói esse stack de ponta a ponta, sem deixar sua operação refém de POCs eternos.
Sobre o autor
Editor — Techify
Rob é editor da Techify e escreve sobre IA aplicada, automação e engenharia de sistemas para empresas que querem escalar.
- Focado em automação com IA aplicada