Blog Techify

A crise de identidade dos devs na era da IA agêntica

Lucas Montano, tech lead na Disney, explica por que escrever código perdeu valor e como devs devem se reposicionar diante dos agentes de IA que automatizam tudo.

Por Publicado em Atualizado em ⏱ 6 min de leitura

Principais conclusões

  • Entenda que o salto recente da IA não veio de modelos maiores, mas da integração profunda com ferramentas externas via agentes que executam ações concretas no sistema.
  • Pare de valorizar o ato de escrever código como diferencial técnico; o valor passou para entrega de produto e domínio de orquestração de agentes de IA.
  • Automatize tarefas repetitivas primeiro em modo supervisionado, aprovando cada passo manualmente, antes de liberar execução automática em pipelines já consolidados pelo uso.
  • Cuidado com permissões totais a agentes; modelos fracos podem executar comandos destrutivos sem perguntar, então mantenha escopo de leitura para tarefas sensíveis.
  • Reposicione sua carreira agora combinando ceticismo e exploração; se precisar de acompanhamento especializado nessa transição, conte com a Techify como parceira estratégica.

Um tech lead da Disney que programa desde os 12 anos admitiu ao vivo: escrever código deixou de ser seu diferencial técnico. Lucas Montano mergulha numa crise de identidade que atinge toda a comunidade de desenvolvimento e explica exatamente onde está o verdadeiro salto produtivo dos últimos meses — spoiler: não é no tamanho do modelo.

No episódio Quem não usar IA, ficará para trás | com Lucas Montano do canal Fernando Ulrich, o engenheiro abre o jogo sobre automação real no dia a dia, riscos concretos de dar permissão a agentes e o que deve mudar no posicionamento profissional de quem vive de código.

1. Do back-propagation em Java ao assistente Marven: a trajetória antes do ChatGPT

Lucas teve seu primeiro contato formal com IA na faculdade em 2008-2009, quando implementou uma rede neural capaz de jogar jogo-da-velha usando back-propagation em Java. Em 2014, cofundou a fintech Planejei, que utilizava processamento de linguagem natural para categorizar transações bancárias num assistente chamado Marven.

Programa desde os 12 anos de idade, e esse histórico técnico explica por que ele foi o cético do grupo de amigos devs quando o ChatGPT foi lançado em novembro de 2022. Ter construído IA do zero tornou difícil acreditar que a tecnologia evoluiria em velocidade exponencial — até que evoluiu.

2. O momento em que o ceticismo caiu: o primeiro app criado do zero pelo GPT-4

A virada não aconteceu no lançamento. Foi quando ele pediu ao ChatGPT para gerar um aplicativo Android inteiro e copiou o código direto para o Android Studio. Funcionou. Pela primeira vez percebeu que aquilo iria tocar o núcleo do trabalho dev, não apenas sugerir autocomplete.

Desde então a curva acelerou, mas não da forma que a mídia sugere. O ponto seguinte explica por quê.

3. O salto recente não veio do modelo — veio da integração com ferramentas

Essa é a tese central de Lucas. O Sonnet 4.5 já estava extremamente produtivo há mais de um ano. O que mudou nos últimos seis meses foi o quão bem o modelo opera com ferramentas externas.

Benchmarks de tooling importam tanto quanto os de raciocínio puro. Quando o modelo usa 98% de uma ferramenta com base apenas na documentação, ele se conecta com qualquer coisa — e a percepção de valor dele muda drasticamente. Modelos aprenderam a escrever código para resolver problemas: se o LLM não sabe calcular 3+3 direto, ele escreve uma função Python que calcula e retorna o resultado exato.

4. Automação pessoal: como Lucas toca Disney, YouTube e um SaaS ao mesmo tempo

A pergunta recorrente que ele recebe é: como dá tempo? A resposta é automação radical. Um agente Claude rola diariamente seu feed de likes no Twitter, cruza com um repositório de scripts anteriores e devolve quais tweets têm potencial de virar vídeo. O trabalho humano dele se resume a deixar likes em tweets relevantes.

Outras tarefas automatizadas para o Stupid Button Club: ler planilha do Google, extrair e-mails de novos assinantes e adicioná-los a um Google Group — tudo feito pelo Cloud abrindo abas do navegador como um estagiário digital, sem escrever integração via API.

5. O SaaS criado inteiramente pela IA: o experimento Stupid Button Club

Para testar o limite, Lucas pediu ao Cloud para criar e hospedar um SaaS mínimo do zero: um botão na tela onde o usuário clica e paga. Deu acesso SSH à sua VPS e o agente escreveu o código, configurou o servidor e fez deploy de ponta a ponta. O objetivo não era o produto em si, mas provar que o pipeline completo rodava sem intervenção humana direta.

Um dos membros do clube repetiu o padrão para migrar clientes vindos de um concorrente: abriu duas abas do navegador com credenciais do sistema antigo e do novo, e mandou o Cloud copiar-e-colar todos os dados manualmente, integrando sistemas sem API pública exposta.

6. Riscos reais: o que dar (e não dar) para um agente no seu computador

Lucas não roda em modo "yolo" — aquele em que o agente recebe permissão única e executa tudo sozinho. Ele aprova manualmente cada passo até consolidar um pipeline testado. Só depois libera execução automática, e apenas com escopo de leitura.

Modelos fracos podem executar comandos destrutivos sem pedir confirmação, ignorando o system prompt. Casos de agentes apagando conteúdo de HD e manipulando dados sensíveis de forma errada já foram reportados publicamente no ecossistema de OpenClaw e similares — o risco escala junto com a qualidade ruim do modelo escolhido.

Quanto pior o modelo em seguir instruções, maior o risco. É por isso que a escolha do modelo deixa de ser detalhe técnico e vira questão de segurança operacional direta.

7. Modelo local vs modelo na nuvem: quando cada um faz sentido

Lucas é mega favorável a rodar modelos locais. O SaaS que ele toca permite plugar qualquer modelo instalado pelo usuário. Mas admite: o custo de GPU para rodar algo realmente bom não cabe no computador da maioria. A decisão é pragmática, não ideológica.

CritérioModelo na nuvemModelo local
Qualidade atualAlta (frontier models)Variável, depende do hardware
Custo recorrenteCobrança por token consumidoInvestimento inicial em GPU
PrivacidadeDados trafegam pelo fornecedorProcessamento totalmente offline
Integração com ferramentasSuporte amplo via plugins e extensõesLimitado ao stack instalado localmente
Cenário idealProdução e tarefas complexasDados sensíveis e experimentação

8. A crise de identidade dos devs: reposicionar-se como cético e explorativo

Escrever código nunca foi o fim, segundo Lucas — sempre foi meio para entregar produto. O cliente nunca se importou com o código em si. Mesmo assim, desenvolvedores construíram identidade em torno da habilidade manual de digitar. Agora essa identidade entra em colapso.

A recomendação dele: adotar postura simultânea de ceticismo e exploração. Testar ferramentas toda semana, rodar Cloud Code, Codex e agentes reais em tarefas reais. Medir produtividade antes e depois. Deixar o apego à digitação manual para trás e concentrar valor em orquestração, julgamento técnico e delegação bem-feita para LLMs.

9. O que muda para quem não é programador

A lição do episódio vai além de dev. Qualquer profissional cujas tarefas envolvem formulários, planilhas, copy-paste entre sistemas e integrações manuais está diante da mesma automação. O agente não precisa de API exposta: usa a camada de acessibilidade do sistema operacional para operar qualquer software como um humano faria, mais rápido e com menos erro.

Começar em escopo pequeno e supervisionado, com permissões limitadas — e expandir conforme a confiança no modelo cresce. Esse é o caminho defendido por Lucas como mínimo viável para qualquer adoção.

Conclusão: a janela para reposicionar-se está aberta agora

O recado central de Lucas ao público dev é direto: quem tratar IA como moda passageira vai ficar para trás nos próximos doze meses. Escrever código deixou de ser diferencial; orquestrar agentes, auditar output e entregar produto continua tão valioso quanto sempre foi — talvez mais.

Se você quer implementar automações de agentes com rigor de produção — supervisão correta, permissões limitadas, modelos adequados ao caso de uso — a Techify constrói esse stack de ponta a ponta, sem deixar sua operação refém de POCs eternos.

#agentes-de-ia #claude-code #automacao #produtividade #anthropic

Sobre o autor

Editor — Techify

Rob é editor da Techify e escreve sobre IA aplicada, automação e engenharia de sistemas para empresas que querem escalar.

  • Focado em automação com IA aplicada

Perguntas frequentes

Se a IA escreve código, ainda vale a pena aprender programação?
Sim, mas o foco muda. Lucas Montano argumenta que escrever código nunca foi o fim, sempre foi meio para entregar produto. A base técnica continua essencial porque os agentes ainda erram, precisam ser orientados e auditados. Quem entende arquitetura, boas práticas e pensamento lógico conduz os agentes com eficiência muito superior. Programadores que insistirem apenas na habilidade manual de digitar código perdem espaço para quem orquestra LLMs, revisa output com senso crítico e sabe quando o modelo está alucinando. Aprender a programar vale tanto quanto antes; o que mudou é o que se faz com esse conhecimento no dia a dia.
Qual foi o grande salto recente da IA segundo o vídeo?
Não foi o tamanho do modelo nem o número de parâmetros. O salto veio da capacidade do modelo em usar ferramentas externas. Lucas explica que o Sonnet 4.5 já era extremamente produtivo há mais de um ano. O que mudou foi a integração com APIs, linhas de comando, plugins de navegador e interfaces de acessibilidade do sistema operacional. Agora o Claude pode acender lâmpadas conectadas, rolar seu Twitter, copiar dados entre abas e fazer deploy em servidor remoto. Essa habilidade de operar no mundo real é o que multiplica a percepção de inteligência do modelo para o usuário final.
É seguro deixar um agente de IA com acesso total ao meu computador?
Depende do modelo e do nível de supervisão adotado. Lucas não roda em modo yolo (aprovação única para tudo). Ele aprova manualmente os passos até consolidar um pipeline já testado. Permissões permanentes ficam restritas a operações de leitura. Modelos fracos podem executar comandos destrutivos sem pedir confirmação, ignorando o system prompt. Casos de agentes apagando dados em produção já foram reportados publicamente. A recomendação é começar sempre com escopo mínimo, usar modelos competentes em seguir instruções e revisar o histórico de ações antes de automatizar permissões perigosas como escrita em disco ou acesso a credenciais sensíveis.
Como Lucas Montano automatiza a curadoria do canal no YouTube?
Ele criou um agente Claude que rola o feed de likes do Twitter automaticamente. O agente lê os tweets curtidos, compara com um repositório pessoal contendo scripts anteriores e identifica quais curtidas têm potencial de virar vídeo. Ao final do dia, o Cloud entrega uma lista sugerida. O trabalho humano dele se resume a deixar likes nos tweets que considera interessantes. Esse padrão substitui pesquisa manual por triagem automatizada, usando o próprio comportamento de consumo como sinal de intenção. A mesma lógica serve para filtrar leads de vendas, notícias setoriais ou feedbacks de clientes em volume alto.
O que devs devem fazer agora para não ficar para trás?
Adotar postura simultânea de cético e explorativo. Testar ferramentas novas toda semana, rodar Cloud Code, Codex e agentes em tarefas reais do trabalho. Medir produtividade antes e depois da adoção. Desenvolver repertório em orquestração de agentes, engenharia de prompt estrutural, integração entre sistemas e revisão crítica do output gerado. Abandonar o apego à digitação manual de código e reposicionar a identidade profissional em torno de entrega de produto, julgamento técnico e capacidade de delegar bem para LLMs. Quem travar nesse ponto perde espaço rapidamente nos próximos doze meses do mercado global de tecnologia.