Automação com LLM

Guia de motor de geração de conteúdo com IA local e DeepSeek

Pipeline editorial em seis estágios, humano no meio, com roteamento de modelo por custo. LLM local faz triagem e extração, DeepSeek escreve o rascunho, Claude entra só no que importa.

· 12 min de leitura

Quase todo time que quer publicar mais conteúdo em 2026 chega na mesma conta. Um artigo médico bem feito leva de três a cinco horas entre pesquisa, redação e revisão. A equipe tem banda pra uns vinte e cinco por mês. O funil pede o quádruplo. Então o time ou congela a operação, ou terceiriza pra uma fábrica de texto, ou monta um motor próprio.

Este guia descreve o terceiro caminho. É o que rodamos no Sanar para alimentar o Blog e o funil do SanarPós, e é a forma que eu recomendo pra qualquer editorial com volume mínimo que justifique a arquitetura. O diferencial versus o "ChatGPT + copiar e colar" é a disciplina de rotear cada tarefa pro modelo mais barato que ainda entrega qualidade.

A arquitetura de referência em seis estágios

Antes do código, a forma geral. O motor tem seis estágios sequenciais e um humano no meio. O humano não é gargalo, é feature, e a razão disso fica clara no estágio 4.

Pipeline de geração de conteúdo com IA em seis estágios Pipeline editorial com seis estágios sequenciais, descoberta de pauta, scoring de match comercial, geração de rascunho, revisão humana, publicação e medição. Cada estágio passa o artefato adiante e o último alimenta de volta o primeiro via aprendizado do que converte. MOTOR DE CONTEÚDO · 6 ESTÁGIOS · HUMANO NO MEIO 01 Descoberta portais + Trends cron diário 02 Scoring match com catálogo relevância + fit 03 Rascunho LLM gera SEO/AEO por seção, não whole 04 Revisão humano especialista E-E-A-T, CTA 05 Publicação WordPress + schema post status custom 06 Medição dias até 1k cliques teste cego vs humano feedback, o que rankeou vira base de treinamento do scoring

Leia da esquerda pra direita. Cada estágio recebe um artefato do anterior e entrega um novo pro próximo. O loop de baixo é o que dá vida ao motor com o tempo, o que rankeou no estágio 06 retroalimenta o scoring do estágio 02, e o modelo aprende o que merece ser escrito a seguir.

  1. Descoberta. Um cron diário varre portais médicos, feeds da Agência Brasil Saúde, Google Trends, Google News. Saída, uma lista crua de candidatos.
  2. Scoring. Cada candidato recebe três notas, relevância clínica, fit com o catálogo comercial (cursos, produtos, soluções) e buzz (o quanto o tema está subindo). Saída, os top-K do dia.
  3. Rascunho. O LLM gera o artigo seção a seção, seguindo um template SEO/AEO que cobre introdução, diagnóstico diferencial, conduta e referências. Saída, rascunho em Markdown.
  4. Revisão humana. Um especialista (médico, advogado, engenheiro, dependendo do domínio) valida o técnico, ajusta E-E-A-T e adiciona o CTA comercial. Saída, artigo publicável.
  5. Publicação. O post sobe no WordPress (ou equivalente) com schema, meta tags, imagens otimizadas e link interno para páginas canônicas do ecossistema.
  6. Medição. A cada artigo, contamos os dias até 1000 cliques orgânicos. Essa é a métrica de rampa, e ela alimenta o scoring do estágio 2 pra priorizar o que já provou performar.

Onde o custo explode (e por que Claude só não é a resposta)

A tentação é usar o melhor modelo disponível em tudo. Se Claude Opus gera artigo médico decente, por que não rodar Opus em todos os seis estágios? Porque o preço por token escala muito mais rápido que a qualidade marginal.

Um artigo médio de 1200 palavras consome, somando rascunho e revisão adversarial, algo como 8k tokens de entrada e 4k de saída. Multiplica por 30 artigos/mês e você está em 240k in + 120k out. Em Claude Opus, isso custa na casa dos R$ 100/mês só em geração, sem contar triagem, extração, classificação e dedup que também são chamadas de LLM.

O truque é admitir que nem toda tarefa precisa do modelo mais caro. Triagem de fontes é um binary classification problem que um Llama 3.x rodando local resolve com 99% de acurácia. Extração de entidades médicas é tarefa de NER (reconhecimento de entidades nomeadas), campo onde modelos open-source com fine-tune específico (Meditron, por exemplo, que é um Llama treinado em literatura médica) batem modelos generalistas fechados.

A trinca que funciona hoje, LLM local + DeepSeek + Claude seletivo

O desenho abaixo é o mapa de roteamento de modelos. Quatro lanes, do mais barato pro mais caro, com as tarefas que pertencem a cada uma.

Roteamento de modelos por tier de custo Quatro lanes horizontais empilhadas do mais barato para o mais caro. Lane 1, LLM local rodando no próprio servidor, cobre triagem, classificação e extração. Lane 2, DeepSeek, cobre rascunho e revisão adversarial. Lane 3, Claude ou GPT-5, cobre apenas polimento final seletivo. Lane 4, humano especialista, cobre revisão clínica, CTA e publicação. ROTEAMENTO POR CUSTO · CADA TAREFA NO MODELO MAIS BARATO QUE RESOLVE TIER 1 · R$ 0/token LLM local Llama 3.x, Qwen, Meditron TAREFA Triagem de fontes filtra portais e feeds TAREFA Extração NER entidades + CID + exame TAREFA Classificação curso, tag, prioridade TAREFA Dedupe near-duplicate detect TIER 2 · ~1/50 de Claude Opus DeepSeek V3 chat, Reasoner TAREFA Rascunho SEO/AEO seção a seção TAREFA Revisão adversarial outro prompt, mesma API TAREFA Meta e snippet title, description, FAQ TAREFA Resumo exec TL;DR + bullets TIER 3 · só no que importa Claude / GPT-5 ativar via flag TAREFA (seletiva) Polimento final do top 10% de tráfego só dispara se volume projetado justifica TAREFA (seletiva) Desempate em casos clínicos ambíguos escalada automática quando confiança cai HUMANO · não negociável Especialista TAREFA Revisão clínica + E-E-A-T + CTA comercial + publicação (30 min por artigo)

Tier 1, LLM rodando local

Custo por token, zero. Custo real, hardware (uma máquina com GPU razoável ou mesmo Apple Silicon roda Llama 3.x 70B quantizado sem suar) e um pouco de energia. Vale pra tudo que é repetitivo, de baixa criatividade e alto volume, porque é nessas tarefas que a conta em cloud vira terror.

As tarefas naturais dessa lane são:

  • Triagem de fontes. Dado um feed de 200 títulos, filtrar os 20 que merecem virar candidatos. Prompt simples, temperatura baixa, saída estruturada (JSON com score + razão curta).
  • Extração NER. Puxar do corpo de um artigo todos os termos médicos canônicos (doenças, exames, procedimentos, CID). Aqui faz diferença usar um modelo fine-tuned em domínio, caso médico use Meditron.
  • Classificação. Mapear um candidato pro curso/produto correspondente. Problema de multi-label classification, trivial pra LLM local.
  • Dedupe. Detectar que "Chikungunya surto 2026" e "Vírus Chikungunya avança em SP" são a mesma pauta. Usa embeddings locais (Sentence-Transformers, por exemplo) e similaridade coseno, não precisa nem de LLM geradora.

Tier 2, DeepSeek

DeepSeek é a surpresa agradável de 2025/2026. DeepSeek-V3 Chat custa na ordem de 50x menos por token que Claude Opus pra qualidade de texto que, em teste cego, bate Claude em português brasileiro estruturado. A Reasoner é o modelo de raciocínio, útil pra tarefas que envolvem passo-a-passo.

Lane 2 cobre:

  • Rascunho do artigo. Geração seção por seção. Isso é importante, não peça o artigo inteiro de uma vez, peça título, depois introdução, depois cada H2. Dá pra paralelizar, e você controla o tamanho do output por chamada.
  • Revisão adversarial. Depois do rascunho, rode uma segunda chamada com prompt de "revisor crítico" que simula um editor procurando erros. Mesmo modelo, prompt diferente, custo quase dobrado mas qualidade muito superior.
  • Meta e snippet. Title, description, FAQ schema. Tarefa bem delimitada, ideal pra saída JSON curta.
  • Resumo executivo. TL;DR + bullets. Útil pra alimentar o próprio pipeline (os resumos viram input do scoring futuro).

Tier 3, modelo premium (Claude, GPT-5) seletivo

Aqui mora a disciplina. Premium só entra quando a métrica prova que vale. Duas entradas típicas:

  • Polimento final do top 10% de tráfego. Artigos que já provaram performance (entraram no top 10% do mês em cliques) recebem um passe extra do premium pra afinar a escrita antes de um boost de internal linking. Custo marginal pequeno porque é seletivo.
  • Desempate em casos ambíguos. Se a chamada do Tier 2 voltar com score de confiança abaixo de um threshold (por exemplo, menos de 0.7 de probabilidade de estar correto em termos clínicos), escalamos automaticamente pro Tier 3. Zero trabalho humano pra decidir, a escalada é condicional.

Lane 4, humano especialista

Não negociável. Mesmo em domínios menos regulados, um especialista validando antes da publicação é o que separa um motor de conteúdo que rankeia de uma fábrica que queima domínio. No nosso setup, a médica revisora valida o técnico, ajusta E-E-A-T, adiciona o CTA comercial e publica. Tempo médio, 30 minutos por artigo, contra as 3-5 horas do fluxo manual integral.

Seis truques concretos pra reduzir consumo de tokens em 70%

Depois de montar o motor, o trabalho seguinte é afinar. Esses são os seis ajustes que mais deslocam a conta final:

  1. Prompt cache. Anthropic, DeepSeek e OpenAI todos oferecem prompt caching com TTL de 5 a 10 minutos. System prompt longo (2-4k tokens de instruções editoriais) fica cacheado e você só paga 10-20% do valor em chamadas subsequentes. Se o seu pipeline roda em lote de 30 artigos numa janela, isso economiza 70% do input.
  2. Saída estruturada (JSON schema). Pedir resposta em JSON com schema definido força o modelo a ser terso. Respostas em prosa livre tendem a 2x-3x o tamanho necessário. Em todas as APIs modernas existe parâmetro de response_format.
  3. Geração por seção, não whole-article. Em vez de um prompt gigante pedindo o artigo inteiro, quebre em chamadas menores (intro, H2 #1, H2 #2, conclusão). Você paga por tokens de input a cada chamada, mas ganha controle sobre tamanho de output e consegue paralelizar.
  4. Retrieval em vez de context stuffing. Não mande a base de conhecimento inteira pro prompt. Use embeddings locais pra trazer os 5 documentos mais relevantes por chamada. 80% menos input tokens com qualidade igual ou superior.
  5. Short circuit em confiança alta. Se o Tier 1 voltou com 0.95 de confiança na triagem, não roda o Tier 2 de verificação. Só escala quando confiança está em zona cinza.
  6. Limite rígido de max_tokens. Defina um ceiling realista (por exemplo 1500 tokens por seção de artigo). O modelo respeita e você não paga por conclusões prolixas que o humano iria cortar de qualquer jeito.

O humano, por que o "gargalo" é feature

Gasta-se muito texto em artigos de AI discutindo como tirar o humano do loop. Eu discordo na raiz. Em domínios regulados (saúde, finanças, direito) ou em qualquer território YMYL (Your Money or Your Life, termo que o Google usa pra flaggar conteúdo que afeta decisões de vida), a assinatura de um especialista é o que separa conteúdo que o Google mantém rankeado de conteúdo que cai em 3 meses.

No nosso teste, 20 artigos gerados por IA + médica versus 20 redigidos só por médica. Avaliação cega por outras médicas, 14 dos 20 com IA preferidos, contra 6 dos 20 só-humano. O ponto aqui não é "IA ganhou", é "IA com médica no loop ganhou". Tirar a médica quebraria o resultado.

Como medir se está funcionando

Três métricas. Nenhuma é "artigos por dia", apesar de ser a primeira que o stakeholder vai pedir.

  1. Dias até 1000 cliques orgânicos. Essa é a rampa. Artigo manual só-humano bate 1k em média em 27 dias. IA + humano bateu em 9 dias no nosso experimento (800 cliques já no dia 9, tendência pra cruzar 1k antes dos 15). Só-IA sem revisão, 19 dias (pior que IA + humano e perto de humano só).
  2. Preferência em teste cego. Uma vez por trimestre, produza 20 artigos em cada trilha e avalie com especialistas sem dizer qual foi como. Se a trilha do motor não estiver acima de 60%, alguma coisa regrediu.
  3. Tempo humano por artigo. Proxy de UX da ferramenta de revisão. No nosso caso caiu de 4h (fluxo manual integral) para 30 minutos (revisão do rascunho do motor). Se esse número começar a subir, a ferramenta de revisão precisa de amor.

O que reaproveitar do seu lado e o que construir

Se você está começando do zero, a ordem que minimiza risco é:

  1. Estágio 2 (scoring) manual + estágio 3 (rascunho) com DeepSeek. Mais barato possível, prova o conceito. Humano escolhe o tema, IA rascunha, humano revisa.
  2. Automatize o estágio 1 (descoberta). Dez scripts Python em N feeds e Trends resolvem o básico.
  3. Adicione o Tier 1 (LLM local). Primeiro pra triagem e classificação, depois NER e dedupe. Aqui a conta de API cai significativamente.
  4. Instrumente o estágio 6 (medição). Sem medir, você está voando cego e qualquer otimização é chutadeira.
  5. Adicione Tier 3 seletivo por último. Quando você tem dados de performance dos artigos, consegue identificar o top 10% que vale Claude em cima.

Projeto relacionado: Pipeline editorial com IA e revisão médica, onde esse motor roda em produção no Sanar Medicina com Claude e DeepSeek.