Eixo 03

Automação e integrações com LLM

Automação com LLM feita como engenharia, não como playground. Pipelines editoriais integrados ao WordPress (ou qualquer CMS) com Claude e DeepSeek, revisão humana como etapa obrigatória, métricas de ganho de tempo e qualidade. Mais arquitetura martech: tracking schema, UTM governance, integrações HubSpot/GA4/GTM sem conflito entre pixels.

LLM roda direto do ChatGPT UI não é arquitetura, é produtividade individual. Sistema de verdade envolve versionamento de prompts, histórico reprodutível, fila de revisão humana, métricas de fit e custo. E quando cruza com conteúdo público, envolve SEO técnico e front-end também.

Entrego pipelines onde o operador humano continua sendo a autoridade final (aprovar, rejeitar, editar), mas o LLM retira a parte repetitiva, briefing estruturado, primeira versão, revisão adversarial. Resultado: 6h por artigo vira 35 min, qualidade medida por teste cego, custo rastreado por peça.

Problemas que resolvo

Tipicamente, este eixo sozinho

Produção editorial gastando 6h por artigo

Pipeline com briefing estruturado + geração + revisão adversarial + fila de revisão humana. 90% de redução de tempo sem perda de qualidade medida.

Atribuição fragmentada, lead "veio do nada"

Arquitetura de tracking ponta a ponta: captura de UTM no entry, persistência via sessionStorage, propagação em links internos, push no dataLayer, consumo no HubSpot/GA4.

UTMs se perdem em navegação interna

Governança + guard script que protege parâmetros críticos (UTM, gclid, fbclid) de ser sobrescritos por outros pixels.

Conflito entre pixels (Meta, Google, X)

Debug em nível de browser, observer em history.pushState/replaceState, ordem de load no GTM. Já recuperei 100% de atribuição Google Ads quebrada pelo pixel X.

Scripts manuais ad-hoc que ninguém mais entende

Refactor pra código versionado, documentado e testado. PHP/Python/bash com interface clara de input/output, rodando em cron ou queue.

LLM rodando direto do ChatGPT UI, sem governance

Migração pra API (Claude, DeepSeek) com versionamento de prompts, histórico auditável, rate limiting, cost tracking e fallback entre modelos.

Equipe pequena e demanda grande

Multiplica capacidade sem contratar, humano supervisiona, LLM executa repetição. Medição obrigatória de ganho de tempo e qualidade pós-implementação.

Combinando eixos

Quando este eixo cruza com os outros

Problema real raramente mora num eixo só. A maioria dos clientes que me procuram precisa de pelo menos dois, e o ganho é composto, não aditivo.

Junto com

Front-end development e performance

Automação publica 500 artigos novos por mês no WordPress, o front-end precisa aguentar. Template performático, componentes parametrizáveis e cache HTTP correto são pré-requisitos. Automação sem front-end pensado vira dívida de performance e Google Search Console vermelho.

Junto com

SEO técnico e AEO

LLM sem briefing semântico gera texto plausível mas não ranqueável, a página fica similar a 50 outras no SERP. Pipeline + sistema de briefing + linkagem via embeddings produz conteúdo com fit semântico real, que ranqueia e é extraído por AI Overviews.

Entregáveis

O que chega na sua mão

  • PRD completo do pipeline (arquitetura, fluxo, responsabilidades)
  • Mega prompts versionados (sistema de prompts por tipo de conteúdo)
  • Integração direta com Claude / DeepSeek API (wp_remote_post, sem SDK externo)
  • Script Python/PHP de ingest + orquestração
  • Fluxo de revisão humana no loop (CPT, status, queue)
  • Arquitetura martech (tracking schema, UTM governance, dataLayer)
  • Guard scripts pra conflitos entre pixels
  • Métricas de ganho de tempo, custo por peça e qualidade (teste cego)
Stack deste eixo
Claude APIDeepSeek APIMCP serversPython 3.11+PHP 8.2+WordPress REST APIGTMHubSpotGA4CloudflaresessionStoragepgvector

FAQ

Perguntas frequentes

Automação com LLM substitui meu time editorial?

Não. Substitui a parte repetitiva (briefing, primeira versão, normalização) e libera o time editorial pra fazer o que humano faz melhor, julgamento clínico, nuance de marca, revisão adversarial. Em todos os pipelines que entreguei, o revisor humano aprova antes de publicar. LLM sem humano no loop é risco que eu não assumo.

Que LLM usar, Claude, GPT-4, DeepSeek?

Depende da task. Claude (Sonnet/Opus) costuma ser melhor em reasoning complexo, redação longa e adesão a instruções. GPT-4 é forte em código e uso geral. DeepSeek ganha em custo-benefício pra tarefas médias. Arquiteturas robustas usam mais de um, com fallback. Escolho com base em avaliação empírica (amostras reais), não hype.

Como garantir qualidade médica/jurídica num pipeline com IA?

Revisão humana como etapa obrigatória no workflow, não opcional. No case da plataforma de educação médica, a física médica revisora aprova cada artigo antes de publicar, sem aprovação, o post status custom bloqueia publicação. Em domínios regulados, LLM acelera produção mas não substitui accountability profissional.

Vamos trabalhar juntos

Precisa de automação e llm?

Conta o contexto em 3 linhas. Respondo em 48h com proposta ou com "não sou eu que você precisa", o que for verdade.