SEO Técnico

Manual de AEO/GEO, como escrever um post que LLM cita

Manual prático pra escrever post de blog que ChatGPT, Perplexity, Gemini e Claude citem. TL;DR no topo, seções autocontidas, citações com fonte, tabela comparativa, FAQ no final, mais checklist e template prontos pra colar no editorial.

· 13 min de leitura

Resposta curta: LLM não lê post inteiro, ele fragmenta em pedaços de 100 a 300 palavras e recupera o pedaço isolado pra citar. Pra entrar nessa lista, cada seção precisa fazer sentido sozinha, começar pela resposta direta, e trazer um elemento extraível (estatística com fonte, citação com aspas, tabela ou item justificado).

Resposta detalhada: as cinco técnicas com efeito empírico medido em Aggarwal et al. (KDD'24) são citação direta com aspas e atribuição (+41% de visibilidade em respostas geradas), inclusão de estatística com fonte (+33%), referência inline com link pra fonte primária (+30%, e até +115% em sites pequenos), tabela comparativa explícita, e atributo justificador em bold ("40% mais rápido porque…"). Anti-padrões com efeito negativo medido: keyword stuffing (-8%) e tom autoritativo sem dado (efeito quase nulo, segundo Wan et al., ACL'24).

A regra de ouro, cada H2 será lido isolado

LLM não lê como humano. Ele fragmenta o post em pedaços de 100 a 300 palavras (chunks), embeda cada pedaço em vetor, e recupera apenas o trecho mais relevante pra cada query. Isso muda o peso de tudo na escrita.

Significa que se a sua melhor frase está no parágrafo 8 e ela referencia o parágrafo 3, o motor não cita. Ele só recuperou o pedaço 8 e não tem o contexto do 3. Se o parágrafo começa com "Essa técnica" ou "Como vimos acima", vira órfão no momento do recorte e é descartado.

Regra de produção: escreva assumindo que cada <h2> será lido isoladamente. Repete o sujeito ("O Consent Mode v2 funciona…" em vez de "Ele funciona…"), entrega a resposta na primeira frase da seção, e fecha cada bloco com pelo menos um elemento extraível.

Anatomia de um post otimizado, do topo ao fim

A estrutura abaixo é a que funciona em 2026 pra Perplexity, ChatGPT Search, AI Overview do Google e Claude. Não é estética, é função.

1. Título (H1) que reflete a query real

Padrões que vencem: "Como fazer X", "X vs Y, qual escolher", "O que é X (e quando usar)", "Melhores X pra Y". Evite título opaco ("A revolução silenciosa do mercado"). LLM não decifra metáfora, decifra intenção. Mantém entre 50 e 65 caracteres pra não cortar no SERP.

2. TL;DR no topo, em dois níveis

Pesquisa da Frase.io (2026, análise de 17M de citações) mostra que 44% das citações em ChatGPT vêm do primeiro terço do conteúdo. Comece pela resposta antes de qualquer contexto. Formato que funciona: uma frase curta com a resposta direta, seguida de duas a três frases com nuance, números e contexto. Nada de aquecimento, nada de "no mundo cada vez mais digital".

3. H2s descritivos, resposta na primeira frase

Cada H2 precisa de quatro coisas. Pergunta ou afirmação clara como heading (não criativa). Resposta direta na primeira frase, é essa frase que o LLM extrai. Dois a quatro parágrafos curtos depois, uma ideia cada. E pelo menos um elemento extraível por seção, estatística, citação, lista ou tabela.

Tamanho ideal por seção: 150 a 300 palavras. Esse é o tamanho típico de chunk em sistemas RAG. Seção mais longa será fragmentada pelo motor, e você perde controle sobre qual pedaço vai virar citação.

4. FAQ no final, alta taxa de citação

LLM adora FAQ. Schema FAQPage tem das maiores taxas de citação em AI Overviews e Perplexity, segundo análise de 17M citações da Frase.io. Use cinco a oito perguntas, escritas exatamente como o usuário faria, com resposta direta de uma a três frases. Inclua variações de "People Also Ask" do Google quando souber.

5. Bio do autor + data de revisão

Bloco final com nome real do autor, uma a duas linhas de credenciais, link pra LinkedIn ou página do autor, e "Última revisão em DD/MM/AAAA". Isso ativa schema Person e sinais de E-E-A-T, que o Gemini valoriza explicitamente em sua documentação pública de qualidade de conteúdo.

As 5 técnicas com efeito empírico de impacto

A tabela abaixo resume as técnicas testadas em GEO: Generative Engine Optimization (Aggarwal et al., KDD'24), com o lift médio de visibilidade em respostas geradas. As cinco que valem o trabalho:

Técnica O que faz Lift médio Esforço
Quotation Addition Citação direta com aspas e atribuição +41% Baixo
Statistics Addition Substituir afirmação qualitativa por número com fonte +33% Médio
Cite Sources Referência inline com link pra fonte primária +30% (até +115% em sites pequenos) Baixo
Comparison Tables Tabela markdown comparando opções Não medido isolado, alto na prática Médio
Justification Attributes Atributo curto + razão quantificada em bold Não medido isolado, alto em "best X for Y" Baixo

Técnica 1, Quotation Addition (+41%)

É a estratégia mais eficaz medida no paper. Substitui afirmação genérica por citação direta, com aspas, atribuição e fonte.

Genérico (não citável): Estudos indicam que o setor cresceu nos últimos anos.

Citação direta (citável): Em relatório de outubro de 2025, a McKinsey afirmou: "A adoção de IA generativa em empresas brasileiras passou de 18% para 47% em apenas 14 meses" (Estado da IA no Brasil, 2025).

Densidade ideal: uma a duas citações diretas a cada 800 palavras. Mais que isso vira plágio. Menos perde o efeito.

Técnica 2, Statistics Addition (+33%)

Toda afirmação que contém "muitos", "a maioria", "geralmente", "cresceu" ou "diminuiu" precisa virar número com fonte.

Genérico: A maioria dos brasileiros usa WhatsApp.

Quantificado: 93% dos brasileiros conectados usam WhatsApp diariamente, segundo a Pesquisa TIC Domicílios 2024 do Cetic.br.

Meta de densidade: um dado quantificado a cada 80 a 120 palavras.

Técnica 3, Cite Sources (+30%, até +115% em sites pequenos)

Inclua referência inline com link pra fonte primária. Não é só "segundo a Forbes", é com link real pro artigo específico. Em ordem decrescente de peso, prefira papers acadêmicos (arXiv, ACL, NeurIPS), relatórios oficiais (governo, órgão regulador), pesquisas originais de empresa (McKinsey, Gartner, Pew), imprensa séria (Reuters, AP, Folha, Valor) e blogs reconhecidos como último recurso.

O lift de até +115% em sites pequenos vem da contrapartida de autoridade que a fonte externa empresta ao seu domínio jovem.

Técnica 4, Comparison Tables explícitas

LLM extrai tabela inteira como bloco. É uma das formas mais "sequestráveis" de conteúdo. Use pra comparar produto, recurso, plano, método, prós e contras.

Critério Opção A Opção B Opção C
Preço inicial R$ 99/mês R$ 149/mês R$ 79/mês
Limite de usuários 5 Ilimitado 10
Suporte 24/7 Não Sim Não
Integração Slack Sim Sim Não

Técnica 5, Justification Attributes em destaque

Não diga "é bom". Diga "é bom porque [razão quantificada]".

Genérico: Tem ótima bateria.

Justificado: Bateria de 12h em uso intenso, 50% mais que a média da categoria (8h, segundo benchmark da TechRadar 2025).

LLM em resposta de "best X for Y" extrai atributo justificador, frase curta com claim mais evidência. Use bold no atributo principal.

O que NÃO fazer, anti-padrões com efeito medido

Cinco práticas com efeito negativo ou nulo documentado em pesquisa empírica. Cortar essas vale mais que adicionar técnica nova.

  • Keyword stuffing. Resultado: -8% de visibilidade em LLM, segundo Aggarwal et al. Repetir "consultoria empresarial" 30 vezes confunde o embedding semântico.
  • Tom autoritativo sem dado. Efeito quase nulo, segundo Wan et al., ACL'24. "É amplamente reconhecido que…" sem nome e sem número é desperdício de palavras.
  • Introdução-fluff. "No mundo atual, em constante transformação digital, as empresas precisam se adaptar…" vai pro lixo. LLM raramente extrai das primeiras 100 palavras de aquecimento.
  • Parágrafo de 8+ linhas. Vira chunk único e indivisível. O motor extrai tudo ou nada. Quebre em parágrafo de uma a três frases.
  • Conteúdo escondido em JS. Se o texto principal só aparece após renderização JavaScript, muitos crawlers de AI não pegam. Teste com curl -A "ChatGPT-User" sua-url | grep "frase principal".

Bonus, dois anti-padrões com correlação de citação medida no GEO-16 da Frase: heading criativo sem keyword, e ausência de data visível (correlação 0,68 com citação, a mais alta do estudo).

Schema markup mínimo pra um post

Adicione no <head> ou via plugin. Esse bloco ativa Article + Person e é o piso pra qualquer post sério em 2026.

{
  "@context": "https://schema.org",
  "@type": "Article",
  "headline": "Título do post",
  "datePublished": "2026-04-26",
  "dateModified": "2026-04-26",
  "author": {
    "@type": "Person",
    "name": "Nome do Autor",
    "url": "https://seusite.com/autor",
    "sameAs": [
      "https://linkedin.com/in/seuautor",
      "https://twitter.com/seuautor"
    ]
  },
  "publisher": {
    "@type": "Organization",
    "name": "Nome do Blog",
    "logo": {
      "@type": "ImageObject",
      "url": "https://seusite.com/logo.png"
    }
  },
  "description": "Resumo de 150 a 160 caracteres",
  "image": "https://seusite.com/imagem-do-post.jpg"
}

Pra post com FAQ, adicione FAQPage schema separado. Pra tutorial, HowTo. Sem schema, o motor ainda lê, mas perde sinal estrutural que diferencia post sério de post genérico.

Tamanho ideal e frescor de conteúdo

Análise da Frase.io em 2026 sobre 17M de citações dá uma faixa clara. Post curto (menos de 800 palavras) tem baixa taxa de citação, falta substância. Post médio (1.500 a 2.500 palavras) é o sweet spot, cobertura sem dispersão. Post long-form (3.000+ palavras) só vale pra guia pilar, e exige subseção autocontida ou o motor se perde.

Mais importante que tamanho é densidade de informação. 1.500 palavras com cinco estatísticas, três citações e uma tabela vencem 3.000 palavras de prosa solta.

Sobre frescor, o mesmo relatório aponta que URLs citadas por AI são 25,7% mais frescas que orgânico tradicional. Inclua o ano em headings quando relevante ("Melhores ferramentas de X em 2026"), atualize posts antigos com nota visível ("Atualizado em abril/2026, adicionada análise dos novos modelos") e mantenha dateModified atualizado no schema apenas quando houver edição real, motores detectam fraude.

Linking interno, não é só pra SEO

LLM usa link interno pra entender clusters de tópico. Post bem citado precisa estar conectado a outros relacionados. Regras práticas: três a sete links internos por post, sempre contextuais e nunca em footer; anchor text descritivo ("guia completo de Generative Engine Optimization") em vez de "clique aqui"; link de página antiga pra post novo, não só o contrário; e clusters formados por uma página pilar e cinco a dez posts que linkam entre si e pra ela.

Pra ver o lado conceitual desse mesmo problema, com foco em por que a IA escolhe um trecho em vez de outro, leia o guia de conteúdo citável por LLM. O post atual é o operacional, esse é o conceitual.

Checklist pré-publicação

Cole no seu editorial. Use antes de cada publicação. A meta é checar todos os itens, não só os "fáceis".

Estrutura

  • H1 reflete query real, não criatividade
  • TL;DR de duas a três frases no topo, em dois níveis (curta + detalhada)
  • H2s descritivos, não criativos
  • Cada seção autocontida, faz sentido sozinha
  • Parágrafos de uma a três frases
  • Pelo menos um elemento extraível por seção (lista, tabela, citação ou estatística)

Conteúdo

  • Uma a duas citações diretas com aspas e atribuição
  • Três a cinco estatísticas com fonte
  • Cinco a dez links externos pra fonte primária
  • Uma tabela comparativa, se aplicável
  • Justification attributes em bold ("40% mais rápido porque…")
  • Seção FAQ no final, cinco a oito perguntas
  • Bio do autor com credenciais

Técnico

  • Schema Article + FAQPage se houver FAQ
  • Data de publicação e revisão visíveis no corpo, não só no rodapé
  • Três a sete links internos contextuais
  • Conteúdo principal no HTML, não só JS
  • Meta description de 150 a 160 caracteres
  • URL slug com keyword principal, sem datas e sem números aleatórios

Anti-padrões verificados

  • Sem keyword stuffing
  • Sem introdução-fluff
  • Sem afirmação vaga ("muitas pessoas", "estudos mostram") sem dado
  • Sem parágrafo gigante
  • Sem heading criativo sem keyword

Template-base de blog post otimizado

Esqueleto pronto pra colar no editor. Cada bloco tem propósito de citação, não é só preenchimento.

# [Título com keyword principal e intent claro]

**Resposta curta:** [Resposta direta em uma a duas frases.]

**Resposta detalhada:** [Duas a três frases com nuance, número e fonte.]

## [H2 que é uma pergunta ou afirmação clara]

[Frase de abertura que responde diretamente o H2.]

[Parágrafo curto com contexto.]

[Lista, tabela, citação ou estatística relevante.]

## [Próximo H2]

[Mesmo padrão.]

> "Citação direta de fonte autoritativa, com atribuição clara." —
> [Fonte com link](https://link.real)

## Comparativo, [tema] vs [alternativa]

| Critério | Opção A | Opção B |
|----------|---------|---------|
| ...      | ...     | ...     |

## Perguntas frequentes

### [Pergunta exata como usuário faria]?
[Resposta de uma a três frases.]

### [Próxima pergunta]?
[Resposta.]

---

*Escrito por [Nome], [credencial].
Última revisão: [data].
[Link para LinkedIn].*

Resumo executivo, dez regras pra colar na parede

  1. Comece pela resposta (TL;DR no topo, em dois níveis).
  2. Cada seção autocontida, 150 a 300 palavras.
  3. Citações diretas com aspas e atribuição (a estratégia #1 da pesquisa, +41%).
  4. Estatísticas com fonte em vez de adjetivos vagos.
  5. Headings descritivos, nunca criativos.
  6. FAQ no final, sempre, cinco a oito perguntas.
  7. Schema markup completo (Article + FAQPage + Person).
  8. Datas visíveis e atualizadas com honestidade.
  9. Tabelas comparativas quando fizer sentido.
  10. Bio do autor com credenciais ativando E-E-A-T.

Resumo do resumo: escreva como se o LLM fosse pegar só uma seção sua e mostrar isolada para o usuário. Porque é exatamente isso que ele faz.

Perguntas frequentes

GEO substitui SEO?

Não. GEO (Generative Engine Optimization) é complemento, não substituto. SEO continua entregando tráfego do Google e Bing tradicionais. GEO entrega visibilidade em respostas geradas por LLM (ChatGPT, Perplexity, AI Overview). Sites bem otimizados em 2026 fazem os dois em paralelo, e várias práticas (densidade de informação, fonte primária, schema) ajudam ambos.

Qual o tamanho ideal de um post pra ser citado por LLM?

Entre 1.500 e 2.500 palavras é o sweet spot, segundo análise da Frase.io de 17M citações em 2026. Posts abaixo de 800 palavras raramente têm densidade suficiente. Acima de 3.000 só vale pra guia pilar, e exige subseções autocontidas. Mais importante que tamanho é densidade de fato (número, data, nome próprio) por 100 palavras.

Preciso reescrever todos os posts antigos?

Não. Priorize por tráfego e por intenção comercial. Pegue os dez posts que mais geram tráfego ou conversão, aplique o checklist completo, e meça citação em três a quatro semanas. Posts longtail de baixo volume podem esperar. ROI de reescrita está concentrado em poucos posts pilares, não em volume.

Como mensuro se o post está sendo citado?

Três métodos práticos. Primeiro, monitorar logs de servidor por user-agents de bot de AI (ChatGPT-User, PerplexityBot, ClaudeBot, Google-Extended), volume crescente indica indexação ativa. Segundo, rodar manualmente um conjunto fixo de 20 a 30 perguntas relevantes ao seu negócio em ChatGPT, Perplexity e AI Overview, registrando se seu domínio aparece como fonte. Terceiro, ferramentas dedicadas (Profound, Otterly, AthenaHQ) que automatizam essa medição em escala.

FAQ no final é mesmo necessário?

É. Schema FAQPage tem das maiores taxas de citação em AI Overviews e Perplexity, segundo análise de 17M citações da Frase.io. Use cinco a oito perguntas, escritas como o usuário faria (não como você gostaria que fossem feitas), com resposta de uma a três frases.

Posso usar IA pra escrever o post?

Pode, mas com revisão humana de citação e fonte. Modelos alucinam estatística e atribuição, e citação fake é o pior anti-padrão possível, queima credibilidade do domínio em ciclos futuros. Use IA pra primeiro draft de estrutura, mas valide cada número, cada link e cada nome próprio à mão antes de publicar.


Pra fechar a trilha, o guia de conteúdo citável por LLM traz a explicação conceitual de por que esses padrões funcionam, e o guia de sitemap dinâmico em escala resolve o pré-requisito técnico de garantir que o motor consiga ler seu site de fato.