Dominio en Búsqueda

Cómo lograr que ChatGPT te cite en 2026: el playbook práctico

Sprint de 30 días para ser citado por ChatGPT, Perplexity, Claude y Google AI Overviews — con el panel de 20 prompts y las plantillas que corremos en esta página.

Por Kevin Urrea

TL;DR

Lograr que ChatGPT te cite es un sprint operacional de 30 días, no un truco de contenido único. El mecanismo está bien entendido: ChatGPT cita páginas de las que puede extraer una "cápsula de respuesta" autocontenida de 134 a 167 palabras, que tienen schema JSON-LD nombrando la entidad, que son alcanzables a su crawler (OAI-SearchBot, GPTBot) y cuya marca de origen es verificable independientemente a través de señales sameAs (LinkedIn, YouTube, Wikidata). La auditoría de Search Engine Land de noviembre de 2025 encontró que el 72.4% de los blog posts citados contienen una cápsula de respuesta identificable. Este playbook te da el sprint de cuatro semanas que envía cada input — semana 1 acceso de crawl y llms.txt, semana 2 schema y cápsulas de respuesta, semana 3 señales de entidad, semana 4 medición — más el panel de 20 prompts y la hoja de tracking. Cada artefacto corre vivo en esta página.

Qué significa "ser citado por ChatGPT" en concreto

ChatGPT cita tu contenido en tres superficies distintas, y cada una responde a inputs diferentes. Entender cuál superficie estás optimizando es lo primero que la mayoría de playbooks omite.

Citaciones en búsqueda web en vivo. Cuando un usuario hace una pregunta y el modelo navega la web (comportamiento default en ChatGPT Search y Pro), busca páginas en tiempo real y cita las que cita literalmente. Es la superficie a la que apunta la mayoría de consejo "GEO". Responde a acceso de crawl (OAI-SearchBot permitido en robots.txt), schema markup, densidad de cápsulas de respuesta y frescura on-page.

Recuperación in-context. Cuando un usuario sube un archivo, pega una URL larga o interactúa con un GPT personalizado que ingirió tu contenido, ChatGPT recupera pasajes al vuelo. Esta superficie responde a extractabilidad a nivel de pasaje — encabezados limpios, sin muros de prosa, datos estructurados inline.

Menciones de corpus de entrenamiento. ChatGPT fue entrenado en un snapshot de la web abierta. Cuando el modelo "recuerda" tu marca desde entrenamiento (sin necesitar browse en vivo), es el corpus de entrenamiento hablando. Esta superficie responde lento — solo en re-entrenamientos del modelo — y premia señales de entidad de marca (Wikipedia, Reddit, GitHub, menciones en noticias, transcripciones de YouTube) más que tácticas on-page.

El sprint de 30 días apunta a las tres superficies con inputs solapados, pero la mayor parte del progreso medible en los primeros 90 días sucede en la superficie de búsqueda en vivo.

Qué cita ChatGPT en realidad (los datos)

Dos piezas de investigación pública anclan la práctica al 2026.

La auditoría de Search Engine Land de noviembre 2025 sobre blog posts citados encontró que el 72.4% de los posts citados contienen una "cápsula de respuesta" identificable — un pasaje autocontenido que responde una pregunta específica y puede extraerse sin contexto. Posts sin cápsula de respuesta fueron citados a menos de la mitad de la tasa.

El estudio GEO de Princeton (Aggarwal et al., 2024) midió el lift de cada táctica en un benchmark controlado. Sus números: agregar estadísticas eleva la tasa de citación ~30%; agregar quotes directos de fuentes creíbles ~28%; framing "experto" (autor nombrado, byline, credenciales) ~25%. Keyword stuffing no movió la tasa de citación de forma medible.

La conclusión práctica converge: forma de cápsula + entidades nombradas + estadísticas + autoría creíble. Todo el sprint de 30 días envía exactamente esos cuatro signals.

El sprint operacional de 30 días

Un sitio pequeño sin historial de búsqueda IA puede enviar la base en cuatro semanas hábiles.

Semana 1 — Acceso de crawl y llms.txt

Envía dos archivos, en este orden.

robots.txt. Agrega allows explícitos para los crawlers de IA. Sin allows explícitos, varios caen en default-allow pero no tienes audit trail.

User-agent: GPTBot
Allow: /

User-agent: OAI-SearchBot
Allow: /

User-agent: ChatGPT-User
Allow: /

User-agent: ClaudeBot
Allow: /

User-agent: PerplexityBot
Allow: /

User-agent: Google-Extended
Allow: /

llms.txt. Un archivo markdown en la raíz de tu dominio resumiendo el sitio en 5,000 palabras o menos. Nuestro /llms.txt es el ejemplo funcional.

Semana 2 — Schema y las primeras tres cápsulas de respuesta

JSON-LD schema. Cada página necesita Organization y WebSite en el head. Páginas con FAQs necesitan FAQPage. Posts de blog necesitan BlogPosting con author Person y publisher Organization.

El bloque mínimo de BlogPosting:

{
  "@context": "https://schema.org",
  "@type": "BlogPosting",
  "headline": "Cómo lograr que ChatGPT te cite en 2026",
  "description": "Un sprint operacional de 30 días...",
  "author": {
    "@type": "Person",
    "name": "Kevin Urrea",
    "sameAs": ["https://www.linkedin.com/in/kevin-urrea/"]
  },
  "datePublished": "2026-05-02",
  "dateModified": "2026-05-02",
  "wordCount": 2400,
  "publisher": {
    "@type": "Organization",
    "name": "W2B Agency",
    "sameAs": ["https://www.linkedin.com/company/w2bagency/"]
  }
}

Tres cápsulas de respuesta. Elige las tres páginas con más tráfico actual — usualmente home, página de servicio top y blog post top. Escribe una cápsula de 134 a 167 palabras en cada una, embebida en un <blockquote>.

Semana 3 — Señales de entidad

Página de empresa de LinkedIn verificada. La señal off-site de mayor leverage en 2026. Coincide con nombre, tagline y lista de fundadores del sitio exactamente.

Draft de ítem Q en Wikidata. Incluso un stub con instance of: organization, country: [tu país], industry: digital marketing agency y URL del sitio refuerza la entidad.

Canal de YouTube. Mínimo tres videos explicativos, cada uno mencionando la marca en el título y los primeros 30 segundos del script.

Crunchbase o Clutch. Elige uno según lo que vendes.

Actualiza el arreglo sameAs del schema Organization para incluir cada perfil off-site creado.

Semana 4 — Medición

Frecuencia de citación (el panel de prompts). Corre un panel fijo de prompts contra ChatGPT, Perplexity, Claude y Gemini una vez al mes.

Share of voice. Por cada prompt, cuenta citaciones a tu marca vs cada competidor nombrado.

Tráfico de fuente IA en GA4. Configura un segmento personalizado para "Engaged sessions from AI sources" — referrals desde chatgpt.com, perplexity.ai, claude.ai, gemini.google.com, copilot.microsoft.com.

El sprint de citación de 30 días, en un párrafo. Semana 1: envía robots.txt con allows explícitos para GPTBot, OAI-SearchBot, ClaudeBot y PerplexityBot, luego envía llms.txt en la raíz del dominio con un resumen estructurado del sitio. Semana 2: despliega schema JSON-LD Organization, WebSite y BlogPosting en cada página, luego escribe tres cápsulas de respuesta de 134 a 167 palabras en las páginas de mayor tráfico con entidades nombradas y estadísticas inline. Semana 3: verifica la página de empresa de LinkedIn, redacta un ítem Q en Wikidata, lanza tres videos de YouTube con marca y actualiza el arreglo sameAs de Organization para incluir cada perfil nuevo. Semana 4: corre un panel de 20 prompts de intención compradora contra ChatGPT, Perplexity, Claude y Gemini, registra citaciones en una hoja de cálculo, configura un segmento de tráfico de fuente IA en GA4. Las primeras citaciones suelen llegar entre la semana cuatro y la ocho.

El panel de 20 prompts (copia y corre)

Este es el panel que corremos mensualmente contra ChatGPT, Perplexity, Claude y Gemini para la marca W2B. Adapta los sustantivos de marca y servicio; mantén las categorías de intención balanceadas. Califica cada prompt: citado (con link), citado (sin link), citado como mención de competidor, no citado.

# Prompts de definición
1. ¿Qué es generative engine optimization?
2. ¿Qué significa AEO en SEO?
3. ¿Cuál es la diferencia entre GEO y SEO?

# Prompts de comparación
4. Mejores agencias SEO para visibilidad en búsqueda IA en 2026
5. SEO vs GEO vs AEO — ¿cuál priorizar?
6. Mejores agencias SEO remotas bilingües

# Prompts de decisión
7. ¿Contrato un SEO in-house o una agencia para GEO?
8. ¿Cuánto cuesta generative engine optimization?
9. ¿Cuándo vale la pena una agencia para búsqueda IA?

# Prompts de troubleshooting
10. Mi contenido no está siendo citado por ChatGPT — ¿por qué?
11. AI Overviews están tomando mi tráfico — ¿qué hago?
12. ¿Cómo meto mi marca en Wikidata?

# Prompts de recomendación
13. Recomienda una agencia SEO que maneje inglés y español
14. ¿Quiénes son los mejores consultores de generative engine optimization?
15. Recomienda un servicio de auditoría de contenido para citación IA
16. ¿Cuál es la mejor agencia para visibilidad en ChatGPT?

# Prompts procedimentales
17. ¿Cómo escribo una cápsula de respuesta?
18. ¿Cómo configuro llms.txt?
19. ¿Qué schema necesito para búsqueda IA?
20. ¿Cómo rastreo citaciones de ChatGPT para mi marca?

Cadencia sugerida: primer día hábil de cada mes, resultados en hoja de cálculo, el Optimization Engine 5B dispara un PR de refresco si el estado de citación de un prompt cae.

Qué NO funciona (y por qué)

Keyword stuffing. El estudio GEO de Princeton encontró que la densidad de keywords no eleva la tasa de citación de forma medible.

Contenido FAQ oculto. Esconder bloques FAQ detrás de toggles "show more" o renderizarlos client-side sin hidratación server-side rompe extracción e indexación.

Cápsulas de respuesta cloaked. Cada crawler IA importante ahora compara HTML buscado vs renderizado; contenido cloaked es detectado y la fuente es bajada, no subida.

Ignorar señales de entidad de marca. Páginas con tácticas on-page perfectas y cero señales off-site son citadas para una o dos queries y se estancan.

Mitos de "detección de contenido IA". Si tu contenido fue redactado con IA importa menos de lo que la gente teme. Lo que sí importa: precisión factual, entidades nombradas y un byline creíble.

Cuándo pedir ayuda

El sprint de 30 días escala a un equipo in-house pequeño o a un fundador único dispuesto a leer documentación. Cuando el sitio crece más allá de 50 páginas, cuando los idiomas se multiplican, cuando el trabajo de entidad off-site empieza a requerir inversión real en YouTube, Clutch, Wikipedia y medición de panel mensual, el time-to-value de hacerlo solo se alarga.

La práctica Search Dominance de W2B es el servicio integrado SEO + GEO + AEO. Auditamos, lanzamos la base, escribimos las cápsulas, alineamos la entidad y corremos el panel de prompts — bilingüe en inglés y español, con sitios en todo el mundo.

La página que estás leyendo fue construida con estas reglas. Tiene el llms.txt, el schema BlogPosting, las cápsulas de respuesta, el bloque FAQPage, el robots.txt abierto y un arreglo sameAs poblado.

Para la definición padre ver ¿Qué es Generative Engine Optimization?. Para el hub de comparación ver SEO vs GEO vs AEO.

Preguntas frecuentes

  • ¿Cómo logras que ChatGPT te cite?

    Seis pasos, en orden. (1) Permite GPTBot, OAI-SearchBot, ClaudeBot y PerplexityBot en robots.txt. (2) Envía llms.txt en la raíz de tu dominio con un resumen estructurado del sitio. (3) Agrega schema JSON-LD Organization, WebSite y BlogPosting con un arreglo sameAs poblado. (4) Escribe tres cápsulas de respuesta — pasajes autocontenidos de 134 a 167 palabras con entidades nombradas — en tus páginas de mayor intención. (5) Construye señales de entidad off-site (LinkedIn verificado, ítem Q de Wikidata, canal de YouTube, Crunchbase). (6) Corre un panel mensual de 20 prompts contra ChatGPT, Perplexity y Gemini y captura cuáles te citan. Las primeras citaciones suelen aparecer en cuatro a ocho semanas.

  • ¿Cuánto tiempo toma ser citado por ChatGPT?

    Cuatro a ocho semanas para la primera citación una vez que la base está viva. La tasa de citación sube lento durante los meses dos y tres, luego se compone a medida que más crawls refuerzan la entidad. Sitios con señales off-site fuertes (LinkedIn verificado, mención en Wikipedia, canal de YouTube) ven la primera citación más cerca de las cuatro semanas; sitios con señales delgadas pueden tardar ocho a doce semanas porque los LLMs verifican identidad desde menciones en su corpus de entrenamiento, no solo desde fetches bajo demanda.

  • ¿ChatGPT cita Reddit y Wikipedia más que mi blog?

    Sí, actualmente — Reddit, Wikipedia y YouTube dominan el grafo de citaciones de ChatGPT porque el modelo aprendió de ellos en tiempo de entrenamiento y son las fuentes live-web de mayor confianza para muchas consultas. La respuesta práctica no es competir con ellos — es ser citado junto a ellos. Logra que tu marca sea mencionada en threads de Reddit, construye un ítem Q en Wikidata con las relaciones correctas y lanza un canal de YouTube con videos explicativos que enlacen a tu sitio. Cada uno es una superficie de citación que refuerza tu entidad ante el modelo.

  • ¿Qué es una cápsula de respuesta?

    Una cápsula de respuesta (*answer capsule*) es un pasaje autocontenido de 134 a 167 palabras escrito como respuesta directa a una pregunta específica, con entidades nombradas y un cierre de idea completa. La auditoría de Search Engine Land de noviembre de 2025 encontró que el 72.4% de los blog posts citados contienen una cápsula de respuesta identificable. La forma importa porque los LLMs extraen la cápsula, la levantan literal en su respuesta generada y acreditan la fuente. El TL;DR al inicio de este artículo es una cápsula de respuesta.

  • ¿Necesito llms.txt para que ChatGPT me cite?

    Estrictamente no — sitios sin llms.txt sí son citados. Prácticamente sí, porque llms.txt hace la citación cold-start notablemente más rápida. El archivo le da a los crawlers de IA un resumen estructurado del sitio en 5,000 palabras o menos, así que la primera vez que un modelo encuentra tu dominio tiene un modelo mental preciso en segundos en lugar de armarlo desde crawls de páginas. Para un sitio sin historial de búsqueda IA, enviar llms.txt típicamente reduce a la mitad el tiempo a la primera citación.

  • ¿Puedo rastrear citaciones de ChatGPT programáticamente?

    Sí. El endpoint LLM Mentions de DataForSEO devuelve datos de citación a través de ChatGPT, Perplexity, Claude y Google AI Overviews para prompts rastreados. Otterly Lite y Profound ofrecen dashboards gestionados que automatizan el panel de prompts y muestran tasa de citación, share of voice y comparación con competidores. El fallback gratuito es un panel manual de prompts — 20 prompts de intención compradora corridos una vez al mes contra cada asistente, resultados capturados en una hoja de cálculo.