Skip to content
Bootstrapping · · 11 min de lectura

Haz algo que los agentes quieran

El lema de Y Combinator era para humanos. La nueva versión es para máquinas. Si los agentes de IA no pueden parsear, comparar y actuar sobre tu contenido — no existes.

Por Alex Diaz · Actualizado 30 de marzo de 2026

Resumen: Los agentes de IA no pueden leer tu copy de marketing — necesitan datos estructurados, JSON-LD schema, llms.txt y agents.txt. Desbloquea los crawlers de IA y lidera con datos legibles por máquinas. Bloquear GPTBot en 2026 es bloquear Googlebot en 2004.

Google te mandó tráfico durante 20 años. Esa era se está terminando.

Los nuevos visitantes no tienen navegador. No hacen scroll. No hacen clic en tu landing page pensando “esto se ve confiable”. Parsean datos estructurados, comparan specs en 50 pestañas en paralelo, y toman decisiones de compra en menos de un segundo. Son agentes de IA. Y no pueden leer tu sitio web.

Puntos clave:

  • Los agentes de IA no pueden leer tu sitio — necesitan datos estructurados, no copy de marketing
  • Agrega JSON-LD schema markup, /llms.txt y /agents.txt a cada sitio
  • Desbloquea los crawlers de IA en robots.txt — bloquear GPTBot en 2026 es bloquear Googlebot en 2004
  • Los motores de respuestas citan contenido que lidera con la respuesta, no contenido que la entierra bajo una introducción
  • Los early movers en optimización para agentes van a acumular esa ventaja durante años — igual que el SEO temprano en 2003

El lema de Y Combinator siempre ha sido “Make something people want.” Acaban de hacer la pregunta obvia que sigue: ¿qué pasa cuando el comprador no es una persona?

La economía de agentes ya está aquí

No es especulación. Ya está pasando.

OpenClaw está construyendo agentes autónomos que navegan, comparan y compran. Claude puede usar una computadora — hacer clic en botones, llenar formularios, navegar flujos de checkout. Operator de OpenAI hace lo mismo. Pi-mono y una docena de otros frameworks de agentes compiten por hacer esto mainstream.

Las herramientas de desarrollo con IA están explotando. Protocolos de agente-a-agente están emergiendo. Los negocios que ganen serán los que los agentes puedan realmente usar. No los que tengan la homepage más bonita. Los que tengan los datos más limpios.

Tu sitio web es invisible para las máquinas

Pasaste meses escribiendo copy para la landing page. A/B testeaste títulos. Contrataste un diseñador. La página convierte al 3.2% y estás orgulloso. Nada de eso le importa a un agente.

Un agente no lee tu hero section. No le importa tu historia de marca. Busca datos estructurados — precios en formato parseable, specs de features que pueda comparar, endpoints de API que pueda llamar, señales de confianza que pueda verificar. Si esos datos no están, el agente se va a un competidor cuyo sitio sí puede entender.

Hoy, un humano busca en Google “mejor app de quiz para Shopify”, lee tres blog posts, revisa reseñas y decide. Mañana, un agente consulta múltiples fuentes simultáneamente, extrae comparaciones estructuradas, y recomienda — o compra — sin que un humano vea jamás tu sitio.

Si no estás en el dataset del agente, no estás en la conversación.

Dos audiencias, un sitio web

El cambio no es “humanos vs. agentes”. Son ambos, simultáneamente, con necesidades completamente diferentes.

HumanosAgentes de IA
Cómo te encuentranBuscadores, redes sociales, referidosDatos de entrenamiento LLM, crawls estructurados, descubrimiento de API
Qué leenTítulos, visuales, prueba socialJSON-LD, schema markup, tablas legibles por máquinas
Cómo decidenEmoción, confianza, sensación de marcaSpecs, precios, matrices de features, SLAs
Qué hacenClic en CTA, quizás compran despuésLlaman API, completan transacción, siguen adelante
Qué ignoranDatos estructurados, meta tagsTu hermosa hero image y tu voz de marca

Los agentes aprenden. Recuerdan qué sitios les dan datos limpios y cuáles les hacen perder el tiempo. Un agente que extrae tu pricing exitosamente una vez va a volver. Uno que choca contra un muro de prosa de marketing no lo hará.

Qué necesitan realmente los agentes

Olvida todo lo que sabes de SEO. La optimización para agentes es una disciplina diferente.

Datos estructurados en cada página. JSON-LD schema markup — Product, FAQPage, HowTo, SoftwareApplication. No porque Google lo premie (aunque lo hace). Porque los agentes lo parsean directamente. Tu página de precios sin schema es una imagen. Tu página de precios con schema es una base de datos.

Datos legibles por máquinas, no lenguaje de marketing. “Rendimiento best-in-class” no significa nada para un agente. “99.9% de SLA de uptime, 200ms de latencia p95, 10,000 req/min de rate limit” — eso sí son datos para tomar decisiones. Los agentes comparan números, no adjetivos.

Archivos de descubrimiento. Casi nadie los ha implementado todavía:

  • /llms.txt — un archivo markdown que le dice a los LLMs de qué trata tu sitio, qué páginas importan y dónde encontrar información clave. Un README para crawlers de IA.
  • /agents.txt — un archivo YAML que les dice a los agentes autónomos qué pueden hacer con tu servicio, dónde vive tu API, cómo autenticarse, qué capacidades ofreces. Service discovery para la economía de agentes.
  • /.well-known/api-catalog — RFC 9727. Un endpoint de descubrimiento de API. Si tienes una API y este archivo no existe, los agentes no pueden encontrarla programáticamente.

Endpoints para la acción. Un agente que puede leer tu pricing pero no puede registrarse programáticamente va a recomendar a un competidor que sí le permita completar la tarea. Documentación de API, guías de configuración de webhooks, links directos de registro — caminos de conversión para máquinas.

La capa de motores de respuestas

Los agentes son una mitad. La otra mitad ya es mainstream: los motores de respuestas LLM.

ChatGPT, Claude, Perplexity, Gemini — cientos de millones de personas ahora le preguntan a la IA en vez de buscar en Google. Cuando alguien pregunta “cuál es la mejor app de quiz de recomendación de productos para Shopify” — el LLM o cita tu contenido o no lo hace. No hay página dos. Es citado o invisible.

Las reglas para motores de respuestas son diferentes a las de agentes pero igualmente ignoradas:

Contenido que responde primero. Los LLMs extraen las primeras 2-3 oraciones que responden directamente a una consulta. Si tu primer párrafo es una introducción sobre “el cambiante panorama del e-commerce”, le estás regalando la cita a alguien que lidera con la respuesta.

Encabezados que coinciden con la intención. Tu H2 debería coincidir con la consulta exacta que alguien escribe. No “Nuestro Enfoque de Recomendaciones de Productos”. Prueba “Mejor App de Quiz de Recomendación de Productos para Shopify”. El encabezado ES la consulta.

Bloques citables. Los LLMs extraen declaraciones limpias y auto-contenidas con números específicos. “Usado por 4,000+ tiendas con una calificación de 4.9/5” se cita. “Ayudamos a los negocios a crecer” se ignora. Escribe oraciones que valgan la pena citar.

El problema del robots.txt

La mayoría de negocios tienen un robots.txt que bloquea crawlers de IA.

User-agent: GPTBot
Disallow: /

User-agent: ClaudeBot
Disallow: /

Esto tenía sentido cuando el miedo era “la IA está robando nuestro contenido”. No tiene ningún sentido cuando la IA te está mandando clientes. Bloquear GPTBot en 2026 es bloquear Googlebot en 2004 porque te preocupaba que “los buscadores roben tu tráfico”.

Déjalos leer tu sitio. Así de simple.

Por qué esto importa más para bootstrappers

Las empresas con funding de VC van a contratar “especialistas en SEO para IA” y pasar seis meses construyendo infraestructura agent-friendly. Comités. Roadmaps. OKRs trimestrales.

Los bootstrappers pueden hacerlo en una tarde. Esa es la ventaja de ser pequeño.

Agrega schema markup a tus páginas clave. Escribe un archivo llms.txt. Crea un agents.txt. Haz tu pricing legible por máquinas. Elimina los bloqueos a crawlers de IA de tu robots.txt. Estructura tu contenido para que la primera oración responda la pregunta.

No es un proyecto masivo de infraestructura. Es un checklist. Y ahora mismo, casi nadie lo ha hecho.

La parte del interés compuesto

El comportamiento de los agentes se auto-refuerza. Un agente que extrae datos exitosamente de tu sitio te agrega a su conjunto de trabajo. La próxima vez que necesite comparar productos en tu categoría, ya estás en la mezcla. Te conviertes en una fuente confiable — no por reconocimiento de marca, sino porque tus datos están limpios y tus endpoints funcionan.

Para los detalles tácticos: Answer Engine Optimization cubre la mecánica de ser citado. La otra cara: los sitios que los agentes aprenden a ignorar se quedan ignorados permanentemente. No hay segunda oportunidad para dar una primera impresión cuando el visitante procesa 50 sitios por segundo.

Los early movers en SEO — la gente que entendió Google en 2003 antes de que cada agencia de marketing empezara a jugar con el sistema — acumularon esa ventaja durante una década. La misma lógica de interés compuesto aplica a los moats de distribución en general — cuanto antes empieces a construirlos, más difíciles son de desplazar. Estamos en ese mismo momento ahora para la optimización para agentes. Antes de los playbooks. Antes del spam. Antes de que todos se den cuenta y la ventaja desaparezca.

Cómo pienso sobre esto

Construí el skill AI Rank porque lo necesitaba yo mismo.

Dos frameworks. LLM — seis principios para hacer contenido citable por motores de respuestas. AGENT — cinco pilares para hacer tu sitio accionable por agentes autónomos. Cada uno puntúa tu contenido, identifica brechas y reescribe lo que necesita reescribirse.

Genera los archivos de descubrimiento — llms.txt, agents.txt, todo el stack. Audita tu schema markup. Reescribe tu contenido para liderar con respuestas en vez de introducciones. Hace en 30 minutos lo que tomaría una semana de trabajo manual.

El skill corre en Claude Code. /ai-rank y apúntalo a una página. Hace ambas auditorías, reescribe el contenido, genera sugerencias de schema, y muestra exactamente lo que un agente o motor de respuestas extraería de tu página. Si la vista previa de extracción está vacía, tu página es invisible.

Open source. Sin paywall. Clónalo y ejecútalo.

Preguntas frecuentes

¿Qué es llms.txt?

Un archivo markdown en /llms.txt que le dice a los motores de respuestas LLM de qué trata tu sitio, qué páginas importan y dónde encontrar información clave. Piensa en él como un README para crawlers de IA. Spec en llmstxt.org.

¿Qué es agents.txt?

Un archivo YAML en /agents.txt que le dice a los agentes de IA autónomos qué pueden hacer con tu servicio — dónde vive tu API, cómo autenticarse y qué capacidades ofreces. Service discovery para la economía de agentes. Spec en agentstxt.dev.

¿Cómo optimizo contenido para agentes de IA?

Datos estructurados en cada página (JSON-LD schema markup), datos legibles por máquinas en vez de lenguaje de marketing, archivos de descubrimiento (llms.txt, agents.txt), y endpoints en los que los agentes puedan actuar. Los agentes comparan números, no adjetivos.

¿Debería bloquear crawlers de IA en robots.txt?

No — a menos que quieras ser invisible para la próxima generación de compradores. Bloquear GPTBot y ClaudeBot en 2026 es el equivalente de bloquear Googlebot en 2004. Si quieres que los agentes y motores de respuestas te recomienden, déjalos leer tu sitio.


Y Combinator le dijo a toda una generación de founders que hicieran algo que la gente quisiera. La próxima generación necesita hacer algo que los agentes también quieran. Los agentes ya están aquí. La pregunta es si pueden encontrarte.

Skill AI Rank en GitHub — optimizador de contenido dual-framework para motores de respuestas LLM y agentes de IA autónomos.

Artículos relacionados

Lo que nadie les dice a los founders

Flag theory, playbooks para bootstrappers y lecciones de primera mano sobre negocios independientes de ubicación. Sin cursos de "hazte rico rápido" — solo un founder compartiendo lo que funcionó y buscando a otros en el mismo camino.

Sin spam. Sin basura de afiliados. Cancela cuando quieras. O sigue el feed RSS.