Skip to content
Bootstrapping · · 11 min de lecture

Créez quelque chose que les agents veulent

La devise de Y Combinator était pour les humains. La nouvelle version est pour les machines. Si les agents IA ne peuvent pas parser, comparer et agir sur votre contenu — vous n'existez pas.

Par Alex Diaz · Mis à jour 30 mars 2026

En bref : Les agents IA ne peuvent pas lire votre copy marketing — ils ont besoin de données structurées, de JSON-LD schema, de llms.txt et de agents.txt. Débloquez les crawlers IA et menez avec des données lisibles par les machines. Bloquer GPTBot en 2026, c’est bloquer Googlebot en 2004.

Google vous a envoyé du trafic pendant 20 ans. Cette ère touche à sa fin.

Les nouveaux visiteurs n’ont pas de navigateur. Ils ne scrollent pas. Ils ne cliquent pas sur votre landing page en se disant “ça a l’air fiable”. Ils parsent des données structurées, comparent des specs sur 50 onglets en parallèle, et prennent des décisions d’achat en moins d’une seconde. Ce sont des agents IA. Et ils ne peuvent pas lire votre site web.

Points clés :

  • Les agents IA ne peuvent pas lire votre site — ils ont besoin de données structurées, pas de copy marketing
  • Ajoutez du JSON-LD schema markup, /llms.txt et /agents.txt à chaque site
  • Débloquez les crawlers IA dans robots.txt — bloquer GPTBot en 2026, c’est bloquer Googlebot en 2004
  • Les moteurs de réponses citent le contenu qui mène avec la réponse, pas celui qui l’enterre sous une introduction
  • Les early movers en optimisation pour agents vont capitaliser sur cet avantage pendant des années — comme le SEO précoce en 2003

La devise de Y Combinator a toujours été “Make something people want.” Ils viennent de poser la question évidente : que se passe-t-il quand l’acheteur n’est pas une personne ?

L’économie des agents est déjà là

Pas de la spéculation. C’est déjà en cours.

OpenClaw développe des agents autonomes qui naviguent, comparent et achètent. Claude peut utiliser un ordinateur — cliquer sur des boutons, remplir des formulaires, naviguer dans des flux de paiement. Operator d’OpenAI fait pareil. Pi-mono et une douzaine d’autres frameworks d’agents sont en course pour rendre ça mainstream.

Les outils de développement IA explosent. Des protocoles agent-à-agent émergent. Les entreprises qui gagneront seront celles avec lesquelles les agents pourront réellement interagir. Pas celles avec la plus belle homepage. Celles avec les données les plus propres.

Votre site est invisible pour les machines

Vous avez passé des mois à écrire le copy de votre landing page. A/B testé les titres. Engagé un designer. La page convertit à 3,2 % et vous en êtes fier. Rien de tout ça n’intéresse un agent.

Un agent ne lit pas votre hero section. Il se fiche de votre histoire de marque. Il cherche des données structurées — des prix dans un format parseable, des specs qu’il peut comparer, des endpoints d’API qu’il peut appeler, des signaux de confiance qu’il peut vérifier. Si ces données n’existent pas, l’agent passe chez un concurrent dont il peut comprendre le site.

Aujourd’hui, un humain cherche sur Google “meilleure app de quiz pour Shopify”, lit trois articles, consulte les avis et décide. Demain, un agent interroge plusieurs sources simultanément, extrait des comparaisons structurées, et recommande — ou achète — sans qu’un humain ne voie jamais votre site.

Si vous n’êtes pas dans le dataset de l’agent, vous n’êtes pas dans la conversation.

Deux audiences, un seul site

Le changement n’est pas “humains vs. agents”. Ce sont les deux, simultanément, avec des besoins radicalement différents.

HumainsAgents IA
Comment ils vous trouventMoteurs de recherche, réseaux sociaux, bouche-à-oreilleDonnées d’entraînement LLM, crawls structurés, découverte d’API
Ce qu’ils lisentTitres, visuels, preuve socialeJSON-LD, schema markup, tableaux lisibles par machines
Comment ils décidentÉmotion, confiance, impression de marqueSpecs, tarifs, matrices de fonctionnalités, SLAs
Ce qu’ils fontCliquer sur le CTA, peut-être acheter plus tardAppeler l’API, finaliser la transaction, passer au suivant
Ce qu’ils ignorentDonnées structurées, meta tagsVotre belle hero image et votre voix de marque

Les agents apprennent. Ils retiennent quels sites leur donnent des données propres et lesquels leur font perdre du temps. Un agent qui extrait vos tarifs avec succès une fois reviendra. Celui qui se heurte à un mur de prose marketing ne le fera pas.

Ce dont les agents ont vraiment besoin

Oubliez tout ce que vous savez du SEO. L’optimisation pour agents est une discipline à part.

Des données structurées sur chaque page. JSON-LD schema markup — Product, FAQPage, HowTo, SoftwareApplication. Pas parce que Google le récompense (même si c’est le cas). Parce que les agents le parsent directement. Votre page de tarifs sans schema est une image. Votre page de tarifs avec schema est une base de données.

Des données lisibles par les machines, pas du marketing. “Performance best-in-class” ne veut rien dire pour un agent. “99,9 % de SLA d’uptime, 200 ms de latence p95, 10 000 req/min de rate limit” — ça, ce sont des données exploitables. Les agents comparent des chiffres, pas des adjectifs.

Des fichiers de découverte. Quasiment personne ne les a encore implémentés :

  • /llms.txt — un fichier markdown qui indique aux LLMs le sujet de votre site, quelles pages comptent et où trouver les informations clés. Un README pour les crawlers IA.
  • /agents.txt — un fichier YAML qui indique aux agents autonomes ce qu’ils peuvent faire avec votre service, où se trouve votre API, comment s’authentifier, quelles capacités vous offrez. Du service discovery pour l’économie des agents.
  • /.well-known/api-catalog — RFC 9727. Un endpoint de découverte d’API. Si vous avez une API et que ce fichier n’existe pas, les agents ne peuvent pas la trouver programmatiquement.

Des endpoints pour l’action. Un agent qui peut lire vos tarifs mais ne peut pas s’inscrire programmatiquement va recommander un concurrent qui le lui permet. Documentation d’API, guides de configuration de webhooks, liens d’inscription directs — des chemins de conversion pour les machines.

La couche des moteurs de réponses

Les agents sont une moitié. L’autre moitié est déjà mainstream : les moteurs de réponses LLM.

ChatGPT, Claude, Perplexity, Gemini — des centaines de millions de personnes demandent désormais à l’IA au lieu de chercher sur Google. Quand quelqu’un demande “quelle est la meilleure app de quiz de recommandation produit pour Shopify” — le LLM cite votre contenu ou il ne le fait pas. Il n’y a pas de page deux. C’est cité ou invisible.

Les règles pour les moteurs de réponses diffèrent de celles des agents mais sont tout aussi ignorées :

Du contenu qui répond d’abord. Les LLMs extraient les 2-3 premières phrases qui répondent directement à une requête. Si votre premier paragraphe est une mise en contexte sur “l’évolution du paysage e-commerce”, vous offrez la citation à quelqu’un qui mène avec la réponse.

Des titres alignés sur l’intention. Votre H2 devrait correspondre à la requête exacte que quelqu’un tape. Pas “Notre Approche des Recommandations Produit”. Essayez “Meilleure App de Quiz de Recommandation Produit pour Shopify”. Le titre EST la requête.

Des blocs citables. Les LLMs extraient des déclarations propres et autonomes avec des chiffres précis. “Utilisé par 4 000+ boutiques avec une note de 4,9/5” est cité. “Nous aidons les entreprises à se développer” est ignoré. Écrivez des phrases qui valent la peine d’être citées.

Le problème du robots.txt

La plupart des entreprises ont un robots.txt qui bloque les crawlers IA.

User-agent: GPTBot
Disallow: /

User-agent: ClaudeBot
Disallow: /

C’était logique quand la peur était “l’IA vole notre contenu”. Ça n’a aucun sens quand l’IA vous envoie des clients. Bloquer GPTBot en 2026, c’est bloquer Googlebot en 2004 parce que vous aviez peur que “les moteurs de recherche volent votre trafic”.

Laissez-les lire votre site. C’est aussi simple que ça.

Pourquoi c’est encore plus important pour les bootstrappers

Les entreprises financées par du VC vont embaucher des “spécialistes SEO pour IA” et passer six mois à construire une infrastructure agent-friendly. Des comités. Des roadmaps. Des OKR trimestriels.

Les bootstrappers peuvent le faire en un après-midi. C’est l’avantage d’être petit.

Ajoutez du schema markup à vos pages clés. Rédigez un fichier llms.txt. Créez un agents.txt. Rendez vos tarifs lisibles par les machines. Supprimez les blocages de crawlers IA de votre robots.txt. Structurez votre contenu pour que la première phrase réponde à la question.

Ce n’est pas un projet d’infrastructure massif. C’est une checklist. Et pour l’instant, quasiment personne ne l’a fait.

L’effet composé

Le comportement des agents est auto-renforçant. Un agent qui extrait avec succès des données de votre site vous ajoute à son ensemble de travail. La prochaine fois qu’il doit comparer des produits dans votre catégorie, vous êtes déjà dans le lot. Vous devenez une source fiable — pas grâce à la notoriété de marque, mais parce que vos données sont propres et vos endpoints fonctionnent.

Pour les détails tactiques : Answer Engine Optimization couvre la mécanique pour être cité. Le revers de la médaille : les sites que les agents apprennent à ignorer restent ignorés définitivement. Pas de seconde chance pour faire une première impression quand le visiteur traite 50 sites par seconde.

Les early movers du SEO — ceux qui ont compris Google en 2003 avant que chaque agence marketing ne se mette à jouer le système — ont capitalisé sur cet avantage pendant une décennie. La même logique d’intérêts composés s’applique aux moats de distribution en général — plus tôt vous commencez à les construire, plus ils sont difficiles à déloger. Nous sommes à ce même moment pour l’optimisation pour agents. Avant les playbooks. Avant le spam. Avant que tout le monde ne comprenne et que l’avantage disparaisse.

Comment je vois les choses

J’ai construit le skill AI Rank parce que j’en avais besoin moi-même.

Deux frameworks. LLM — six principes pour rendre du contenu citable par les moteurs de réponses. AGENT — cinq piliers pour rendre votre site actionnable par des agents autonomes. Chacun évalue votre contenu, identifie les lacunes et réécrit ce qui doit l’être.

Il génère les fichiers de découverte — llms.txt, agents.txt, tout le stack. Il audite votre schema markup. Il réécrit votre contenu pour mener avec des réponses plutôt que des introductions. Il fait en 30 minutes ce qui prendrait une semaine de travail manuel.

Le skill tourne dans Claude Code. /ai-rank et pointez-le vers une page. Il fait les deux audits, réécrit le contenu, génère des suggestions de schema, et affiche exactement ce qu’un agent ou moteur de réponses extrairait de votre page. Si l’aperçu d’extraction est vide, votre page est invisible.

Open source. Sans paywall. Clonez et exécutez.

Questions fréquentes

Qu’est-ce que llms.txt ?

Un fichier markdown à /llms.txt qui indique aux moteurs de réponses LLM le sujet de votre site, quelles pages comptent et où trouver les informations clés. Un README pour les crawlers IA. Spec sur llmstxt.org.

Qu’est-ce que agents.txt ?

Un fichier YAML à /agents.txt qui indique aux agents IA autonomes ce qu’ils peuvent faire avec votre service — où se trouve votre API, comment s’authentifier et quelles capacités vous offrez. Du service discovery pour l’économie des agents. Spec sur agentstxt.dev.

Comment optimiser du contenu pour les agents IA ?

Des données structurées sur chaque page (JSON-LD schema markup), des données lisibles par les machines au lieu du marketing, des fichiers de découverte (llms.txt, agents.txt), et des endpoints sur lesquels les agents peuvent agir. Les agents comparent des chiffres, pas des adjectifs.

Faut-il bloquer les crawlers IA dans robots.txt ?

Non — sauf si vous voulez être invisible pour la prochaine génération d’acheteurs. Bloquer GPTBot et ClaudeBot en 2026 revient à bloquer Googlebot en 2004. Si vous voulez que les agents et moteurs de réponses vous recommandent, laissez-les lire votre site.


Y Combinator a dit à toute une génération de founders de créer quelque chose que les gens veulent. La prochaine génération doit aussi créer quelque chose que les agents veulent. Les agents sont déjà là. La question est de savoir s’ils peuvent vous trouver.

Skill AI Rank sur GitHub — optimiseur de contenu dual-framework pour moteurs de réponses LLM et agents IA autonomes.

Articles similaires

Ce que personne ne dit aux founders

Flag theory, playbooks pour bootstrappers et leçons durement apprises sur les business indépendants de localisation. Pas de cours "devenez riche vite" — juste un founder qui partage ce qui a marché et cherche d'autres sur le même chemin.

Pas de spam. Pas de liens d'affiliation. Désabonnez-vous quand vous voulez. Ou suivez le flux RSS.