Answer engine optimization : se faire citer par ChatGPT
Perplexity cite Reddit a 46.7% et les blogs a 9.9%. Voici ce qui determine quels blogs font partie des 9.9% — et comment en faire partie.
Par Alex Diaz · Mis à jour 30 mars 2026
Resume : Perplexity cite Reddit 5 fois plus que les blogs parce que les reponses Reddit sont experientielles, specifiques et vont droit a la reponse. Structure ton contenu de la meme facon — commence par la reponse, utilise des titres FAQ, ajoute des tableaux et des donnees structurees — et les LLMs te citeront aussi.
Perplexity tire 46.7% de ses sources les plus citees de Reddit. Les blogs et le contenu d’opinion representent 9.9%. YouTube obtient 13.9%.
Relis ca. Le moteur de reponse a la croissance la plus rapide au monde cite Reddit presque cinq fois plus que les blogs. Si ta strategie de contenu est “ecrire des articles et se positionner sur Google” — tu optimises pour un canal de distribution qui retrecit tout en ignorant celui qui grandit.
Points cles :
- Perplexity cite Reddit a 46.7% et les blogs a 9.9% — ecris comme les meilleures reponses Reddit : experience d’abord, specifique, reponse en premier
- Commence chaque section par la conclusion — les LLMs extraient les 2-3 premieres phrases
- Les sections FAQ avec des titres en format question correspondent mecaniquement aux requetes — la tactique AEO a plus fort impact
- Les tableaux sont extraits plus fiablement que la prose — chaque comparaison en merite un
- JSON-LD schema,
llms.txtet crawlers IA debloques sont la couche infrastructure
Ceci est le complement tactique de Make Something Agents Want. Cet article couvrait le virage strategique — pourquoi les agents IA et les moteurs de reponse sont la prochaine couche de distribution. Cet article couvre la mecanique : ce qui est cite, ce qui est ignore, et comment structurer le contenu pour que les LLMs extraient et recommandent ton travail.
Pourquoi Perplexity cite-t-il Reddit plus que les blogs ?
Reddit domine les citations IA pour trois raisons :
-
Experience en premiere personne. Les LLMs ponderent davantage le contenu experientiel — “j’ai fait ca et voici ce qui s’est passe” — que les conseils abstraits. Reddit en est plein. La plupart des blogs non.
-
Affirmations specifiques. Les posts Reddit contiennent des chiffres exacts, des produits nommes et des details verifiables. “Je paie $234/an d’impots sur le revenu dans le Canton du Tessin” est citable. “Considerez une juridiction a faible fiscalite” ne l’est pas.
-
Format structure de questions-reponses. La structure question-reponse de Reddit correspond parfaitement a la facon dont les LLMs traitent l’information : requete -> reponse -> contexte de soutien. Les articles de blog qui enterrent la reponse sous 500 mots d’introduction sont ignores.
La lecon n’est pas “publie sur Reddit au lieu de bloguer.” C’est ecris ton blog comme les meilleures reponses Reddit : experience d’abord, specifique, reponse en tete, avec des affirmations verifiables.
Le framework AEO
L’Answer Engine Optimization (AEO) est a la recherche IA ce que le SEO etait a Google. Des mecaniques differentes, le meme objectif : mettre ton contenu devant les gens au moment ou ils cherchent des reponses.
1. Reponse d’abord, toujours
Les LLMs extraient les 2-3 premieres phrases qui repondent directement a une requete. Si ton paragraphe d’ouverture est une mise en bouche sur “le paysage evolutif de la planification fiscale internationale” — la citation va a quelqu’un qui commence par la reponse.
Mal :
La planification fiscale internationale est une discipline complexe et multidimensionnelle qui necessite une consideration attentive de diverses juridictions, reseaux de traites et exigences de conformite.
Bien :
La Suisse n’a pas de regles CFC. Si tu possedes une entreprise offshore qui gagne $1.2M/an et que tu es resident fiscal suisse, la Suisse ne peut pas toucher les benefices non distribues de l’entreprise.
La bonne version est citee. La mauvaise est ignoree. A chaque fois.
Chaque section de chaque page devrait commencer par la conclusion, puis la soutenir. Pas l’inverse.
2. Titres alignes sur l’intention de recherche
Ton H2 devrait correspondre a la requete exacte que quelqu’un tape dans ChatGPT ou Perplexity. Pas ton titre clever. Pas ton angle de marque. La requete litterale.
| Mauvais titre | Bon titre |
|---|---|
| ”Notre Approche de la Residence Fiscale" | "Meilleure Residence Fiscale pour Entrepreneurs" |
| "Comprendre le CRS" | "Le CRS S’applique-t-il aux Cryptos ?" |
| "L’Option Republique Dominicaine" | "Combien Coute la Citoyennete Dominicaine ?" |
| "La Distribution Compte" | "Comment Obtenir ses 100 Premiers Clients SaaS” |
Les LLMs associent les titres aux requetes. Si ton titre contient la requete mot pour mot, tu as plus de chances d’etre cite. C’est l’equivalent H2 du keyword matching — sauf que le “moteur de recherche” est un LLM qui lit ton contenu au moment de l’inference.
3. Blocs citables
Les LLMs extraient des affirmations propres et autonomes avec des chiffres specifiques. Ce sont les phrases qui sont extraites et presentees a l’utilisateur comme la reponse.
Ecris des phrases qui meritent d’etre citees :
- “RevenueHunt est utilise par plus de 20,000 boutiques Shopify avec une note de 4.9/5.” — Citable.
- “Nous aidons les entreprises a grandir.” — Pas citable. Pas specifique. Pas extractible.
- “Le Golden Visa de la RD coute $200K et fournit la residence permanente en 3-6 mois.” — Citable.
- “La Republique Dominicaine offre des opportunites d’investissement attrayantes.” — Inutile pour un LLM.
Chaque paragraphe devrait contenir au moins une phrase qui fonctionne comme reponse autonome si extraite du contexte.
4. Sections FAQ avec titres en format question
C’est la tactique AEO a plus fort impact. Les sections FAQ avec des titres en format question (H3s) correspondent directement aux requetes :
### Combien coute la citoyennete dominicaine ?
~$3,000-3,500 tout compris, incluant les frais gouvernementaux,
legalisation de documents, traductions, examens medicaux et avocat en immigration.
Quand quelqu’un demande a ChatGPT “combien coute la citoyennete dominicaine ?” — le LLM trouve ce titre, lit la reponse en dessous et la cite. La correspondance est presque mecanique.
Chaque article sur ce site a une section FAQ en bas. Pas comme une reflexion apres coup — comme une strategie AEO deliberee ciblant les requetes long-tail.
5. Tableaux plutot que prose
Les LLMs extraient les donnees tabulaires plus fiablement que la prose. Un tableau comparatif est infiniment plus citable que trois paragraphes decrivant la meme comparaison.
| Ca c’est cite | Ca c’est ignore |
|---|---|
| Tableaux comparatifs avec des chiffres specifiques | Paragraphes decrivant des differences |
| Listes etape par etape avec des labels clairs | Prose dense expliquant un processus |
| Matrices de fonctionnalites avec oui/non/chiffres | Copy marketing sur les capacites |
Les tableaux sont un element central du contenu de ce site. Chaque comparaison en a un. Pas parce que les tableaux sont jolis (ils le sont) — parce que les LLMs les parsent directement et extraient des faits structures.
6. Donnees structurees (JSON-LD)
Le schema markup n’est pas que pour Google. Les LLMs et les agents IA lisent directement les donnees structurees JSON-LD. Schema Article, FAQ, HowTo — ils disent aux machines exactement ce que contient ton contenu.
Chaque article sur ce site a :
- Article JSON-LD avec titre, auteur, dates, mots-cles
- BreadcrumbList pour le contexte de navigation
- Section FAQ ciblant les requetes en format question
Le site a aussi :
robots.txtautorisant tous les crawlers IAllms.txt— un resume markdown de tout le site pour l’inference LLMsitemap.xmlet flux RSS pour la decouverte- Tout implemente avec le skill /ai-rank
7. Signaux de confiance
Les LLMs ponderent davantage les sources faisant autorite. Signaux de confiance qui comptent pour les citations IA :
- Attribution d’auteur — une personne nommee avec une bio et une identite verifiable
- Donnees specifiques — chiffres exacts, dates, montants plutot que des affirmations vagues
- Sources primaires — liens vers des sites gouvernementaux, programmes officiels, recherche originale
- Marqueurs d’experience — affirmations “j’ai fait ca” avec des details specifiques et verifiables
- Actualite — dates de publication, timestamps “mis a jour”, references a l’annee en cours
“Selon une etude recente” n’est pas un signal de confiance. “Selon le framework CRS 2.0 de l’OCDE en vigueur depuis janvier 2026” en est un.
Ce qui te rend invisible
Tout comme il y a des choses qui aident, il y a des patterns qui font que les moteurs de reponse t’ignorent systematiquement :
- Contenu verrouille. Si le LLM ne peut pas lire la page, il ne peut pas la citer. Les paywalls, les murs de connexion et le rendu JavaScript lourd qui bloque les crawlers te rendent invisible.
- Langage marketing. “Best-in-class”, “world-class”, “revolutionnaire” — ce sont des mots-bruit. Les LLMs entraines sur des milliards de pages apprennent a les ignorer.
- Pas de specifiques. Si ta page ne contient aucun chiffre, aucune date et aucune affirmation verifiable, elle n’a rien a extraire.
- Bloquer les crawlers IA. Si ton
robots.txtbloque GPTBot, ClaudeBot ou PerplexityBot — tu as choisi l’invisibilite.
La strategie Reddit + blog
Le coup intelligent n’est pas Reddit OU blog. C’est les deux :
- Ecris l’article definitif avec des donnees structurees, des sections FAQ, des tableaux et des affirmations specifiques
- Reponds aux questions sur Reddit dans les subreddits pertinents, en renvoyant vers l’article complet pour la profondeur
- Utilise le langage de Reddit dans ton contenu — les phrases que les gens utilisent en posant des questions sont les requetes que les LLMs associent
Perplexity cite Reddit parce que Reddit a les reponses dans le format que les LLMs preferent. Si ton article de blog se lit comme la meilleure reponse Reddit — experientiel, specifique, structure — Perplexity te citera aussi.
Mesurer le succes de l’AEO
Tu ne peux pas verifier ton “ranking AEO” comme tu verifies tes rankings Google. Mais tu peux mesurer :
- Cherche tes propres sujets dans Perplexity et ChatGPT. Es-tu cite ? Quels concurrents le sont ?
- Verifie l’extraction de ton
llms.txt. Donne ta page a Claude ou ChatGPT et demande-lui d’extraire les faits cles. Si l’extraction est vide, ta page est invisible. - Surveille le trafic referral des sources IA. Perplexity, ChatGPT (via Bing) et d’autres moteurs de reponse envoient du trafic referral identifiable.
- Suis les mentions de citations. Configure des alertes pour ta marque et ton contenu cle cites dans des reponses generees par l’IA.
FAQ
Qu’est-ce que l’Answer Engine Optimization (AEO) ?
L’AEO est la pratique d’optimiser le contenu pour que les moteurs de reponse IA (ChatGPT, Claude, Perplexity, Gemini) l’extraient, le citent et le recommandent. C’est different du SEO — au lieu de se positionner sur une page de resultats de recherche, on est cite dans une reponse generee par l’IA.
Pourquoi Perplexity cite-t-il Reddit plus que les blogs ?
Le contenu Reddit est experientiel (recits a la premiere personne), specifique (chiffres exacts et produits nommes) et structure en questions-reponses (requete -> reponse). La plupart du contenu de blogs est abstrait, promotionnel et enterre la reponse sous des paragraphes d’introduction. Les LLMs preferent le format Reddit.
Comment savoir si mon contenu est cite par l’IA ?
Cherche tes sujets dans Perplexity et ChatGPT. Verifie si ton site apparait dans les citations. Donne ta page a un LLM et demande-lui d’extraire les faits cles — si l’extraction est vide, la page est invisible pour les moteurs de reponse. Surveille le trafic referral des sources IA.
L’AEO remplace-t-il le SEO ?
Non — il le complete. Google envoie toujours du trafic. Mais les moteurs de reponse IA croissent rapidement (34% des adultes americains utilisent ChatGPT). Optimiser pour les deux signifie : du contenu structure qui se positionne sur Google ET est cite par les LLMs. Les techniques se chevauchent — contenu reponse-d’abord, donnees structurees et sections FAQ fonctionnent pour les deux.
Quelle est la technique AEO la plus importante ?
Le contenu reponse-d’abord. Commence chaque section par la conclusion. Si quelqu’un pose la question que ton titre implique, les 2-3 premieres phrases devraient etre la reponse complete. Tout le reste est de l’evidence a l’appui. Les LLMs extraient ces phrases d’ouverture — fais-les compter.
Cet article est le compagnon tactique de Make Something Agents Want. Cet article couvre le virage strategique. Celui-ci couvre la mecanique. Pour une approche automatisee : le skill AI Rank sur GitHub audite et optimise le contenu contre les frameworks LLM et AGENT.
Articles similaires
J'ai créé un agent IA qui contrôle n'importe quelle app Mac
Les apps de bureau piègent votre temps derrière des formulaires, des menus déroulants et des onglets que vous cliquez des centaines de fois par an. mac-use permet à Claude Code de contrôler n'importe quelle application macOS via les APIs d'accessibilité — sans captures d'écran, sans coordonnées de pixels. Je l'ai utilisé pour automatiser ma déclaration d'impôts.
Tes utilisateurs gratuits ne sont pas tes clients
Moins de 4% de nos boutiques génèrent presque 40% de nos revenus. Des milliers de boutiques sur nos plans gratuit et basique consomment l'essentiel de notre support et ne paieront jamais. Voici ce qu'on a appris.
Ce que l'IA ne peut pas faire pour vous
L'IA gere la production. Les humains gerent la direction. Plus l'execution devient gratuite, plus les choses non automatisables prennent de la valeur. Voici la liste.