Crea qualcosa che gli agenti vogliano
Il motto di Y Combinator era per gli umani. La nuova versione è per le macchine. Se gli agenti IA non possono parsare, confrontare e agire sui tuoi contenuti — non esisti.
Di Alex Diaz · Aggiornato 30 marzo 2026
In breve: Gli agenti IA non possono leggere il tuo copy di marketing — hanno bisogno di dati strutturati, JSON-LD schema,
llms.txteagents.txt. Sblocca i crawler IA e metti in primo piano i dati leggibili dalle macchine. Bloccare GPTBot nel 2026 è come bloccare Googlebot nel 2004.
Google ti ha mandato traffico per 20 anni. Quell’era sta finendo.
I nuovi visitatori non hanno un browser. Non scrollano. Non cliccano sulla tua landing page pensando “questo sembra affidabile”. Parsano dati strutturati, confrontano specifiche su 50 schede in parallelo, e prendono decisioni d’acquisto in meno di un secondo. Sono agenti IA. E non possono leggere il tuo sito web.
Punti chiave:
- Gli agenti IA non possono leggere il tuo sito — hanno bisogno di dati strutturati, non di copy di marketing
- Aggiungi JSON-LD schema markup,
/llms.txte/agents.txta ogni sito - Sblocca i crawler IA nel
robots.txt— bloccare GPTBot nel 2026 è come bloccare Googlebot nel 2004 - I motori di risposte citano contenuti che partono dalla risposta, non contenuti che la seppelliscono sotto un’introduzione
- Chi si muove per primo nell’ottimizzazione per agenti accumulerà quel vantaggio per anni — come il SEO precoce nel 2003
Il motto di Y Combinator è sempre stato “Make something people want.” Hanno appena posto la domanda ovvia: cosa succede quando il compratore non è una persona?
L’economia degli agenti è già qui
Non è speculazione. Sta già succedendo.
OpenClaw sta costruendo agenti autonomi che navigano, confrontano e comprano. Claude può usare un computer — cliccare pulsanti, compilare moduli, navigare flussi di checkout. Operator di OpenAI fa lo stesso. Pi-mono e una dozzina di altri framework di agenti corrono per renderlo mainstream.
Gli strumenti di sviluppo IA stanno esplodendo. Protocolli agente-ad-agente stanno emergendo. Le aziende che vinceranno saranno quelle con cui gli agenti possono effettivamente interagire. Non quelle con la homepage più bella. Quelle con i dati più puliti.
Il tuo sito web è invisibile per le macchine
Hai passato mesi a scrivere il copy della landing page. A/B testato i titoli. Assunto un designer. La pagina converte al 3,2% e ne sei orgoglioso. Niente di tutto ciò interessa a un agente.
Un agente non legge la tua hero section. Non gli interessa la storia del tuo brand. Cerca dati strutturati — prezzi in formato parsabile, specifiche che può confrontare, endpoint API che può chiamare, segnali di fiducia che può verificare. Se quei dati non ci sono, l’agente passa a un concorrente il cui sito riesce effettivamente a capire.
Oggi, un umano cerca su Google “migliore app quiz per Shopify”, legge tre articoli, controlla le recensioni e decide. Domani, un agente interroga più fonti simultaneamente, estrae confronti strutturati, e raccomanda — o compra — senza che un umano veda mai il tuo sito.
Se non sei nel dataset dell’agente, non sei nella conversazione.
Due audience, un sito web
Il cambiamento non è “umani vs. agenti”. Sono entrambi, simultaneamente, con bisogni completamente diversi.
| Umani | Agenti IA | |
|---|---|---|
| Come ti trovano | Motori di ricerca, social, passaparola | Dati di training LLM, crawl strutturati, scoperta API |
| Cosa leggono | Titoli, visual, riprova sociale | JSON-LD, schema markup, tabelle leggibili dalle macchine |
| Come decidono | Emozione, fiducia, sensazione del brand | Specifiche, prezzi, matrici di funzionalità, SLA |
| Cosa fanno | Clic sulla CTA, forse comprano dopo | Chiamano API, completano la transazione, vanno avanti |
| Cosa ignorano | Dati strutturati, meta tag | La tua bella hero image e la tua voce di brand |
Gli agenti imparano. Ricordano quali siti gli danno dati puliti e quali gli fanno perdere tempo. Un agente che estrae con successo i tuoi prezzi una volta tornerà. Uno che sbatte contro un muro di prosa di marketing non lo farà.
Di cosa hanno davvero bisogno gli agenti
Dimentica tutto quello che sai del SEO. L’ottimizzazione per agenti è una disciplina diversa.
Dati strutturati su ogni pagina. JSON-LD schema markup — Product, FAQPage, HowTo, SoftwareApplication. Non perché Google lo premia (anche se lo fa). Perché gli agenti lo parsano direttamente. La tua pagina prezzi senza schema è un’immagine. La tua pagina prezzi con schema è un database.
Dati leggibili dalle macchine, non linguaggio di marketing. “Performance best-in-class” non significa nulla per un agente. “99,9% SLA di uptime, 200ms di latenza p95, 10.000 req/min di rate limit” — questi sono dati su cui prendere decisioni. Gli agenti confrontano numeri, non aggettivi.
File di scoperta. Quasi nessuno li ha ancora implementati:
/llms.txt— un file markdown che dice ai LLM di cosa tratta il tuo sito, quali pagine contano e dove trovare le informazioni chiave. Un README per i crawler IA./agents.txt— un file YAML che dice agli agenti autonomi cosa possono fare con il tuo servizio, dove si trova la tua API, come autenticarsi, quali capacità offri. Service discovery per l’economia degli agenti./.well-known/api-catalog— RFC 9727. Un endpoint di scoperta API. Se hai un’API e questo file non esiste, gli agenti non possono trovarla programmaticamente.
Endpoint per l’azione. Un agente che può leggere i tuoi prezzi ma non può iscriversi programmaticamente raccomanderà un concorrente che gli permette di completare il compito. Documentazione API, guide di configurazione webhook, link di iscrizione diretti — percorsi di conversione per le macchine.
Il livello dei motori di risposte
Gli agenti sono una metà. L’altra metà è già mainstream: i motori di risposte LLM.
ChatGPT, Claude, Perplexity, Gemini — centinaia di milioni di persone ora chiedono all’IA invece di cercare su Google. Quando qualcuno chiede “qual è la migliore app quiz di raccomandazione prodotti per Shopify” — il LLM o cita il tuo contenuto o non lo fa. Non c’è pagina due. È citato o invisibile.
Le regole per i motori di risposte sono diverse da quelle per gli agenti ma ugualmente ignorate:
Contenuto che risponde prima. I LLM estraggono le prime 2-3 frasi che rispondono direttamente a una query. Se il tuo primo paragrafo è un’introduzione sul “panorama in evoluzione dell’e-commerce”, stai regalando la citazione a qualcuno che parte dalla risposta.
Titoli allineati all’intento. Il tuo H2 dovrebbe corrispondere alla query esatta che qualcuno digita. Non “Il Nostro Approccio alle Raccomandazioni Prodotto”. Prova “Migliore App Quiz di Raccomandazione Prodotti per Shopify”. Il titolo È la query.
Blocchi citabili. I LLM estraggono dichiarazioni pulite e autonome con numeri specifici. “Usato da 4.000+ negozi con una valutazione di 4,9/5” viene citato. “Aiutiamo le aziende a crescere” viene ignorato. Scrivi frasi che valga la pena citare.
Il problema del robots.txt
La maggior parte delle aziende ha un robots.txt che blocca i crawler IA.
User-agent: GPTBot
Disallow: /
User-agent: ClaudeBot
Disallow: /
Aveva senso quando la paura era “l’IA sta rubando i nostri contenuti”. Non ha nessun senso quando l’IA ti sta mandando clienti. Bloccare GPTBot nel 2026 è come bloccare Googlebot nel 2004 perché eri preoccupato che “i motori di ricerca rubassero il tuo traffico”.
Lasciali leggere il tuo sito. Semplice.
Perché questo conta di più per i bootstrapper
Le aziende finanziate da VC assumeranno “specialisti SEO per IA” e passeranno sei mesi a costruire infrastruttura agent-friendly. Comitati. Roadmap. OKR trimestrali.
I bootstrapper possono farlo in un pomeriggio. Questo è il vantaggio di essere piccoli.
Aggiungi schema markup alle pagine chiave. Scrivi un file llms.txt. Crea un agents.txt. Rendi i tuoi prezzi leggibili dalle macchine. Rimuovi i blocchi ai crawler IA dal robots.txt. Struttura i tuoi contenuti in modo che la prima frase risponda alla domanda.
Non è un progetto infrastrutturale massiccio. È una checklist. E in questo momento, quasi nessuno l’ha fatta.
L’effetto composto
Il comportamento degli agenti è auto-rinforzante. Un agente che estrae dati con successo dal tuo sito ti aggiunge al suo set di lavoro. La prossima volta che deve confrontare prodotti nella tua categoria, sei già nella rosa. Diventi una fonte affidabile — non per riconoscimento del brand, ma perché i tuoi dati sono puliti e i tuoi endpoint funzionano.
Per i dettagli tattici: Answer Engine Optimization copre la meccanica per essere citati. Il rovescio della medaglia: i siti che gli agenti imparano a saltare vengono saltati permanentemente. Nessuna seconda occasione per fare una prima impressione quando il visitatore processa 50 siti al secondo.
Gli early mover del SEO — le persone che hanno capito Google nel 2003 prima che ogni agenzia di marketing iniziasse a manipolare il sistema — hanno accumulato quel vantaggio per un decennio. La stessa logica di interesse composto si applica ai moat di distribuzione in generale — prima inizi a costruirli, più sono difficili da scalzare. Siamo a quello stesso momento per l’ottimizzazione per agenti. Prima dei playbook. Prima dello spam. Prima che tutti capiscano e il vantaggio svanisca.
Come la vedo io
Ho costruito lo skill AI Rank perché ne avevo bisogno io stesso.
Due framework. LLM — sei principi per rendere i contenuti citabili dai motori di risposte. AGENT — cinque pilastri per rendere il tuo sito utilizzabile da agenti autonomi. Ognuno valuta i tuoi contenuti, identifica le lacune e riscrive ciò che va riscritto.
Genera i file di scoperta — llms.txt, agents.txt, l’intero stack. Audita il tuo schema markup. Riscrive i tuoi contenuti per partire dalle risposte invece che dalle introduzioni. Fa in 30 minuti quello che richiederebbe una settimana di lavoro manuale.
Lo skill gira in Claude Code. /ai-rank e puntalo su una pagina. Fa entrambi gli audit, riscrive il contenuto, genera suggerimenti di schema, e mostra esattamente ciò che un agente o motore di risposte estrarrebbe dalla tua pagina. Se l’anteprima di estrazione è vuota, la tua pagina è invisibile.
Open source. Nessun paywall. Clonalo e eseguilo.
Domande frequenti
Cos’è llms.txt?
Un file markdown in /llms.txt che dice ai motori di risposte LLM di cosa tratta il tuo sito, quali pagine contano e dove trovare le informazioni chiave. Un README per i crawler IA. Specifiche su llmstxt.org.
Cos’è agents.txt?
Un file YAML in /agents.txt che dice agli agenti IA autonomi cosa possono fare con il tuo servizio — dove si trova la tua API, come autenticarsi e quali capacità offri. Service discovery per l’economia degli agenti. Specifiche su agentstxt.dev.
Come ottimizzo i contenuti per gli agenti IA?
Dati strutturati su ogni pagina (JSON-LD schema markup), dati leggibili dalle macchine invece di linguaggio di marketing, file di scoperta (llms.txt, agents.txt), e endpoint su cui gli agenti possono agire. Gli agenti confrontano numeri, non aggettivi.
Dovrei bloccare i crawler IA nel robots.txt?
No — a meno che tu non voglia essere invisibile per la prossima generazione di compratori. Bloccare GPTBot e ClaudeBot nel 2026 equivale a bloccare Googlebot nel 2004. Se vuoi che agenti e motori di risposte ti raccomandino, lasciali leggere il tuo sito.
Y Combinator ha detto a un’intera generazione di founder di creare qualcosa che le persone vogliano. La prossima generazione deve creare qualcosa che anche gli agenti vogliano. Gli agenti sono già qui. La domanda è se possono trovarti.
Skill AI Rank su GitHub — ottimizzatore di contenuti dual-framework per motori di risposte LLM e agenti IA autonomi.
Articoli correlati
Ho costruito un agente IA che controlla qualsiasi app del Mac
Le app desktop intrappolano il tuo tempo dietro moduli, dropdown e schede che clicchi centinaia di volte all'anno. mac-use permette a Claude Code di controllare qualsiasi applicazione macOS tramite le API di accessibilità — niente screenshot, niente coordinate pixel. L'ho usato per automatizzare la mia dichiarazione dei redditi.
I tuoi utenti gratuiti non sono i tuoi clienti
Meno del 4% dei nostri store genera quasi il 40% del nostro fatturato. Migliaia di store sui piani gratuiti e basic consumano la maggior parte del nostro supporto e non pagheranno mai. Ecco cosa abbiamo imparato.
Cosa l'IA non puo fare per te
L'IA gestisce la produzione. Gli umani gestiscono la direzione. Piu l'esecuzione diventa gratuita, piu le cose non automatizzabili acquistano valore. Ecco la lista.