Skip to content
Bootstrapping · · 11 min di lettura

Crea qualcosa che gli agenti vogliano

Il motto di Y Combinator era per gli umani. La nuova versione è per le macchine. Se gli agenti IA non possono parsare, confrontare e agire sui tuoi contenuti — non esisti.

Di Alex Diaz · Aggiornato 30 marzo 2026

In breve: Gli agenti IA non possono leggere il tuo copy di marketing — hanno bisogno di dati strutturati, JSON-LD schema, llms.txt e agents.txt. Sblocca i crawler IA e metti in primo piano i dati leggibili dalle macchine. Bloccare GPTBot nel 2026 è come bloccare Googlebot nel 2004.

Google ti ha mandato traffico per 20 anni. Quell’era sta finendo.

I nuovi visitatori non hanno un browser. Non scrollano. Non cliccano sulla tua landing page pensando “questo sembra affidabile”. Parsano dati strutturati, confrontano specifiche su 50 schede in parallelo, e prendono decisioni d’acquisto in meno di un secondo. Sono agenti IA. E non possono leggere il tuo sito web.

Punti chiave:

  • Gli agenti IA non possono leggere il tuo sito — hanno bisogno di dati strutturati, non di copy di marketing
  • Aggiungi JSON-LD schema markup, /llms.txt e /agents.txt a ogni sito
  • Sblocca i crawler IA nel robots.txt — bloccare GPTBot nel 2026 è come bloccare Googlebot nel 2004
  • I motori di risposte citano contenuti che partono dalla risposta, non contenuti che la seppelliscono sotto un’introduzione
  • Chi si muove per primo nell’ottimizzazione per agenti accumulerà quel vantaggio per anni — come il SEO precoce nel 2003

Il motto di Y Combinator è sempre stato “Make something people want.” Hanno appena posto la domanda ovvia: cosa succede quando il compratore non è una persona?

L’economia degli agenti è già qui

Non è speculazione. Sta già succedendo.

OpenClaw sta costruendo agenti autonomi che navigano, confrontano e comprano. Claude può usare un computer — cliccare pulsanti, compilare moduli, navigare flussi di checkout. Operator di OpenAI fa lo stesso. Pi-mono e una dozzina di altri framework di agenti corrono per renderlo mainstream.

Gli strumenti di sviluppo IA stanno esplodendo. Protocolli agente-ad-agente stanno emergendo. Le aziende che vinceranno saranno quelle con cui gli agenti possono effettivamente interagire. Non quelle con la homepage più bella. Quelle con i dati più puliti.

Il tuo sito web è invisibile per le macchine

Hai passato mesi a scrivere il copy della landing page. A/B testato i titoli. Assunto un designer. La pagina converte al 3,2% e ne sei orgoglioso. Niente di tutto ciò interessa a un agente.

Un agente non legge la tua hero section. Non gli interessa la storia del tuo brand. Cerca dati strutturati — prezzi in formato parsabile, specifiche che può confrontare, endpoint API che può chiamare, segnali di fiducia che può verificare. Se quei dati non ci sono, l’agente passa a un concorrente il cui sito riesce effettivamente a capire.

Oggi, un umano cerca su Google “migliore app quiz per Shopify”, legge tre articoli, controlla le recensioni e decide. Domani, un agente interroga più fonti simultaneamente, estrae confronti strutturati, e raccomanda — o compra — senza che un umano veda mai il tuo sito.

Se non sei nel dataset dell’agente, non sei nella conversazione.

Due audience, un sito web

Il cambiamento non è “umani vs. agenti”. Sono entrambi, simultaneamente, con bisogni completamente diversi.

UmaniAgenti IA
Come ti trovanoMotori di ricerca, social, passaparolaDati di training LLM, crawl strutturati, scoperta API
Cosa leggonoTitoli, visual, riprova socialeJSON-LD, schema markup, tabelle leggibili dalle macchine
Come decidonoEmozione, fiducia, sensazione del brandSpecifiche, prezzi, matrici di funzionalità, SLA
Cosa fannoClic sulla CTA, forse comprano dopoChiamano API, completano la transazione, vanno avanti
Cosa ignoranoDati strutturati, meta tagLa tua bella hero image e la tua voce di brand

Gli agenti imparano. Ricordano quali siti gli danno dati puliti e quali gli fanno perdere tempo. Un agente che estrae con successo i tuoi prezzi una volta tornerà. Uno che sbatte contro un muro di prosa di marketing non lo farà.

Di cosa hanno davvero bisogno gli agenti

Dimentica tutto quello che sai del SEO. L’ottimizzazione per agenti è una disciplina diversa.

Dati strutturati su ogni pagina. JSON-LD schema markup — Product, FAQPage, HowTo, SoftwareApplication. Non perché Google lo premia (anche se lo fa). Perché gli agenti lo parsano direttamente. La tua pagina prezzi senza schema è un’immagine. La tua pagina prezzi con schema è un database.

Dati leggibili dalle macchine, non linguaggio di marketing. “Performance best-in-class” non significa nulla per un agente. “99,9% SLA di uptime, 200ms di latenza p95, 10.000 req/min di rate limit” — questi sono dati su cui prendere decisioni. Gli agenti confrontano numeri, non aggettivi.

File di scoperta. Quasi nessuno li ha ancora implementati:

  • /llms.txt — un file markdown che dice ai LLM di cosa tratta il tuo sito, quali pagine contano e dove trovare le informazioni chiave. Un README per i crawler IA.
  • /agents.txt — un file YAML che dice agli agenti autonomi cosa possono fare con il tuo servizio, dove si trova la tua API, come autenticarsi, quali capacità offri. Service discovery per l’economia degli agenti.
  • /.well-known/api-catalog — RFC 9727. Un endpoint di scoperta API. Se hai un’API e questo file non esiste, gli agenti non possono trovarla programmaticamente.

Endpoint per l’azione. Un agente che può leggere i tuoi prezzi ma non può iscriversi programmaticamente raccomanderà un concorrente che gli permette di completare il compito. Documentazione API, guide di configurazione webhook, link di iscrizione diretti — percorsi di conversione per le macchine.

Il livello dei motori di risposte

Gli agenti sono una metà. L’altra metà è già mainstream: i motori di risposte LLM.

ChatGPT, Claude, Perplexity, Gemini — centinaia di milioni di persone ora chiedono all’IA invece di cercare su Google. Quando qualcuno chiede “qual è la migliore app quiz di raccomandazione prodotti per Shopify” — il LLM o cita il tuo contenuto o non lo fa. Non c’è pagina due. È citato o invisibile.

Le regole per i motori di risposte sono diverse da quelle per gli agenti ma ugualmente ignorate:

Contenuto che risponde prima. I LLM estraggono le prime 2-3 frasi che rispondono direttamente a una query. Se il tuo primo paragrafo è un’introduzione sul “panorama in evoluzione dell’e-commerce”, stai regalando la citazione a qualcuno che parte dalla risposta.

Titoli allineati all’intento. Il tuo H2 dovrebbe corrispondere alla query esatta che qualcuno digita. Non “Il Nostro Approccio alle Raccomandazioni Prodotto”. Prova “Migliore App Quiz di Raccomandazione Prodotti per Shopify”. Il titolo È la query.

Blocchi citabili. I LLM estraggono dichiarazioni pulite e autonome con numeri specifici. “Usato da 4.000+ negozi con una valutazione di 4,9/5” viene citato. “Aiutiamo le aziende a crescere” viene ignorato. Scrivi frasi che valga la pena citare.

Il problema del robots.txt

La maggior parte delle aziende ha un robots.txt che blocca i crawler IA.

User-agent: GPTBot
Disallow: /

User-agent: ClaudeBot
Disallow: /

Aveva senso quando la paura era “l’IA sta rubando i nostri contenuti”. Non ha nessun senso quando l’IA ti sta mandando clienti. Bloccare GPTBot nel 2026 è come bloccare Googlebot nel 2004 perché eri preoccupato che “i motori di ricerca rubassero il tuo traffico”.

Lasciali leggere il tuo sito. Semplice.

Perché questo conta di più per i bootstrapper

Le aziende finanziate da VC assumeranno “specialisti SEO per IA” e passeranno sei mesi a costruire infrastruttura agent-friendly. Comitati. Roadmap. OKR trimestrali.

I bootstrapper possono farlo in un pomeriggio. Questo è il vantaggio di essere piccoli.

Aggiungi schema markup alle pagine chiave. Scrivi un file llms.txt. Crea un agents.txt. Rendi i tuoi prezzi leggibili dalle macchine. Rimuovi i blocchi ai crawler IA dal robots.txt. Struttura i tuoi contenuti in modo che la prima frase risponda alla domanda.

Non è un progetto infrastrutturale massiccio. È una checklist. E in questo momento, quasi nessuno l’ha fatta.

L’effetto composto

Il comportamento degli agenti è auto-rinforzante. Un agente che estrae dati con successo dal tuo sito ti aggiunge al suo set di lavoro. La prossima volta che deve confrontare prodotti nella tua categoria, sei già nella rosa. Diventi una fonte affidabile — non per riconoscimento del brand, ma perché i tuoi dati sono puliti e i tuoi endpoint funzionano.

Per i dettagli tattici: Answer Engine Optimization copre la meccanica per essere citati. Il rovescio della medaglia: i siti che gli agenti imparano a saltare vengono saltati permanentemente. Nessuna seconda occasione per fare una prima impressione quando il visitatore processa 50 siti al secondo.

Gli early mover del SEO — le persone che hanno capito Google nel 2003 prima che ogni agenzia di marketing iniziasse a manipolare il sistema — hanno accumulato quel vantaggio per un decennio. La stessa logica di interesse composto si applica ai moat di distribuzione in generale — prima inizi a costruirli, più sono difficili da scalzare. Siamo a quello stesso momento per l’ottimizzazione per agenti. Prima dei playbook. Prima dello spam. Prima che tutti capiscano e il vantaggio svanisca.

Come la vedo io

Ho costruito lo skill AI Rank perché ne avevo bisogno io stesso.

Due framework. LLM — sei principi per rendere i contenuti citabili dai motori di risposte. AGENT — cinque pilastri per rendere il tuo sito utilizzabile da agenti autonomi. Ognuno valuta i tuoi contenuti, identifica le lacune e riscrive ciò che va riscritto.

Genera i file di scoperta — llms.txt, agents.txt, l’intero stack. Audita il tuo schema markup. Riscrive i tuoi contenuti per partire dalle risposte invece che dalle introduzioni. Fa in 30 minuti quello che richiederebbe una settimana di lavoro manuale.

Lo skill gira in Claude Code. /ai-rank e puntalo su una pagina. Fa entrambi gli audit, riscrive il contenuto, genera suggerimenti di schema, e mostra esattamente ciò che un agente o motore di risposte estrarrebbe dalla tua pagina. Se l’anteprima di estrazione è vuota, la tua pagina è invisibile.

Open source. Nessun paywall. Clonalo e eseguilo.

Domande frequenti

Cos’è llms.txt?

Un file markdown in /llms.txt che dice ai motori di risposte LLM di cosa tratta il tuo sito, quali pagine contano e dove trovare le informazioni chiave. Un README per i crawler IA. Specifiche su llmstxt.org.

Cos’è agents.txt?

Un file YAML in /agents.txt che dice agli agenti IA autonomi cosa possono fare con il tuo servizio — dove si trova la tua API, come autenticarsi e quali capacità offri. Service discovery per l’economia degli agenti. Specifiche su agentstxt.dev.

Come ottimizzo i contenuti per gli agenti IA?

Dati strutturati su ogni pagina (JSON-LD schema markup), dati leggibili dalle macchine invece di linguaggio di marketing, file di scoperta (llms.txt, agents.txt), e endpoint su cui gli agenti possono agire. Gli agenti confrontano numeri, non aggettivi.

Dovrei bloccare i crawler IA nel robots.txt?

No — a meno che tu non voglia essere invisibile per la prossima generazione di compratori. Bloccare GPTBot e ClaudeBot nel 2026 equivale a bloccare Googlebot nel 2004. Se vuoi che agenti e motori di risposte ti raccomandino, lasciali leggere il tuo sito.


Y Combinator ha detto a un’intera generazione di founder di creare qualcosa che le persone vogliano. La prossima generazione deve creare qualcosa che anche gli agenti vogliano. Gli agenti sono già qui. La domanda è se possono trovarti.

Skill AI Rank su GitHub — ottimizzatore di contenuti dual-framework per motori di risposte LLM e agenti IA autonomi.

Articoli correlati

Le cose che nessuno dice ai founder

Flag theory, playbook per bootstrapper e lezioni duramente imparate sulla costruzione di business indipendenti dalla posizione. Nessun corso "diventa ricco subito" — solo un founder che condivide cosa ha funzionato e cerca altri sulla stessa strada.

Niente spam. Niente spazzatura da affiliati. Cancellati quando vuoi. Oppure segui il feed RSS.