Introducció: el malentès que frena la majoria
Durant anys hem creat contingut pensant que els motors de cerca “llegien” les nostres pàgines. Però els models de llenguatge (LLMs) no funcionen així: no llegeixen text, no interpreten seccions i, de ben segur, no processen el contingut de manera lineal.
El que realment fan és reconstruir significat dins el seu espai latent —una mena de mapa multidimensional de conceptes— basant-se en patrons apresos a partir de milions de documents. És a dir: no importa només què escrius, sinó com es manifesten els patrons epistemològics del teu contingut dins del model.
Aquest canvi de perspectiva transforma completament la manera de crear contingut, optimitzar webs i construir autoritat digital en l’era de ChatGPT, Gemini, Claude i Perplexity.
Què vol dir realment “reconstruir significat”?
Un LLM no emmagatzema frases ni títols. El que fa és codificar el teu contingut en vectors: representacions matemàtiques que capturen relacions conceptuals, claredat, coherència i densitat semàntica.
Per això, quan un model respon, no està “recollint la teva frase”, sinó generant una reconstrucció probable basada en els patrons que ha interioritzat.
Dit d’una manera senzilla: els LLMs no recorden text; recorden estructures de coneixement.
La idea clau
Optimitzar contingut per a LLMs no és optimitzar el text tal qual. És optimitzar els patrons que els models reconeixen com: claredat, autoritat, coherència, verificabilitat i consistència temàtica.
Com afecta això al SEO: del text escrit al contingut “vectoritzable”
1. Els models prefereixen contingut “vectorialment compacte”
Els textos amb soroll, metàfores innecessàries o estructura feble produeixen embeddings difusos. Els textos clars, conceptuals i amb relacions explícites generen vectors densos.
Conseqüència: com més neta és la teva semàntica, més probabilitats tens que el model utilitzi el teu contingut per generar respostes.
2. L’autoritat ja no depèn dels enllaços: depèn de la topologia del coneixement
Un domini que cobreix un tema amb profunditat, consistència i absència de contradiccions forma una “forma” estable dins l’espai semàntic.
Si el teu contingut té buits conceptuals, la topologia es trenca —i la teva autoritat es dilueix.
3. La consistència es converteix en un factor emergent de posicionament
Els LLMs detecten:
- Contradiccions internes
- Afirmacions no verificades
- To massa comercial o manipulatiu
Quan això passa, el model redueix la teva credibilitat: fragilitat epistèmica. Resultat: no et cita.

Com escriure contingut que els LLMs absorbeixin, recombinin i utilitzin
4. Estructura fractal (el model l’entén millor que una de lineal)
Els LLMs reconeixen molt bé les estructures que repeteixen patrons a diverses escales:
- Introducció: marc conceptual
- Seccions: el mateix marc, ampliat
- Exemples: patrons reduïts
- Tancament: reconstrucció del marc
Això reforça els embeddings i multiplica la probabilitat de ser citat.
5. Relacions conceptuals explícites (el LLM no les intueix: les necessita)
Exemple: “Els LLMs no llegeixen pàgines” → “Els LLMs reconstrueixen patrons” → “Cal optimitzar patrons, no text”.
Aquestes cadenes de raonament s’integren fàcilment en els vectors interns del model. Són la base del SEO per a LLMs.
6. Connectar conceptes amb intenció, no amb paraules clau
Les keywords continuen tenint un rol, però per als LLMs tenen més pes:
- Conceptes connectats
- Jerarquia lògica
- El “sistema de pensament” del domini
Si el teu domini mostra pensament organitzat, apareixes. Si sembles un blog desconnectat, t’ignoren.
Aplicació d’aquests principis al cas de Mindset Digital
Per a una agència digital, l’espai semàntic central s’ha de construir al voltant de:
- SEO avançat
- IA aplicada
- Development i automatització
- Creixement digital estratègic
Cada article d’aquesta sèrie aprofundirà en un dels 10 patrons essencials per entendre i dominar l’optimització en motors generatius. Aquest primer post estableix la base epistèmica: si no entenem com “pensen” els models, no podem optimitzar per a ells.
Conclusió: pensar com un LLM per posicionar-se en l’era dels LLMs
Els models no llegeixen la teva pàgina. No interpreten la teva intenció. No processen la teva estructura H1–H2. Tampoc entenen la teva indústria per les paraules clau.
Només reconeixen patrons i reconstrueixen significat.
Per això, el futur de l’optimització no és “SEO” en el sentit tradicional —és enginyeria semàntica: crear contingut que els models puguin convertir en coneixement estable i útil.
Aquest és el primer article d’una sèrie d’11 que exploren la nova frontera del posicionament: SEO per a LLMs. A l’últim post hi trobaràs l’índex complet amb els enllaços a tots els temes.


