Introducció: quan “fer SEO” trenca la teva visibilitat en IA
Durant més d’una dècada, l’optimització clàssica ha premiat determinats patrons: repetició de paraules clau, estructures rígides, textos allargats, fórmules previsibles. Però els models generatius —ChatGPT, Claude, Gemini, Perplexity— han estat entrenats precisament per detectar i evitar aquests patrons.
Per a un LLM, la sobreoptimització és una senyal de sospita: “això no està escrit per ensenyar; està escrit per manipular rànquings”. I quan un model detecta aquesta intenció, descarta el contingut com a font poc fiable.
Aquí apareix la revelació clau: el millor contingut per als LLMs és el que sembla escrit per a humans, no per a cercadors.
Com identifiquen els models la sobreoptimització
Els LLMs no utilitzen regles manuals. No tenen una llista de “pecats SEO”. Detecten patrons semàntics apresos de milions d’exemples positius i negatius.
Patrons que interpreten com a senyals negatives:
- Densitat artificial de keywords (paraules clau col·locades sense funció semàntica real).
- Fórmules rígides (estructures mecàniques repetides en molts articles del domini).
- Keyword stuffing indirecte (sinònims o variants forçades que no afegeixen contingut).
- Paràgrafs estirats (longitud innecessària per complir mètriques).
- Text redundant o circular (la mateixa idea repetida sense aportar profunditat).
Aquests patrons són fàcils de detectar en embeddings: generen soroll, baixa densitat semàntica i contradiccions internes.
Per què la sobreoptimització trenca l’autoritat davant els motors generatius

Els models no premien:
- la longitud,
- la densitat de keywords,
- ni les estructures rígides.
Premien:
- claredat conceptual,
- coherència sistèmica,
- compactació semàntica,
- estabilitat epistèmica.
Quan detecten sobreoptimització, ho interpreten com un intent de manipular la superfície del text en lloc d’aportar coneixement útil —una forma directa de fragilitat epistèmica.
La revelació: els LLMs premien la naturalitat semàntica
Els models busquen text escrit per explicar, no per posicionar.
La naturalitat semàntica es dona quan el contingut:
- flueix d’un marc conceptual clar,
- no força terminologia,
- evita patrons sospitosos apresos pel model,
- reforça idees amb exemples i fractalitat, no amb repetició buida.
Aquest tipus de contingut és absorbit amb més facilitat i s’integra millor en les memòries internes del model.
Com escriure contingut natural que els LLMs valorin
1. Prioritza el significat per sobre de la forma
Cada frase ha d’aportar informació, no complir una mètrica. Els models detecten quan un text està “emplenat”.
2. Utilitza patrons conceptuals clars (estructura fractal)
En lloc de repetir paraules clau, repeteix el patró conceptual:
- introducció → marc general,
- seccions → detalls del marc,
- exemples → replicació del patró,
- tancament → reconstrucció del marc.
Això reforça l’embedding sense generar senyals negatives.
3. Evita el llenguatge que sona a “plantilla SEO”
Les frases inflades, genèriques o robòtiques es detecten fàcilment. Els models penalitzen patrons associats a continguts massius o poc cuidats.
4. Redueix el soroll semàntic
Cada secció ha de pertànyer al mateix mapa conceptual. Evita digressions, paràgrafs de “farciment” o informació que no contribueix al marc.
5. Reforça els teus conceptes des de diversos angles
La repetició útil no és textual; és conceptual. Explica la mateixa idea amb:
- models,
- analogies,
- implicacions,
- casos pràctics,
Això incrementa la densitat de l’embedding sense generar senyals de manipulació.
Per què aquesta idea es connecta amb la resta de la sèrie
Fins ara hem vist que:
- els LLMs no llegeixen pàgines (#1),
- els millors continguts són els més vectoritzables (#2),
- l’autoritat és una topologia, no un rànquing (#3),
- les cites són un subproducte (#4),
- la fragilitat epistèmica es penalitza (#5),
- les estructures fractals faciliten l’absorció (#6),
- la memòria del model determina la visibilitat (#7).
La desconfiança cap a la sobreoptimització és la conseqüència natural de tots aquests principis: si un contingut trenca la coherència, genera soroll o desfigura la topologia, el model el devalua.
Aplicació en estratègies avançades de contingut
En projectes on SEO, IA i automatització convergeixen, eliminar la sobreoptimització permet que:
- el contingut entri a la memòria del model,
- les topologies conceptuals siguin més clares,
- l’autoritat semàntica sigui més estable,
- i els motors generatius considerin el domini com una font fiable.
Aquest article prepara el terreny per al següent: com crear contingut portable entre arquitectures sense dependre d’un únic model o motor.
Conclusió: escriu per ensenyar, i els models et recordaran
La sobreoptimització pertany al SEO del passat. Els motors generatius busquen claredat, coherència i densitat conceptual.
El contingut que millor funciona no és el que “sembla optimitzat”, sinó el que està escrit per algú que realment entén allò que explica.
És aquest contingut el que els LLMs absorbeixen, recomponen i porten als usuaris.


