Google avverte: non suddividere contenuti in microframmenti per LLM
Il responsabile di Search Central, Danny Sullivan, ha pubblicato un aggiornamento il 16 gennaio 2026 in cui avverte i proprietari di siti web di non frammentare i testi in piccoli blocchi progettati esclusivamente per i modelli linguistici di grandi dimensioni (LLM). Secondo Sullivan, questa pratica può compromettere l’esperienza utente e ridurre la qualità delle pagine nei risultati di ricerca.
Il motivo è semplice: i LLM sono addestrati su grandi corpus di testo e traggono valore dal contesto completo. Suddividere un articolo in “micro‑chunk” rende difficile per i modelli comprendere il filo logico, portando a risposte incoerenti o a contenuti duplicati. Inoltre, Google sta investendo in tecnologie di “semantic search” che privilegiano la coerenza semantica piuttosto che la quantità di token.
Per i tecnici SEO e gli sviluppatori di contenuti, la notizia significa rivedere le strategie di markup, di schema.org e di strutturazione del contenuto. È consigliabile mantenere paragrafi lunghi, usare titoli gerarchici chiari e fornire dati strutturati che aiutino i LLM a “leggere” il testo come un unico documento.
In sintesi, l’orientamento di Google sottolinea che la qualità e la coerenza del contenuto rimangono la chiave per il ranking, anche nell’era dei modelli linguistici avanzati.