La baisse du trafic SEO des petits éditeurs est devenue une réalité à laquelle fait face de nombreux entreprises web. Pendant longtemps, le modèle a semblé simple. Un éditeur publiait un bon contenu, se positionnait dans Google, captait des clics, puis convertissait ce trafic en revenus publicitaires, abonnements, leads ou notoriété. Ce schéma n’a pas complètement disparu, mais il s’est nettement fragilisé. Les nouvelles données partagées autour de l’écosystème Chartbeat montrent que les petits éditeurs sont désormais les plus exposés à l’érosion du trafic organique. Sur deux ans, les sites qui enregistrent entre 1000 et 10000 pages vues quotidiennes ont perdu 60 % de leur trafic issu des moteurs de recherche. Dans le même temps, les sites de taille moyenne reculent de 47 % et les plus gros éditeurs de 22 %.
Le plus frappant n’est pas seulement la baisse. C’est le fait que les nouvelles sources dites IA ne compensent pas la perte. Les visites issues de ChatGPT progressent rapidement, mais restent inférieures à 1 % des référents globaux. Autrement dit, l’audience ne disparaît pas totalement du web, elle se redistribue. Une partie reste dans les interfaces de réponse, une autre bascule vers le direct, l’interne, les applications, l’email ou la messagerie. Pour les petits éditeurs, cela change la règle du jeu : le SEO ne suffit plus à lui seul pour faire grandir durablement une audience.
À retenir Les petits éditeurs restent les plus vulnérables à la contraction du trafic organique. La vraie réponse n’est plus seulement de mieux se positionner, mais de convertir l’audience en relation directe, en marque et en utilité. |
Les chiffres à retenir
Indicateur | Valeur | Lecture |
Petits éditeurs | −60 % | Baisse du trafic search sur deux ans pour les sites entre 1000 et 10000 pages vues par jour |
Sites moyens | −47 % | Recul significatif, mais moins brutal que pour les plus petits |
Grands éditeurs | −22 % | Les marques les plus fortes résistent mieux grâce au direct et à la notoriété |
Google Search | −34 % | recul annuel des pages vues référées |
Google Discover | −15 % | baisse plus modérée, mais réelle |
Referrals ChatGPT | +200 % | Hausse rapide, mais encore inférieure à 1 % du trafic total |
Les points clés
• Les petits éditeurs sont les plus exposés à l’érosion du trafic de recherche. |
• La hausse des referrals IA ne compense pas encore la baisse des clics issus de Google. |
• Les fondamentaux SEO restent valables, mais la distribution devient plus fragmentée. |
• Les marques qui développent le direct, l’email, l’utilité éditoriale et la notoriété résistent mieux. |
Ce que disent les chiffres
Les données relayées par Search Engine Land et Axios, à partir d’analyses Chartbeat sur des milliers de sites clients dans le monde, dessinent une hiérarchie très nette de la vulnérabilité. Les plus petits acteurs encaissent la chute la plus brutale. Les éditeurs de 1000 à 10000 pages vues quotidiennes perdent 60 % de trafic de recherche sur deux ans. Les éditeurs intermédiaires, de 10000 à 100000 pages vues quotidiennes, reculent de 47 %. Les grands éditeurs, au delà de 100000 pages vues par jour, restent eux aussi en baisse, mais de manière moins violente, à hauteur de 22 %.
Le constat devient encore plus parlant quand on regarde les grands canaux un par un. Sur un an, les pages vues issues de Google Search ont reculé de 34 %, tandis que Google Discover a baissé de 15 %. Dans le même temps, les referrals provenant de ChatGPT ont bondi de plus de 200 %. Pourtant, cette progression spectaculaire ne représente toujours qu’une fraction inférieure à 1 % du trafic total des éditeurs. Cela signifie qu’une croissance en pourcentage très impressionnante peut rester insignifiante en volume absolu.
Il faut aussi noter que les pages vues globales n’ont pas chuté dans les mêmes proportions. Chartbeat observe une baisse moyenne hebdomadaire d’environ 6 % entre 2024 et 2025, variation jugée compatible avec le cycle de l’actualité. Le vrai changement se situe donc dans la composition du trafic, pas uniquement dans son volume total. La part du search recule. Les canaux détenus par les marques ou contrôlés plus directement progressent.
Pourquoi les petits éditeurs souffrent plus que les grands
Les petits éditeurs ont souvent construit leur croissance sur un mix très dépendant de Google : quelques contenus evergreen, des opportunités longues traînes, une publication régulière et une faible capacité de distribution hors moteur. Quand ce levier se contracte, ils n’ont pas toujours de marque suffisamment forte pour compenser.
Les grands médias et plateformes sont mieux armés pour trois raisons. D’abord, leur nom est déjà recherché directement. Ensuite, ils disposent de produits propriétaires qui amortissent la dépendance au search : applications, newsletters, push, abonnements, comptes communautaires, recirculation interne et audiences fidèles. Enfin, ils ont les moyens de produire des formats plus variés et plus visibles : vidéo, interactifs, dossiers, comparatifs, outils, bases de données, podcasts ou pages de marque très solides.
Pour un petit éditeur, la moindre baisse sur Google peut se répercuter immédiatement sur les recettes et la capacité à produire. Quand le budget éditorial est serré, chaque page qui cesse d’attirer des lecteurs devient une perte double : perte de visibilité aujourd’hui, perte de ressources pour financer le contenu de demain.
Ce qui change avec l’IA dans la recherche
Le changement n’est pas seulement algorithmique. Il est structurel. Les interfaces de recherche pilotées par l’IA répondent de plus en plus à l’intérieur même de la plateforme, sans imposer à l’utilisateur d’ouvrir plusieurs liens. Google l’explique explicitement dans sa documentation sur les AI Overviews et AI Mode : ces expériences peuvent s’appuyer sur un query fan out, c’est à dire plusieurs recherches liées sur des sous thèmes et des sources variées, puis afficher des liens d’appui au sein d’une réponse synthétique.
Dans cette logique, un site peut contribuer à la réponse sans forcément récupérer un clic. Son expertise nourrit la synthèse, sa donnée est citée, son angle est repris, mais l’utilisateur obtient déjà une grande partie de ce qu’il voulait dans l’interface intermédiaire. Pour les éditeurs, cela crée une tension nouvelle entre influence et trafic. Être utilisé n’est plus synonyme d’être visité.
Google précise toutefois qu’il n’existe pas de recette spéciale réservée à ces surfaces. Les fondamentaux SEO restent valables. Les pages doivent être indexables, techniquement propres, riches en texte utile, soutenues par des images et vidéos de qualité lorsque c’est pertinent, bien reliées par des liens internes, et cohérentes dans leur balisage. En clair, la couche IA ne remplace pas le SEO ; elle change la manière dont sa valeur se matérialise.
Pourquoi les referrals IA ne remplacent pas encore Google
Il serait tentant de penser que la croissance des assistants IA va naturellement redonner du trafic aux producteurs de contenu. Les données disponibles disent plutôt l’inverse à court terme. Les referrals de ChatGPT progressent vite, mais ils partent de très bas. Dans beaucoup de secteurs, ils ne représentent encore qu’un volume expérimental.
De plus, tous les contenus ne profitent pas de la même façon des interfaces conversationnelles. Axios souligne que les sites médias reçoivent certes un nombre élevé de pages vues depuis les plateformes IA, mais avec un engagement plus faible par article, signe que ces visites servent souvent à vérifier un fait ou à apporter un contexte limité. À l’inverse, les sites utilitaires, par exemple en santé pratique, jardinage ou guides de résolution, peuvent mieux convertir ces visites parce qu’ils répondent à un besoin opérationnel précis.
Cela implique qu’un petit éditeur ne doit pas baser sa relance sur l’espoir abstrait d’un futur trafic IA. Il doit plutôt retravailler la nature même de ses contenus pour devenir indispensable dans les contextes où l’IA a encore besoin d’une source crédible, claire, spécialisée et actionnable.
Ce que Google recommande encore officiellement
Le point important, et souvent oublié dans les débats, est que Google continue d’affirmer que les bonnes pratiques SEO classiques restent la base pour apparaître dans ses fonctionnalités IA. La documentation Search Central indique qu’il n’y a pas d’exigence supplémentaire spécifique pour les AI Overviews ou AI Mode. Les équipes éditoriales ont donc intérêt à revenir aux fondamentaux au lieu de chercher une balise magique.
Concrètement, cela signifie : laisser l’exploration et l’indexation possibles, soigner l’expérience de page, rendre les informations importantes disponibles sous forme textuelle, enrichir le contenu avec de bonnes images et éventuellement des vidéos, vérifier que les données structurées correspondent bien au contenu visible, et maintenir des informations à jour dans les profils utiles comme Business Profile ou Merchant Center lorsque cela s’applique.
Pour Discover, Google rappelle également qu’aucune balise spéciale n’est requise pour être éligible, mais recommande des contenus utiles, centrés sur les personnes, des titres fidèles au sujet, des visuels attractifs et de grande taille, idéalement d’au moins 1200 pixels de large, associés à max image preview large, au balisage schema.org ou à og:image. Pour un petit éditeur, la qualité du packaging éditorial devient donc aussi importante que le fond.
De l’éditeur dépendant au média utile
Le vrai pivot stratégique consiste à passer d’un modèle dépendant de la simple découverte organique à un modèle d’utilité éditoriale. Les contenus génériques, paraphrasés ou facilement résumables sont les plus fragiles. Si une réponse standard peut être synthétisée par Google ou un assistant conversationnel, votre page devient échangeable. À l’inverse, plus votre contenu apporte de contexte exclusif, d’expertise identifiable, de méthodologie, de comparaison concrète, de données terrain ou de point de vue argumenté, plus il devient difficile à ignorer.
Cela suppose plusieurs évolutions. D’abord, répondre vite à l’intention sans cacher l’information essentielle trop bas dans la page. Ensuite, structurer clairement les sections pour faciliter l’extraction et la compréhension. Enfin, compléter le texte avec des éléments qui créent une valeur que l’interface IA ne réplique pas facilement : démonstrations, visuels maison, tableaux comparatifs, études de cas, tutoriels pas à pas, outils, checklists, téléchargements, abonnements et contenus de suivi.
L’objectif n’est plus seulement de publier davantage. Il est de publier des pages qui remplissent au moins une de ces fonctions : résoudre un problème précis, servir de référence, déclencher un abonnement, générer une visite récurrente ou renforcer un signal de marque.
Le plan d’action concret pour un petit éditeur
Première étape : mesurer la dépendance réelle au search. Beaucoup d’équipes regardent la baisse globale, mais pas la part exacte du trafic qui venait de Google Search, de Discover, du brand, du direct, de l’email, du social ou de l’interne. Il faut identifier les rubriques les plus exposées, les pages en déclin et celles qui conservent une valeur durable.
Deuxième étape : remettre à niveau les contenus stratégiques. Les articles qui étaient bien classés il y a douze ou dix huit mois peuvent encore redevenir compétitifs après une réécriture sérieuse. Il faut revoir les introductions, enrichir les sections, corriger les données obsolètes, renforcer le maillage interne, ajouter des exemples concrets, améliorer les titres SEO et rendre les réponses plus immédiatement exploitables.
Troisième étape : investir dans les actifs propriétaires. Une newsletter éditoriale, une liste email segmentée, une page de catégorie forte, une communauté WhatsApp, Telegram ou LinkedIn, une application légère, même une simple séquence de recirculation interne peuvent réduire la dépendance aux moteurs. Quand le search devient moins prévisible, chaque point de contact direct prend de la valeur.
Quatrième étape : créer des formats compatibles avec la visibilité IA. Les contenus qui fonctionnent le mieux dans ces environnements sont souvent ceux qui combinent précision, clarté, structure et crédibilité. Les pages comparatives, glossaires experts, guides pratiques, FAQ éditorialisées, pages pilier et ressources de fond sont souvent plus robustes que les articles trop réactifs ou trop généralistes.
Cinquième étape : travailler la marque. Dans un monde où les grands acteurs amortissent mieux la baisse grâce à leur notoriété, un petit éditeur doit devenir mémorisable. Signature éditoriale, angle clair, expertise sectorielle, présence répétée dans des citations externes, cohérence visuelle et tonalité identifiable deviennent des leviers SEO indirects, mais décisifs.
Ce qu’il faut suivre dans les prochains mois
Le premier indicateur n’est plus uniquement la position moyenne dans Google. Il faut suivre la part du trafic direct, le taux de retour, l’évolution des abonnements newsletter, la profondeur de session, la part des pages qui attirent des visites répétées et les conversions issues des pages éditoriales. Ces signaux montrent si le média gagne une relation, pas seulement une impression.
Le deuxième indicateur concerne les contenus qui survivent au changement de paradigme. Quelles pages continuent à générer des clics malgré les réponses intégrées ? Quelles pages sont reprises comme sources ? Quelles requêtes déclenchent encore un besoin d’exploration ? C’est à partir de ces observations qu’un petit éditeur peut redéployer intelligemment son budget.
Le troisième indicateur est plus qualitatif : la capacité du contenu à être choisi comme référence. Dans l’économie des réponses générées, l’enjeu n’est plus seulement d’être visible, mais d’être suffisamment fiable, clair et distinctif pour devenir une source de soutien crédible. C’est précisément là que les petits éditeurs spécialisés peuvent encore battre de plus grands concurrents.
Conclusion
La baisse du trafic SEO des petits éditeurs n’est pas une simple turbulence passagère. Elle signale un déplacement profond de la valeur. Le search ne disparaît pas, mais il cesse d’être un distributeur automatique de clics pour les acteurs les plus dépendants. Les plateformes conservent l’attention plus longtemps, les réponses se font plus synthétiques, et la notoriété de marque pèse davantage dans la capacité à conserver une audience.
La bonne nouvelle est qu’il existe encore un espace pour les petits acteurs. Mais cet espace se situe moins dans la production de contenu interchangeable que dans la création d’actifs éditoriaux utiles, distinctifs, mémorisables et reliés à des canaux propriétaires. En 2026, gagner en visibilité ne suffit plus. Il faut transformer cette visibilité en relation directe, en confiance et en utilité durable.
Cadre de relance en 90 jours
Période | Objectif prioritaire |
0 à 15 jours | Cartographier les pertes par rubrique, page et source de trafic. |
15 à 30 jours | Mettre à jour les contenus à fort potentiel et corriger le maillage interne. |
30 à 60 jours | Déployer une newsletter ou un canal propriétaire pour capter l’audience. |
45 à 75 jours | Produire des contenus de référence, comparatifs, guides et ressources utiles. |
60 à 90 jours | Renforcer la marque, la distribution directe et la mesure des conversions éditoriales |
Besoin d’un accompagnement sur ce sujet ?
Mada Créative Agency |
Sources
Search Engine Land — Small publisher search traffic fell 60% over two years: Data — https://searchengineland.com/small-publisher-search-traffic-drops-data-471974
Axios — Exclusive: Small publishers hit hardest by search traffic declines — https://www.axios.com/2026/03/17/chartbeat-search-traffic-ai-chatbots
Google Search Central — AI features and your website — https://developers.google.com/search/docs/appearance/ai-features
Google Search Central — Discover and your website — https://developers.google.com/search/docs/appearance/google-discover
Reuters Institute — Journalism, media, and technology trends and predictions 2026 — https://reutersinstitute.politics.ox.ac.uk/journalism-media-and-technology-trends-and-predictions-2026