Votre site n’apparaît pas dans les moteurs de recherche ? Cela peut avoir un rapport avec l’indexation et non avec le manque de classement. Il s’agit d’une différence importante, que beaucoup de gens confondent encore : un site mal positionné est toujours indexé, donc en le cherchant sur le moteur de recherche, vous pouvez le trouver.
Problèmes d’indexation sur Google: Comment repérer les erreurs et les corriger
Obtenez en un clic :
- Des contenus captivants qui attirent l’attention de votre public
- Une créativité décuplée pour des contenus qui marquent
- Des textes à la pointe des tendances pour dominer les recherches en lign
Comment vérifier qu’elles sont indexées sur les moteurs de recherche ? Monter dans les SERPs de Google : une bataille pour le SEO ! La première chose à faire est de déterminer s’il ya vraiment un problème technique dans l’indexation du site. Il suffit de désactiver SafeSearch et taper domainname.tld (bien sûr, changez votre domainname.tld à votre domaine réel). Cela vous montrera toutes les pages de votre domaine que Google a indexées. Si vous ne trouvez pas de résultats, cela signifie que le site n’est pas dans l’index. Le moteur de recherche peut prendre un certain temps pour indexer les pages! Comme le recommande le support Google : Attendez au moins une semaine après avoir soumis une Carte site ou demandé l’indexation avant de supposer qu’il y a un problème.
Si le problème n’est pas le « facteur temps » et vous êtes sûr que vous avez mis en œuvre toutes les meilleures pratiques pour aider le moteur de recherche à trouver vos pages, la deuxième étape, il pourrait être d’approfondir le rapport sur la couverture de la console de recherche Google, afin d’obtenir des informations plus précises sur les progrès du site. Il arrive souvent que lorsque vous créez un site Web avec WordPress, vous ne prêtez pas la plus grande attention à certains aspects. Allez à la zone d’administration WordPress et allez à Paramètres>., envoyez la page d’accueil à Search Console URL inspection. Il peut contenir des configurations qui peuvent rediriger le trafic vers d’autres domaines, définir la durée du cache, protéger l’accès à un dossier, empêcher l’indexation, et bien plus encore Modifier le fichier .htaccess est une opération d’action très délicate, qui ne doit être effectuée qu’après plusieurs tests dans un environnement de test car, en faisant des erreurs, nous pouvons obtenir de déclencher une boucle infinie de notre page.
Une autre mesure à prendre pour indexer correctement votre site Web consiste à vérifier comment le fichier texte robots.txt, qui est un fichier texte codé avec des caractères UTF, est saisi. La syntaxe de base d’un fichier robots.txt est assez simple : spécifiez le nom d’un robot et d’une action, le crawler est identifié par l’agent utilisateur, tandis que les actions (par exemple Disallow) peuvent être spécifiées dans le disallow. Toutefois, un fichier de robots mal configuré.txt peut également avoir une règle qui empêche les bots et les araignées de scanner une certaine page que vous souhaitez apparaître dans les résultats de recherche.
Tout le monde sait que Google aime le contenu, mais le contenu doit être unique. Nous savons que cette condition est très rare, en particulier dans le commerce électronique (pensez par exemple à une page de liste de produits triés par l’augmentation des prix, la baisse des prix et les dernières arrivées). Si les pages de votre site web utilisent les mêmes blocs de contenu, Google identifie ces pages comme étant fondamentalement les mêmes, ce qui peut entraîner l’indexation google d’une seule des pages qui affiche le contenu et, par conséquent, il est conseillé d’indiquer au moteur de recherche lequel des pages est représentatif, en prenant soin qu’il devienne « canonique », par rapport à l’autre , qui sera « canonisé ». D’autres pages, en revanche, ne seront pas indexées. S’ils sont mal gérés, les paramètres peuvent entraîner l’exclusion des URL des résultats de recherche.
Lorsqu’un utilisateur, ou araignée, visite une page d’un site Web, le navigateur demande des informations à partir du serveur — HTML de base et diverses ressources externes (y compris celles utilisant Javascript). Ensuite, le navigateur combine toutes les informations acquises pour charger la page Web complète de toutes ses fonctionnalités. Lorsque l’araignée rencontre des pages Web avec JavaScript, elle utilise son propre renderer pour l’exécuter. Toutefois, comme cela prend beaucoup de temps et calcule les ressources, le rendu du site Web basé sur JavaScript est reporté jusqu’à ce que Googlebot dispose des ressources disponibles pour traiter ce contenu. Cela signifie que le bot a deux vagues d’indexation entre le contenu, et certains détails peuvent être perdus.
Le paramètre JavaScript mal exécuté pourrait provoquer une analyse incorrecte du site et donc avoir des effets négatifs sur l’indexation et le placement du site. Voici quelques-uns des cas les plus courants où un site peut avoir des problèmes d’indexation: HTML de base qui est trop différent du HTML final avec JavaScript. Lorsque Google scanne le site pour la première fois, il ne le rend même pas. Essayez de désactiver JavaScript à partir de votre navigateur et parcourez le site pour vérifier qu’il apparaît correctement, puis, comparez le HTML de la page rendue (Google Mobile Friendly Test) avec celui indiqué dans le code source pour mettre en évidence les différences.
Vérifiez si des actions manuelles ont été appliquées à votre site. La conséquence pourrait être une simple diminution visible du classement, mais aussi la suppression totale du site des résultats de recherche. Assurez-vous également qu’aucun problème de sécurité n’a été signalé sur le site. Vous ne savez pas combien de temps pour résoudre ce problème : les URL peuvent revenir à l’indexation correctement en quelques jours, mais cela peut prendre des mois pour récupérer les emplacements perdus.
Contents
Contents est une société de technologie marketing innovante et performante qui a mis au point une plateforme logicielle exclusive qui analyse, produit et distribue des contenus originaux. Contents utilise aussi le système de génération de langage naturel, basé sur l’intelligence artificielle, qui nous permet de créer, en quelques secondes, un contenu nativement multilingue et personnalisé, sans aucun besoin d’intervention humaine. Nos services sont conçus pour le commerce électronique, les éditeurs et les agences web. Inscrivez-vous gratuitement!