eCommerce Marketing SEO

Les 7 erreurs SEO les plus courantes chez les e-commerçants à éviter

Les 7 erreurs SEO les plus courantes chez les e-commerçants à éviter

Erreurs SEO les plus courantes chez les e-commerçants à éviter, e-commerce tips

Nous savons qu’il est important de maintenir un site de commerce électronique visible, sans la moindre erreur de SEO, bien que cela soit un peu compliqué, ne vous inquiétez pas!, car nous fournissons ici quelques outils pour que votre site soit bientôt dans la première page des moteurs de recherche et obtenez une bonne position avec des résultats incroyables.

Prenez note et évitez de continuer à faire les erreurs suivantes!

 

1. Pas Plus contenu dupliqué

Il est considéré comme un contenu en double lorsque les moteurs de recherche trouvent un contenu similaire dans plusieurs pages, qu’il s’agisse d’un texte ou d’une image.
Par exemple: dans le cas de WordPress lors de la publication d’un article, le contenu sera dupliqué puisqu’il y aura une URL pour la page principale et une autre pour la page de blog elle-même.

Solutions:

  • Ajoutez simplement la balise « NOINDEX » à la page Auteur. Si vous avez des questions, voici un lien où Google explique de manière simple comment procéder.
  • Dans le cas de WordPress, cette option est incluse dans le plug-in « WordPress SEO By Yoast ». Vous êtes dirigé vers « TITRES ET MÉTAS » dans l’onglet « AUTRE«, «AUTEUR FICHIERS », et prêt!

 

2. Vitesse de chargement de la page

Voici les principales raisons pour lesquelles il est important que votre page se charge rapidement.

  1. Les moteurs de recherche positionnent mieux les sites de commerce électronique rapide, aussi simple que cela.
  2. Vous aurez moins de visites, non seulement l’utilisateur il partira pour le délai, mais également le pourcentage d’internautes qui quittent votre site quand ils visitent les autres pages.
  3. Selon le type de site de commerce électronique que vous possédez, cela signifie moins de ventes, affaires, etc.

 

Ci-dessous, je liste plusieurs outils qui seront très utiles pour gérer le temps de chargement de votre site Web.

  1. Google Search Console
  2. PageSpeed Insights
  3. Uptrends

 

En plus de ces outils, Google a publié un projet appelé «Accelerated Mobile Pages» cela permettant, de télécharger et de publier du contenu de pages sur des appareils mobiles à haute vitesse.

 

Comment faire mon site web plus rapide

  • Avoir un bon serveur:  Très important pour que notre temps de chargement soit rapide. Des serveurs de mauvaise qualité ou instables ne font que ralentir la charge.
  • Compressez vos images.
  • Compressez les ressources.
  • Gestion du cache.

 

3. Quand le bot n’a pas pu crawler la page

Si Googlebot ne peut pas crawler notre page, il ne l’indexera pas et ne le stockera pas. Par conséquent, il ne pourra pas l’offrir avec résultats de recherche des utilisateurs et nous n’obtiendrons pas la visibilité tant souhaitée dans les différents moteurs de recherche.

Il existe certaines difficultés pour les robots, telles que:

  • URL peu accessibles
  • URL dupliquées ou inutilisables.
  • Liens brisés.
  • URL avec des erreurs (4XX, 5XX, 7XX) ou excessives 3XX.
  • Chargement lent de la page.

Solutions:

En prenant en compte les points précédents, nous pouvons éviter des problèmes avec les robots.

 

4. Erreurs 4XX

Elles font référence aux erreurs entre le client et le serveur. Elles se produisent généralement lorsque la page en cours de chargement n’existe pas ou que l’accès est bloqué et le serveur doit expliquer s’il s’agit d’une condition temporaire ou permanente. Nous verrons les erreurs les plus courantes:

  • 400: demande incorrecte.
  • 401: non autorisé.
  • 403: interdit.
  • 404: non trouvé, «not found»
  • 410: L’URL disparaîtra définitivement.

Solutions:

Effectuez des traces périodiques lors de la surveillance des codes de réponse à la recherche afin de détecter toute erreur de code 4XX.
Vous pouvez également essayer Screaming Frog, cet outil permet de suivre le site Web afin de détecter le contenu doublons, les boucles de redirection et d’autres problèmes courants.

Vous pouvez également utiliser les outils suivants pour rechercher des liens rompus, tels que Xenu’s Link Sleuth pour les sites Web de petite ou moyenne taille et DeepCrawl pour les sites Web de grande taille.

 

5. Balise title dupliquée, vide ou manquante

Les moteurs de recherche trouvent les pages selon les balises de titre. Il est donc important qu’ils décrivent correctement le contenu de la page. En plus d’être un titre concis et attrayant pour l’utilisateur.

Solutions:

Crawler votre site Web avec des outils tels que: Screaming Frog , MyRankingMetrics , Botify ou OnCrawl.

Ces outils nous aident à détecter les pages dont les étiquettes ne sont pas correctes. Il est important de faire le crawler périodiquement pour vérifier que les balises de titre sont correctes et éviter les erreurs.

 

6. Meta descriptions dupliquées ou absentes

 

La méta description est un court texte sous la forme en résumés courts décrivant ce qui est et / ou contient une page Web donnée, et ils apparaissent également dans les résultats de la recherche; par conséquent, il s’agit d’un facteur décisif pour les utilisateurs qui cliquent sur ce résultat et non sur un autre.

La qualité de notre contenu influe sur l’emplacement des SERP. Si notre site Web figure en premier dans les SERP de Google, cela signifie qu’il apparaîtra en première position du moteur de recherche.

Si nous n’avons pas une bonne méta-description ou si nous la laissons vide, Google en générera une avec les 156 premiers caractères de votre texte, ce qui ne sera pas toujours attrayant pour l’utilisateur.

Solutions:

  • Détectez les erreurs et corrigez-les manuellement à l’aide des outils de suivi que nous vous avons conseillés.
  • Limiter la longueur.
  • Ne pas utiliser le nom titre.

 

7. Sitemap XML

Il s’agit d’une carte de site Web qui résume la structure de votre page, y compris des liens, facilitant l’indexation plus efficace des robots ou des araignées Web des moteurs de recherche.

Il est important de disposer d’un plan de site mis à jour pour les résultats de la recherche (SERP).

Créez votre XML SITEMAP

Maintenant que vous connaissez l’importance d’un SITEMAP XML, nous vous recommandons ces deux sites afin que vous puissiez créer le vôtre.

Sitemaps XML: Crawlera toutes vos pages et créez vos plans Sitemap de 500 pages maximum.

Google Sitemaps XML: Il s’agit d’un plugin WordPress qui vous permet de mettre à jour votre sitemap chaque fois que vous publiez quelque chose.

Solutions:

Vérifiez l’état des cartes du site dans la console de recherche de Google associé à votre site.

Voici également un lien vous permettant de voir votre sitemap XML.