Avoir un site c'est bien, avoir des visiteurs c'est mieux.
Demander un Devis
03 67 1000 12 - Prix d'un appel local

Panda 4.0

Matt Cutts a annoncé officiellement, le 20 mai 2014, la sortie d’un nouveau filtre Panda nommé 4.0 :  sera t’il plus doux ou au contraire plus sévère envers les critères de positionnement des sites ? Comment éviter au maximum ces pénalités ?

Un nouveau Panda 4.0

Nous l’avions déjà évoqué dans cet article en mars dernier : https://www.pg1.fr/nouveau-panda-doux-se-prepare/ un nouveau Panda était en cours de préparation.
Il avait pour but de minimiser l’impact des pénalités de Google sur les sites des très petites, petites et moyennes entreprises qui ont bien du mal aujourd’hui à se faire une place sur le web dès leur entrée en compétition.

Fin mai, Matt Cutts a affirmé publiquement sur Twitter qu’un nouvel algorithme Panda 4.0 a vu le jour au sein de Google :

twitter panda 4.0

Cependant, le lien entre l’affirmation précédente et la nouvelle mise a jour n’a pas été clairement précisée, comme c’est très souvent le cas.
On peut néanmoins penser qu’il y ait un rapport entre les deux du fait que Matt Cutts ne dévoile sur Twitter que les mises à jour importantes.

De plus, le 23 mai, il répond à un commentaire en précisant qu’il s’agit bien, entre autres, d’une version plus douce de Panda (visant donc à adoucir l’impact des pénalités sur les TPE et PME cherchant à se créer une place sur le web) :

matt cutts twitter panda 4

Enfin, pour savoir si ce nouvel algorithme a réellement fait des dégâts ou non, le site Searchmetrics a publié une étude sur son blog le 21 mai et a classé les sites ayant eu le plus d’impacts positifs et négatifs sur Google en cette période.

Voici les sites qui ont eu le plus d’impacts positifs :

sites en hausse panda 4

Et ceux qui ont eu le plus d’impacts négatifs :

gagnants Panda 4

Il ne s’agit là que de simples estimations ayant été réalisées le jour même de l’annonce de Matt Cutts sur Twitter. Elles ont donc pu évoluer entre temps et ne sont en aucun cas liées à leurs trafics.
Ces données ne sont donc pas garanties à 100% puisqu’elles ne proviennent pas directement du site Google, mais cela donne tout de même un aperçu global de la tendance actuelle en terme de positionnement des sites sur le moteur.

Comment éviter de se faire pénaliser ?

  • Le contenu :Il faut toujours mettre l’accent sur le contenu de votre site. Plus le contenu est clair et frais, plus les robots passent sur le site. Pour leur permettre de mettre l’accent sur ce qui est important, n’oubliez pas d’indiquer les pages à indexer ou ne pas indexer grâce à la balise « noindex« . Les robots sont de plus en plus pointus et détectent les textes écrits pour le référencement ou pour les lecteurs. N’abusez donc pas de liens et de mots-clés, restez naturels dans vos productions.Supprimez également ou réécrivez tout le contenu qui vous semble être de mauvaise qualité : textes sur-optimisés, liens douteux (CF l’article sur les liens de mauvaise qualité) , titres non naturels (CF l’article sur l’optimisation des titres) etc…Une seule page de mauvaise qualité peut impacter le classement du site entier !Enfin, proscrivez le contenu dupliqué ! Il ne peut être que néfaste pour votre référencement (CF l’article sur les conséquences du contenu dupliqué et ses solutions pour y remédier).Préférez la redirection 301, l’URL unique pour votre page d’accueil et l‘attribut « rel=canonical » pour vos pages originales.Enfin, privilégiez les polices et couleurs d’écritures lisibles et adéquates pour mettre en valeur vos textes. Evitez également les publicités au-dessus de la ligne de flottaison : elles pourraient cacher une partie du contenu de la page.
  • L’arborescence du site : Afin de garantir une bonne indexation de toutes les pages de votre site par les robots des moteurs de recherches, il faut absolument veiller à ce que l’architecture du site soit cohérente et bien construite. Le but est d’accéder à toutes les pages du site en un minimum de temps et de trouver ce que l’on recherche en 2 ou 3 secondes maximum.Pour cela, il faut hiérarchiser le site, voire faire un fichier sitemap (CF l’article sur le fichier sitemap).Le netlinking interne est aussi un critère très important : il permet de lier les bonnes pages entre elles. (Voir cet article sur le netlinking interne pour en connaître les meilleures stratégies).
  • Le temps de chargement des pages du site : Il s’agit ici d’ergonomie du site. Même si elle est liée à une bonne architecture, cette dernière ne suffit pas à améliorer toute l’expérience utilisateur.Il faut en effet travailler davantage votre site en le rendant par exemple plus flexible (son format doit s’adapter à toutes les tailles d’écrans et être responsive) ou en évitant l’utilisation de fichiers au format Flash (pas très lisible pour les robots indexeurs).Pour diminuer le temps de chargement des pages vous pouvez également compresser toutes vos images et vidéos pour que leurs poids soient amoindris. Il en est de même pour vos fichiers Javascript, CSS et HTML.Si vous possédez un site CMS de type WordPress ou autre, vous pouvez également supprimer tous les plug-ins superflus qui ralentissent le chargement des pages.

 

Enfin, si vous souhaitez avoir d’autres conseils pour éviter de vivre les angoisses des conséquences des algorithmes Google et autres, nous vous conseillons de lire ces articles :

https://www.pg1.fr/diversifiez-pas-vivre-langoisse-detre-penalise-google/
http://www.pg1blog.com/6-conseils-pour-eviter-la-penalite-google/

 

 

 

 

 

« « Référencement longue traîne | Nouveau dépliant Référencement Page 1 » »
Laisser une réponse

Contact

Agence Web Strasbourg.
Services de référencement GOOGLE, SEO, SEA, Création de site et E-marketing.
20 rue Adolphe Seyboth
60 200 STRASBOURG
ALSACE 67, 68, Bas-Rhin, Haut-Rhin
Tél. 03 67 1000 12

Nous contacter par email
Evaluations Google
4.7