La dernière mise à jour de Google porte le doux nom de Panda et résoudra les problèmes des internautes, de Google et plus globalement de la faction white hat.
Google Panda
En effet, Panda arrive à grands pas, il est actif depuis quelques temps aux Etats-Unis, en Angleterre (récemment) et maintenant à travers le monde (mais uniquement en version hl=en).
Il permet de lutter contre le contenu de faible qualité, contre le cloaking, contre les communiqués de presse (nouveaux annuaires), contre l’achat de lien, contre les mots-clés dans le nom de domaine, et mettra fin aux MFA (made for adsense), mais résoudra par la même occasion le problème de la faim dans le monde, des dictatures, des tremblements de terre au Japon, des radiations à Fukushima, des « gros cons« .
THE PINK PANDA – Panda la vidéo, dédicace à l’ami Renardudezert.
En se focalisant sur les faits, Panda devait toucher 12% des recherches (source Google), mais si on écoute les webmasters US, 40% d’entre-eux se disent touchés.
Quand on regarde du côté des données, Sistrix, Searchmetrics GmbH ou autre, les pénalités ne tombent pas du ciel. Le contenu est de faible qualité, dupliqué ou inexistant, par contre la publicité y est présente, et pas qu’un peu.
Si vous voulez lire l’analyse d’un référenceur d’outre atlantique, en français, suivez le lien : lâchez-moi la grappe avec Panda et profitez de la prose de Julien le cowboy. D’après son analyse, les sites touchés n’ont pas été tirés au hasard et s’ils sont touchés, la raison est loin d’être mystérieuse.
Du côté britannique, des sites comme reviewcentre.com, about.com, ciao.co.uk ou encore wikio.co.uk sont tombés, cela vous choque? Moi pas.
Un des piliers du SEO : le contenu
Même si les webmasters de ces mastodontes pensent faire de la qualité, la qualité du contenu laisse à désirer (lire le très bon article de Michael Martinez why your quality content sucks). A mon humble avis, ils pensaient réussir à contourner le système, mais ils avaient conscience que cela ne serait pas éternel.
Google a la capacité d’analyser le nombre de publicité que vous affichez, leurs positions, de repérer si votre contenu est unique, assez détaillé… Bref, vous voulez vous positionner sur la durée, faites un travail de qualité, « aimez votre site » ©Seoblackout et vous échapperez à la majorité des problèmes possibles et imaginables.
Oui Panda fait le ménage, oui Panda va épargner des sites que vous estimez de mauvaise qualité (à juste titre ou pas), mais lorsqu’il prend quelqu’un entre ses griffes, il y a sûrement plusieurs raisons.
Bref, dans la liste énoncée au début de ce billet, seul la « qualité » du contenu (unicité), la présence à outrance de la publicité ajoutée aux autres facteurs préexistants semblent bien fonctionner. Quant aux autres « problèmes », nous retrouvons la communication habituelle de Matt Cutts.
Et les utilisateurs dans tout cela ?
Enfin, Google nous annonces que les retours (feedback) des internautes (+1, blocage de site via l’extension de Google Chrome, bruit sémantique…) sont pris en compte dans son « high quality sites algorithm« .
Ce n’est pas la première fois que Google tente d’utiliser l’internaute (voir l’article lutte contre le spam des SERP du 3 septembre 2010), mais de là à ce qu’il l’utilise durablement et à ce qu’il y ait un impact important, il y a un monde, n’en déplaise à l’ami Laurent Bourrelly.
http://www.instantsfun.es/excellent, excellent!
Un poison nommé Panda donc. ;-D
Mais je reste tout de même très dubitatif sur l’hypothèse que ce nouvel algo puisse identifier les « gros cons ».
À ce jour seul le Front National a véritablement réussi ce tour de force que de pouvoir les identifier pour leur filer une carte du Parti.
Hello
"bruit sémantique" ? tu veux dire quoi par là ?
Encore une MAJ d’algo qui fait couler de l’ancre (de lien) 😉
Pour ceux qui veulent la traduction du refrain de la chanson :
PANDA, PANDA
Putain t’es trop relou
PANDA, PANDA
Je suis passé dessous
PANDA, PANDA
Tout plein de MFA
PANDA, PANDA
P.A.N.D.A. PANDA
En attendant, je suis 100% d’accord avec toi.
J’ajouterai juste que je m’occupe d’un site qui ne devrait pas plaire du tout à panda (mais vraiment pas du tout), donc je l’attends de pieds ferme (j’ai creusé des trous, recouverts de tapis de branchage et de mousse, le tout subtilement parsemé de pousses de bambou). Pour l’instant RAS.
Je pense que cette mise à jour ne servira à rien … Les webmasters vont juste changer leur manières de se référencer ! De nouveaux cp vont faire leur apparition avec par exemple des sites thématiques ou les référenceurs pourront apporter leur contribution …
De plus quand je vois les sites qui gagnent des visiteurs et donc sont considéré comme étant de qualité ca me laisse songeur … Youtube = google Blogger=google Ebay= gros annonceur adwords …
Et le pire c’est que wikipédia ne semble pas impacté !
loran : regarde du côté des avis négatifs. 😉
Monbuzz : tu n’as pas assez bien analysé le phénomène, les sites qui sont tombés pourront difficilement modifier leur manière de fonctionner et wikipédia n’a aucune raison de tomber.
Au niveau stats des sites que je suis, c’est parfois seulement quelques expressions clés qui tombent. Requête à un seul mot, et surtout qui ont du lien affilié ou de la pub en masse.
La longue traine ya que ça de vrai, et diversifier les sources de traffic.
Salut! Merci pour la citation.
La tendance en Angleterre est claire et cela va être du même acabit pour la France a mon avis (tout comme cela a été le cas chez moi au passage). Google descends les gros sites a faible contenu et les pseudos sites web2.0 a caractere marchant (review center et autres) – ceux qui ont du souci a se faire sont surtout les super-affiliés et les BH a 3 sesterces qui ont basé leurs mininets sur des profils sur certains sites qui se sont fait descendre (squidoo, hubpages) Quelquers sites de CP peu regardant vont etre pris dans le feu croisé et bien entendu GG en profite aussi pour pousser ses sites mine de rien… je suis comme toi, je ne me fais pas plus de souci que cela pour mes sites ou ceux de mes clients. Quant a l’utilisation du +1 et autres blocages … ma fois… je ne pense pas que cela sera véritablement pris en compte car je vois deja fleurir des gens qui proposent de plusser donc… Si GG decide un jour de se servir des données internautes serieusement, il faudra que ce soit a son insu.
Je rejoins loran, qu’est-ce que le "bruit sémantique" dont vous parlez dans votre article? Merci d’avance =)
Ca commence sérieusement à m’agacer cette histoire de "qualité" à propos du contenu.
Tu cites l’article de Martinez, je ne suis pas certain que ça soit réellement assimilé.
En tout cas, les fermes de contenu n’ont pas un contenu de moins bonne "qualité" que ce blog ou le mien. Tout est question de perspective!
Puis un algo n’est absolument pas capable de jauger la qualité d’un contenu. C’est n’importe quoi à ce niveau; les signaux n’ont plus rien à voir avec les critères éditoriaux.
Le vrai problème est que c’est mal de gagner du flouze du le Web, notamment avec des pubs. Point barre !
Jacky, voir la réponse ci-dessus.
Laurent, la qualité est définie par Google, car nous jouons dans sa cour, cependant je dois dire que je ne pleurerais pas pour la majorité des sites touchés.
Début avril, comme chaque début de mois, mon fils cadet reçoit son magazine "Abricot" et ce mois-ci, l’animal vedette sur la couverture était .. un panda ! Hasard ? Je ne crois pas …
magazine abricot.
Sauf que Google s’est fait pousser dans ses retranchements via le NYT, Blekko, etc.
Les bons penseurs du Web sont les mêmes ardents défenseurs de la liberté d’expression aux USA. Ils acceptent le prix à payer de voir les néo-nazis défiler pour protéger ce sacro-saint droit, mais c’est mal de foutre des pubs sur des pages de contenu qui n’ont pas la prétention de gagner le prix Pulitzer.
Moi non plus je ne vais pas me plaindre de ne plus voir un article gavé de pub pour apprendre à cuire des spaghettis ou obtenir un rachat de crédit.
M’enfin bon, c’est une autre histoire de dire qu’ils n’ont pas le droit d’être visibles sur un moteur.
Même un aggrégateur ou comparateur peut fournir un contenu d’excellente qualité sans produire une seule ligne de contenu unique. Je prends toujours alatest.fr comme exemple.
J’ai tendance à rejoindre Laurent, cette histoire de qualité du contenu (et notamment la possibilité de l’évaluer automatiquement) m’a toujours laissé dubitatif. ^^
@LaurentB
Sans dire que je suis en total désaccord je pense qu’on a un point de vue différent sur le probleme.
Deja je ne pense pas que Google ait été poussé dans ses retranchement par qui que ce soit – les seuls a continuer a poser une véritable alternative pour le moment (d’un point de vue utilisateur lambda) c’est Bing et Yahoo) – Blekko cela reste quelque chose de l’ordre du negligeable – je n’ai d’ailleurs pas eu 1 visite venant de blekko sur aucun des sites que je suis (qui pourtant tape un peu ans ts les domaines).
Quant a la "qualité" du contenu – on tombe dans un débat liberté d’expression comme tu dit Vs Business et la effectivement Google va sabrer un peu comme il en a envie. Meme un skyblog (sujet d’actualité) peut etre défini comme du bon contenu dans la mesure ou il a une audience… Et sur le coup GG fait un choix et entre les clients adwords potentiels et les parasites adsenses, le choix est vite fait … Maintenant comme dit le Gourou du Pink SEO on joue dans la cour de GG – sa cour, ses regles… et malheureusement on a pas vraiment d’autres choix
Jusque ici tout va bien
Jusque ici tout va bien
Jusque ici tout va bien
Jusque ici tout va bien
Pas spécialement peur de Panda non plus, jusqu’à ce que je voie ta vidéo, que j’ai presque eu le temps de m’envoyer en entier en lisant ton post. J’ai envie de vomir.
Google est parti à la chasse depuis bien longtemps et n’a pas fini de chasser le SPAM car scrowler des pages inutiles à longeur de journée coutent peut etre très cher si on compte bien pour aucun résultat.
Faire du contenue de qualité et aimer son site… j’espère que cela va suffire ! EN tout cas ca fait deux MAJ en 1 an qui ont un gros impact. Après Mayday (fallait le trouver ce nom), Panda s’annonce lui aussi assez méchant pour de nombreux webmaster. A suivre. Jusqu’ici tout va bien.
Laurent, j’aimerais partager ton avis, mais je penche plus du côté du Juge. Espérons que la montée en puissance de Bing au US impacte sur Google et qu’il redevienne plus traditionnel.
Didier, j’ai hésité à mettre une vidéo de LCD sound system avec les pandas, mais ce n’était pas assez underground.
Oliv1a, entre ce qui est dit et fait, il y a un monde. 😉
Panda ou comment Google booste ses sites aux détriments de la concurrence..Qui a dit YouTube?
@Gourou du Pink SEO : je ne suis pas d’accord avec toi, moi aussi je trouve l’intérêt de Wikipédia très faible, en tout cas trop de visibilité par rapport à son réel intérêt. Ensuite, il propose pas mal de définitions quasi vides ou fausses ou sans intérêt(contenu de qualité?). La seule raison pour laquelle il n’est pas impacté : il a la chance d’être sur la WhiteList …..
Article pertinent, on est par contre toujours dans le flou, quand à la date de l’update de l’algorythme…
C’est connu que Google, rajoute un petit +1 a ses sites !!! 🙂
Panda, va juste foutre encore plus la merde pour ceux qui font pas parti de google 😉 🙂
X CTU, je ne pense pas que cela soit la pensée principale de Google.
leguitou, quand on voit la popularité de Wikipédia, la taille du site, le maillage interne, la whitelist n’est pas une nécessité.
Je pense que cette mise à jour ne servira à rien … Les webmasters vont juste changer leur manières de se référencer ! De nouveaux cp vont faire leur apparition avec par exemple des sites thématiques ou les référenceurs pourront apporter leur contribution …
Coucou ! Moi aussi je me cache du pandi panda, petit ourson de chine, pandi panda petit ourson relou !
C’est revenu plusieurs fois dans les commentaires, mais je me demande dans quelle mesure l’audience joue réellement.
Quand je lis en substance "un slyblog est considéré comme offrant du contenu qualifié parce qu’il a une audience" je ne suis pas certain que cela suffise à l’écarter des risques. eHow aussi faisait de l’audience sinon, on peut sans se tromper supposer que Demand Media n’aurait pas bâtis une stratégie financière autour de ce concept.
Du coup, ca me ferait plutôt pencher dans la balance de Laurent là…