Sémantique et Author Rank en 2013

En 2012, on parlait beaucoup de social pour le référencement, à la fin de l’année on parlait de sémantique et pour 2013 on nous sort à nouveau l’Author Rank.

Désolé de briser le rêve de certaines personnes, mais le social n’a pas révolutionné le référencement l’année passée. Obtenir des tweets, share, like, +1 va permettre une acquisition de trafic, voire même de liens, mais cela ne fera pas faire apparaitre votre page en première page devant de bons gros sites débordant de PageRank.
Matt Cutts a même avoué cet été au SMX de Seattle que pour le moment, les +1 étaient là pour faire joli.

Google et la sémantique

Quand je lis sur Journal du Net que le sémantique prend du poids et que c’est bien fait pour les vilains qui ne respectent pas les règles, je rigole. La sémantique n’est pas, si vous voulez vous en persuader, lisez cet article à propos du Knowledge Graph et de la recherche. Grosso modo les webmasters collent des étiquettes et Google fait son marché, puis son classement.
Le Knowledge Graph n’est donc qu’une présentation de données organisées directement sur la page de résultats de Google.
Donc si vous êtes malins, vous allez étiqueter, peu importe ce que vous affichez sur votre site (adresses, recettes, produits…).

Mais, vous me direz que SEOmoz dit que la sémantique va remplacer les liens :
La vieille techniques qui consiste à acquérir des liens perd du poids au profit des signaux sociaux, de l’âge de lien et de la pertinence de la page.
Évidemment, l’auteur de l’article précise que Google ne pourra sûrement pas développer un moteur sémantique, mais qu’il va tendre vers et essayer de proposer des résultats plus pertinents. C’est assez drôle de voir un article aussi long, avec une tonne de conseils, alors que cela ne servira peut-être à rien. Surtout quand on sait que seulement 10% des sites présents sur le web sont optimisés pour le SEO.

Brilliant
Bref, le moteur de recherche sémantique, ce n’est pas pour demain, ni même pour 2013.

SEO n’est pas SMO

Le lien est mort, on va donc passer à l’auteur, mais qui va définir qui est le plus compétent sur un domaine précis ?
On ne tire pas sur les ambulances, mais Claude Allègre, on le classe où ?
Et puis remplacer un système faillible basé sur les liens, mais qui a fait ses preuves, par un système faillible qui n’a pas fait ses preuves, c’est comment dire, risqué ?

Comme en France, nous avons en moyenne 4 différents employeurs à 40 ans, que se passe-t-il quand on quitte l’entreprise ?

fail

Si on regarde toujours sur SEOmoz, on se rend compte que le social reste un minor ranking factor, même si son poids ne cesse d’augmenter. Remarquez, une croissance de 600% quand on part de 0, cela ne représente toujours pas grand chose.

Google n’est pas bête, il a supprimé un certain nombre de choses : étoiles, photos d’auteurs et ferme même des comptes Google+.

Alors on fait comment le référencement en 2013 ?

Balisez votre site, proposez un affichage rapide des pages, facilitez le partage, que cela soit sur les blogs, les forums, les réseaux sociaux, améliorez vos titres, proposez du contenu pertinent…
Pour 2013, utilisez intelligemment les anciennes et nouvelles techniques, mais arrêtez d’être si versatiles et sauvages dans vos actions.

65 réflexions au sujet de “Sémantique et Author Rank en 2013”

  1. Effectivement, 600%, c’est un gros chiffre, mais ca veut pas dire grand chose quand on est au début de quelque chose. Après pour l’apport en positionnement dans les SERPs, il y a un petit débat, pour l’apport en trafic, suivant la thématique du site, c’est quand même énorme.

    Répondre
  2. Bref on continue comme avant quoi ^^
    J’avoue ne même pas avoir vraiment regardé l’authorank, pour moi tellement loin des besoins et possibilités de mes clients…
    Mais la conclusion me va bien, continuons de bien travailler la base technique en respectant les bonnes pratiques. Le reste, on a le temps de s’adapter

    Répondre
  3. Un article très pertinent et plein de bon sens Aurélien. Tu l’as très bien souligné : faire le bourrin sur les liens ou sur les partages sociaux n’aide pas, il faut agir intelligemment en pensant tout d’abord aux lecteurs (contenu de qualité, site agréable, rapide, navigation facile & organisée), en encourageant les visiteurs à partager et en les fidélisant, en étant actif sur les réseaux sociaux, et bien sûr en faisant des liens bien ciblés de préférence (forums, guestblogging, commentaires, annuaires…) de manière régulière et organisée.

    Répondre
  4. Ne pas mettre tous ses oeufs dans le même panier 😉

    Concernant l’authorank et le rapport avec le marché du travail, les comptes fake ça existe, même sur Google+ :p

    Répondre
    • Oui, ne pas utiliser qu’une technique, mais la on parle SEO, juste SEO.

      Je sais, il semblerait que j’en possède certains, mais on se retrouve devant un problème juridique. 😉

      Répondre
  5. Encore et toujours des effets d’annonce, Google pilonne les positions des (bar)camps en faisant du bourrage de crâne auprès de sa cible : les entreprises qui doivent acheter du Adwords !

    Répondre
  6. J’aime les articles qui ont l’intelligence d’être brut, et fort, je suis pas d’accord avec tout mais tu as au moins le culot de donner ton avis. Clairement pour moi sur sentimancho, le social à jouer fortement, ainsi que le maillage Interne de Yan !

    Répondre
    • Yann précise que le social reste limité et je suis d’accord avec lui côté indexation, « sérieux » offert par le social, pas cela ne va pas plus loin. Alors parler de remplacer le lien par les auteurs, il y a un monde.

      Répondre
  7. C’est un bug du Tool, désolé Aurélien pour le BL., oui le social reste limité j’en suis d’accord aussi, je dit juste qu’il peut avoir une valeur ajouté lors de blast & co !

    Répondre
  8. Google apporte des nouveautés pour entretenir son image et pour que tout le monde se focalise sur ces nouveautés et pendant ce temps ça nous fait penser à autre chose qu’aux algorithme plus ou moins bancal. L’AuthoRank c’est peut être un leurre pour nous divertir dessus, et pendant ce temps on cherche pas à trouver des bons plans SEO :p
    Et puis après tout on verras bien ce que ça donne !

    Répondre
  9. Je suis 100% d’accord avec ta conclusion !

    Mais je trouve le développement un peu réducteur.
    La sémantique, ce n’est pas que l’utilisation d’entités nommées. C’est aussi la relation entre les mots, leurs sens.
    En ce sens, Google utilise très bien la sémantique, il sait par exemple que « filet » peut être associé à « mer », « poisson », « bateau », « pêche », ou bien dans un autre contexte à « tennis, « raquette », « balle ».
    Je crois que lorsque l’on rédige, ou lorsque l’on relie des pages entre elles, la sémantique à beaucoup d’importance pour Google dans le sens ou je l’ai décrite.

    Concernant l’impact des +1, partages FB, des tweets, ils m’ont permis au moins 2 fois de sortir du trou des pages qui avaient visiblement subi un filtre. Je ne suis pas le seul je crois. On peut donc considérer que le SMO à un impact sur le SEO (même si je ne pense pas que c’est son rôle premier). Alors, d’accord, Matt Cutts minimise cet aspect, mais ce ne sera pas la première fois qu’il nous dira le contraire après nous avoir asséné une de ses vérités pendant deux ans.
    D’ailleurs, Google a déjà bien assez de mal avec le spam de liens, je ne pense donc pas qu’il soit très intéressant pour Google de nous faire nous engager dans le spam SMO.
    D’ailleurs, pourquoi ferme-t-il des comptes G+ comme tu le précises ? Parcequ’ils gênent peut-être l’algo.

    Bon, j’ai joué mon empêcheur de tourner en rond, mais je le répète, je suis d’accord avec ta conclusion. Pour être visible, il faut une pincée de tout, et une poignée de liens 🙂 Mais il ne faut certainement pas enterrer définitivement ce qui a très bien marché pendant des années.

    Répondre
    • Google ne sait toujours pas de quoi on parle, les soupes passent encore et c’est honteux. Concernant l’analyse des mots, le classement dans les différents clusters, Google progresse encore, mais nous ne sommes toujours pas dans l’ère de la sémantique.
      Je ne développe pas plus, car je ne suis pas assez compétent pour faire une analyse plus poussée, je rebondis simplement sur les articles du moment. En taclant JDN et SEOmoz, je tape sur le haut du panier, mais je pourrais citer facilement 5 ou 6 référenceurs qui en ont parlé dernièrement.

      Concernant le SMO, j’en use et en abuse comme tout le monde, ici je ne traite que de la transition lien/humain, qui amha est une hérésie, un avis que tu sembles partager.

      Répondre
  10. Oui, je partage 🙂
    Faudrait penser à le faire aussi avec une bière un de ces jours 🙂

    Je prendrais un autre exemple. Quand on dit que l’on doit varier les ancres de liens, on joue à mort sur la sémantique en collant des synonymes et autres variations.

    Ou encore…Quand tu tapes « axenet » dans Google, en recherches associées, il te propose « création site web, seo agence, agence internet, etc.
    J’aurais tendance à dire que cela prouve qu’il commence à bien savoir ranger les chaussettes d’un côté et les serviettes de l’autre (clusters).

    Pour le SMO, tu sais que je crois à mort dans la caution humaine que Google semble y attacher. Même si je sais bien que l’on peut tricher avec aussi, je pense qu’à terme, ce sera moins facile qu’avec les liens.
    GG soigne son G+ aux petits oignons, il investit des sous, fait des recrutements spécifiques. Je dois bien avouer que je ne m’y suis mis que pour des raisons SEO d’ailleurs, sinon, je ne trouve pas cela mieux que FB, mais je ne peux pas croire qu’il n’a pas l’intention d’impacter les résultats avec. Pour le moment, c’est surtout quand on est connecté, mais même sans boule de cristal, je m’avancerais à dire que l’impact sera de plus en plus grand au fil du temps.

    Tu verras, il nous laissera jouer bien moins longtemps qu’avec le linking.

    Répondre
    • Clustering et sémantique, ce n’est pas la même chose.

      Attention, je ne dis pas que le social est à jeter, je dis simplement que pour 2013, il ne remplacera par le linking, que cela soit via un auteur ou via des partages.

      ps : j’essaye d’organiser un petit apéro prochainement, promis. 😉

      Répondre
  11. Je pense que c’est et ça reste comme toujours : jouer avec un élément de manière isolée (le social, par ex) n’a pas ou peu d’impact. C’est le combiner avec d’autres qui est intéressant et permet de « catalyser » le ranking.

    Amusez vous à publier {aléatoirement|régulièrement} des billets longs avec de belles balises, faites des liens vers des sites trusted, backlinkez votre billet en interne et depuis quelques forts PR, citez le sur votre Twitter/Facebook/G+/Pinterest/etc, faites le visiter grâce à du trafic naturel qualifié (eh oui, le trafic, on l’oublie un peu souvent dans les strats de ranking, non ?) et mettez tout ça dans une boucle while(true). Pas trop longtemps quand même, le true, c’est vite pénible, ces exercices 🙂
    Voilà, avec votre contenu et les liens créés, vous venez de donner du grain à moudre au « moteur sémantique » de Google, si tant est qu’il existe, effectivement ! En tout cas, Google aime et c’est l’essentiel.

    Merci pour l’article, la conclusion est juste parfaite !

    Répondre
  12. Trop Vrai – j’adhere a 100%. A la fois une vision simple et pleine de vreai bon sens.

    Le SEO n’a pas changé tant que cela sur les 8 dernieres années – en tout cas pas les bases – Il suffit de tout appliquer avec modération et vous allez voir tout va bien se passer

    Répondre
  13. Oui, non, peut-être. En fait, on n’en sait rien. J’ai consulté ma boule de cristal et elle m’a indiqué un point à ne pas négliger : Il ne faut surement pas être insensible aux signaux qui nous disent bonjour.

    Que Google ne se transforme pas en 10 lignes de code demandées par MC en buvant son café est totalement vrai. Effectivement, 2012 n’a pas été l’année de la révolution sur le type de facteurs pris en compte (par contre, la manière de prendre en compte le facteur lien à changer).

    Il ne faut cependant surement pas fermer les yeux sur ces nouveaux créneaux. Google est en train de chercher ce coté facteurs utilisateurs (comportement de visite ; comportement sur les réseaux sociaux ; qui est l’auteur d’un article ; qui est en contact avec qui). L’ignorer serait une faiblesse dans cette totale volonté d’équilibre global d’un site et des ces facteurs pour le référencement. Le problème, c’est que c’es long, très long à mettre en oeuvre tout simplement parce qu’elle nécessité une pluralité de compétences au delà du lien, propre ou non. Maintenant, on est d’accord, comme tout le monde, sur la conclusion. 😉

    Répondre
  14. Franchement ras le bol de ce terme « sémantique », utilisé à tort et à travers.
    Sans même parler de ceux qui confondent avec le Web sémantique.

    Même Sylvain part en vrille dans son commentaire ! Pourtant, il m’a dit avoir vu le podcast avec Sylvain Peyronnet….

    Répondre
  15. Tant qu’on a pas de nouveaux gros filtres, 2013 sera pareil que 2012, alors attendons et continuons comme avant, tout en étant toujours aussi prudent.

    Je ne vois pas comment les liens peuvent ne plus être l’élément principal du SEO. En 2011 on disait déjà que le SMO allait remplacé le SEO. Ce n’est pas prêt d’arriver. Il faut juste combiner les 2.

    C’est toujours un plaisir de lire les commentaires de Sylvain.

    Répondre
  16. Perso l’histoire du l’authorank ça me rappelle fortement l’histoire de digg.com et de ses utilisateurs qui étaient payés pour digger des contenus car ils étaient bien ranké dans l’algo.

    Payer un lien ou payer un +1 je ne vois pas trop la différence, on connait déjà les dérives que cela va engendrer. J’ai juste du mal à capter pourquoi Google se lance là dedans alors que le système a déjà été expérimenté.

    Répondre
  17. J’adore la photo du chat ! Quand je pense que tu as du faire plusieurs essais pour faire la photo, la voisine ont du t’en vouloir pour son minou non ?

    Répondre
    • Ne t’inquiète pas, aucun animal n’a été maltraité pendant la séance. Par contre, la société protectrice des crêpes nous est tombé dessus, mais tu t’en doutais déjà. 😉

      Répondre
  18. 10% des sites optimisés pour le SEO çà signifie soit que les SEO ont un marché énorme pour encore bien des années, mais aussi que si la concurrence est rude aujourd’hui sur les SERP, elle sera extrêmement plus difficile ( d’un facture 900 % ) le jour ou l’optimisation sera monnaie courante 🙂

    Répondre
  19. Que dire à part que je te suis sur cette ligne ? Je viens de découvrir ton article via touitteur, juste après avoir fait un peu de comm pour le mien qui, en intro, semble être une pâle copie du tien, désolé je ne l’ai pas fait exprès…

    Répondre
  20. J’ai plutôt l’impression que les résultats naturels ne sont plus une priorité pour Google, ou que le spam bien fait ne peut pas et ne pourra pas être identifié par Google avant très longtemps. Seule alternative: minimiser les résultats naturels. Le « Knowledge Graph » n’est qu’une manière de remplir l’espace de façon semi-automatique, permettant un contrôle plus strict sur le classement des résultats à travers des whitelists (wikipedia, US Census, World Bank, etc.), et si en prime ça garde les utilisateurs sur Google ou ses propriétés = double win.

    Le débordement de cette whitelist à l’intérieur même des résultats naturels semble être la direction future du moteur. Plus facile et rentable de noyer le poisson que de travailler en profondeur sur l’algo

    Répondre
  21. J’ajouterai même que sans maitrise, la puissance n’est rien… Entendez par là que sans technique, le netlinking n’est rien et inversement !

    En 2013, ne négligez simplement aucun des leviers du triangle des bermudes : technique, contenu et netlinking ! 😉 Dans un sens ou un autre mais les fondations restent la technique, bien trop souvent oubliée au « profit » du netlinking et du contenu à tout va.

    Et puis si vous avez des ronds à claquer et bien ajoutez-y une une touche de SMO ! 😉 (ou pas). Quand au reste « author rank », « knowledge truc », c’est pas encore pour maintenant, d’accord à 100% avec toi. 😉

    J’ai passé à coté de tes articles trop de fois mais que de vérités vraies !!

    Répondre
  22. Le problème avec la partie social, c’est que généralement on en fait tout un plat pour pas grand chose. Je pense qu’avant de dire « je fais du social » (et encore faut voir comment c’est fait, parfois j’entends des horreurs provenant d’agences qui se disent spécialisées dans le domaine), il faut peut-être voir si notre entreprise, notre sujet ont un intérêt à en faire.

    Comme tu le dis, 600% de 0, ce n’est pas grand chose. Après, je ne pense pas qu’on puisse dire que le lien est mort, loin de là. C’est juste que Google a flanqué une bonne frousse aux spammeurs qui se sont faits de l’argent facile.

    Enfin bon on pourrait débattre longtemps et la partie social se doit d’être abordée de manière ultra personnalisée selon ce qu’on vise. Quand j’entends des agences dire « investis 3000$, ça rapport 4000 like et donc ça entraîne de l’échange et de l’intérêt, j’ai juste envie de vomir tellement c’est minime comme analyste » 🙂

    Répondre
    • Ils sont différents et proches à la fois. Un +1 n’est pas représentatif (peu de monde, beaucoup de webmasters), Facebook touche un plus grand publique, mais la nouvelle génération a déjà trouvé un autre espace (Tumblr) afin de se différencier des générations précédentes. Amha la pérennité n’est pas assuré avec le social et les résultats seront tout aussi manipulables, voire même de plus mauvaise qualité.
      Donc pourquoi changer un système par un autre si cela n’apporte rien ?

      Répondre
  23. Hello, Pour moi les partages sociaux des pages d’un site et du coup de ses backlinks sont des signaux forts qui permettent d’attester de manière plus fiable l’aspect naturel d’un lien / d’une page.

    Un site et des pages profondes avec beaucoup de liens et très peu de présence sociale ça sent pas bon, ça parait pas normal. Au contraire des centaines de partages et pas de lien du tout c’est pas cool. Le social est un excellent moyen de savoir si on en parle vraiment (nombre de partage, de like, fréquence, horodatage de ces partages…). Faire du « faux » avec le social c’est vraiment long et pas simple en externe.

    Du coup il va falloir de plus en plus faire bosser ses clients comme des community managers car pas de social à terme = du SEO pas naturel donc pénalisé.

    Mais je suis bien d’accord avec le fait qu’il faut de toute façon bosser les fondamentaux (comme d’hab et heureusement) avec un zeste voire plus de réseaux sociaux.

    Répondre
  24. L’article était déjà super intéressant par son approche un peu border-line comparé à ce qu’on peut lire un peu partout, mais avec tous les commentaires de la sphère SEO il devient passionnant. Merci à tous 🙂

    Répondre
  25. Moi ça me va de voir des articles comme ceux-ci qui dézinguent l’author rank et les signaux des réseaux sociaux. Rankez avec vos liens pendant que je rankerai tranquillement avec d’autres signaux, ça m’ira bien…. 😉

    En dehors de cette mini provocation, prendre le SMO juste par le côté « nombre de RT » n’est pas vraiment comment j’envisage la corrélation entre SMO et SEO. La corrélation, c’est le contenu, du bon, du king, du partagé et lu. Grand débat qui n’en finira pas sur la blogosphère, je fais mon troll habituel 😉

    Répondre
    • Il ne faut pas nourrir le troll, mais on pourrait lui apprendre à lire. Ici on ne parle que de l’auteur, pas du futur ou de l’action des signaux sociaux à l’heure actuel. 😉

      Répondre
  26. personnellement je ne suis pas fan de ce author rank et j’espère qu’il ne va pas sortir. Je suis d’accord avec toi, le même auteur peut être très compétant sur un sujet et ne pas être pertinent du tout sur un autre et même parfois dans la même thématique. Maintenant c’est un peu le cas des sites web et pourtant Google tient compte d’un indice de confiance d’un site…

    quant aux signaux sociaux ça doit avoir un impact. Et Yann dans le Sentimancho a dû avoir un coup de boost grâce à cela. Google ne va tant détecter celui qui a du social mais sûrement celui qui n’en a pas. Maintenant, c’est clair qu’il va falloir attendre avant que cela soit un élément déterminant pour ranker.

    Répondre
  27. Tous les ans il parait que tout va être révolutionné, que le SEO va rendre son dernier souffle, que ceci ou cela va le supplanter, mais au final c’est toujours à peu de choses près la même chose, sauf qu’il faut rajouter de temps en temps de petites touches autres pour rendre l’ensemble plus fort…donc 2012 2013 même combat, simplement il faut garder la raison dans ce qu’on fait 😉

    Répondre
  28. En lisant trop les autres, je pense qu’on fini par perdre ses repères. Beaucoup d’ancres ont coulé annonçant le mort des liens, mes on remarque que ces derniers font toujours le poids. Aujourd’hui, on nous parle de sémantique, mais nous devons aussi savoir qu’un texte même pertinent doit être linké pour prétendre être pertinent. Ai-je tord? lol

    Répondre
  29. Il faut toujours être précautionneux avec les méthodes de référencement que l’on utilise . Une bonne technique: toujours se dire qu’il y a un gars de Google dans notre dos qui regarde tout ce que l’on fait. Si vous avez une interrogation, il faut tout de suite changer ses techniques pour ne pas se faire pénaliser dans un futur proche.

    Répondre
  30. Haha, pas mal pour un p’tit djeuns ; ) Mais je vois pas le lien entre l’histoire des 4 employeurs et le reste du post ..
    Je partage assez ton point de vue sur le knowledge graphe; par contre, pour le social je suis moins tranché. Même si les signaux ne sont pas encore vraiment pris en compte pour le ranking, j’ai l’intuition qu’une forme de crowdsourcing bien utilisée pourrait être intéressante, dans les années à venir, pour déterminer la pertinence d’une page/site … Mais je ne suis pas Nostradamus !
    Au plaisir – A+

    Répondre
    • A chaque fois que l’on quitte une entreprise, on part avec son compte G+ et comme Google refuse les avatars, à moins d’utiliser la tête du patron, on risque de devoir changer l’auteur des pages. 😉
      Concernant le social, oui cela progresse et non il ne faut pas le mettre de côté, mais j’en ai marre de lire « 2013 SOLOMO » depuis deux ans…

      Répondre
  31. Les alchimistes de Google ont tellement révolutionné le monde qu’on leur pardonnerait presque de vouloir inventer un nouveau Golem.. Un robot qui algorithment ferait mieux que la compréhension de l’homme, dans la résolution des projets et problèmes humains, façon Deep Blue battant Kasparov.
    Alors la sémantique est-elle de la poudre de perlimpinpin? Oui et non. Oui, il ne faut pas confondre dico des synonymes et intelligence artificielle, sens d’une phrase et composants de cette phrase. Et non, à force d’agréger la connaissance humaine, les problèmes de syntaxe, de maths, voire de philo… Qui sait, personne n’a de vraie boule de cristal et après tout Deep Blue a bien battu Kasparov ?! Non?

    Répondre
  32. C’est vrai que les réseaux sociaux ont en parlé beaucoup mais je ne vois pas en quoi cela peu augmenter le référencement ça peu apporter du trafic oui peut être et encore c’est un faible pourcentage en tout cas pour moi :S

    L’author rank j’en entend beaucoup parlé ces derniers temps ( je débute dans le monde du référencement) et c’est curieux mais c’est vrai que Google à l’air d’y porter une grande attention
    c’est même présent dans Webmaster tools

    Mais la sémantique je n’ai pas très bien compris ce que cela signifie
    ce sont les descriptions dans les pages ?
    Car c’est une question que je me pose depuis quelques temps
    Google s’occupe t-il des descriptions qui ne figurent pas dans les balises méta? ..

    Répondre
    • Il y a confusion entre authorship (le fait d’avoir écrit un article) et author rank (le fait de classer les résultats de recherche en fonction de l’auteur), notamment sur ce que tu dis à propos de Google Webmaster Tools. 😉
      Concernant la sémantique, les SEO l’utilisent à tort et à travers pour parler de l’analyse du contenu par Google, mais il ne s’agit pas de sémantique à proprement parler.

      Répondre
  33. Google essaie de faire peur aux webmasters et c’est légitime… Penguin, Panda, l’author rank… sont autant d’écrans de fumée permettant à google d’avancer (engranger des sous) tranquillement en faisant diversion. Il nous fait croire qu’il est aux aguets et pond des mises a jour d’algo sans cesse, mais le moteur de recherche n’est pas le seul service rémunérateur de big G, il ne faut pas l’oublier. Google crée des lunettes maintenant ! Son moteur de recherche fonctionne très bien comme il est ! Le netlinking sera pour longtemps encore la source pour nous (petit webmasters SEO ;), l’author rank sera juste un petit bonus comme les reseaux sociaux…

    Répondre
  34. On reste donc sur nos positions en améliorant (encore?) ce qui est acquis ou à acquérir pour certains. Personnellement il faudra tout de même suivre de près les réseaux sociaux qui offrent toujours un bon potentiel en matière de référencement et puis Google n’a peut-être pas encore fini de nous étonner.

    Répondre
  35. Bonjour,
    merci pour cet article très intéressant, pour moi il faut toujours diversifier les liens puisque si on publie par exemple toujours sur les mêmes blogs les liens même en dofollow ne vont servir à rien. donc il faut espacer dans le temps la publication des liens sur les mêmes blogs.

    Alexandre

    Répondre
  36. De ma part, je suis fasciné per ce monde sémantique où il existe une certaine entente entre les webmasters et les moteurs de recherche. Et je pense, que le Web sémantique va améliorer certainement les résultats de recherche. Et donc, la crédibilité sera plus imposée. Bref, à mon avis, il faut s’orienter dans ce sens pour le bien de tous.

    Répondre
  37. Le SEO n’a pas eu de révolutions depuis toutes ces années. Algo par algo on déplace les tâches de référencement sur le contenu sans pour autant laisser de côté le netlinking (hormis le spam, il va s’en dire). Il ne faut peut être pas ignorer les réseaux sociaux mais le positionnement se fait toujours depuis le début par 2 choses principales :

    1. Les backlinks de qualité (c’est le sang du web 😉
    2. Du contenu pertinent et rédigé pour le web

    Répondre
  38. En effet, les anciennes techniques de SEO marchent toujours, surtout dans des mots clés moins recherchés. Par contre, pour une bonne entreprise les réseaux sociaux sont très important et qui sait la prochaine update de google..

    Répondre
  39. J’adore particulièrement la fin du billet.

    « Balisez votre site, proposez un affichage rapide des pages, facilitez le partage, que cela soit sur les blogues, les forums, les réseaux sociaux, améliorez vos titres, proposez du contenu pertinent…
    Pour 2013, utilisez intelligemment les anciennes et nouvelles techniques, mais arrêtez d’être si versatiles et sauvages dans vos actions. »

    Le SEO reste toujours pareil depuis toutes ces années. La seule différence est que les pratiques déloyales sont toujours mieux contrôlées. Un SEO intelligent sera toujours respecté par Google.

    Répondre
  40. Même si cet article date de quelques années, je crois qu’il est encore à fait à propos. Le contenu reste encore roi sur internet et risque de l’être encore pour beaucoup d’année! Bravo!

    Répondre

Laisser un commentaire