5 grosses actus SEO / SEA décryptées – mai 2017

Le SEO (optimisation du référencement naturel) et le SEA (Google Adwords) sont des domaines ultra dynamiques, qui changent sans cesse. Afin de toujours rester au top je veille énormément (100 à 150 articles de blog lus par semaine sur les meilleurs sites américains).

Pour tous ceux qui ne souhaitent pas y passer autant de temps, et en lire autant, je vais retenir le meilleur du meilleur, les #mustRead et vous les proposer chaque mois. Le tout agrémenté de mes conseils/compléments/réflexions (quelle valeur sinon?).

De quoi rester informé sur le marketing digital lié aux moteurs de recherche en 15 min chaque mois 🙂

Voici le menu du jour :

Les liens vous amènent en page 1, les signaux utilisateurs en 1ère position

En mai, plusieurs études et billets ont été publiés sur la thématique (https://moz.com/blog/state-of-links et http://www.siegemedia.com/seo/links-matter-verticals-others ont particulièrement retenu mon attention).

liens-et-positions-seo

Ce n’est pas une nouveauté en soi, mais un consensus qui se dessine. Et ça confirme également ce que je vois sur le terrain.

La règle générale : Les liens vont être le critère le plus important pour vous amener sur le podium.

Selon les requêtes et les industries, le podium peut représenter les 3 premiers résultats ou toute la première page.

Une fois dans les résultats podium, les signaux utilisateurs deviennent le facteur différenciant parce que les liens seuls ne permettent pas à Google de faire la différence.

C’est déjà quelque chose qu’avait plus ou moins remarqué Larry Kim l’an dernier en étudiant l’importance du CTR pour les tous premiers résultats (par rapport aux résultats plus bas) :

ctr-positions-referencement-naturel

Cette règle générale est toutefois à nuancer car comme toute règle elle a des exceptions.

Par exemple les sujets de niche où les volumes de recherche sont relativement faibles.

Les liens conservent alors le poids le plus important parce qu’il est trop difficile pour Google d’obtenir de la signifiance statistique au niveau de l’engagement utilisateur.

Certains résultats de recherche n’ont pas de vainqueur ou de hiérarchie discernable facilement d’un point de vue signaux utilisateurs.

Ça va être le cas lorsqu’un utilisateur est en phase d’apprentissage et « dévore » les premiers résultats pour tout apprendre d’un sujet. Ça m’arrive régulièrement. J’ouvre les 4 ou 5 premiers résultats dans des onglets et je lis tout.

Dans ces cas-là aussi, les liens conservent le poids le plus important.

Enfin, pour des résultats ou le CTR entre les résultats est sensiblement similaire.

Imaginez que vous lancez votre cabinet dentaire et que vous cherchez un logiciel métier.

Il y a de fortes chances que vous ne connaissiez aucune des entreprises proposées. Ainsi, vous cliquerez sur toutes sans différence.

Dans ces industries où le taux de clic ne permet pas de différencier, les liens conservent le poids le plus important pour différencier les résultats.

Notez toute l’importance de l’affinité d’une marque pour cette dernière exception. Si l’on vous connait, vous attirerez forcément plus de clics.

C’est l’une des bases du remarketing pour le réseau de recherche 🙂

J’avais d’ailleurs lu là-dessus une étude fort intéressante en début d’année.

Elle montrait une corrélation entre recherches brandées et Ranking supérieure à celle entre autorité de domaine et ranking (https://moz.com/blog/rankings-correlation-study-domain-authority-vs-branded-search-volume).

etude-correlation-recherches-brandees-et-ranking-seo

Elle montrait aussi que l’autorité de domaine avait une corrélation bien plus forte avec le ranking sur les positions 11 à 50 que sur les positions 1 à 10 (0.26 contre 0.071).

Bref, tout se recoupe, c’est logique.

Compter sur le javascript pour le SEO est toujours une erreur en 2017

ab-testing-javascript-seo

Actuellement, je lis les publications de Distilled avec attention. Depuis quelques mois, il ont commencé à commercialiser leur outil d’ab testing SEO.

Et ils se servent de données d’expériences pour sortir des études intéressantes.

A ne pas louper entre autres : test de balise title et H1 (https://odn.distilled.net/case-studies/concert-hotels/) ou encore test de structured markup (https://odn.distilled.net/case-studies/smokymountains/).

Le dernier en date parle de javascript : https://www.distilled.net/resources/split-testing-javascript-for-seo/.

Ce qu’il faut retenir de cette expérience, c’est que même si Google est capable de rendre une page en utilisant le javascript, ce page performera moins bien d’un point de vue SEO que si elle était en HTML.

javascript-vs-html-pour-le-seo

Dans l’expérience menée par Distilled, ils ont pris un site qui utilisait le JS pour afficher certains contenus et liens sur ces pages.

Ils ont décidé de faire un test 50-50. Sur la moitié des pages, ils passeraient par du HTML plutôt que du JS. Evidemment, tout ça à périmètre constant.

Résultat : +6% de trafic organique pour ces pages au bout de quelques jours (résultat fiable statistiquement).

C’est un résultat très intéressant, notamment dans le contexte ou de plus en plus de monde utilise le Google Tag Manager pour faire du SEO :

Une autre news de mai sur la même thématique (https://moz.com/blog/evidence-of-the-surprising-state-of-javascript-indexing), nous donne une théorie assez réaliste et intéressante sur la manière dont Google crawlerait et indexerait le Javascript.

Il y aurait une file d’attente séparée pour les pages que Google veut crawler et indexer avec Javascript.

En effet, rendre le JS lui demande plus d’efforts.

Par conséquent, l’hypothèse formulée serait que Google explore et indexe d’abord le HTML.

Lors d’un premier passage sur une page, le bot évalue s’il y a besoin ou non de rendre le JS pour cette page.

Si oui et si la page et/ou le domaine atteignent un certain seuil de trust et/ou d’autorité, alors la page est mise en file d’attente pour une contre-visite avec le rendu JS activé.

La priorité étant elle aussi définie par le niveau de trust et d’autorité.

Je n’ai pas par mon job quotidien assez de données où de cas pour infirmer ou non cette théorie.

Mais elle me parait vraiment plausible et intéressante. Certains d’entre vous ont-ils de quoi étayer (ou non) cette idée ? (à vos comments !)

Fin des mises à jour qualité périodiques, en temps réel avant 2018

3ème et dernière actu SEO que l’on traitera ce mois-ci. Elle nous vient de Glenn Gabe : http://www.gsqi.com/marketing-blog/may-17-2017-google-algorithm-update/

Et elle concerne les mises à jour qualité de Google.

En décrypté, les mises à jour qualité ce sont ces grands bouleversements dans les positions Google et c’est suite à ces mises à jour que certains sites peuvent gagner 

mise-a-jour-qualite-google-mai-2017

ou perdre énormément de trafic.

mise-a-jour-qualite-google-mai-2017-2

Ce qui nous intéresse aujourd’hui ce ne sont pas tant les critères qui font que votre site sera puni ou récompensé. Cela étant, l’article en parle, lisez-le 🙂

Glenn Gabe est clairement l’un des SEO qui a le plus étudié ces mises à jour qualité, et a le plus écrit dessus.

Quelques articles de référence :

Non, ce qui nous intéresse, c’est la fréquence croissante des mises à jour qualité. Depuis début 2017, on a déjà eut 6 (c’est déjà plus qu’en 2016).

Et le rythme s’accélère :

  • 5 janvier
  • 7 février
  • 7 mars (Fred)
  • 26 avril
  • 4 mai
  • 17 mai

Je pense que cette intensification montre que Google est sur le point d’atteindre le temps réel et que sans doute avant fin 2017, enfin, il n’y aura plus de mises à jour périodiques.

L’avantage de cet état de fait c’est qu’il n’y aura plus de grosses pénalisations d’un coup avec ensuite un délai d’attente pour voir si les optimisations apportées payent ou non.

Vous êtes bon vous vous placez. Vous êtes mauvais vous ne sortez pas. Vous vous améliorez ça se sent très vite. Cool non 🙂

Adwords : plusieurs nouveautés fortes en mai

Ci-dessous je vous dresse la liste.

Mais lister sans apporter de réflexion ne serait pas vraiment un décryptage pas vrai?

Si l’on prend 500 mètres de hauteur par rapport à ces nouveautés, dans quelles tendances de fond s’inscrit-on ?

1. Toujours plus de machine learning et d’automatisation.

Que ce soit au niveau du nouveau  CPC optimisé ou au niveau Smart Display, Google enfonce un nouveau clou.

Mais tout ça ne fonctionne peu ou pas si vous n’avez pas le volume de conversion qui va bien.

Et d’expérience, les montants minimum donnés par Google sont trop bas.

Je vais être clair. A ce jour, je ne crois pas avoir vu un seul compte ayant tout juste le nombre de conversions nécessaire pour lequel les stratégies machine learning ont fonctionné.

Concrètement ça veut dire quoi ? Ca veut dire que si vous êtes sous la barre ou juste au dessus, vous devez enrichir vos conversions pour avoir plus de données à fournir à la machine.

Comment faire ? En ajoutant les micro conversions (les appels, les téléchargements de catalogue, les clics sur les emails par exemple) et/ou les objectifs intelligents et/ou les visiteurs de haute qualité et/ou les sessions avec vue de panier en E-commerce.

Si vous vous questionnez de la pertinence de toutes ces conversions, analysez dans Google Analytics les taux de conversion de ces populations la. Et vous verrez 😉

2. Fin des cookies et attribution beaucoup plus évoluée

Adwords en était déjà là mais Google Analytics pas encore. C’est chose faite.

J’ai toujours préféré traquer par GA que par Adwords. C’est plus juste.

En effet, contrairement au suivi Adwords qui prend pour lui toutes les conversions directes et indirectes, Google Analytics attribue à chaque canal ce qui lui est dû.

Pour les clients, je trouve ça plus réglo. Surtout quand tu es payé à la conversion. Mais c’est un autre débat.

Mais ça donnait aussi moins de conversions au total que le suivi Adwords (on n’avait pas accès aux conversions après affichage ni aux conversions multi-appareil).  Après, c’est un parti pris.

Maintenant tout est au même niveau et c’est tant mieux.

La tendance globale dans laquelle ce changement s’inscrit est claire : on cible les personnes, plus des cookies.

On les suit à travers tous les appareils (on se met à niveau de Facebook au passage).

Et on prépare l’arrivée de Google Attribution et la mort annoncée du last clic.

Google a enfin dépassé ses peurs liées à la vie privée. Celles-là mêmes qui l’ont laissé Facebook mené la danse sur ces sujets alors que ça fait longtemps que ça aurait pu être mis en place.

Et pour le coup, ça me plait bien. La vie privée est un sujet qui doit être défendu.

Mais quitte à faire du ciblage comportemental, autant le faire correctement.

Si les utilisateurs estiment que ça va trop loin, ils changeront de moteur et Google reviendra en arrière. Basta.

Fin des réflexions, place aux actus 🙂

L’optimiseur de CPC prend une surcouche de machine Learning

http://searchengineland.com/google-adwords-ecpc-bid-cap-removed-274824

modification-optimiseur-de-cpc

Je n’ai pas de données pour prouver mais je mettrais ma main à couper que la stratégie d’enchères manuelle avec l’optimiseur de CPC activé est de loin la stratégie d’enchères la plus répandue.

Et je pense aussi que Google a étudié attentivement la manière dont ces comptes sont gérés et a détecté un manque à gagner énorme pour lui. D’où cette mise à jour.

Concrètement, ce changement signifie plusieurs choses :

  1. Google peut désormais enchérir à sa guise selon les probabilités de conversion d’un clic (la limite de +30/-100% est supprimée).
  2. Si vous utilisez actuellement l’optimiseur de CPC, vous n’avez plus à ajuster vos enchères ni au niveau géographique ni au niveau des audiences.
  3. Le système va essayer de conserver les CPCs moyens en dessous du CPC max
  4. Mais le système aura pour priorité d’augmenter le nombre de conversions à coût par conversion constant. Cela est vrai pour les campagnes de Search et Display. Cela pourrait donc logiquement entraîner une hausse des conversions mais aussi des dépenses (gagnant-gagnant).
  5. Pour Shopping c’est le système aura pour priorité d’augmenter le nombre de conversions à dépense équivalente. Autrement dit à diminuer le coût par conversion.

Petit conseil d’ami : dans un monde ou tout est de plus en plus machine Learning, donnez à manger à la machine.

Apprenez à mettre en place un bon suivi des conversions. Quelques ressources de qualité pour approfondir :

Google lance les audiences similaires pour le réseau de recherche

http://searchengineland.com/google-rolls-similar-audiences-search-shopping-274210

audiences-similaires-pour-le-reseau-de-recherche-google

Ça fait un moment déjà que j’annonce que les options de ciblage du réseau Display seront disponibles aussi sur le réseau de recherche. A ce jour, nous avons déjà : le RLSA, la liste d’emails, les tranches démographiques et du coup aussi, les audiences similaires.

Pour ceux que la mise en place intéresse, j’ai tout détaillé ici : http://www.bruno-guyot.com/hacks-optimisation-adwords/#rlsa-similaires.

banner-header-adwords-communauté-site1

Vous y trouverez également mon approche stratégique de la chose.

Pour l’instant, d’après mes premiers tests, les résultats sont prometteurs chez certains mais chez d’autres pas du tout.

Il faut donc tester. Mais ne pas forcément s’attendre à une révolution.

Je suis d’ailleurs assez d’accord avec la réflexion récente de Kirk William sur les audiences en Search (https://moz.com/blog/paid-search-audiences-wont-replace-keywords).

On nous annonce un cataclysme. Honnêtement, rien ne remplace les mots clés. En tout cas pour l’instant.

Pour terminer sur les audiences et le Search, sachez que Google vient d’annoncer au Marketing Next que l’on allait pouvoir prochainement cibler les audiences sur le marché en Search (http://searchengineland.com/google-adwords-in-market-audiences-search-campaigns-275611).

J’imagine sur le même principe.

Google va tester des annonces Shopping sur le réseau Display

http://searchengineland.com/google-shopping-ads-display-pilot-274251

annonces-shopping-sur-le-reseau-display

Google Shopping est l’une des plus grosses vaches à lait de Google.

Pour preuve, les derniers rapport Merkle montrent que c’est l’un des segments les plus en croissance d’Adwords (32% sur un an contre 12% pour les annonces texte http://searchengineland.com/paid-search-trends-merkle-q1-2017-274043)

merkle-pla-growth-q1-2017

Alors évidemment, tous les moyens sont bons pour continuer d’étendre.

Après le renforcement du réseau partenaire, la mise en place d’annonces Shopping sur Youtube, dans Google Images, Google vise maintenant le réseau Display.

Les tests démarraient le 29 mai dernier sur des sites de mode et de décoration de maison aux US.

Google lance les campagnes Smart Display

http://www.wordstream.com/blog/ws/2017/05/01/adwords-smart-display-campaigns

campagnes-smart-display

Toujours plus d’algo et de machine learning pour toujours plus de résultats. Telle est la promesse de ces campagnes Display 2.0.

C’est une grosse boite noire.

Vous donnez à Google votre objectif, votre CPA, les messages et images et il s’occupe du ciblage et des enchères (l’avenir de tous les types de campagnes ?)

Attention toutefois. Vous devez avoir un minimum de 50 conversions Display sur 30 jours ou 100 en Search.

Mais d’après mes tests (et j’en ai fait beaucoup), les résultats ne sont pas bons et/ou sont assez longs à obtenir avec un volume de conversions « si faible ».

Par contre sur des gros comptes ça fonctionne plutôt bien. C’est finalement toujours la même histoire. Les gros ont l’avantage sur ces fonctionnalités machine learning.

Notez quand même que si vous suivez mes conseils pour mettre en place un suivi des conversions puissant, vous avez votre chance. Pour rappel, voici les liens à suivre :

Le remarketing cross device devient actif sur Google Analytics

remarketing-cross-device-google-analytics

Le 15 mai entrait en vigueur l’utilisation des données des utilisateurs connectés à leur compte Google à des fins de reciblage cross device sur le réseau Display.

Cela signifie qu’à partir de cette date, les listes créées dans Google Analytics utiliseraient ces données plutôt que les cookies.

Concrètement, cela signifie que désormais, les personnes peuvent voir des annonces sur des appareils depuis lesquels ils n’ont jamais visité votre site, exactement comme c’est le cas chez Facebook.

retargeting-cross-device-facebook

Soyez donc vigilants au niveau de la limitation de la fréquence de diffusion de vos annonces.

Théoriquement, vous devriez la baisser un peu. Monitorez et testez, comme toujours 🙂

Google ajoute des métriques liées au score de qualité

http://searchengineland.com/google-adwords-quality-score-reporting-improvements-275010

nouvelles-metriques-adwords-score-de-qualite

 

Google a ajouté 7 nouvelles métriques liées au score de qualité.

3 qui le segmente : pertinence de l’annonce, CTR attendu et convivialité de la page de destination.

A noter que ces métriques étaient déjà dispo par l’API depuis quelque temps.

Les 4 autres sont liées à l’historique : score de qualité historique, pertinence de l’annonce historique, CTR attendu historique et convivialité de la page de destination historique.

Ces nouvelles métriques sont également disponibles au niveau MCC et dans l’Editor.

Les annonces de Marketing Next

Là aussi, je vous liste les nouveautés ci-dessous. Mais permettez-moi avant d’ajouter une touche de réflexion.

1. Pour la première fois, Google copie Facebook. Il ajoute ainsi le ciblage par événement de vie ainsi que la portée unique pour le Display.

Je pense que Google a bien conscience que le cador du Display c’est FB. Mais ce n’est pas pour autant qu’il baisse les armes. Rien de tel que la compétition pas vrai 🙂

2. De plus en plus de local aussi. la aussi, on est dans une tendance globale : explosion des recherches locales, mesure des visites en magasin de plus en plus nombreuses et précises. De plus en plus de formats locaux (extensions de lieu sur tous les réseaux + le home service ads toujours en test).

3. Toujours plus de mobile. Avec l’AMP qui s’immisce dans Adwords et le nouveau rapport de la nouvelle interface sur la rapidité et la responsiveness. Mais aussi les nouveaux moyens de payer super simples et faciles sur mobile avec Google Pay.

Au final, rien de nouveau au niveau des tendances. Mais on avance. Passons donc aux annonces :

Ciblage des évènements de vie dans Youtube et Gmail

ciblage-evenements-de-la-vie-adwords

Il s’agit d’événements marquants tels que l’obtention du bac, un mariage, une naissance, un déménagement, un premier emploi, etc…

C’est le même principe que sur Facebook finalement pour ceux d’entre vous qui connaissent.

Un beta existe déjà sur ce type de ciblage et les premiers cas d’étude montrent des résultats prometteurs :

adwords-ciblage-evenement-de-la-vie

C’est intéressant (évidemment!). Et la encore, je prédis que l’année prochaine à la même date, ce type de ciblage sera aussi disponible en Search (ou annoncé comme l’étant bientôt :-))

Extensions de lieux pour les annonces Youtube

Google sait très bien que les recherches locales ne cessent de progresser (un tiers des recherches mobiles sont locales).

Après les récentes extensions de lieux pour le réseau Display, Google les annonce également pour les annonces Youtube.

extensions-de-lieux-annonces-youtube

Tout converge. Maintenant que Google mesure avec précision de plus en plus de visites en magasin, tout se met en place afin de pousser de plus en plus d’annonces locales. C’est logique.

D’ailleurs, un autre annonce forte faite lors de la conférence était que désormais, Google va utiliser du deep learning afin de mesurer encore plus et encore mieux les visites in store.

Annonces Display et landing Pages Search AMP

Google annonces des bannières Display qui se chargeraient en 5 secondes de moins par rapport aux bannières classiques. Un sacré gain.

annonces-adwords-display-amp

Pour ce qui est du réseau de recherche, les annonceurs auront la possibilité de proposer la version AMP HTML de leur landing page pour les personnes qui cliquent sur leurs annonces depuis un mobile.

page-de-destination-adwords-amp

Intégration de Google Optimize avec Adwords

Une annonce importante.

L’intégration d’Optimize avec Adwords va permettre de rapidement et facilement créer de nouvelles versions de landing pages et de les appliquer à n’importe quelle combinaison de campagnes, groupes d’annonces et mots clés, sans aucun besoin de coder.

integation-google-optimize-adwords

Un possibilité d’autant plus intéressante que l’on a maintenant accès à de toutes nouvelles métriques liées au score de qualité.

Notamment bien sûr, la métrique convivialité de la page de destination.

On va pouvoir tester rapidement comment la modification de certains éléments d’une page permet d’impacter cette métrique 🙂

Google Annonce Attribution

Google Attribution est un outil gratuit visant à analyser les différents canaux d’acquisition sur la base de vos données Analytics, Adwords et Doubleclick.

google-attribution

L’objectif est d’aider les marketeux à sortir du modèle dernier clic et de mieux évaluer l’apport des différents canaux.

Vous pouvez en apprendre plus ici : http://searchengineland.com/google-attribution-search-marketers-need-know-275751

Intégration de Google Survey 360 avec Adwords

Google Survey 360 est un outil payant de Google qui permet de :

  • Créer une étude
  • Trouver un échantillon d’audience à travers le web
  • Obtenir du feedback rapidement

google-surveys-360

Avec l’intégration de Survey 360 avec Adwords, les marketeux pourront cibler et proposer des études aux membres de leurs listes de remarketing afin d’en apprendre plus sur eux.

Notez qu’il existe une version gratuite de Survey 360 mais que pour l’instant, l’intégration est uniquement prévue pour la version payante.

La nouvelle interface Adwords sera déployée d’ici fin d’année

Ce n’est pas vraiment une nouveauté mais une confirmation.

La nouvelle interface sera déployée à tous les annonceurs d’ici la fin d’année.

Elle l’est déjà fortement en version béta.

nouvelle-interface-adwords-2017

Nouveau rapport sur les landing pages

La nouvelle interface embarquera un tout nouveau rapport sur les pages de destination.

Grosso modo, ce nouveau rapport ressemblera pour beaucoup à une version light de l’outil PageSpeed.

mobile-friendly-test

Outre fournir des informations vous permettant d’optimiser le temps de chargement et la responsiveness, ce rapport vous donnera des informations globales sur l’UX de votre site web.

La portée unique arrive pour les campagnes Display

Une option qui existe chez Facebook depuis bien longtemps et sur Youtube depuis le début d’année. Et bien ce sera étendu au réseau Display très prochainement.

adwords-ciblage-porte-unique

Pour rappel, le reach unique aide à mesurer le nombre exact d’utilisateur qui ont vu une annonce sur une période donnée.

La promesse faite par Google est que malgré l’écosystème multi-appareil actuel, les métriques sont dé-dupliquées à travers les campagnes, les appareils, les inventaires et les formats.

Google va simplifier les paiements en ligne sur les mobiles

Les utilisateurs pourront payer facilement avec une carte bancaire enregistrée dans leur compte Google.

Ils pourront les utiliser facilement dans n’importe quelle app ou site mobile ou dans Google Assistant.

google-pay-facilite-paiments-mobiles

Voila qui devrait contribuer un peu plus à l’augmentation continue du taux de conversion et des achats sur mobile.

J’espère que ce billet vous a plu ! Si oui commentez et/ou partagez. A bientôt 🙂

Auteur : Bruno Guyot

Expert en marketing digital & Générateur de business par des campagnes data-driven. J'aide les agences et les entreprises à accroitre leur business par la mise en place de mécanismes de tracking évolués. La récolte des données va nourrir une stratégie digitale et des campagnes à haute performance. Parmi les leviers technologiques utilisés : Analytics, Tag Management, Adwords, Facebook, LinkedIn, Twitter.

12 réflexions sur « 5 grosses actus SEO / SEA décryptées – mai 2017 »

  1. Hello,

    Merci pour cette actualité.

    Je profite de rebondir sur deux points, la création des liens… c’est quelque chose de fondamental pour que Google puisse donner de la notoriété à son site. Le problème reste « comment obtenir des liens naturellement »… en faisant un super contenu ? Difficile d’y croire… surtout s’il s’agit de sites e-commerce, je ne vois pas trop d’autres solutions que de drainer du lien via un blog ou alors de payer du lien… sachant que Google surveille toujours ça de près.

    Et pour concernant AMP, je suis en train d’observer que sur Mobile assez souvent les 1ère pages proposées disposent de la technologie AMP. Difficiile de dire encore si c’est « la technologie » du futur, car il y’a passablement de limitations… faut-il franchir le pas ? J’aurai envie de dire oui pour des sites qui ont vocation de présenter du contenu… car au niveau technique on ne peut pas faire ce qu’on veut (ex. Javascript). En tout cas c’est bien agréable d’avoir une page qui se charge en mode turbo !

    A bientôt !

    1. Hello Germain,

      Merci pour ton comm. Effectivement, si l’on suit les directives Google on aurait pas beaucoup de liens. Je pense qu’il faut les suivre mais aussi diversifier quitte à être un peu borderline. Le maître mot c’est diversité. Un peu de bons liens obtenus grâce à du contenu top niveau, un peu de liens type partenariat, quelques bons liens achetés, etc…

      Quand à l’AMP, je pense que oui, le standard va s’imposer. Google pousse trop fort pour que ce ne soit pas le cas. Je lisais à ce propos un article intéressant ce matin : http://searchengineland.com/amp-answer-format-fragmentation-276313. Mais c’est sans doute encore un peu tôt pour y aller. Les limitations se lèvent progressivement. Moi j’attends encore. Mais à terme je crois vraiment que ca va s’imposer oui.

  2. Bonjour Bruno,

    Sur le CTR où tu mentionnes une « règle » : je pense qu’on est dans un cas de corrélation ne signifie pas causalité. Le taux de clic est nettement plus élevé dans les premières positions… car elles sont en première position ! Voir les récentes études taux de clic : les premières positions sont à environ 35-40%, la 10ème est à moins de 5%.
    De même, « signaux utilisateur » pour simplement désigner le CTR, ça me semble être une grande extension.
    A ce titre, une étude de backlinko sur les critères de référencement 2016 donnent les liens, le nombre de site liants et leur autorité comme assurément le premier facteur de positionnement SEO.

    Très intéressante l’étude sur l’impact de la marque dans le positionnement ! Et merci pour les liens vers les articles dstilled, je ne connaissais pas et c’est très intéressant.

    Excellent article au global (je ne commenterai pas sur le SEA, je m’y intéresse moins), très lisible et aéré en dépit de la quantité d’infos !

    1. Hello Aurélien,

      Merci pour le commentaire. Et merci de challenger 🙂

      Que le CTR soit plus élevé en position haute qu’en position basse c’est évident, je suis complètement d’accord.

      En fait, je me suis sans doute mal exprimé. Ce que je veux dire, c’est que la sensibilité à la différence de CTR entre les résultats des top positions est bien plus élevée que pour les positions plus basses (cf le graphique de l’étude de Wordstream). Et cela corrèle fortement avec la théorie défendue (et qui est fortement documentée quand même).

      Après effectivement, difficile d’être affirmatif à 100%. Personne ne connait vraiment la formule secrète. Pas même Brian Dean (que j’adore et lis à chaque occasion). Je vois très bien l’étude dont tu veux parler. Mais malgré tout, je pense que ma théorie est bonne, même si elle va à l’encontre de son étude. Ça bouge vite chez Google. Et je crois que son étude n’est plus à jour. Et que chaque mois un peu plus, les signaux utilisateurs prennent le dessus lorsque c’est possible (ce qui est loin d’être 100% du temps, comme dit dans l’article).

      Deuxième point concernant les signaux utilisateurs. J’ai bien conscience que ca ne désigne pas uniquement le CTR :-). Le CTR en est l’une des composantes. Mais du coup, comme je prend un exemple complet lié au CTR, ca peut porter à confusion. Donc merci pour ton feedback, je vais prendre le temps d’inclure ta remarque dans l’article 🙂

      Distilled ils cartonnent en ce moment. Ils n’en sont qu’au début (leurs cas d’étude sont intéressants mais sonnent encore un tout petit peu creux). Mais la marge de progression est énorme avec l’accumulation des données. Ils peuvent vraiment apporter des infos top à toute l’industrie.

      Au plaisir de te lire. J’ai mis ton blog dans mes favoris 🙂

      ++

      1. « c’est que la sensibilité à la différence de CTR entre les résultats des top positions est bien plus élevée que pour les positions plus basses »
        -> Ok, ça je l’envisage bien sur des requêtes à forte volumétrie.
        Maintenant leur étude tire des conclusions un peu erronées sur la différence de CTR entre short et long tail à mon avis. Du reste, beaucoup de documents « de Google » qu’ils mettent en avant pour soutenir leur thèse datent déjà d’il y a un bon moment (2007, 2009)
        Par « documentée », tu fais référence à d’autres sources que ladite étude Wordstream ? Loin de moi l’idée de porter en permanence l’esprit de contradiction, mais je n’ai tendance à y voir que des études de corrélation. Des case studies à grande échelle sur des sites de forte autorité me sembleraient plus conclusives.
        Bien sûr, j’ose imaginer que le CTR, comme le taux de rebond, ont une importance SEO ; mais que celle-ci ne se décide que sur un nombre marginal de requêtes (certes, importantes). Ceci dit j’aime beaucoup l’AB testing, et ça me plairait d’être confronté à ça un jour pour un gros annonceur 🙂

        Merci ! Je crois que je vais ouvrir une zone commentaire d’ici peu d’ailleurs, rien que de discuter ici m’en convainc.

        1. Ok tu marques un point. Après relecture, c’est pas si documenté que ça. Je suis biaisé par Ross Hudgens. Ce mec là est très bon, et j’adore ce qu’il fait. Il fait pas mal d’expériences et amène régulièrement un vrai retour terrain. Du coup j’attache beaucoup de crédit à ce qu’il dit. Mais pour ce post la précisemment, il n’a pas donné de chiffres précis.

          Après effectivement, pour la plupart, on est sur des études de corrélation. Tant celle de Moz que celle de Wordstream (et toutes les autres : Backlinko, Searchmetrics, etc…). Mais c’est aussi le principal moyen de faire progresser l’industrie depuis plusieurs années. Mais +1 pour obtenir des case studies. Sans doute bientôt chez Distilled.

          Ce qui me fait croire que la théorie est juste, au dela des références citées, c’est de la réflexion. Ça me parait logique et évident. Comme dit dans l’article, il y a pas mal de cas ou utiliser les signaux utilisateurs n’est à priori pas (encore) possible. Mais lorsque ça l’est, ça me parait évident que Google (la société Machine Learning par excellence) s’en serve. C’est plus juste que les liens.

          N’est-ce pas quelque chose qui fait sens pour toi ?

          Clairement, ouvres une zone commentaire. Si ce que je pense est juste, les commentaires sont un critère de référencement (signaux utilisateurs) 🙂

          1. La théorie de Hudgens est très intéressante et spontanément j’y souscris. Maintenant, ceci n’est qu’un ressenti ; ça « fait sens », mais ça ne suffit pas pour en faire une règle. Encore en 2017 on trouve sur des requêtes à 1k-10k des pages poubelles automatisées, traduites et spinnées sur des google docs ou templates éculés qui se positionnent bien. Or si on raisonne par le bon sens, on ne devrait même jamais les voir.
            On ne pourra jamais avoir que des études de corrélation en effet. Mais dans le cas du CTR, ça me semble biaisé sans essai mené à grande échelle et rigoureusement suivi. Et ça supposerait de ne pas toucher le Title dans un premier temps, puisque le Title lui-même pourrait fausser les résultats de par son seul impact SEO (quoique celui-ci diminue)

  3. 🙂 Cool cette discussion.

    Je suis d’accord avec toi sur l’incohérence de certains résultats, notamment à faible volume.

    Toute règle a ses exceptions et Google doit effectivement (et logiquement) réserver en priorité sa puissance de calcul aux requêtes du haut (si l’on voit le volume comme une pyramide) -> Même principe que pour le crawl en javascript. Sans compter que le français n’est pas non plus sa priorité.

    Au final, bien que je reste convaincu de la théorie (et qu’elle sera sans doute la règle universelle d’ici quelques mois/années), ton éclairage est on ne peut plus intéressant. Un grand merci 🙂

    Dès que je trouve 2 min, je vais faire un edit ç l’article et synthétiser tout ça.

    1. Avec plaisir 😉 Tu as vu l’étude SEMRush qui vient de tomber ? Ils indiquent avoir travaillé leur étude de façon à ce que ne soit pas qu’une analyse de corrélation. Il leur manque le CTR (ahaha) mais en revanche, il y a des mesures sur le taux de rebond et le temps sur le site. Je suis quand même extrêmement surpris de l’importance immense que ces facteurs auraient sur les facteurs SEO classiques, mais ça se vérifierait aussi pour les mots-clés à faible volume de recherche

      1. Hello,

        J’ai vu vite fait (je suis sous l’eau en ce moment). Ce que j’en ai retenu (en diagonal) c’est que ca n’apportait rien de neuf. Et malgré ce qu’ils disent, ca ressemble beaucoup à une étude de corrélation. Mais peut être suis-je passé trop vite et ca vaut le coup de que je lise plus en détail du coup 🙂

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *