L’information a fait le buzz dans la communauté des spécialistes Google Ads ces derniers jours.
Google annonce limiter avec effet immédiat les termes de recherche fournis jusque-là dans un but d’affinage et d’optimisation des campagnes.
Dans ce billet, nous allons chercher à comprendre quelle est l’ampleur de cette mesure et quelles sont les conséquences pour les annonceurs et les professionnels que nous sommes.
Nous donnerons également nos recommandations sur la meilleure réaction à adopter pour ses comptes publicitaires.
Avant de commencer, prends 30 secondes pour t’abonner à ma newsletter et reçois régulièrement du contenu premium soit exclusif, soit avant tout le monde.
Bonne lecture !
L’annonce officielle de Google
Depuis le début du mois de septembre 2020, vous avez sans doute aperçu cette notification dans vos comptes :
Afin de maintenir nos normes de confidentialité et de renforcer nos protections autour des données des utilisateurs, nous avons apporté des modifications à notre rapport sur les termes de recherche afin de n’inclure que les termes recherchés par un nombre important d’utilisateurs.
En d’autres termes, cela signifie que les annonceurs ont désormais une visibilité réduite sur les termes de recherche qui vont déclencher leurs publicités, et même si ces recherches ont généré des clics ou des conversions.
Google justifie son action pour des raisons de confidentialité (comme elle a bon dos 😅)
Les termes de recherche Google: de quoi parle-t-on au juste?
Les termes de recherche correspondent aux recherches réellement effectuées par les utilisateurs.
Ce sont des mots tels qu’ils ont été saisis dans le moteur de recherche de Google, et qui ont ensuite conduit à un clic sur l’une de vos annonces publicitaires.
En tant qu’annonceur, vous utilisez des mots clés dans une campagne ciblée sur le réseau de recherche de Google (ou des campagnes de type DSA ou Shopping) pour diffuser vos annonces auprès d’une audience qualifiée.
Mais ces mots clés vont plus ou moins correspondre aux termes réellement recherchés par les internautes, en fonction du “type de correspondance” que vous aurez utilisé.
Voici un petit rappel sur les différents types de correspondance avec du ciblage par mots clés.
Le ciblage par mots clés en mode requête large
C’est le mode de ciblage par défaut. (le plus large et donc aussi le moins précis)
Pour faire simple, bien que vous ayez renseigné un mot ou une expression spécifique (dans cet exemple: agence digitale), Google peut diffuser vos annonces sur des requêtes de recherche qui sont parfois assez éloignées de ce mot clé.
Il faut comprendre qu’avec ce type de ciblage « large », vos annonces seront aussi diffusées sur des requêtes de recherche qui peuvent contenir :
- ce que Google considère comme des synonymes,
- les formes au pluriel et au singulier,
- les termes mal orthographiés,
- les variantes dérivées d’un même radical (maçon et maçonnerie, par exemple),
- les recherches associées,
- d’autres variantes que Google estime pertinentes,
- des mots avant,
- des mots après,
- des mots entre,
- `etc.
Je vous invite à comprendre cette notion plus en détail ici.
Le ciblage en mode “large modifié”
Un niveau de ciblage déjà beaucoup plus précis dans le sens où les mots clés doivent être obligatoirement présents dans la requête saisie par l’internaute, pour que votre annonce soit déclenchée.
Pour l’utiliser, vous devez ajouter un signe « + » devant les mots qui composent votre mot clé:
Plus de détails sur le ciblage large modifié ici.
Le ciblage par expressions exactes
C’est un niveau de ciblage encore plus précis que le précédent, dans le sens où les mots qui constituent cette “expression exacte” doivent être obligatoirement présents dans la requête de recherche de l’internaute pour que votre annonce soit déclenchée.
Mais attention, ils doivent aussi impérativement l’être dans l’ordre donné.
De plus, aucun mot ne peut s’intercaler entre les différents termes (contrairement au ciblage “large modifié”).
Pour l’utiliser, vous devez mettre vos mots clés entre deux “guillemets” :
Plus de détail sur le ciblage expressions exactes ici.
Le ciblage par mots clés exacts
C’est le niveau de ciblage le plus précis, dans le sens où vos annonces apparaîtront uniquement si la requête tapée par l’internaute correspond EXACTEMENT à votre mot clé.
Pour l’utiliser, on enregistre les mots clés entre deux [crochets] :
Plus de détail sur le ciblage mots clés exacts ici.
Des ciblages qui s’avèrent de moins en moins précis
Au fil des années, Google a rendu son ciblage de moins en moins précis en imposant aux annonceurs toujours plus des “variantes proches” aux mots clés qu’ils ont choisi de cibler.
Depuis 2019, cela a atteint un tel niveau “d’imprécision” que l’on peut affirmer que les types de correspondance volontairement plus restrictifs (de type [exact]) ont quasiment perdu leur utilité.
Etude #GoogleAds : les types de correspondance les plus restrictifs tels que l'exact match ont quasiment perdu leur utilité avec les variantes proches via @bruno_guyot #ppc #adwords #SEA #webmarketing Cliquez pour tweeterGoogle a tellement rallongé la notion des “variantes proches” que l’affichage d’une annonce peut désormais se déclencher avec des requêtes de recherche qui sont vraiment éloignées du mot clé ciblé dans une campagne.
Cela a pour conséquence de générer de plus grands volumes d’impressions pour les annonces, ainsi qu’un nombre de clics plus élevé au final (ce qui est logique).
Ce que nous constatons, ce que l’annonceur devra généralement payer un coût supérieur par conversion dans une campagne (c’est-à-dire pour le succès attendu).
Etude #GoogleAds : le coût par conversion des variantes proches est entre +29% et +63% plus cher que le coût par conversion des mots clés ciblés via @bruno_guyot #adwords #ppc #webmarketing Cliquez pour tweeterUn phénomène que j’ai déjà étudié et largement documenté : [Etude] Google Ads : variantes proches & rentabilité de vos campagnes.
Lorsque nous avions à disposition la totalité des termes de recherche, la parade consistait à exploiter finement les données extraites du rapport sur ces mots clés:
- on isolait dans leur propre groupe d’annonces les variantes proches qui performent le mieux,
- on éliminait les autres
Et plus largement :
- on recherchait les termes qui performaient pour les isoler ensuite dans leur propre groupe d’annonces,
- on éliminait les termes qui performaient peu (ou pas du tout)
Mais ça, c’était avant l’apparition de cette nouvelle restriction.
Généralement, nous travaillons en 2 phases.
Il y a une première phase dite de “découverte”, où l’on obtient de précieux renseignements sur les termes qui sont effectivement recherchés sur son marché, ceux qui sont précisément employés par ses clients.
Puis une seconde étape de segmentation, on conserve alors uniquement les termes les plus performants et on les gère très étroitement pour en tirer le maximum.
C’est désormais cette capacité de “libre arbitre” qui nous est en bonne partie retirée par Google, au profit de leurs algorithmes soi-disant intelligents sensés mieux performer que la gestion manuelle.
(nos études montrent que ce n’est pas toujours le cas, mais nous n’aurons bientôt plus aucun moyen de le vérifier…)
Les craintes (justifiées) des gestionnaires de campagnes Google
Depuis cette annonce, la communauté des marketeurs Google (SEA) est en ébullition.
Parmi les nombreuses craintes et questions, en voici quelques-unes que j’ai glanées sur le net:
Vous pensez que ça va baisser les performances générales sur les comptes ?
Que va-t-il nous rester pour démontrer la qualité de notre travail, à nous les spécialistes en SEA ?
On est de plus en plus dans une logique de black box. Chaque année, Google nous enlève un peu plus de notre capacité d’action et de contrôle sur nos campagnes. J’imagine que leur objectif à terme, c’est qu’on enregistre notre carte bancaire, qu’on indique une page de destination, un objectif de rentabilité (CPA ou ROAS) et que, sans aucune intervention humaine, la machine s’occupe au final de tout.
(un point largement évoqué dans mon étude sur les recommandations Google Ads).
En réduisant ce qui est visible, ça donne plus de liberté à Google pour faire ce qu’ils veulent sans aucune possibilité de surveillance.
En ayant moins accès à leurs données, cela nous rend plus dépendants de leurs algorithmes « intelligents » et des outils automatiques pour concevoir nos campagnes. Du coup on est obligé de faire confiance à Google, et de manière aveugle, pour nos investissements publicitaires. Il devient impossible d’analyser en finesse les résultats de nos campagnes.
Je m’attends à ce que ce ne soit bientôt plus du tout possible de gérer les enchères manuellement sur les mots clés, on sera alors forcé d’utiliser le “smart bidding”, avec uniquement des enchères automatiques
C’est aussi le moment d’extraire toutes les données qui sont encore à notre disposition, car on se doute bien qu’elles vont progressivement disparaître…
Perte de flexibilité, modèle opaque, aucune certitude sur l’avenir. C’est peut-être le moment pour réfléchir à d’autres mécaniques pour acquérir des clients, d’investir aussi ailleurs…
Alors, n’y allons pas par 4 chemins…
Est-ce que ce changement de paradigme va avoir une influence sur la manière dont nous gérons nos campagnes ?
Oui, assurément.
Je pense qu’il y aura un avant et un après-septembre 2020.
Avant de rendre ça très concret et d’expliquer comment s’adapter, tentons de découvrir l’ampleur des changements.
Etude #GoogleAds : il y aura un avant et un après septembre 2020. La suppression d'une part important des termes de recherche va nécessiter une adaptation des méthodes de travail via @bruno_guyot #ppc #SEA #adwords #webmarketing Cliquez pour tweeterEnseignements de l’étude
Méthodologie de l’étude
Pour tirer les enseignements suivants, j’ai agrégé les données de :
- 26 comptes (sélectionnés pour leur représentativité),
- 312 campagnes (Search classique, DSA, Shopping classique),
- 242’964 clics,
- 251’759.- CHF d’investissement média,
- sur la période du 1er août au 6 septembre
J’ai comparé entre août et septembre :
- le ratio entre nombre de clics et termes de recherche,
- le ratio entre toutes les conversions et celles pour lesquelles nous avons le terme de recherche
Le tout segmenté par :
- domaine d’activité,
- type de campagne,
- type d’enchères utilisées.
Disclaimer
Comme toujours, je ne prétends rien.
Ces résultats correspondent à la tendance observée sur l’échantillon observé et ils ne peuvent bien sûr pas être considérés comme une vérité absolue.
D’ailleurs, bien que le volume de données utilisé dans cette étude puisse être considéré comme significatif, cela reste un tout petit échantillon à l’échelle de la totalité des comptes Google Ads existants, forcément pas représentatif des tous les cas.
Alors, si ce que vous constatez des différences dans vos propres comptes, merci pour votre partage dans les commentaires.
Apprenons tous ensemble 👍.
Note : ce qui suit concerne la plateforme Google Ads, mais c’est pareil pour Google Analytics où les termes de recherches ont été supprimés dans une même mesure.
En moyenne, nous n’avons plus accès à un tiers (33,92%) des termes de recherche qui ont généré un clic
En août, nous avions accès à 98,38% des termes de recherches, pour lesquels il y a eu un clic.
En septembre, ce chiffre tombe à 66,08%.
Etude #GoogleAds : en moyenne nous n'aurons plus accès à un tiers des termes de recherche ayant généré un clic via @bruno_guyot #ppc #sea #adwords #webmarketing Cliquez pour tweeterEn moyenne, nous n’avons plus accès à un tiers (30,37%) des termes de recherche qui ont généré une conversion
En août, nous avions accès à 98,22% des termes de recherches pour lesquels il y a eu une conversion.
En septembre, ce chiffre tombe à 69,63%.
Etude #GoogleAds : en moyenne nous n'aurons plus accès à 30% des termes de recherche qui sont à l'origine d'une conversion via @bruno_guyot #ppc #sea #adwords #webmarketing Cliquez pour tweeterCertains comptes sont beaucoup plus impactés que d’autres (jusqu’à la moitié des termes en moins)
Derrière ces chiffres moyens se cachent de larges disparités.
AInsi, certains comptes n’ont perdu que 20% des données tandis que d’autres jusqu’à 60% (😱😱).
Ici le ratio nombre de clics vs termes de recherche associés :
Et la le ratio du nombre de conversions pour lesquelles on connaît le terme de recherche :
Etude #GoogleAds : certains comptes perdent jusqu'à 60% des termes de recherche qui ont généré un clic ou une conversion via @bruno_guyot #ppc #adwords #sea #webmarketing Cliquez pour tweeterComment expliquer ces disparités ? (l’approche théorique)
Commençons par du bon sens et un peu de déduction logique.
Google dit agir pour la vie privée des utilisateurs. (😂)
Ainsi et selon leur communiqué officiel, Google ne présentera désormais que les termes qui ont généré des requêtes de recherches pour un nombre important d’utilisateurs.
Voilà qui reste très flou, puisque nous n’avons aucune idée sur la quantité des termes qui nous sont encore montrés.
Mais du moment qu’on accepte ce principe, cela signifie qu’on ne devrait potentiellement plus observer :
- de termes de recherche avec très peu d’impressions,
- de termes de recherche avec zéro clic
Et théoriquement toujours, les entreprises seront plus ou moins touchées selon la manière dont leurs clients potentiels recherchent leurs services sur Google.
Je m’explique :
Dans certains domaines d’activité, il est courant qu’un nombre très limité de mots clés fonctionnent.
C’est fréquemment le cas en B2B par exemple.
Ainsi, le volume de recherches et de clics associés aux mots clés principaux est élevé.
C’est un peu comme si votre business est entouré d’autoroutes et que la majorité des utilisateurs utilisent ces autoroutes pour se rendre chez vous.
Dans ce cas, il y a théoriquement peu de perte.
En effet, chaque autoroute a un volume suffisant pour être enregistré et mis à disposition par Google.
Par contre, les grands perdants sont les business ou il existe énormément d’occurrences de recherches différentes (on parle alors d’un phénomène de long-tail).
Dans ce cas et pour continuer la métaphore routière, c’est comme s’il y avait vous n’étiez desservi par aucune autoroute, mais plutôt par une multitude de petites routes départementales.
Alors dans ce cas, la perte de données est significative car la plupart des routes départementales n’ont pas assez de trafic pour être signalées et mises à disposition dans les rapports de Google.
J’espère que vous avez compris ou je voulais en venir 😁.
Comment expliquer ces disparités ? (la réalité des données)
Malheureusement, mon explication rationnelle précédente ne colle pas avec les données.
Ce que je constate, et très clairement, c’est qu’en septembre nous n’avons jamais eu autant de termes de recherches qui présentaient zéro clic (en volume ET en proportion).
Mais qu’est-ce que cela signifie au juste ?
Résumons donc :
- nous voyons nettement moins de termes de recherches dans nos comptes,
- nous voyons nettement plus de termes dont les clics sont à zéro (autrement dit des termes à peu de volume qui en prime sont moins utiles).
Il est hélas trop tôt pour en tirer des conclusions définitives (il faudra attendre au moins jusqu’à la fin de ce mois de septembre afin de pouvoir comparer des mois complets)
A ce stade, j’ai l’impression que ce ne sont pas précisément les termes de recherche à faible volume que Google a retirés.
Mais au contraire, j’ai plutôt l’impression qu’ils ont plutôt retiré des termes stratégiques qui présentaient du volume :
- d’une part en nous montrant moins de données (en volume absolu),
- d’autre part en remplaçant certains termes à fort volume par des termes de recherche à zéro clic (évidemment beaucoup moins utiles)
Je viendrai confirmer ou infirmer cette hypothèse début octobre, lorsqu’il sera possible de comparer août et septembre correctement.
L’immobilier et le crédit apparaissent plus fortement touchés
Il est plutôt curieux de constater que, dans nos comptes, les secteurs d’activité les plus sévèrement touchés sont les domaines du crédit et de l’immobilier.
Deux secteurs où l’argent ne manque généralement pas et où les clics coûtent très cher.
Dans ces domaines, la perte de ces données peut entraîner une augmentation du temps à consacrer à la recherche et l’optimisation des campagnes, sans pour autant avoir la garantie d’obtenir des résultats équivalents.
Au final, les conséquences financières pourraient être importantes (en défaveur des clients, mais pas forcément pour Google 🤫).
Voyons maintenant le ratio des clics par rapport aux termes de recherche pour le mois de septembre (donc après cette nouvelle limitation) :
Dans les comptes Google Ads sélectionnés (qui ne sont – encore une fois – sans doute pas représentatifs de tous les autres comptes), on peut notamment constater que le secteur immobilier est particulièrement impacté.
Moins d’un clic sur deux seulement permettra de dévoiler un terme de recherche utilisé par l’internaute…
Voyons maintenant le ratio des conversions pour lesquelles nous avons obtenu un terme de recherche :
Dans notre sélection de comptes, on peut observer que pour ce ratio conversion / termes de recherches c’est le secteur du crédit qui est particulièrement impacté.
Celui-ci ne verra même pas la moitié des termes de recherche qui ont donné une conversion…
Etude #GoogleAds : l'immobilier et le crédit particulièrement impactés par la diminution des termes de recherche. Au prix des clics cela va avoir un impact financier majeur via @bruno_guyot #ppc #sea #adwords #webmarketing Cliquez pour tweeterTous les types de campagnes sont impactés
Même si les campagnes Shopping classiques semblent s’en tirer mieux que les campagnes de type Search classiques, tous les types de campagnes sont touchés par cette mise à jour.
Il conviendra de confirmer (lorsque nous aurons plus de recul), si les campagnes de type Dynamiques (DSA) nous livrent plus de termes de recherche que les campagnes Search classiques.
(ce que semblent indiquer ces premières tendances)
Etude #GoogleAds : la baisse du nombre de termes de recherche moindre pour les campagnes Shopping (classiques) et possiblement moindre sur les DSA (à confirmer) via @bruno_guyot #adwords #ppc #sea #webmarketing Cliquez pour tweeterLe type d’enchères ne fait pas de différence
A priori, le type de stratégie d’enchères que vous utilisez dans vos comptes n’a aucun impact sur la mise à jour.
Etude #GoogleAds : la baisse du nombre de termes de recherche est la même indépendamment de la stratégie d'enchères utilisée via @bruno_guyot #adwords #ppc #sea #webmarketing Cliquez pour tweeterComment s’adapter à la suppression des termes de recherche ?
Il va falloir s’adapter, comme toujours.
Notamment sur les comptes où 50% (ou plus) des termes de recherche ne sont plus disponibles.
Phase de découverte
Jusqu’à présent nous avions toujours fait la découverte de mots clés directement dans les campagnes Google Ads (en opposition à une recherche de mots clés préalable).
D’expérience, c’était la manière la plus rapide pour gagner en traction et au final en performance.
Et c’est logique, puisque Google possède toutes les données dont nous avons besoin!..
Ou du moins c’était, devrions-nous dire au passé… 😅
Car désormais, c’est une recherche préalable des mots clés qui sera souvent la meilleure option.
Voilà sans doute une aubaine pour des outils de recherches de mots clés comme SEMRush ou Ahref.
Il faudra aussi faire une recherche de mots clés à exclure, dès le départ.
(ciblage mots clés positif et négatif donc)
Au final, cela va engendrer pas mal de boulot supplémentaire de notre côté.
Rechercher des mots clés pertinents, quoi qu’on en dise c’est un travail long et laborieux.
S’il s’avère confirmé que les campagnes DSA livrent plus de termes de recherche que les campagnes Search classiques alors ces campagnes dynamiques deviendront la manière la plus efficace pour faire de la découverte.
Et cela même s’ils n’ont plus aucun contrôle sur les mots clés ciblés.
Difficile d’avoir encore des doutes sur la stratégie de Google qui devient plutôt limpide…
Enfin, il faut s’attendre (évidemment) à ce que ce travail de découverte soit plus long, puisqu’il faudra jusqu’à 2 fois plus de clics pour obtenir la même quantité de termes de recherche.
Et par conséquent, ce sera plus coûteux aussi.
(puisqu’il nous faudra jusqu’à 2 fois plus de temps pour valider la pertinence, ou non, de certains termes de recherche, leur impact sur la performance de la campagne).
Etude #GoogleAds : la recherche initiale de mots clés (à inclure ET exclure) va devenir plus chronophage et plus complexe. La phase de découverte sera aussi plus longue et coûteuse via @bruno_guyot #ppc #sea #adwords #webmarketing Cliquez pour tweeterStructuration des campagnes
Notre approche ne changera pas, en tout cas au niveau des campagnes sur le réseau Search.
Ainsi, un mot clé = un groupe d’annonce pour les mots clés qui en valent la peine.
Le reste, c’est-à-dire ce tout ce qui ne génère pas assez de trafic pour avoir son propre groupe d’annonces, continuer d’évoluer dans des campagnes dites de “découverte”.
L’avantage avec une gestion aussi fine, c’est qu’il y a très peu de surprises en ce qui concerne les termes de recherche.
Je m’explique :
Dans un groupe d’annonces où il n’y a qu’un seul mot clé en exact, même si on vous enlève la moitié des termes de recherche cela n’a aucune importance.
(d’autant plus si vous utilisez un script anti variantes proches)
A lire absolument pour en savoir plus sur le sujet : [Etude] Google Ads : variantes proches & rentabilité de vos campagnes
Pour les campagnes de type Shopping (classique), ça s’avère par contre un peu plus gênant.
Mais en même temps, les données montrent que celles-ci sont globalement moins impactées et qu’on arrive (pour l’instant) à conserver encore presque 80% des termes de recherche.
Tout n’est donc pas perdu.
En restant sur des structures bien granulaires et en continuant de structurer ses campagnes de manière hiérarchique et avec intelligence, on ne devrait pas être trop gênés pour l’instant.
Notez cependant que cela pourrait empirer, et rapidement.
Car Google veut nous contraindre à utiliser leurs campagnes de type Smart Shopping, des campagnes qui ne révèlent plus AUCUN terme de recherche!
Ils ont d’ailleurs déjà annoncé courant de cet été 2020 qu’ils ne fourniraient plus de support pour les campagnes Shopping classiques.
A mon avis, ce n’est qu’une question de semaines (ou de mois) avant que ces dernières ne soient officiellement stoppées.
Etude #GoogleAds : avec la limitation des termes de recherche, structurer ses campagnes de manière très granulaire devient encore plus primordial via @bruno_guyot #ppc #sea #adwords #webmarketing Cliquez pour tweeterQuid des exclusions de mots clés ?
Les exclusions de mots clés, c’est depuis toujours l’une des techniques les plus basiques pour l’optimisation des campagnes Google Ads.
On est bien loin des trucs ultra avancés qui sont à la mode habituellement (machine learning, audiences, etc.), n’est-ce pas ? 😄
Pourtant ce processus d’exclusion reste essentiel pour assurer un ciblage pertinent. (et même si l’on trouve beaucoup moins de déchets dans les termes de recherches que par le passé)
Alors évidemment, avec jusqu’à 2 fois moins de termes de recherche à notre disposition, cela va être compliqué de faire ce travail avec précision.
Et cela va sans doute nécessiter plus de temps pour y parvenir.
Même si le processus ne change pas vraiment, il faudra dépenser plus d’argent pour obtenir plus de données et peut être atteindre un niveau de qualité satisfaisant.
Du coup, je pense que l’analyse des n-grams deviendra encore plus importante.
Et qu’elle devra intervenir plus tôt.
Etude #GoogleAds : l'exclusion des termes de recherche peu/pas performants prendra 2X plus de temps. Cela va engendrer plus de budget gaspillé via @bruno_guyot #ppc #sem #sea #adwords #webmarketing Cliquez pour tweeterFaut-il dé-granulariser et tout passer en smart bidding ?
C’est l’approche que prône Google depuis bien longtemps.
Mais chaque spécialiste Google Ads pourra se forger sa propre opinion, je ne souhaiterais aucunement imposer ma méthode.
Ces articles ont la vocation de soulever des questions, d’abord pour engager la discussion.
Pour ma part, j’ai essayé les 2 approches suivantes :
- des structures peu granulaires avec via les enchères de type “smart bidding”,
- des structures très granulaires via les enchères manuelles.
Ce que je peux vous dire c’est que la seconde approche m’apporte de bien meilleurs résultats.
On pourrait penser que cela va engendrer plus de travail, mais lorsque vous avez les bons outils et la bonne méthode de travail ça ne prend pas plus de temps.
En réalité, on en fait plus dans le même temps.
Evidemment, certains d’entre vous peuvent se dire que si l’on manque de signaux pour optimiser, il est temps de faire confiance à Google avec ses enchères “intelligentes”.
Je peux le comprendre.
Pour ma part je reste cependant persuadé que c’est exactement ce que Google attend de nous avec une mise à jour comme celle-là.
Je peux supposer que plus les enchères de type smart bidding sont utilisées, plus Google gagne de l’argent.
Et il n’y a pas de miracle, si Google gagne plus d’argent c’est que les annonceurs en ont dépensé plus.
Pour aller au bout des choses, je pense que Google utilise les enchères de type smart bidding pour générer de la croissance sur des emplacements publicitaires qui doivent désormais être saturés (son réseau Search).
Google nous dit : vous aurez moins de clics et vous les paierez plus cher, mais ils seront de meilleure qualité (vous obtiendrez plus de conversions)…
Bah voyons, c’est tellement évident 🤣.
C’est ainsi qu’on en vient à payer des clics à des prix démesurés pour des termes recherchés qui ne sont pas même pertinents.
Quelques exemples :
Remarquez les coûts par clics (CPC) exorbitants dans ces exemples réels.
Vous en connaissez beaucoup des écoles qui seraient consentantes de payer plus de 15 CHF pour un seul clic vers leur site web ?
Le problème est le suivant: avec cette dernière mise à jour, il sera désormais beaucoup plus difficile pour cette école de déceler des exemples comme celui-ci car Google va désormais les cacher “sous le tapis”. 🤥
Etude #GoogleAds : et si la suppression d'une bonne part des termes de recherche visait à cacher les clics payés beaucoup trop cher en #smartbidding ? via @bruno_guyot #ppc #SEA #SEM #Adwords #webMarketing Cliquez pour tweeterQuand les données historiques deviennent un avantage compétitif
Avec Google qui restreint progressivement l’accès aux informations qu’il a sur notre propre marché, posséder des données historiques devient un “asset” pour les annonceurs.
Qui deviendra toujours plus rare, et donc plus précieux.
Ainsi, une entreprise qui effectue des campagnes depuis plusieurs années aura un avantage compétitif sur une nouvelle entreprise qui démarre des campagnes Google Ads aujourd’hui.
La synergie SEO / SEA devient plus importante
Le référencement naturel (SEO) et le référencement payant (SEA) trouveront des intérêts à se rapprocher.
Si les pages d’atterrissages utilisées par des campagnes payantes (SEA) sont bien positionnées dans les moteurs de recherche (SEO), alors extraire les termes de recherche depuis la Google Search Console devient désormais une source de données à utiliser pour effectuer de nouvelles “découvertes” de mots clés pertinents ou, au contraire, pour exclure les mots clés sans valeur (parasites).
On peut dire qu’avant ce mois de septembre 2020, la plateforme Google Ads se suffisait généralement à elle-même pour effectuer des campagnes.
Mais désormais les données du SEO via la Search Console vont devenir une ressource indispensable pour venir nourrir ses campagnes en SEA.
Conclusion
Quelle ironie !
Les géants du net n’ont jamais été autant sous pression pour plus de transparence dans la collecte de données et le fonctionnement de leurs algorithmes.
Et pourtant, la plateforme publicitaire Google Ads se ferme toujours plus et continue à devenir une boîte noire de plus en plus insondable.
Certes, Google n’enlève pas les indicateurs de succès globaux.
Il nous reste encore les conversions au niveau d’une campagne ou d’un groupe d’annonces.
Mais il enlève progressivement ce qui faisait la valeur indirecte de sa plateforme publicitaire: la remontée de données qui permettent une meilleure connaissance de son marché.
Sans parler du fait qu’au passage, il ampute toujours davantage notre capacité d’optimiser les campagnes.
Google se justifie directement par la protection de la vie privée, mais franchement:
Avez-vous souvent découvert des termes de recherche qui auraient permis d’identifier quelqu’un?
Pour moi, cet argument ne tient pas la route.
La firme se justifie indirectement par la volonté d’utiliser au maximum ses algorithmes qu’elle qualifie elle-même d’intelligents, mais pour ce que nous en voyons au quotidien, la performance est encore très variable.
(comme nous avons d’ailleurs pu le mesurer à de nombreuses reprises)
Notez toutefois qu’à ce rythme de verrouillage et d’automatisation de la plateforme, il ne sera bientôt plus possible d’effectuer des comparaisons entre les enchères manuelles et automatiques (smart bidding).
Nous devons donc faire confiance à Google.
Une confiance aveugle (au sens propre 😅).
Mais qui peut accepter ça ?
Cette marche forcée inquiète les annonceurs et les spécialistes du secteur que nous sommes.
Elle pose de nombreuses questions sur l’avenir de la publicité en ligne et sur le rôle ultra-dominant d’un acteur comme Google.
Etude #GoogleAds : bientôt nous n'aurons plus le choix que de donner une confiance aveugle à Google. Mais qui peut accepter ça ? via @bruno_guyot #ppc #sea #sem #adwords #webmarketing Cliquez pour tweeterA votre tour maintenant.
Si vous voyez d’autres moyens d’adaptation qui n’ont pas été cités dans ce billet,
si vous avez une opinion (même divergente),
et/ou si vous avez analysé les termes de recherche de votre/vos compte(s) et que vous avez d’autres enseignements que vous voudriez partager,
alors, laissez un commentaire 🙂
Et avant de partir, prends 30 secondes pour t’abonner à ma newsletter. Tu recevras régulièrement du contenu premium comme celui-ci soit exclusivement, soit avant tout le monde.
Merci bruno pour ton article.
1 – La vie privée ? ah bon ? dans ce cas pourquoi ne pas supprimer l’option termes de recherche tout simplement sinon c’est contradictoire
2 – Tu as raison les anciens compte optimisé qui date depuis plusieurs année ne devrait pas être trop touché car pour mon cas rare sont les mauvais termes de recherche sur mes comptes, j’en supprime quelque un par jour avec un cpc faible donc sur 1 mois c’est pas énorme cette perte.
3 – Donc nous allons revenir au sujet du skags, car faut m’expliquer une technique plus rigoureuse. Si cette dernière permet d’être le plus précis de la demande utilisateur malgré la venue de la « variante proche ». Avec le skags il y a l’avantage que les termes de recherche sont très pertinent, enfin pour mes comptes c’est ce que je vois. Il faut laisser moins de fuite même si il faut faire du skags avec un type de correspondance « mot clé exact » cest ce que je ferais si je vois que j’ai un souci ROI
Je vois que ca au jour d’aujourdhui
Hello !
Merci de partager ta réflexion ici.
On est d’accord que la vie privée a bon dos. Ca fait bien longtemps qu’on ne peut plus identifier personne par les termes de recherche. De plus, on voit que des requêtes à faible volume y en a encore plein dans le rapport (plus qu’avant même). C’est juste pas crédible. D’après moi, c’est juste un moyen de faire plus d’argent en augmentant le temps nécessaire pour faire des exclusions et de la découverte de mots clés. Une drole de coincidence aussi que les domaines les plus touchés sont aussi des domaines ou les clics valent très cher…
Concernant les skags, perso je fais majoritairement ça, avec des mots clés en exact. Concernant les variantes proches tu peux utiliser un script pour qu’elles soient exclues immédiatement. Ou les gérer manuellement. Les 2 approches se défendent.
Hello,
tout cela n’est qu’une répétition de ce qu’il s’est passé sur shopping.
Petit rappel des faits:
– le smart shopping sort
– les résultats sont catastrophiques
– on sabote le manuel en élargissant le spectre des mots clés
– le smart est encore mauvais
– on resabote le manuel en élargissant encore
– on perd on gros % des annonceurs
– là on se débat comme un canard qui s’est pris une douille, et on part sur des délires de plus en plus poussés
– on sort le shopping action -> gros bide
– on sort le shopping en « gratuit » -> gros bide encore à priori?
Pour ma part, je n’ai jamais eu autant de résultats avec shopping depuis que l’on a eu la joie d’avoir du smart chez les concurrents! Ceux qui n’ont rien compris à comment gérer shopping, eux ont de meilleurs résultats en smart. Mais le manuel ridiculise encore le smart, sur une cinquantaine de comptes j’en ai un seul où le smart me bas, mais ça ne va pas bien loin en CA, dossier très compliqué. (et il ne faut pas oublié que les données du smart shopping sont truquées, il y a du remarketing caché dedans… mais chut il ne faut rien dire!). Facebook fait pareil d’ailleurs, faîtes du zero targeting sur une audience à 30 millions de personne, sur 50 000 affichage miraculeusement vous aurez 10% qui sont en fait remarketé. Hasard ou triche? Allez on va dire hasard et on va tous jouer au loto.
Pour le search c’est le même processus qu’ils sont en train de nous pondre. Le smart marche moins bien que le manuel (même si il y a eu des progrès notables ces derniers mois mais l’humain « éclate » encore la machine), donc on fait quoi? on va aller saboter les statistiques en en cachant 30%.
Cela va finir comme pour shopping, ceux qui sont gérés n’importe comment vont devoir partir en smart, ils auront de meilleurs résultats qu’en manuel.
Et pour ceux qui ont compris la mécanique du search, vont battre le smart comme ça a été le cas sur shopping? Espérons!
Pour conclure, ni chaud ni froid cette suppression des stats, même si on va perdre un peu, c’est possible qu’on gagne au final par le nombre de comptes qui vont aller encore plus sur du smart.
C’est juste le marché qui évolue, ça va nettoyer un peu niveau prestataires, mais pour ceux qui assurent, rien ne change pour le moment!
Bisous Bruno 😉
Hello Ludo,
Merci à toi aussi de venir alimenter la réflexion.
Effectivement, il y a un sabotage des stats, c’est mon ressenti aussi. Parce qu’évidemment ce n’est pas (encore) dit clairement. Mais les termes de recherche Google les a encore, c’est juste qu’ils ne nous les donne plus. Bientôt on aura des recommandations qui nous diront d’utiliser les enchères intelligentes pour capitaliser sur tous les termes de recherche que l’on ne voit plus 😅.
Intéressant la dernière partie de ta réflexion. Effectivement, ça peut faire une purge dans les prestataires. Si c’est le cas, je pense que cela fera aussi les affaires de Google qui récupèreront une partie des clients en direct. Je les soupçonne fortement de vouloir convertir ce que paye les clients en frais d’agences (ou freelance) en budget média. Quelque chose que nous avions largement évoqué dans l’article coup de gueule sur le programme Google Partner
Salut @ludo, Bruno,
je voudrais nuancer le propos par rapport au smart bidding, même si ce n’est pas le sujet de l’article.
Je te rejoins en grande partie. Smart shopping est une fameuse black box. Ca fait du remarketing sur des mots-clés brand sans le dire, et ça cache les termes de recherche pour cacher le pot au rose. Pareils pour Smart Display. Finalement, pas mal de stratégies d’enchère smart bidding pour le search ne sont pas dingues (ex: « maximize conversions » qui ne donne aucun moyen d’optimiser) et ça marche mieux en manuel avec quelques scripts pour la management.
Et je rejoins Bruno, Google préfère que les frais d’agences partent en media. Je confirme Google commence à récupérer des clients en direct pour l’accompagnement et le management de campagnes 😉
Néanmoins, si sur 50 comptes tu n’en a que 1 ou le smart bidding fonctionne mieux que le manuel, je pense que tu n’a pas encore su utiliser ces stratégies d’enchères à leur pleins potentiel. (Ou que les comptes sont petits et ont trop peu de data de conversions, d’audiences ou optimiser sur un mauvais KPI). Je ne parle pas des smart shopping et des smart display, je parle du smart bidding (Target CPA, Target ROAS, Target SIS, Maximize clicks,…).
Dans l’agence avec laquelle je travaille, nous sommes la bête noire de Google car on challenge toutes les nouveautés, et nous n’appliquons JAMAIS rien avant de l’avoir testé avec beaucoup de data. Donc comprenez bien que je ne suis pas un « Google evangelist », mais il faut savoir admettre quand certaines choses fonctionnent et ne pas rester campé sur ses positions. Il faut tester et re-tester.
Pour reprendre l’exemple de bruno avec des CPC à 15€ en smart bidding sur des search terms foireux. Il suffit simplement de mettre un « bid cap », dans ta stratégie d’enchère si tu travailles avec du « Target CPA ». Ca évite aux CPC de s’envoler. A toi en tant que manager de campagne de connaître l’outil et savoir le piloter et pas le laisser faire n’importe quoi. Si tu accélères à 200, mais que tu ne tiens pas le volant, tu sais ce qui va arriver.
Basé sur mon expérience, nous avons d’excellents résultats en manuel sur des petits comptes, et nous avons aussi d’excellents résultats en utilisant le smart bidding « Target CPA » sur des plus gros comptes. Ce sont des algorithmes, et au plus tu leur donne de data, au plus ils vont devenir « intelligents ». Ca dépend de la taille du compte et de la verticale du client, des audiences que le client peut fournir (CRM data, 1st party data,…) et de la data de conversion que tu as (Conversion top of funnel, middle et bottom).
Je vais te donner 2 exemples pour lesquels nous sommes passés de manuel à smart bidding avec des résultats excellents.
1) Grand compte, casino en ligne. Mots clés génériques (Pas de brand).
CPC’s qui montent facilement à 15€ si tu veux des bonnes positions. Enormément de compétitions, énormément de fraude (compétiteurs qui cliquent, bot,…), et clientèle totalement ingrate qui va à gauche ou à droite en fonction du bonus alléchant. Aucune utilisation d’audiences possible car Google interdit l’utilisation d’audience pour le gambling.
Prenons simplement le mot clé exact [Casino].
Le problème, c’est que quelqu’un qui tape [Casino] dans google tu n’as aucune idée de ce qu’il cherche. Il peut chercher les casinos près de chez lui. Les supermarchés « casino ». Et un tas d’autres chose.
Tu m’expliques, en manuel avec des CPC énormes et sans audiences, comment tu peux cibler efficacement la personne qui cherche [Casino] avec en tête le fait de se créer un compte sur un casino en ligne et déposer de l’argent? C’est simple tu ne peux pas.
En manuel, tu vas naturellement pauser ce mots clé en disant au client qu’il est trop large et que c’est pas rentable car le coût par conversion au final est trop grand à cause du budget perdu. Et bien je peux te dire que tu tire une fameuse balle dans le pied à ton acquisition.
En travaillant ce mot-clé avec un smart bidding « target CPA », même si tu ne peux pas appliquer d’audiences, tu as malgré tout, toute la data de conversion de ton compte qui nourri l’algorithme, et Google a malgré tout tous les signaux de l’utilisateur. L’algorithme va donc pouvoir monder ou descendre les enchères pour reste dans ton CPA cible en fonction des signaux.
–> Dans notre cas ça a fonctionné. « Casino » est parmi nos 3 meilleurs mots-clés en termes de volume de conversion et de coût par conversions (Conversion : Clients qui déposent de l’argent).
2) Toujours pour le même client en casino en ligne mais pour les campagnes brand (Avec le nom de la marque).
Volume énorme sur les mots clés brand. Beaucoup de compétition sur le brand. Le client veut donc, à l’inverse de ce qu’on lui conseille (Mais c’est une autre histoire), conserver des annonces en brand pour « protéger la marque ».
Problème, 80% des recherches brand sont des clients qui veulent simplement venir se connecter à leur compte pour jouer. Et comme on ne peut pas utiliser d’audiences dans les comptes gambling (Que ce soit en targeting ou en exclusion) aucun moyen d’exclure les clients.
On sait qu’on a donc un gros budget perdu. Comment faire en manuel pour trouver les « nouveaux clients » potentiel dans le total des personnes qui cherchent [casino XYZ] ? Et bien tu ne peux pas.
On a donc testé le smart bidding (Target CPA) sur ces campagnes brand.
L’idée était que si l’algorithme remarque que l’utilisateur X cherche chaque jour notre keyword [casino XYZ] mais ne converti jamais (Car il est déjà client et vient pour se connecter), il va naturellement diminuer les enchères au plus bas sur cet utilisateur car l’algorithme sait qu’il ne converti pas. L’algo ne sait pas pourquoi, mais il a découvert un « pattern » , des signaux qui lui permet d’adapter son bidding.
Ca nous a permi de bien diminuer le coût d’acquisition sur ces campagnes brand par rapport au manuel.
Et je peux t’en sortir encore pas mal des exemples dans le genre.
Plusieurs années de data, de testing et des millions d’euros en dépensés pour sortir ces insights.
Dans les deux exemples, je peux te dire qu’on explose le meilleur PPC manager qui gère ses campagnes en manuel. Et dis toi qu’on les gérait en manuel depuis des années avant ça. Mais est-ce vraiment ça la finalité ? Dire qu’on est meilleur que?
La finalité, est de donner le moins d’argent à Google et le plus de rentabilité à nos clients.
Il faut mettre son égo de côté.
Pour moi, le débat « Manuel Vs Smart bidding » n’a pas lieu d’être. Le smart bidding est un outil qu’il faut savoir piloter pour en tirer le meilleur. Le smart bidding n’est pas bon ou mauvais.
Ce que j’ai remarqué, un smart bidding comme target CPA fonctionne mieux que manuel quand:
• Le compte est très large et granulaire
• Il y a beaucoup de data (Gros volume de clicks et de conversion)
• Il y a beaucoup d’audiences (CRM, 1st party, 3rd party)
• Quand on travaille sur le bon KPI (travailler uniquement sur le lead ou le purchase n’est pas toujours bon)
• Quand on laisse le temps à l’algorithme d’apprendre et se stabiliser.
D’ailleurs, une des meilleurs méthodes pour « scale » des comptes search qu’on a testé et qu’on utilise:
1) Structure granulaire SKAG en bidding manuel pour avoir encore un minimum de contrôle sur ce qu’on peut encore.
2) Commencer avec des keywords assez précis et un scope réduit.
3) Laisser la data rentrer (Clicks, conversions, audiences) et construire le compte.
4) Une fois le compte rentable et l’algorithme bien chargé de data, passer en smart bidding (Généralement Target CPA) et ouvrir sur des mots-clés plus large pour élargir le scope.
On a eu d’excellent résultats avec cette méthode, en terme de volume et en terme de coût par conversion.
Et encore, on ce n’est que la partie émergée de l’iceberg 🙂
Je n’ai même pas encore évoqué l’attribution, la fin des cookies de tracking, l’incapacité de choisir les bon KPI’s, la structure des comptes,…
Ravi d’en discuter plus longuement avec vous deux !
Hello Julien,
Merci pour ton « épique » commentaire. Belle réflexion et beau partage.
Je comprends ce que tu dis, et je ne doute pas de ce que tu affirmes.
C’est vrai que je tape beaucoup sur Google et sur le smart bidding ces derniers temps. J’essaie toutefois de ne jamais être trop catégorique. De notre côté, nous avons de meilleurs résultats en manuel dans plus de la moitié des cas. Mais cela signifie aussi que parfois nous avons de meilleurs résultats en smart bidding.
Nous testons régulièrement histoire de ne pas nous enfermer dans un biais de confirmation. D’ailleurs, nous sommes en train de tester une nouvelle approche. Nous avons un gros client en e-commerce et celui-ci vend une cinquantaine de produits au catalogue. Jusqu’à présent nous gérions tout sur un seul et même compte. Ainsi, les transactions correspondent aux 50 produits. Bien que ces produits correspondent globalement à un même profil d’acheteurs (on est sur une clientèle de 50 et plus), chaque produit à logiquement un acheteur type différent.
Le pari que nous menons est de créer un compte Google Ads par produit, histoire d’avoir une pureté la plus haute possible au niveau des signaux de conversion. Nous allons ainsi pouvoir re-tester massivement le smart bidding et voir si en ayant de meilleurs signaux (ou plutôt moins de signaux variés) on obtient de meilleurs résultats.
Après, on a aussi des campagnes Search avec ciblage d’audience sur lesquelles nous y allons uniquement en broad match et en smart bidding. Souvent ça performe pas mal.
Bref, tout ça pour dire que j’entends bien tes arguments et aussi que nous avons parfois de belles victoires avec le smart. Malgré tout, ce n’est pas (encore) la majorité du temps. Et effectivement, selon le type de client et sa taille, c’est aléatoire.
Google le sait et pourtant, ils affirment (partout) qu’il faut passer au smart pour obtenir de meilleurs résultats. C’est la manière dont c’est fait qui m’énerve. Mais c’est un autre sujet.
Merci pour ta participation au débat 🙂
Salut Bruno,
on tape aussi beaucoup Google, il faut dire qu’ils le méritent 😀
Et je suis 100% d’accord avec toi, ils poussent les gens directement vers le smart et bien souvent ce n’est pas la bonne méthode.
Intéressant ton test pour le e-commerce. Ne penses-tu pas que le blocage des cookies (ITP,..) peut impacter la qualité des signaux et des datas? En tout cas je serais curieux d’avoir les résultats. Je pars souvent sur le même principe de splitter les comptes pour les keywords brand / générique pour les mêmes raison, donc splitter plus loin fait sens. (Si assez de volume de conversions et de data).
Dans le cadre du e-commerce, est-ce que tu as eu l’occasion d’essayer le « Profit bidding »? C’est à dire que plutôt que de travailler sur le revenu (ex: Target ROAS), c’est de repousser dans Google ads le profit (la marge) pour être plus intelligent que juste travailler sur le revenu. Sur un multi produits, on se doute bien que le profit n’a pas pareils pour chaque produit et l’algorithme ne le sait pas. L’idée est de pousser les produits les plus rentables, pas uniquement ceux qui font du chiffre, histoire de trouver une balance.
Pour en revenir au sujet de l’article, j’ai créé un petit data studio, il suffit de plugger ton compte google ads et tu auras le pourcentage d’impact sur tes comptes : https://datastudio.google.com/u/0/reporting/1b4ded3e-1a1a-4e14-bba2-078001217868/page/s5xUB/edit
A très bientôt !
Merci pour ton retour.
Je pense qu’ITP et le blocage des cookies en général a un impact oui. Mais il a autant d’impact sur le compte global qu’il en aura sur les comptes enfants. Quoi qu’il en soit on va tester.
Jamais essayer profit bidding encore non mais ça peut être une piste intéressante à essayer ça aussi. Tu l’as testé toi ? Tu as eu des résultats concluants ?
Concernant le datastudio, c’est top comme idée. Je vais essayer de l’enrichir un peu, y a pas mal de choses que je trouve intéressant d’ajouter. J’itère et je te partage le truc enrichi 😉
Bonne journée !
Bonjour Bruno,
Excellent article comme d’habitude. Je me doutais que le sujet te ferait réagir et j’imaginais bien ton avis. Que je partage.
C’était chaud sur le #ppcchat ces dernières semaines. Ca gueule beaucoup en UK et USA (pétition de Greg Finn https://www.change.org/p/google-give-advertisers-the-ability-to-opt-out-of-keywords-deemed-not-significant-in-google-ads).
Certains parlent même de class actions. Une experte SEA in house chez TMobile USA a chiffré à environ 1M$ par mois la dépense où elle n’aurait plus d’infos de recherche.
De mon côté, je suis à environ 50% de pertes sur ts les petits comptes, un peu moins sur les comptes avec plus de budget donc plus de volume. Moins sur les kw qui convertissent, mais trop de toute façon.
On faisait de notre côté déjà un gros boulot de recherche de mots clés à inclure et exclure pour architecturer les campagnes, mais on utilisait beaucoup les termes de recherches une fois lancé, encore plus avec les variantes proches. L’analyse des ngrams va être elle aussi impactée si on a 50% d’infos en moins.
Jamais été fan des SKAGs « strict ». Plutôt une segmentation pour avoir la meilleure cohérence intention de recherche>mot clé>annonce>LP et si un mot clé exact a un fort volume, on le sort à part. Avec les variantes proches, il faut par contre plus contrôler et mettre des mots clés à exclure entre groupe d’annonces et campagnes.
J’ai l’impression que Google a accéléré ces derniers mois pour imposer ce qu’il veut: smart campaign, moins de data, moins de support qualitatif, démarchage direct des clients en dénigrant les agences (qq avait publié un email où le rep google avait écrit noir sur blanc que le client pourrait économiser les frais de gestion en gérant ses campagnes directement avec google), …
Peut être la fin du ciblage par mot clé. On en prend le chemin, notamment qd on voit les campagnes Smart Local. Un désastre pour avoir tester. Google affiche un échantillon des recherches, en sortant celles où il y a le plus de clics.
Exemple: 250 clics, google te montre 150 recherches pour 50 clics en tout, et les autres qu’ils te présentent n’ont pas de clics alors qu’il ne montre pas les 200 autres clics. Exactement ce que tu pressens dans ton analyse.
En local, je pense qu’on va voir arriver les Local Services Ads où tout est automatique mais les annonces hyper visibles donc quasi incontournables.
Côté clients, ces modifications techniques impactent les analyses mais sont compliquées à expliquer.
Par contre, on a de plus en plus de clients qui voyant cette trajectoire nous demandent d’autres façons d’investir leur budget.
Qd je vois comment Google a géré le passage au TCF V2 cet été (https://www.journaldunet.com/ebusiness/publicite/1493843-limited-ads-pourquoi-le-nouvel-outil-publicitaire-de-google-fait-chou-blanc/) – mal -, je me demande comment sont décidées ces stratégies en interne. (cette phrase « Google était persuadé que l’intérêt légitime n’était pas une base légale à laquelle l’internaute pouvait s’opposer. » est à se demander s’ils ont département juridique…)
Hello Bastien 🙂
Merci, comme d’hab de passer par ici.
On est d’accord sur tous les points.
Je pense surtout que ce qui manque à Google c’est un VRAI concurrent. Peut être Apple s’ils se décident (enfin) à lancer leur propre moteur de recherche (https://www.abondance.com/20200828-43516-apple-va-t-il-lancer-un-moteur-de-recherche-concurrent-de-google-et-bing.html)
Ils ne pourraient alors décider de manière unilatérale sans en avoir rien à faire de ce que pensent les utilisateurs de leur plateforme publicitaire.
Quand aux commerciaux qui appellent nos clients en direct pour dire d’économiser les frais de gestion en passant par eux directement… Une aberration dont nous avions bien discuté déjà (mais qui continue…).
Bref, la direction que ça prend n’est pas la bonne. Et la confiance en Google n’est plus ce qu’elle était. Pour pas dire qu’il n’en reste plus grand chose. Comment avoir confiance quand tout n’est plus que boite noire et que tu ne sais même plus pourquoi tu payes.
Je suis curieux de voir si ça va aller plus loin, un peu comme ça a pu faire il y a quelques temps avec de nombreux acteurs qui ont boycotté Facebook et arrêté massivement d’investir sur leur plateforme publicitaire.
Merci Bruno pour ce fantastique article 🙂
Est-ce une surprise tout ceci ? Bien évidemment que non. Petit à petit le smart remplace l’homme et il faut s’y préparer.
Je ne suis pas aussi pessimiste de mon côté sur l’avenir des experts SEA. Le smart rend de plus en plus incompréhensible la machine Google. Beaucoup d’annonceurs n’y comprennent plus rien (CPA Cible, ROAS ? Smart Display…).
Selon moi notre rôle reste d’éduquer les annonceurs sur ce que tout ce jargon signifie, et comment ils peuvent en tirer profit (oui car il y a encore beaucoup de profits à faire sur Google Ads).
Notre seconde casquette, reste évidemment un travail de pionnier vers la compréhension et le « domptage » de tous ces algorithme.
Je ne pense pas qu’il faille être contre la machine à tout prix, car c’est un combat déjà perdu. Au contraire. J’ai toujours en tête cette fameuse phrase : Contre L’ordinateur, Kasparov peut être battu, avec l’Ordinateur il devient invincible.
Bref, je pense que les experts SEA ont encore un bel avenir devant eux (surtout les plus vieux, qui ont vu les algorithmes évoluer, et qui ont déjà un bel historique sur leur fonctionnement).
Enfin dernière casquette, on ne peut plus simplement faire que du SEA aujourd’hui : le tracking, le marketing, le CRO, le copywriting, deviennent de plus en plus importants car jamais la machine ne remplacera un bon copywriter ni un bon positionnement marketing (ça me rappelle une formation ça au passage 😉
Bref, je ne suis pas inquiet, ça rajoute un peu de piments, et comme toujours, ceux qui savent s’adapter survivent, et les autres meurent..
Hello Thomas et merci d’enrichir la discussion.
Non, effectivement ce n’est pas vraiment une surprise. Cela va dans la même direction depuis un moment. Mais la manière dont ce se fait me dérange. Il est tout à fait possible de laisser du contrôle aux power users et de développer tout ce qui est « smart » à côté. Et que chacun puisse utiliser ce qu’il veut en sachant que lorsque le smart sera vraiment smart, les utilisateurs migreront naturellement vers ces technologies.
Au lieu de ça Google enlève toujours plus de contrôle à grand coup de 49-3. Cela même alors que la technologie « smart » ne performe pas mieux que ce que l’on peut faire en manuel et que l’on voit bien que dès que les enchères automatisées sont allumées, on se retrouve à payer des prix délirants sur pas mal de clics (et qu’en comparant avant (manuel) à après (smart) on voit bien que dans plus de la moitié des cas on fait mieux en manuel). Ce qui laisse évidemment à penser que le smart permet à Google de faire plus d’argent.
Et donc si l’on résume, Google nous enlève de plus en plus de contrôle pour gagner toujours plus. Je n’aime pas ça. Je n’aime pas ça parce que si le marché était concurrentiel, Google ne se permettrait pas de telles choses de peur de perdre ses annonceurs. Mais ils n’ont plus à séduire leurs clients, c’est tout le problème.
Je pense que ce qui m’énerve profondément c’est ça. La manière dont les choses se font. Je suis pas révolté contre la technologie, bien au contraire, j’étais parmi les premiers à tester tous les nouveaux algos d’enchères intelligents en 2016 et à faire des études dessus pour dire à quel point ça cartonnait. A ce moment-la il y avait un vrai intérêt. Ensuite en 2018 les algos ont changé et les résultats ont baissé. Je suis juste très pragmatique en vrai.
D’ailleurs je suis le premier à reconnaitre que dans l’ensemble, l’IA de Facebook Ads est vraiment très forte. Et dans ces conditions (win-win => on utilise la machine => on a de meilleurs résultats) j’adopte volontiers. Et même chez Google, je prends volontiers ce qu’il y a de bon à prendre. Je pense notamment aux campagnes Smart Display qui cartonnent une fois que l’on sait envoyer dedans les bons signaux et éviter la fraude.
Pour le reste, je ne peux être que d’accord et c’est tout ce que l’on enseigne avec Blaise dans l’accélérateur 😉
Evidemment la plateforme pub n’est qu’une variable d’une équation beaucoup plus large qui contient du CRO, du copywriting, du tracking, de l’analytics.
Et évidemment, le marketeur qui maitrise tous ces leviers a encore du boulot pour un certain temps. Vive l’approche transverse.
Salut Bruno,
merci pour cette étude, j’ai effectivement constaté une moyenne de 50% de search terms en moins sur l’ensemble des comptes que je gère, je confirme aussi que les comptes dans le secteur de l’immobilier sont plus touchés (j’en ai que 2 mais c’est -70%😔)
Ça ne va pas être simple pour les nouveaux comptes qu’on lance, l’analyse en amont va être très rapidement très très importante (comme tu le relève très justement) et c’est certainement cette partie que nous devrons valoriser à l’avenir et qui nous donne une avance sur la machine.. du moins je l’espère!
excellente soirée
Salut Frank,
Merci pour ton retour 🙂
C’est pas rassurant mais je suis « content » que tu vois la même chose que moi sur l’immobilier. Ca confirme ma théorie. C’est un peu comme si plus les cpc sont élevés, plus on perd en termes de recherche… C’est peut être ça le critère. Ca vaudrait la peine que je corrèle le cpc moyen des comptes vs le taux de termes de recherche perdu.
Clair que pour les nouveaux comptes ça va mettre du temps et ça sera plus difficile…
Bonjour,
Je ne suis pas acteur dans votre domaine et découvre ce blog aujourd’hui. Pour autant, votre article m’a particulièrement intéressé car il décrit une tendance hégémonique de Google largement constatée dans tous les domaines.
J’ai le souvenir d’avoir lu un article où un intervenant connu du W3C CSS définissait la méthode Google pour promouvoir une fonctionnalité :
a) eh les gars… ce serait bien si on faisait ci ou ça
b) ouais on va y réfléchir
c) pas la peine, on l’a déjà implémentée dans notre moteur de recherche et dans Chrome
La politique du fait accompli dans toute sa splendeur.
Ceci pose de plus en plus crûment le problème de savoir jusqu’à quand laisser un acteur unique dicter sa loi à l’ensemble du web.
En attendant, nul doute que je repasserai suivre les articles parus sur ce blog…
Cordialement.
Bonjour,
Merci pour le partage 🙂
Je suis complètement d’accord. Dans de nombreux domaines Google impose. On pourrait dans le fond faire le même constat au niveau des GAFAM en général.
Le problème c’est que ces géants sont ultra dominants. Dès lors ils n’ont plus besoin de se concerter avec qui que ce soit, ni même être à l’écoute de leurs clients. Et ils ont les moyens de faire tout ce qu’ils veulent (et ne s’en privent pas).
C’est bien tout le problème.
Effectivement, ayant une position (ultra) dominante, ces entités s’arrogent le droit d’imposer leurs vues et nous obliger à les suivre dans leurs choix.
Sachant que la quasi totalité des utilisateurs ne savent pas (ou ne veulent pas savoir) ce que cette position dominante implique, il est probable que leur assise demeure inchangée et s’accroisse encore dans les années à venir.
Le seul moyen qui m’apparaît faisable pour contre balancer ces pouvoirs reste l’imposition fiscale.
Il faut bien voir comment les GAFAM se démènent à ce sujet pour torpiller toute tentative de législation, dès lors qu’on veut leur imposer des règles de concurrence et fiscalité.
Et là, l’Europe me semble devoir jouer un rôle crucial, car Google et consorts, quelle que soit leur taille, peuvent difficilement se passer d’un marché de plus de 500 millions d’individus.
En ce sens, le RGPD et ses amendes calées sur un pourcentage du chiffre d’affaires et non plus un montant quasi forfaitaire ont changé la donne. Il devient risqué pour un GAFAM de se mettre à dos une entité telle que l’Europe dans son ensemble, et je dirais que plus leur chiffre d’affaire augmente plus le risque devient consistant… de quoi réfléchir même et surtout si on est une entreprise américaine.
En dernier lieu, je crois urgent pour l’Europe de s’affranchir de l’extra territorialité américaine qui est en soi un non sens total. S’arroger le droit au seul motif qu’on est US d’imposer sa légisalation sur quelque autre pays réputé souverain est une totale aberration et la négation pure et simple du droit international (auquel les mêmes US n’hésitent pas à recourir lorsque a contrario cela les arrange).
C’est une mentalité plutôt anglo saxonne, qui trouve par ailleurs son aboutissement plus près de nous lorsqu’on voit les Anglais décréter purement et simplement qu’ils ne respecteront pas certaines clauses des accords qu’ils ont pourtant validés et votés dans le cadre du Brexit…
Wow, 30% c’est énorme en fait !
Et si ma logique est bonne, si tu perds 33% de termes pour 100 balles dépensés, tu as l’équivalent de 66 balles « d’avant ». Donc tu es obligé pour atteindre le même volume théorique de dépenser non pas 33% de plus, mais 50% de plus (33 étant la moitié de 66). Chaud !
Ouai c’est chaud. Je regardais encore hier un compte d’un client dans l’immobilier. Il avait les termes de recherche pour 1800 CHF (sur plus de 4000 CHF de dépense)…