Newsletter du Lundi
11/12/23

Paru dans la newsletter du

6 bonnes pratiques du CMO à l’ère des algos (3/3)

Qui ?
Vincent Balusseau , professeur de marketing d'Audencia, Guilhem Bodin, partenaire chez Converteo,  et Khoi Truong (en photo)  ex-CDO Consumer data & Digital ops du groupe L’Oréal, fondateur et CEO de Manœuvre.

Quoi ?
Notre synthèse en trois parties (1° partie ici , 2°, ) du chapitre consacré au marketing piloté par l'algorithme, de l’ouvrage collectif   « Mange ta soupe : 20 experts internationaux aident les marques à bien grandir » coordonné par Wiemer Snijders et Vincent Balusseau (Dunod) . Sortie le 22 septembre, disponible à la pré-commande ici.

Comment ? 
Les marketers ont encore un rôle central à jouer dans la performance des campagnes, même si ce rôle évolue assez largement.

Aider l’algorithme à apprendre

Le marketeur, ou le communicant de l’ère digitale, se met au service de la machine, qu’il accompagne dans son apprentissage vers la performance. Le paramétrage des solutions automatisées, propres à chaque plateforme d’achat et de gestion de campagnes, incite les trafic managers à définir  le terrain de jeu (et d’apprentissage) de la machine.
Nous avons distingué six bonnes pratiques; .


1 Des briefs plus rigoureux

La machine contraint le marketer à  des réflexes bénéfiques pour son métier : il assigne parfois  de multiples objectifs à ses  campagnes , au lieu de choisir un objectif prioritaire. Résultat : trop de KPIs pour évaluer l’impact de la campagne, ou des KPIs inadaptés. Cette tendance à la dilution dépasse largement le  média digital, et réduit, quasi-mécaniquement, la performance des campagnes. Le régime algorithmique, plus draconien,  contraint  es marketeurs à construire des campagnes autour d’un seul objectif (et d’un KPI prioritaire). Par exemple, et dans un objectif de notoriété (et donc de couverture sur cible), Facebook cherchera à maximiser la diffusion auprès d’utilisateurs susceptibles de s’intéresser au secteur d’activité de la marque donnée, voire à celle-ci. Dans un objectif de création de trafic cette-fois, l’algorithme ira avant tout chercher des individus susceptibles de cliquer sur votre publicité.


2 L’acculturation à d’autres métiers

Parce qu’elle prennent elles-même en charge de multiples optimisations, ces solutions automatisées, ensuite, aident et contraignent (à la fois) le communicant à prêter beaucoup plus d’attention à ces dimensions les plus susceptibles d’accroitre l’impact de l’activité publicitaire, et pourtant trop souvent négligées. Pour aider les solutions algorithmiques à performer, le communicant doit élargir son champ de vision et intégrer d’autres problématiques, et oeuvrer, également, à la création de ponts avec d’autres disciplines ou départements, dans une logique de décloisonnement des expertises.
-S’approprier l'UX et le CRO

Dans le régime publicitaire classique, l’attention est d’abord portée à « la créa » dont la qualité est évaluée par le directeur de création. Dans le régime algorithmique, la pertinence de l’expérience utilisateur devient le juge de paix. Le parcours démarre avec l’exposition à  une création, vers une page de destination. L’analyse des parcours permet à  Google et Facebook  d’évaluer leur pertinence, et de privilégier la diffusion des publicités disposant de bons scores. L'Indice de Pertinence chez Facebook et Niveau de Qualité (ou quality score / QS) chez Google prend en compte une multitude de facteurs  :

· La Pertinence de la publicité auprès de l’audience exposée, bien souvent mesurée par le taux d’engagement ou de clic sur la publicité. Un taux de complétion de vidéo faible (ou un taux de skip élevé) aura ainsi, et par exemple, un impact négatif sur ces scores.

· La pertinence du parcours utilisateur et principalement de la page d’arrivée sur le site de la marque  :
o La présence des mêmes mots clés entre l’annonce publicitaire et la page d’arrivée
o Le temps passé sur le site internet de la marque. Les plateformes d’achat media monitorent cet indicateur à l'aide d’un pixel posé sur la page d’arrivée de la marque ou alors en calculant le temps qu’il aura fallu à l’internaute pour revenir sur le réseau Facebook / Instagram ou Google suite à un clic sur une publicité (un temps très court signifiant probablement que le site de destination n’a pas apporté la valeur attendue à l’utilisateur).
o La qualité de développement de la page, qui prend en compte le temps de chargement de cette dernière

Une expérience pertinente sera favorisée, une plus faible, pénalisée par un score de qualité faible, qui limitera la performance des campagnes en dégradant les KPIs d’achat media et, mécaniquement, les autres critères, de type CPA.
Les  marketer doivent se mettre à l UX et au CRO (Conversion Rate Optimisation). Les indications fournies par les plateformes permettent d'identifier les maillons faibles dans l’écosystème des campagnes (comme une landing page). A l’opérateur des plateformes d’oeuvrer alors au rapprochement des équipes (pub et produit, ou pub et web).
- Rentrer dans le coeur du business

Prenons  l’exemple des solutions automatisées de bas de tunnel du type Dynamic Product Ads de Facebook, ou Google Smart Shopping qui permettent véritablement de « laisser faire la machine » : pour mettre en place ce type de campagne, le marketeur fait le lien entre la plateforme publicitaire et le catalogue produit disponible sur le site internet. Ce lien passe par l’utilisation d’un flux (que nous pourrions comparer à un gros fichier excel indiquant un produit par ligne) qui transite automatiquement entre le back office du site internet et les plateformes publicitaires. Généralement mis en place par la DSI des marques, ce flux peut être mis à jour en temps réel, ce qui permet de n’afficher dans les publicités que les produits disponibles sur le site. En intégrant les considérations de revenus et de marge générés sur chaque produit, le marketeur doit guider la sélection à effectuer au sein du catalogue produit, écarter du flux Shopping les produits à faible rentabilité,   catégoriser les produits en fonction de la marge qu’ils génèrent en moyenne, ou   de leurs capacités à générer des ventes additionnelles. Une catégorisation complexe à mettre en place de manière automatique.  Ces catégorisations, qui peuvent être lancées à l’initiative de l’opérateur des plateformes, doivent être conduites par des équipes marketing élargies, incluant la DSI pour sa mise en œuvre.

Notre marketeur augmenté peut également nourrir la machine avec de nouvelles données, issues du monde offline, et qui permettront à celle-ci d’optimiser ses performances sur de nouveaux KPIs liés à l’omnicanalité, comme des volumes de ventes dans les points de vente physique ou encore les ventes réalisées par le call-center. Dans le cas de l’intégration des conversions réalisées par le call center par exemple, il lui faudra travailler avec les équipes analytics mais aussi avec les équipes data, pour réussir à créer une continuité entre trois outils nécessaires au pilotage de l’entreprise, à savoir la plate-forme d’achat publicitaire, la plateforme de webanalyse et la base de données CRM. Les plateformes seront alors en mesure d’identifier les conversions réalisées via le call center par des utilisateurs ayant interagi avec une publicité. Et ces conversions pourront remonter  dans les plateformes d’achat publicitaire, donnant la possibilité à leurs algorithmes d’identifier le contexte publicitaire ayant permis de générer ces ventes offline.


3 S’armer face à l’algorithme

L’activation du pilotage automatique des campagnes limite  les possibilités de paramétrage manuel de certaines options, qui servaient de garde-fous (en contrôlant finement la fréquence de diffusion, le choix de l’audience à toucher, de la publicité à afficher, du contexte ou encore du moment de diffusion de celle-ci).
De plus, les deux plateformes multiplient depuis peu les « recommandations automatiques », qui déchargent encore un peu plus les opérateurs de leur travail d’analyse et d’optimisation du fonctionnement de leur compte publicitaire. Elles ont tendance à réduire les informations disponibles aux annonceurs dans leurs reportings (sous couvert de privacy).  Il n’est plus possible de connaitre l’intégralité des mots clés ayant déclenché l’affichage d’une publicité textuelle dans son moteur de recherche, ni de connaitre l’url précise sur laquelle une publicité a été diffusée sur son réseau display.

A l’heure où les plateformes enjoignent les marketeurs à laisser faire la machine, et à suivre ses recommandations, se profile le risque que l’expertise (et plus seulement la data) ne soit laissée aux mains des plateformes et de leurs solutions.
Comment les marketeurs peuvent ils continuer à creuser leurs expertises en Search, Display, Vidéo en ligne et Social si les algorithmes finissent par faire « tout le travail » ?
Comment éviter, aussi et alors, que ne s’instaure une dépendance totale envers l’expertise de ces plateformes sur ces mêmes métiers ? (en plus de la dépendance actuelle en termes d’investissement). Comment, en particulier, appréhender les propositions d’optimisations maintenant automatiquement proposées au sein des interfaces ? Challenger les recommandations des forces commerciales de Google et de Facebook ? Décoder les case study dont les deux géants abreuvent les annonceurs ? Prendre du recul par rapport au discours qu’ils entretiennent ?
Le learning agenda
Ce régime algorithmique, et qui se déploie dans une configuration particulière (quasi duopolistique), doit stimuler l’adoption d’un nouveau « mindset », basé sur l’analyse et le test and learn, au sein des organisations marketing de ces grandes marques traditionnelles.
Les plateformes, presque malgré elles, servent ainsi d’aiguillons à l’établissement de véritables « Learning agendas » au sein des organisations. Elaborés par plateforme, ces Learning agendas incluent les questions auxquelles les équipes cherchent à répondre sur une période donnée (un an, par exemple), et les hypothèses à valider/infirmer, autour de sujet susceptibles d’affecter la performance des campagnes. A chaque question est associée une méthodologie et les moyens à mobiliser pour y répondre (de l’analyse de données à des tests jusqu’à des approches de type Media Mix Modeling).

4 Identifier les dérives des solutions automatisées

Prenons  Google Smart Shopping. Souvent activées dans un objectif d’acquisition de prospects /clients, ces campagnes ne permettent pas d’avoir des stratégies différenciées en fonction des audiences : l’annonceur diffuse aussi bien sur des prospects qui ne le connaissent pas que sur des individus ayant visités son site quelques secondes plus tôt. Ce mélange des audiences permet de maximiser les performances affichées dans la plateforme publicitaire de Google : en actionnant du retargeting, la plateforme gonfle le volume de conversions qu’elle s’attribue tout en améliorant les principaux KPI de performance (comme le Cout Par Action), ce qui ne peut que réjouir l’opérateur et l’inciter à investir davantage. Mais s’agit-il toujours réellement d’une stratégie d’acquisition ? Cette campagne ne vient-elle pas s’attribuer les résultats d’autres tactiques/leviers mis en place comme de l’emailing sur les visiteurs de site, ou encore des campagne dédiées spécifiquement au retargeting ? L’outil d’analyse Site centric fait ici figure de juge de paix, dédupliquant les conversions en fonction des sources de trafic. En analysant les différents parcours de conversion où sont intervenus plus d’une source de trafic dans le module d’attribution de Google Analytics, on pourra déterminer la proportion d’internautes ayant converti suite à une campagne Google Shopping, et qui avaient préalablement visité le site de la marque via un autre canal.


5 Comparer les performances des solutions automatisées à celles obtenues en pilotage manuel

Les marketeurs peuvent et doivent, ensuite, comparer la performance des solutions automatisées à celle obtenue au travers du pilotage manuel des campagnes. La frontière avec le point précédent est évidemment ténue : les dérives permises par les solutions automatisées viennent évidemment gréver la performance des solutions automatisées (ou disons qu’elles permettent aux deux géants d’obtenir des marges supplémentaires alors même que les objectifs des campagnes sont atteints - du moins dans les dashboards mis à disposition des annonceurs - ). Mais imaginons que ces dérives restent minimes. Les marketeurs ont malgré cela tout intérêt à régulièrement mettre en compétition les deux approches, pour, éventuellement, et en fonction des résultats obtenus, basculer certaines campagnes en pilotage manuel. Un pilotage « hybride » est alors mis en place, et mobilise à la fois des solutions automatisées et des approches manuelles sur certaines campagnes.

Prenons le SEA dans Google Ads. Un marketer souhaitant optimiser la visibilité d’un top produit dans les moteurs de recherche peut choisir de le sortir du flux utilisé dans les campagnes Google Smart Shopping pour lancer une campagne Google Shopping  spécifique (et lui attribuer un budget ou un CPC qui lui est propre).  Un constructeur de smartphone lançant un nouveau modèle cherchera quant à lui  à se positionner en première position sur les mots clés smartphone, mobile, ou encore téléphone pendant une semaine afin de maximiser la visibilité du nouveau produit dans le moteur de recherche. Ceci impliquera évidemment de fixer des enchères élevées sur ces mots clés particulièrement concurrentiels (alors qu’un pilotage automatique parametré sur un objectif de d’acquisition contrôle les CPCs en vue d’atteindre les objectifs fixés).
Pour comparer la performance des solutions automatiques ou manuelles (et dans des configurations qui, a priori, permettraient d’utiliser l’une ou l’autre, contrairement aux exemples SEA mentionnés à l’instant), et pour s’assurer de la sur-performance des premières, des tests s’imposent.
Prenons cette fois-ci l’exemple d’une campagne de vidéo sur le réseau de Facebook dont l’objectif marketing est de travailler la notoriété d’une marque. L’indicateur principal optimisé lors de la diffusion de la campagne est le volume de vidéos vues, une étude de type Brand lift évalue l’impact sur la notoriété de la marque.

Le « cost per incremental lift » appliqué au branding.

Chez L’Oréal, on compare l’efficience de différentes options en branding via le Cost Per Incremental Person Lifted, qui calcule combien coute une réponse positive à une question incluse dans un post-test publicitaire .
Imaginons que le marketeur souhaite comparer deux approches : maximiser le volume de vidéo vue à 100% ou  le reach, pour accroître la notoriété  ?
La première approche, matérialisée par l’option automatisée dite « Thruplay » fait sens, du moins intuitivement. Elle cherche en effet à diffuser la vidéo auprès d’une population la plus susceptible de visionner une publicité de 15 secondes (au sein d’une cible définie en amont par le marketeur, bien sûr), ce qui est à même d’augmenter le volume de vidéos réellement vues. Mais il active parallèlement une campagne beaucoup plus standard au CPM (sans mise en place d’un algorithme particulier). Cette campagne ira maximiser le volume d’impression publicitaire (le fait que la vidéo apparaisse dans le feed d’un individu) et donc le reach sur la même population cible. Cette deuxième campagne aura le mérite de toucher beaucoup plus d’individus que la première, et pourrait donc, à priori, réduire le Cost Per Incremental Person Lifted.
Les deux campagnes disposeront du même terrain d’étude : budget, période de diffusion, vidéo publicitaire et la cible paramétrée dans la plateforme seront alors identiques (même si, rappelons le, l’option automatique ira chercher une sous-cible au sein de l’audience de départ).
Une fois les campagnes terminées, le marketeur lance l’étude Brand Lift. Pour chaque campagne, Facebook ira poser la question suivante à un échantillon des cibles exposées : Parmi ces marques lesquelles connaissez-vous ? Le marketer sera en mesure de comparer l’efficience branding des deux campagnes. Ce type de test permettra alors d’opter pour l’un ou l’autre des modes de pilotage de campagne.

6 Maitriser les règles de l’efficacité publicitaire sur les plateformes

Certaines de ces règles sont communiquées par les équipes   de Facebook et Google, mais il convient de les   adapter à sa catégorie, ou à sa marque. D’autres doivent être  découvertes par les annonceurs eux-mêmes, par plateforme (et elles doivent d’être constamment mises à jour, puisque les algorithmes et les solutions publicitaires évoluent).
Le Learning agenda de L’Oréal, par exemple, inclue une série de questions   :

En SEA :
Quelle est la contribution du SEA sur les ventes offline ?
Quels sont les impacts respectifs des différentes variables affectant le Quality Score ?

Sur YouTube :
Quelle est la couverture globale d’une campagne Youtube + TV en fonction de différents scénarios budgétaires ?
Quelle est l’allocation budgétaire optimale pour maximiser l’intention d’achat du produit entre un format Bumper ads (6 secondes) versus un Trueview (la vidéo est alors facturée lorsqu’elle est visionnée à 30 secondes) ?
Quel est le bon niveau de précision dans le ciblage pour maximiser les effets sur la considération produit ?

Sur Facebook :
Facebook contribue-t-il à générer des ventes offline ?
Quel est l’impact de l'augmentation du volume de répétition d’une publicité sur des ventes offline ?
Quel est l’impact incrémental sur les ventes lorsque sont intégrées des données CRM dans le ciblage ?

En France, le rapprochement TF1-M6, et la configuration quasi-monopolistique qu’il introduirait dans le paysage télévisé français, a suscité de nombreuses réactions, dont celle de Pierre Calmard (Président de Dentsu France), qui se prononçait pour la fin de l’achat en gré à gré à la télévision, et pour son remplacement par un système d’enchère (et donc un pilotage algorithmique, voir notre article). Une chose est certaine : nous n’avons encore rien vu.
Comprenons-le bien : tous les professionnels de la publicité (et y compris les créatifs) auront à composer avec les machines, et avec les règles qu’elles imposent.

Publicite

XX résultats

Oups! votre recherche
n’a donné aucun résultat !