L’Actu de la Data

Analyser ses données pour être performante

Pour les organisations analyser leurs données contribue de façon importante à leur croissance, surtout en ces moments de changements organisationnels. Par leurs investissements dans des outils d’analyse, elles augmentent leurs capacités de réaction. 


Après le net ralentissement de l’économie française au 1er trimestre dû au conflit russo-ukrainien et au rebond de la crise sanitaire en Chine, l’activité des entreprises hexagonales fait preuve de résilience depuis avril. 

Cette résilience des organisations, dans une conjoncture économique pourtant très instable, une hausse très importante des coûts des matières premières et des demandes croissantes d’augmentation de salaires, ne manque pas de surprendre. Pour autant, les marges des organisations risquent bien de souffrir des coûts qui progressent rapidement et des volumes de vente qui s’érodent dans de plus en plus de domaines d’activité. Ainsi, l’intégration de la résilience et de l’agilité dans leur stratégie est pour les entreprises devenue incontournable. Mettre en œuvre une stratégie basée sur l’analyse des données, associée à l’Intelligence Artificielle et au cloud, est-elle la clé ? 

L’intelligence artificielle et l’apprentissage machine nécessaires à l’automatisation des analyses des données à l’échelle de l’organisation sont  nécessaires à une optimisation significative du travail réalisé. 

Emprunter le chemin d’une croissance vertueuse

Les acteurs de l’entreprise, les processus organisationnels, les solutions logicielles et les données sont en 2022 les quatre éléments essentiels permettant à une organisation d’être performante sur la durée. Plus concrètement, pour devenir innovante, collaborative et assurer leur développement, les organisations doivent savoir tirer parti de leurs données. Or, la transformation d’une donnée en actif à forte valeur ajoutée ne peut être le seul fait de l’usage de la technologie. Seule la combinaison des quatre éléments précités et leur association peut l’obtenir. 

Bénéficier de la valorisation des données

Par l’alignement de l’analyse des données sur leurs stratégies de développement, par la prise en compte de KPI ou d’autres paramètres spécifiques, il sera plus aisé pour les organisations d’identifier les ensembles de données, les solutions logicielles et les compétences les plus à même de fournir de nouvelles informations, de la résilience et de l’agilité. L’intelligence artificielle et l’apprentissage machine nécessaires à l’automatisation des analyses des données à l’échelle de l’organisation sont nécessaires à une optimisation significative du travail réalisé. 

Une organisation de l’industrie manufacturière s’appuiera sur l’analyse des données pour trouver comment elle pourra optimiser la qualité et réduire ses dépenses d’énergie. 

Construire le succès des organisations

Grâce à l’Intelligence Artificielle, les organisations pourront mettre en œuvre des stratégies d’optimisation et d’innovation nécessaires dans un monde en perpétuelle mutation. Mais, pour que ces stratégies bénéficient à toutes les parties prenantes, les organisations doivent choisir les bons paramètres de réussite et les cas d’usage les plus pertinents pour leur domaine d’activité. 

Par exemple, une organisation de l’industrie manufacturière s’appuiera sur l’analyse des données pour trouver comment elle pourra optimiser la qualité et réduire ses dépenses d’énergie. 

Le fait d’analyser des données rend les organisations plus résilientes face aux défis de leur transformation organisationnelle. Grâce à leurs investissements dans les solutions logicielles d’analyse, elles se mettent en capacité de réaction rapide et de planification face à l’incertitude. Une étude de McKinsey met en lumière que les organisations qui ont investi dans l’analyse des données et dans l’Intelligence Artificielle enregistrent des performances trois ou quatre fois supérieures aux autres. Les responsables d’entreprise doivent donc considérer l’analytique comme la garantie de pouvoir s’offrir toutes les chances de succès.

Plus de sécurité grâce à l’Intelligence Artificielle et l’apprentissage machine

L’apprentissage machine et l’Intelligence Artificielle améliorent grandement l’automatisation des tâches et processus. Dans le contexte concurrentiel d’aujourd’hui, l’intelligence artificielle et l’apprentissage machine sont devenus de réels atouts. Ces technologies sont en train de s’imposer pour la gestion des bases de données, la rationalisation, l’amélioration des processus, et le positionnement stratégique des entreprises dans leurs domaines d’activité respectifs.

Une récente étude de Gartner met en lumière qu’1/3 des organisations technologiques et des fournisseurs de services ayant développé et mis en œuvre des dispositifs technologiques d’Intelligence Artificielle, affirme qu’elles consacreront 1 million de dollars ou plus d’investissement dans ces technologies d’ici 2024. Pour autant, les coûts de mise en œuvre de l’Intelligence Artificielle et de l’apprentissage machine, d’acquisition des compétences et des ressources nécessaires pour une gestion efficiente de ces technologies, sont souvent considérés comme trop importants.

L’achat ou l’abonnement à des services d’Intelligence Artificielle ou d’apprentissage machine peut en effet représenter un investissement massif pour les organisations. Les avantages, néanmoins, peuvent largement dépasser les inconvénients.

Par exemple, l’apprentissage machine et l’Intelligence Artificielle permettant d’automatiser des processus et certaines tâches à grande échelle, l’entreprise pourra ainsi par exemple consacrer plus de ressources aux travaux de recherche et développement…

L’importance des bases de données à disposition d’une organisation ne cesse d’augmenter, et les besoins de sécurité des entreprises ne cesse de s’intensifier

Avec la prolifération des données et l’importance grandissante des bases de données dont dispose aujourd’hui l’entreprise, il existe en effet des limites réelles aux capacités des salariés à analyser et gérer durablement ces données. La mise en œuvre des services d’Intelligence Artificielle et d’apprentissage machine peut faire progresser cette capacité d’analyse des salariés à grande échelle.

Plus de sécurité grâce à l’Intelligence Artificielle et l’apprentissage machine

En raison du développement rapide du digital dans les entreprises, dopé par la crise sanitaire, tous les secteurs d’activité ont connu une recrudescence des cyberattaques de haut niveau. Ainsi, selon l’enquête SolarWinds IT Trends 2021, 50% des responsables informatiques questionnés estiment que leurs dirigeants sont parfaitement conscients des risques sécuritaires, et que pour eux, la seule question est de savoir quand ils seront touchés par un facteur de risque.

Ces conditions de vulnérabilité vis-à-vis des cyberattaques rendent indispensables les services d’Intelligence Artificielle et d’apprentissage machine pour à la fois analyser et gérer les bases de données et surtout détecter les vulnérabilités potentielles

L’utilisation de l’Intelligence Artificielle et de l’apprentissage machine peut aider les responsables en charge de la sécurité des bases de données à les analyser à des niveaux de complexité plus élevés, et sur un plus grand nombre de KPI. Les fonctions d’Intelligence Artificielle et d’apprentissage machine peuvent en effet permettre le développement de dispositifs d’alertes plus élaborés. Lorsque l’on se fixe comme objectif la réduction des risques dans l’organisation, l’Intelligence Artificielle et l’apprentissage machine sont des solutions ad hoc que les informaticiens peuvent mettre en œuvre pour un renforcement efficace et durable de la posture de sécurité de leur organisation.

Dans le contexte d’aujourd’hui, l’importance des bases de données à disposition d’une organisation ne cesse d’augmenter, et les besoins de sécurité ne cessent de s’intensifier. Ces conditions de vulnérabilité vis-à-vis des cyberattaques rendent indispensables les services d’Intelligence Artificielle et d’apprentissage machine pour à la fois analyser et gérer les données et surtout détecter les vulnérabilités potentielles. Intégrer ces capacités nouvelles dans les organisations devient donc chaque jour plus vital. Non seulement elles offrent aux informaticiens de l’entreprise plus de possibilités d’exprimer leur créativité, mais elles contribuent aussi à assurer l’avenir des organisations.

L’intelligence géographique : pour mieux connaître, cibler et fidéliser ses clients

Le CRM et la relation client remplissent une fonction essentielle dans les organisations. Couplés à l’intelligence géographique, ils garantissent une meilleure analyse des besoins et attentes des prospects/clients.

La relation avec les clients et l’intelligence géographique doivent aujourd’hui être intimement liées afin d’aider les organisations à fidéliser leurs prospects /clients et créer de la confiance, plus que jamais nécessaire compte tenu de leurs exigences nouvelles. 

La plupart des entreprises s’appuient sur des solutions de gestion de la relation client (CRM) très élaborées, qui enregistrent notamment les données relatives aux interactions avec leurs prospects/clients et qui leur permet donc une meilleure connaissance de ces derniers. Des organisations comme Amazon et Netflix vont encore plus en profondeur dans leur connaissance client, avec le développement de dispositifs d’analyse des préférences et des affinités de leurs clients, ainsi que d’algorithmes capables de suggérer des produits basés sur les achats récents ou les produits ou programmes consultés. 

Aujourd’hui, les prospects/clients s’habituent de plus en plus à un niveau de personnalisation et de sensibilisation qui aurait été inimaginable, il y a seulement quelques décennies de cela. Ils s’attendent à ce que leurs besoins soient par avance pris en compte et donc bénéficier d’une personnalisation de la relation/client. Face aux modes de consommation en perpétuelle évolution, les organisations souhaitant conserver une longueur d’avance par rapport à leurs concurrents, doivent donc développer une stratégie basée sur l’exploitation des données afin d’offrir des réponses ad hoc à ces attentes et mieux connaitre leur public cible, une condition indispensable pour fidéliser des clients. 

A titre d’exemple, une base de données clients peut comporter un certain nombre d’informations telles que l’âge, l’adresse du contact, en passant par le genre ou encore la situation familiale. Or trop souvent, si le contact a déménagé, de nombreuses organisations continuent d’expédier du courrier à son adresse devenue obsolète. Néanmoins, l’analyse précise des déplacements démographiques associée à l’identification de nouveaux éléments ayant déclenché des actes d’achat, permettrait de ne pas tomber dans ce type d’erreur et de se garantir la pertinence du ciblage. 

Par ailleurs, si les données démographiques permettent une meilleure compréhension de la population cible, les données provenant de sources tierces s’avèrent aussi une précieuse mine d’information sur les préférences clients comme le style de vie et les appétences avec une marque ou un produit ; on parle ici d’enrichissement des données. Ainsi, des données géographiques détaillées offrent à l’entreprise une image vivante des déplacements, des habitudes d’achat ou encore des loisirs pratiqués. Les données d’intelligence géographique, par la cartographie des emplacements des concurrents et par leur superposition aux données sur la mobilité des prospects/clients, facilitent grandement l’identification des emplacements mal desservis, à fort potentiel pour les e-commerçants ou les commerçants. En d’autres termes, l’intelligence géographique permet une optimisation de la connaissance des prospects/clients, de leurs habitudes et loisirs. 

Collecter et analyser des données procurent aux organisations des informations qui leur permettent de mieux susciter l’engagement de leur audience cible. Les grandes organisations utilisent l’enrichissement des données et combinent des informations géographiques, démographiques et comportementales, pour s’offrir la meilleure relation client possible.

Quid des données synthétiques ?

Protéger les données est un défi majeur pour les organisations. Que des données soient porteuses d’informations personnelles ou non, la sous-estimation de leur valeur peut exposer à divers risques d’ordre réglementaire, sécuritaire, éthique ou d’image.

Exploiter des bases de données en limitant les risques et développer de nouveaux produits/services semble donc de plus en plus difficile à mettre en œuvre. Les données synthétiques peuvent-elles permettre de générer un niveau satisfaisant de confiance pour des prises de décision pertinentes ?

Les bases de données classiques peuvent-elles donc représenter un risque de préjudice pour l’organisation, ses clients, ses salariés ?

De plus en plus d’organisations génèrent et exploitent leurs bases de données, notamment en les analysant, en vue de l’optimisation ou de la fourniture de nouveaux services/produits.

Les bases de données classiques

Afin de limiter ce risque, il existe évidemment les techniques de pseudonymisation, anonymisation, agrégation, et d’obscurcissement. Bien que ces méthodes ne manquent pas d’intérêts, elles présentent certaines limites : la pseudonymisation présente le risque de rétro-ingénierie, le fait d’anonymiser les données induit des risques de réidentification par croisement avec d’autres sources de données, l’agrégation limite les usages, et l’obscurcissement altère la qualité de l’information.

Pour autant, si ces techniques ont pu souvent et très longtemps donner satisfaction, l’avènement de l’Intelligence Artificielle et du Cloud et la progression du risque de fuite de données ont changé la donne. 

Les données synthétiques : la réponse ad hoc !

Généralement, les données synthétiques sont des données qui n’ont pas été générées à la suite de processus de mesure ou de transactions effectuées dans les systèmes d’information. Elles l’ont été grâce à des approches mathématiques, d’apprentissage machine, parfois de manière dérivée d’un existant ou totalement simulées par des fonctions mathématiques.

Une vraie révolution en matière de traitement des données d’entraînement est en marche,

Par exemple, le déficit de données labélisées dont l’utilisation est nécessaire pour entraîner des modèles comme la vision par ordinateur, permet d’obtenir des photos de personnes à partir de photos déjà existantes sur lesquelles on juxtapose sur les visages divers types de masques pour entraîner un modèle à reconnaître des personnes masquées et non masquées.

La conduite dite autonome est aussi parfaitement exemplaire au regard de la nécessité de pouvoir bénéficier de datas synthétiques car il est strictement impossible de pouvoir générer dans la vie réelle toutes les situations possibles afin d’entraîner au mieux les algorithmes.

Dans l’ensemble de ces contextes, les bénéfices que procurent ces techniques ont été constatés et démontrés. Il est donc assez logique d’utiliser une application directe pour les données sensibles. 

Il est donc largement recommandé d’utiliser ces nouvelles techniques et de créer un « jumeau » de données sensibles grâce aux dispositifs de génération de données synthétiques et ainsi rendre impossible les possibilités de reconstruire des données informatives réelles à partir des données générées pour des prospects/clients ou des salariés.

Si l’on en croit les prévisions du cabinet Gartner, en 2024 les données dites synthétiques représenteront près des 2/3 des données nécessaires au développement des dispositifs d’Intelligence Artificielle. En conclusion, une vraie révolution en matière de traitement des données d’entraînement est en marche, synonyme d’une meilleure sécurisation des données en cas de cyberattaque ou de fuite de données. 

Le choix gagnant d’une communication multi-leviers

Avec un nombre d’écrans de plus en plus importants dans la vie quotidienne des consommateurs, les entreprises doivent déployer leurs campagnes sur tous les leviers digitaux. Ces multiples interactions génèreront de meilleures conversions.

Display, e-mailing, référencement payant, référencement naturel, réseaux sociaux, etc. sont autant de vecteurs d’acquisition que les marketeurs doivent évaluer afin de garantir la rentabilité de leurs investissements digitaux.

Là où un pilotage en silo a longtemps été satisfaisant, l’apparition des usages digitaux a soulevé la problématique de l’attribution de la performance avec pour certains, le déploiement et l’utilisation de solutions d’adserving ne répondant toutefois qu’en partie aux besoins propres d’un pilotage multi-leviers.

On considère aujourd’hui que la conversion en acte d’achat survient dans une fenêtre de sept à dix jours à la suite d’une combinaison d’environ trois à cinq contacts digitaux. Ainsi, l’acte d’achat n’est plus la résultante d’une seule activation mais bien d’une interaction entre plusieurs leviers distincts. Ce sont donc autant de dispositifs qui peuvent être déployés, en fonction du profil du prospect ciblé, et de son rapport à la marque.

Il s’agit d’être en capacité d’identifier à quelle étape du funnel d’acquisition le contact ciblé se trouve; de le trouver au bon endroit, au bon moment. Orchestrer un scénario multi-leviers, riche de données et de synergies, favorisera la réussite d’un maximum de conversions.

Par rapport à une campagne traditionnelle en silo, ce dispositif composé de plusieurs leviers d’acquisition permet de beaucoup mieux suivre et accompagner le contact ciblé.

Bien que plus complexe, le déploiement d’un modèle et d’une solution d’attribution multi-leviers garantit au marketeur une lecture globale de la performance et une évaluation précise du rôle joué par chaque levier.

En effet, que l’objectif soit de gagner de la notoriété, d’augmenter le trafic ou de générer des leads, celui-ci va conditionner la répartition de l’investissement entre les canaux d’acquisition en fonction du rôle que ces derniers remplissent dans l’entonnoir de vente. Quel levier peut être identifié comme initiateur, passeur et buteur ? S’en suivront des phases d’accompagnements et de tests, dans l’idéal par des acteurs différents, pour une lecture de performance optimale.

Prenez garde en revanche à ne pas confondre multi-leviers et omni-levier. Bien sûr, la démultiplication des approches vous libérera d’une source unique de trafic mais pour autant il ne s’agit pas d’être absolument présent et actif sur l’ensemble des leviers existants, mais plutôt d’effectuer le choix de quelques canaux d’acquisition que vous trouvez pertinents car correspondant aux objectifs définis. Une campagne d’acquisition multi-leviers est basée sur le fait de bénéficier des spécificités de chacun des leviers, avec comme objectif la création d’un écosystème offrant une vision 360°, parfaitement cohérent et performant, qui vous offrira une longueur d’avance précieuse. 

Vous avez donc décidé d’opter pour une stratégie de campagne multi-leviers, dans le contexte du déploiement de votre mix marketing online, il est donc essentiel d’optimiser au maximum les combinaisons entre tous les leviers choisis et activés afin d’enregistrer des gains de performance et ne pas risquer de mettre trop d’œufs dans le même panier.

L’exigence d’un traitement des données collectées plus éthique s’impose

Les internautes peuvent aujourd’hui contrôler de façon inédite la façon dont leurs données personnelles en ligne pourront être exploitées. La notion de confiance consommateurs/marques est devenue essentielle, comment la gérer éthiquement ?

Depuis 2018 et l’avènement du Règlement général sur la protection des données (RGPD), la collecte des données informatives des internautes doit prendre en compte de façon impérative le recueil de leur consentement. Pour les organisations qui souhaitent une personnalisation de l’expérience client online, ce sont de nouvelles exigences qui nécessite une révision profonde de leurs méthodes de communication mais aussi de leurs modes de traitement des données. Afin qu’une relation de confiance consommateurs/marques puisse exister, une nouvelle politique de traitement des informations personnelles doit être mise en œuvre.

Il est un fait qu’aujourd’hui de très nombreux internautes refusent de façon systématique l’usage des cookies qui leur est proposé. Un réflexe souvent nourri par un désir de protection de leur vie privée mais qui vient en contradiction avec leurs attentes de fluidité et de personnalisation de leur expérience online. Pour trouver un modus vivendi entre les prospects/clients et les marques, profitable aux deux, il est un préalable pédagogique qui doit être respecté : une information précise des internautes sur l’usage de leurs données et sur leurs droits en la matière.

Si l’usage des cookies est refusé massivement, c’est en effet parce qu’il est généralement très mal compris des internautes. Refuser l’ensemble des cookies signifie en effet ne souhaiter aucune captation de données, ceci bien que l’utilité de certaines soit avérée, comme c’est le cas de la first party data. Cette catégorie de donnée est collectée directement par une marque via son site web et ses solutions de gestion de la relation client lors des commandes ou de toute autre interaction online et offline. À ne pas confondre avec les second party data qui sont collectées et revendues par des partenaires de la marque, mais également avec les third party data, qui sont revendues de très nombreuses fois par des brokers spécialisés aux pratiques de collecte parfois douteuses. Par leur refus de tous les cookies sans distinction, les internautes rejettent donc dans le même temps des cookies extrêmement utiles à l’amélioration de leur expérience et d’autres dédiés à des fonctions moins essentielles. Pour ne pas se priver d’une expérience client personnalisée, ils pourraient a contrario considérer les données qu’ils sélectionnent et accepter leur utilisation comme la contrepartie d’un service fourni par les marques.

Une communication des marques plus transparente et un traitement des données collectées plus éthique s’imposent…!

Au-delà du respect des exigences de RGPD, les marques ne doivent collecter que les données strictement nécessaires à l’optimisation de l’expérience client, devant ainsi renoncer à collecter autant de données que possible. Par ailleurs, demander d’accepter des cookies en échange d’articles ou de services est déconseillé dans la mesure où cela place la relation avec le consommateur sous le signe du chantage.

Aujourd’hui, la personnalisation des services et de l’expérience client est un impératif stratégique de nombreuses marques, la collecte de données personnelles est devenue un enjeu central. Pour répondre de manière satisfaisante aux craintes des internautes en matière de vie privée, une communication des marques plus transparente et un traitement des données collectées plus éthique s’imposent…!

Quid des data rooms ?

Pour les entreprises adeptes de la publicité numérique, la fin programmée des cookies tiers et des identifiants publicitaires est une véritable problématique. D’autant qu’à cette difficulté technique vient s’ajouter les exigences de nouvelles règles liées au traitement des données personnelles et du changement des internautes face au ciblage publicitaire. 

Compte tenu de ce contexte, les éditeurs de contenu en ligne et annonceurs doivent trouver des solutions pour conserver une compréhension suffisante de leurs audiences/cibles, maintenir une personnalisation de leurs contenus et annonces publicitaires, le tout en préservant et mesurant la rentabilité de leurs investissements publicitaires. 

La résultante de ces « matchings » peut signifier un enrichissement de la compréhension de leurs audiences, des possibilités de segmentation et d’activation de ces bases de données accrues

En 2022 plusieurs approches s’offrent à eux pour relever ce challenge, la principale étant d’exploiter pleinement leurs données 1st party. Pour autant, l’exploitation de ce type de données peut être la source de certaines craintes liées à la sécurité, à la confidentialité des données : Comment un éditeur peut-il donner accès à ses données à un annonceur pour élargir l’audience de ce dernier sans risques de fuite ?

Les data clean rooms offrent une réponse à cette problématique, ce sont en effet des plateformes permettant à deux propriétaires de bases de données la mise en commun de leurs datas, quelles que soient leurs provenances, sans que l’un puisse accéder aux données de l’autre. Même si aucune des entreprises partenaires ne peut accéder directement aux données, la résultante de ces « matchings » peut signifier un enrichissement de la compréhension de leurs audiences/cibles, des possibilités de segmentation et d’activation de ces bases de données accrues, de façon parfaitement sécurisée et à grande échelle. Le tout sans cookies … 

Ces data clean rooms ne datent pas d’hier. Elles participent d’ailleurs grandement au succès des géants du Web fonctionnant en « jardins clôturés ». Grâce à leur faculté de collecte des données 1st party riches et fiables à grande échelle, les GAFAM peuvent proposer aux annonceurs des bassins d’audience exclusifs prêts à être activés. Ces géants du web enregistrent ainsi en 2022 l’immense majorité des investissements publicitaires online. Néanmoins, l’apparition des nouvelles règlementations relance l’intérêt des salles blanches pour une utilisation dans l’open Web. Pour les éditeurs, ce dispositif technologique offre l’opportunité d’une proposition d’offre data équivalente à celle des jardins clôturés, d’une revalorisation de leurs inventaires, et donc d’une reconquête des parts de marché. Pour les annonceurs, ce sont des possibilités de ciblage et d’activation accrues…

Cette approche méthodologique augmente les champs potentiels de prospection puisque l’annonceur peut ainsi cibler de nouveaux publics, au comportement semblable à celui des cibles existantes.

Se basant dans la plupart des cas sur des cookies tiers et sur des pixels directement déposés, avec l’accord de l’éditeur, sur ses inventaires, le partage de données via les salles blanches va offrir aux éditeurs web de plus grandes possibilités d‘accords pérennes, de les rendre plus solides et d’être en phase avec les réglementations liées à la protection des données personnelles.

La mise en place d’un dispositif d’exploitation des datas menée en collaboration avec les éditeurs de site web offre aux entreprises un meilleur contrôle de leurs investissements publicitaires. Pour se garantir la meilleure utilisation de leurs budgets et des campagnes performantes, les annonceurs doivent acquérir une fine compréhension de leurs audiences, tout en respectant la confidentialité des données personnelles. À cette fin, l’exploitation de leurs bases de données propriétaires est évidemment une première base, mais leur enrichissement avec les données d’un éditeur aux audiences similaires et/ou complémentaires les rendra d’autant plus performantes.

L’utilisation la plus fréquente des clean rooms consiste au reciblage des internautes et à l’augmentation de l’impact d’une campagne. En ce qui concerne le reciblage, la comparaison des données de l’annonceur avec celles d’un éditeur vise le retargeting des internautes communs. Par ailleurs, les technologies d’apprentissage machine et d’analyse prédictive intégrées à la salle blanche modélisent les données des deux partenaires selon la méthode dite de jumeaux statistiques. Cette approche méthodologique augmente les champs potentiels de prospection puisque l’annonceur peut ainsi cibler de nouveaux publics, au comportement semblable à celui des cibles existantes.

L’utilisation de salles blanches est donc une approche win-win pour l’annonceur et l’éditeur, à la fois d’un point de vue business et réglementaire.

Les cookies tiers sont en fin de vie

Le géant de Mountain View (Google) a déclaré reporter la disparition des cookies tiers, fournissant ainsi aux marketeurs une plus grande marge de manœuvre pour trouver des alternatives. Voici six données à prendre en considération avant cette disparition programmée.

La fiabilité des cookies tiers n’était plus toujours au rendez-vous

Les applications de blocage d’annonces publicitaires, le navigateur partagé avec d’autres ou encore l’effacement du cache ont été autant de facteurs rendant les cookies tiers de moins en moins efficaces au fil du temps. Une étude publiée par l’Université de la Colombie-Britannique en 2016 nous apprend que les internautes sont moins de 3 % plus susceptibles de passer à l’acte d’achat lorsque les annonces publicitaires font appel au traçage par cookies.

L’investissement dans les données « first party » est plus que jamais d’actualité

C’est en effet le moment de privilégier l’expérience client et pour cette raison nombre d’organisations augmentent leurs investissements dédiés à l’exploitation des données « first party » comme alternative à celle des cookies tiers.

L’utilisation d’une plateforme de données clients ouvre de nouvelles voies d’amélioration de l’expérience client par une personnalisation enrichie.

Les plateformes de données clients, une solution incontournable

Les plateformes de données clients aident les marques à avoir vision unifiée de leurs prospects/clients par la centralisation de sources de données diverses ; elles permettent aux marketeurs de proposer la bonne interaction au bon moment, au bon endroit et dans le bon contexte. Elles permettent une progression des ventes online, l’optimisation des actions de marketing cross-canal et l’évaluation précise du ROI des différentes campagnes.

Personnaliser la relation client en temps réel comme priorité

L’utilisation d’une plateforme de données clients ouvrent de nouvelles voies d’amélioration de l’expérience client par une personnalisation enrichie. L’apprentissage machine est un moyen de générer des attributs pour chaque contact ciblé, tels que la Valeur Vie Client, le Coût d’Acquisition Client, le niveau d’appétence et le risque d’attrition. Ceux-ci peuvent ensuite contribuer à la personnalisation de la relation client.

Les marketeurs pourront aussi adresser un e-mail promotionnel aux prospects/clients ayant dans leur panier des produits mis en solde dernièrement, pour les inciter à acheter.

L’authentification du client est cruciale

Un système de gestion de contenu d’entreprise (CMS) offre des possibilités de personnalisation de contenus à destination d’audiences ciblées. En plus de mettre à disposition différents contenus sur un site de référence, les professionnels du marketing peuvent proposer des pages ultras personnalisées à destination d’utilisateurs authentifiés.

Il n’existe pas de formule miracle pour amener les prospects/clients à s’authentifier, mais quelques incitations efficaces à une inscription offrant la possibilité de bénéficier de webinaires avec des experts d’un secteur ou à télécharger un livre blanc.

Les inscriptions ayant été effectuées, les marketeurs pourront procéder à leur identification et repérer ce qu’ils cherchent à chaque étape de leur parcours d’achat. Par exemple, l’entreprise pourra venir en assistance de ses clients dans le cadre du service après-vente ou leur soumettre une promotion à la suite d’une vidéo visionnée. Les marketeurs pourront aussi adresser un e-mail promotionnel aux clients/prospects ayant dans leur panier des produits mis en solde dernièrement, pour les inciter à acheter.

La disparition des cookies tiers est annonciatrice d’un tournant des pratiques publicitaires. Désormais la publicité saura prendre en compte les données de façon plus directe, plus intelligente et plus personnalisée.

Les datas first party sont riches d’enseignements pour les marques

Les data first party sont afférentes aux informations personnelles d’internautes ayant visité un site web. Les organisations les récupèrent lorsque les internautes remplissent des formulaires, laissent des commentaires ou s’inscrivent sur les plateformes en ligne.

Les commerciaux ont besoin des data first party pour cibler de façon précise des profils de prospects/clients potentiels. Les organisations peuvent aussi optimiser la qualité de leurs services/produits.

Compte tenu de la digitalisation des échanges, les datas first party ont pris aujourd’hui une importance stratégique incontournable pour les marques et les organisations. Les données sont porteuses d’informations sur les prospects/clients, notamment leurs coordonnées, leurs comportements d’achat et leurs préférences.

Il est donc essentiel d’anticiper les besoins et les attentes des prospects/clients, pour générer des expériences positives chez eux en vue de les fidéliser.

Cela offre aux annonceurs et aux marketeurs des possibilités de ciblage précis des audiences. Ces données sont cruciales dans le développement d’une stratégie marketing.

Ces données informatives sont d’une grande importance pour les marques, car la concurrence est acharnée dans presque tous les domaines d’activité. Il est donc essentiel d’anticiper les besoins et les attentes des prospects/clients pour générer des expériences positives chez eux en vue de les fidéliser et de les amener à effectuer de nouveaux achats. L’atteinte de cet objectif passe par la collecte de données.

Lorsque la satisfaction du client est obtenue, celui-ci la partage avec son entourage proche ou moins proche. Il devient naturellement et automatiquement un ambassadeur de qualité de la marque.

Les données que la marque collecte lui permettent d’avoir des retours sur leurs produits/services. Elles sont évidemment à prendre en compte lors des campagnes display. Elles sont également riches d’enseignements pour les nouveaux produits et services que les organisations comptent lancer.

Les clients se sentent valorisés et ces derniers en sont parfaitement conscients.

Ils sont en effet sensibles au fait que les marques sont à leur écoute et qu’elles prennent en compte leur avis. La relation client s’en trouve renforcée.

Les organisations évitent ainsi un gaspillage de leur énergie et de leur argent en ciblant les bonnes personnes, notamment les prospects réellement intéressés par les produits/services proposés.

Les prospects/clients des marques sont conscients des données informatives qu’ils communiquent

Les GAFAM priorisent le datas third party, fournissent leurs données aux annonceurs. De ce fait, les internautes/mobinautes n’ont aucune idée de ceux qui exploitent réellement leurs données personnelles. La plupart d’entre nous peuvent d’ailleurs constater des annonces publicitaires ciblées sur un produit/service après avoir lancé des recherches spécifiques ou après avoir réagi à certaines publications.

En revanche, la prise en compte des datas first party est basée sur une confiance mutuelle. Les prospects/clients des marques sont conscients des données informatives qu’ils communiquent. Ils sont aussi certains que leurs données sont exclusivement exploitées par les marques elles-mêmes. Cette approche « data first party » permet aux marques de ne plus dépendre des GAFAM, en l’occurrence de Google Ads et de Facebook Ads, leurs coûts d’utilisation devenant d’ailleurs de plus en plus importants.

Les organisations peuvent ainsi procéder à la collecte de ces données grâce à leurs CRM, mais aussi grâce à leur présence active sur les réseaux sociaux. La mise en place d’un système de cookies sur leur site web est également très intéressant. Cela leur fournit en effet des informations essentielles sur le comportement des prospects/clients visiteurs de leur site web…

Écrire un e-mail pour être lu et convaincre !

Bien que l’e-mail reste l’un des vecteurs de communication les plus populaires, nombre d’entreprises sont encore loin de profiter de son immense pouvoir pour communiquer de façon efficace avec leurs prospects/clients, collaborateurs, investisseurs, etc.

Chaque matin, vous lancez votre messagerie électronique. Comment gérer l’avalanche d’e-mails qui ont déboulé dans votre boîte depuis hier soir ?  Des e-mails bourrés de fautes d’orthographe, confus ou truffés de malentendus ou d’injonctions de la part d’émetteurs manquant véritablement de savoir-vivre. 

Et pourtant un e-mail bien ficelé et convaincant peut rapporter beaucoup. Le retour sur investissement d’1 euro peut en rapporter jusqu’à 42. Il peut convaincre des clients qui hésitaient, encourager des équipes à se dépasser, stimuler la fidélité client. Maintenant, encore faut-il apprendre à écrire de façon convaincante. 

L’e-mail est un moyen très efficace pour inciter de façon convaincante son destinataire à passer à l’action

Certains prévoyaient la disparition progressive de l’e-mail. Que ce soit pour transmettre une proposition, promouvoir les qualités d’un produit ou solliciter un rdv, quotidiennement, nous échangeons plus de 330 milliards d’e-mails.

Bien que ce soit le canal privilégié d’information dans l’organisation, il n’est pas exempt de reproches : trop nombreux, souvent inutiles, rébarbatifs, etc.

Ainsi, les 9/10ème des e-mails n’atteignent pas leurs objectifs. Prenons l’exemple des newsletters, le taux moyen d’ouverture est d’environ 20% et le taux de clics est à peine de 2%.  Pour autant, les marketeurs produit nous renvoient de nouveaux contenus et nos messageries deviennent vite saturées d’informations prédictibles et peu utiles … Grosse erreur.

L’émotion pour retenir l’attention du destinataire et l’inciter à agir

Le véritable challenge est d’arriver à retenir rapidement l’attention et l’intérêt du destinataire au beau milieu de cette surenchère de sollicitations. L’accroche de l’objet de l’e-mail ou le contenu qui a du sens dans sa vie et à laquelle il va pouvoir se rattacher, jouent leur rôle pour lui permettre de tirer bénéfices de la lecture de votre e-mail.

Plus votre contenu va le toucher personnellement, plus il va ressentir de l’attachement émotionnel et de l’empathie pour vous.

Le style doit être empreint de simplicité, sobriété et une touche de personnalisation bien sûr pour créer de l’attachement émotionnel.

L’e-mail convaincant en quatre étapes

Il existe de nombreuses façons pour favoriser l’engagement de vos prospects/clients, équipes, investisseurs, par l’e-mail. Celle que nous recommandons et qui a fait ses preuves, suscite de l’émotion, de la curiosité, instruit et incite à l’action.

Avant d’expédier votre e-mail : demandez-vous si vous avez envie d’ouvrir et lire votre propre e-mail ?

  • Attention : soignez particulièrement l’objet de l’e-mail. Par exemple, précisez des points précis, l’importance d’une date ou d’un montant. Pour une infolettre, rédigez l’accroche qui va générer immédiatement de la curiosité ;
  • Intérêt : positionnez les informations essentielles dès le début du contenu de l’e-mail en vous demandant quelles actions vous attendez du destinataire.
  • Désir : pitchez et présentez vos preuves/résultats, illustrés par des photos, témoignages et gardez le récit vivant ;
  • Appel à l’action : que ce soit pour une prise de rendez-vous, le recueil de l’opinion du destinataire par un vote, ces liens internes au corps du texte favorisent l’interaction, participent également à ce que votre destinataire s’engage.

Call Now Button