Web Analytics - Web analyse
140 views | +0 today
Web Analytics - Web analyse
Tout sur les outils d'analyse web
Your new post is loading...
Your new post is loading...
Scooped by Aleksandra Noir'ô
Scoop.it!

Nick Leeder (Google) : 'La data pour améliorer nos services'

Nick Leeder (Google) : 'La data pour améliorer nos services' | Web Analytics - Web analyse | Scoop.it

Depuis sa création en 1998, Google s'est toujours targué de chercher à simplifier le quotidien des internautes à travers sa devise "Don't be evil". Data, mobile ou encore vidéo, son DG France Nick Leeder confie les enseignements et les ambitions du mastodonte du web.

Nick Leeder (Google) : 'La data pour améliorer nos services'
Que représente la data pour Google ?

Google vit grâce à la data, c'est en quelque sorte le moteur derrière le moteur. Nous utilisons les données pour améliorer la qualité de nos services : chaque solution développée par l'entreprise (Google Maps, moteur de recherche, YouTube) ambitionne d'apporter des réponses utiles en temps réels aux utilisateurs. Mais la data est un actif puissant, qui amène une grande responsabilité. Pour conserver la confiance de l'utilisateur, nous prônons la transparence, ainsi un utilisateur peut à tout moment consulter et modifier son profil Google avec toutes les données qui y sont enregistrées. C'est également pour cette raison que nous refusons de vendre nos données utilisateurs à d'autres entreprises.


Quel principal bénéfice les annonceurs peuvent-ils retirer de la data ?

Auparavant, le plus gros du parcours client était invisible. Avec le desktop, puis le mobile, il s'est progressivement numérisé, même les cartes de fidélité permettent aujourd'hui d'avoir une vision de bout en bout du parcours client. La question qui se pose alors est : comment agréger toutes ces données ? Il existe autant de données que de parcours, d'attentes différents et si la data est bien utilisée elle permet de développer des propositions personnalisées pour chaque consommateur. Pour parvenir à cette proposition, il faut en amont être capable de traiter toutes ces données, ce qui ne peut plus être fait à la main. Aujourd'hui, agences et entreprises s'équipent donc en plateformes (les DMP par exemple) à cet effet, pour agréger la data, l'analyser et réaliser des actions en temps réel.


Quel est le niveau de maturité des entreprises françaises par rapport à la data ?

En France, de façon plus générale, le démarrage peut prendre un peu plus de temps qu'ailleurs mais une fois que les acteurs sont convaincus, le mouvement s'enclenche rapidement. Sur la question de la digitalisation, l'hexagone a assisté à une prise de conscience générale il y a environ deux ans. Les entreprises recrutent aujourd'hui les bonnes personnes et utilisent les bons outils, des outils qui n'existaient pas encore il y a deux ans. Chez Google, nous travaillons sur une proposition à destination des annonceurs pour gérer leurs données, qu'elles proviennent de Google ou de leur CRM. Il y a deux ans, nous avons lancé dans ce sens une nouvelle série de produits analytics, qui a intégré en mars dernier la DMP Audience Center 360. Un projet sur lequel nous travaillions depuis plusieurs années et pour lequel il y avait une forte demande de la part du marché. Auparavant, les annonceurs utilisaient déjà ce type d'outils mais ces derniers étaient aux mains des agences de marketing. Depuis, quelques gros acteurs ont décidé d'internaliser les plateformes pour faire la passerelle entre les différentes briques de leur stratégie. Actuellement, il y a beaucoup de discussions en cours autour de la DMP Google mais elles sont longues car structurantes.


Quelles sont les grandes tendances que constate Google actuellement ?

Le premier grand changement qui est en train d'arriver sur le marché français c'est la prédominance du mobile, au niveau monde le search représente déjà pour Google plus de requêtes sur des terminaux mobiles que sur des desktops. Un renversement qui devrait s'opérer dès l'année prochaine en France, pays dans lequel YouTube totalise d'ores et déjà plus de consultations via mobile. Le point fort du mobile, c'est qu'il casse les barrières entre physique et virtuel, c'est même un appareil de navigation entre physique et virtuel, entre commerce brick and mortar et e-commerce. Ainsi la notion de retail n'a plus de sens pour le consommateur, pour qui il n'existe plus qu'une notion de commerce pour laquelle le mobile est une passerelle. Exemple avec Petit Bateau, pour qui Google a mesuré la part de visites du site avant une visite en magasin, soit 44% des consommateurs. Problème, les utilisations vont beaucoup plus vite sur l'adoption de ces nouvelles pratiques que les entreprises. Un commerçant qui n'a pas de stratégie mobile, c'est un commerçant qui ferme son site 7 jours sur 7 et 24 heures sur 24. Si une entreprise est trop en retard sur sa proposition mobile, les clients s'en vont. C'est pourquoi il faut être prêt à tout moment à changer d'outils, dans une stratégie test and learn car la première version d'un site mobile n'est jamais la bonne.

De l'autre côté, la vidéo online explose. Le temps de visionnage sur YouTube en France a augmenté de 50% en l'espace d'un an, la population française se rendant aujourd'hui sur YouTube au moins une fois par mois. Le phénomène concerne 31 millions de français et pas seulement les jeunes, bien que la fréquence et l'intensité d'utilisation de la plateforme vidéo soient plus élevés chez les moins de 40 ans. Conséquence, les annonceurs qui visent cette cible doivent faire appel à YouTube. La vidéo, qui s'intègre très facilement au contenu, permet un ciblage très pertinent des utilisateurs. C'est également une solution pour les annonceurs qui n'ont pas les moyens de diffuser une campagne de communication en télévision, et permet de développer une stratégie de contenu avec des formats plus longs, à l'instar des tutos bricolage de Castorama.


Comment Google lutte contre la publicité intrusive ?

Il est légitime pour un utilisateur de vouloir ignorer une publicité pour améliorer son expérience de navigation. Google a mis en place des équipes dédiées pour lutter contre les annonces publicitaires intrusives, frauduleuses voire illégales. Sur la base du règlement AdWords, ce "better ads report" a permis en 2015 de retirer 780 millions de publicités de nos plateformes. En parallèle, nous travaillons à rendre la publicité que nous diffusions plus pertinente grâce au ciblage, en se basant par exemple sur les requêtes des internautes sur le search. Sur YouTube, les publicités skippables laissent le contrôle à l'internaute. A partir de janvier 2017, Google pénalisera les publicités interstitielles sur mobile et tablette, un format pop-up déjà absent sur Google Chrome. A la fin, ces mesures créent un écosystème vertueux pour tout le monde : les publishers monétisent mieux leur inventaire, les annonceurs obtiennent un meilleur ROI grâce au ciblage pertinent de leurs publicités, tandis que l'utilisateur en retire un vrai service.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

L’intelligence artificielle fera disparaître la technologie - Business Analytics Info

L’intelligence artificielle fera disparaître la technologie - Business Analytics Info | Web Analytics - Web analyse | Scoop.it

Rand Hindi, bottes mexicaines, jean patiné, t-shirt échancré et coiffé d’un borsalino, n’a rien du look traditionnel d’un entrepreneur, pas plus que d’un bon élève de prépa. Et pourtant, ce data scientist, membre du Conseil Numérique et reconnu par le MIT comme un des « 35 under 35 », a pour ambition de faire disparaître la technologie pour mieux en profiter.

Le ton est donné : le jeune homme qui monte sur la scène de SAS Forum est bien dans son siècle ! Rand Hindi est un entrepreneur et data scientist, co-fondateur et CEO de Snips, un laboratoire de recherche en intelligence artificielle et machine learning qui se concentre sur le développement de nouvelles interfaces homme-machine intelligentes. Il vient expliquer, devant un amphi bondé et attentif, comment avec toujours plus de technologie et d’objets connectés, nous allons enfin pouvoir déconnecter !

Bénéficier des avantages de la technologie sans les défauts…

Neuf utilisateurs de smartphones sur dix expérimentent ce que des chercheurs américains ont baptisé le syndrome de la « vibration fantôme » : vous pensez que votre smartphone vibre au fond de la poche, mais en réalité, il n’en est rien, c’est une hallucination !… Le smartphone devient en quelque sorte une partie de nous-mêmes, et la perception du mouvement d’un vêtement, combinée à l’anxiété de son propriétaire, face aux multiples sollicitations qu’il subit à tout moment, crée cette hallucination.

Ce conditionnement n’est pas prêt de s’atténuer : les alertes push se multiplient à mesure que nous téléchargeons de nouveaux outils dans notre smartphone. Avec l’augmentation des objets connectés – plus de 100 milliards d’ici dix ans – chaque personne en possèdera bientôt entre 10 et 15. Gérer les alertes, les notifications et les interactions avec tous ces objets connectés ne sera tout simplement plus possible.

Pour Rand Hindi, il n’y a pas de doute, l’intelligence artificielle a le potentiel pour relever ce défi. C’est pourquoi Snips travaille à l’élaboration d’un assistant intelligent, qualifié par Rand Hindi de « cerveau de poche », capable d’apprendre pour anticiper nos comportements et gérer automatiquement les interactions avec nos objets connectés, smartphone inclus.

La convergence du Cloud (offrant des ressources de calcul illimitées pour un coût extrêmement bas) et des big data (volumes de données quasi illimités servant à « entrainer » des algorithmes) matérialise les promesses de l’ « Ubiquitous Computing » apparu dans les années 1980 : à l’image de l’électricité qui est présente partout et à chaque instant de nos vies, l’informatique intègre la vie quotidienne des humains et devient même omniprésente (les japonais parlent de la « société des réseaux omniprésents »).

Le contexte au cœur de l’intelligence artificielle

La clé de la réussite de l’assistant intelligent de Snips réside dans tout élément de contexte qui enrichit la compréhension d’un événement. Ceci s’est traduit dans les années précédentes par l’utilisation des données de géolocalisation. Mais celles-ci, selon Rand Hindi, ne sont ni suffisantes, ni assez précises. La solution consiste alors à croiser ces données avec d’autres incluses dans le smartphone : e-mail, textos, agenda, ou pourquoi pas baromètre, app de quantified-self, etc. Le cerveau humain n’est pas une base de données reposant sur des index. Il fonctionne sur la base d’association d’idées, à la manière d’un réseau de connaissance ou « knowledge graph ». L’interface intelligente de Snips s’inspire de ce mode de fonctionnement.

En analysant le contexte d’utilisation en temps réel sur la base de l’exploitation de toutes ces données, le smartphone sera ainsi capable de se mettre en veille tout seul lorsque vous entrerez en réunion ; la lumière s’allumera automatiquement lorsque vous rentrerez chez vous, etc. Cette interface intelligente a pour ambition de rendre le téléphone plus humain et moins intrusif, pour devenir un véritable « assistant », capable de prendre des décisions.

Privacy by design : sécurité et confidentialité

La sécurité est bien sûr une des principales préoccupations. La réponse de Rand Hindi est simple : les smartphones de dernière génération disposent de suffisamment de puissance de calcul pour réaliser l’ensemble de ces analyses de données en local. Concept qu’il appelle « privacy by design » : plus besoin d’envoyer les données dans le Cloud. Ceci répond à une exigence très marquée et exprimée par de plus en plus de mobinautes ; le succès de la messagerie sécurisée et cryptée Telegram en est bien la preuve.

L’intelligence artificielle nous permettra, nous tous, utilisateurs de smartphones, de nous libérer de la technologie, de nous déconditionner, afin de nous concentrer sur l’essentiel, en conservant les bénéfices du confort de la technologie. Il nous sera ainsi possible de « redevenir maîtres de nos propres choix », c’est-à-dire « d’être libres et d’être qui l’on veut ».

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Priorité à la protection des données et des systèmes d’information - Business Analytics Info

Priorité à la protection des données et des systèmes d’information - Business Analytics Info | Web Analytics - Web analyse | Scoop.it

Organisée par Acteurs Publics, une table ronde dédiée à la cybersécurité a réuni à SAS Forum d’éminents spécialistes issus de la fonction publique et du conseil, afin de dresser un état des lieux spécifique à l’administration. Si les outils sont de plus en plus sophistiqués, la sensibilisation des différents acteurs doit rester une priorité.

Animée par Pierre-Marie Vidal, Directeur de la publication d’Acteurs Publics, cette table ronde regroupait Philippe Loudenot, Fonctionnaire en charge de la sécurité des systèmes d’information au Secrétariat général des ministères chargés des affaires sociales ; Michel Cazenave, Responsable de la sécurité des Systèmes d’information au ministère des Affaires étrangères et du Développement international ; Philippe Kerael, VP en charge de l’offre analytique chez Capgemini et Filip Verbeke, en charge des solutions dédiées à la fraude chez SAS.

En introduction, Pierre-Marie Vidal s’est réjoui que l’Etat français ait pris la mesure de l’ampleur du phénomène et bien sûr des enjeux et dangers qui l’accompagnent. La création de l’Agence Nationale de Sécurité des Systèmes d’Information (ANSSI) a permis d’élever la cybersécurité au rang de priorité nationale, considérant que les enjeux relèvent non seulement du domaine économique (préserver les compétences, savoir-faire et avantages concurrentiels, en un mot la compétitivité et donc l’emploi), mais également de la souveraineté nationale (autonomie de décision et d’action dans les domaines politique, diplomatique et militaire et protection de l’ensemble des infrastructures critiques). Mais, où en est-on réellement sur le terrain ? Existe-t-il un écart entre les annonces et la réalité opérationnelle ?

Ministères sociaux : des outils et des risques très variés

L’une des difficultés de la mission de Philippe Loudenot réside dans la diversité des métiers et donc des risques associés aux activités des secteurs dont il a la charge : affaires sociales, santé, travail, sport et droits de la femme. En tant que point d’entrée de l’ANSSI dans les Ministères sociaux, il sait bien que 80% de la fraude est liée à une faiblesse de sécurité des outils. Si les textes de loi sont bien sûr utiles, la médiatisation d’affaires spectaculaires de fraude a contribué à la prise de conscience des décideurs politiques.

Cette variété des métiers et des risques a entraîné la mise en œuvre d’outils de cybersécurité très hétérogènes. Selon Ph. Loudenot, ce n’est pas une difficulté si ces outils sont bien paramétrés et utilisés. Car la sécurité, bien loin d’être une affaire uniquement technique, relève surtout d’une problématique de gouvernance et donc de management. Ainsi, les Ministères sociaux ont mis en place un système anonymisé de remontée d’incidents qui a permis de localiser plusieurs tendances de menace :

Le piratage direct, avec intention de nuire
Le piratage ou la fraude d’un utilisateur opportuniste
Le mésusage du système d’information

Selon Ph. Loudenot, l’Internet des objets n’est pas un problème en soi (« on en fait depuis des années avec les dispositifs médicaux »), mais ce qui est nouveau c’est la volumétrie. Pour répondre aux nouveaux défis, il convient de ne pas rester passif, de se remettre en question en permanence et de sensibiliser les dirigeants.

Enfin, il est également essentiel d’organiser le dialogue et la collaboration des équipes concernées : les métiers, la direction de la fraude et la direction informatique. La sensibilisation de l’ensemble de ces acteurs, doit être accompagnée de l’analyse des signaux faibles. En résumé, l’humain apporte une valeur ajoutée que la technique, qui n’est pas une fin en soi, ne peut assurer, notamment pour réduire les faux positifs et quantifier les risques.

Ministère des Affaires étrangères : traquer les mauvaises pratiques

Si Michel Cazenave a insisté également sur la diversité des métiers et des attributions du Ministère des Affaires étrangères – au-delà de la diplomatie : sécurité des Français de l’étranger, étrangers étudiant en France, développement international, adoptions… Mais a contrario, son système d’information est homogène : chaque direction utilise les mêmes outils et applique les mêmes pratiques qui ont été standardisées. La démarche de cybersécurité, considérée également comme une priorité, a été industrialisée. Et si, selon le principe de Pareto, 80% des menaces peuvent être évacuées avec 20% des efforts engagés, 20% des menaces nécessitent encore de déployer d’énormes efforts. La cyber-analytique est, dans ce contexte, porteuse de nombreuses promesses.

Pour M. Cazenave, le premier danger qui menace l’intégrité du système d’information d’un ministère, voire d’une entreprise, réside dans les pratiques très risquées de certains agents ou employés. Aujourd’hui, tout professionnel dispose d’un smartphone et une mauvaise utilisation peut mettre en danger la sécurité du système d’information. Les décideurs en ont pris conscience, la preuve, on ne parle plus de « sécurité des SI » mais de « Cyber ». La priorité est donc de sensibiliser les différents acteurs à la grande variété de risques et de leur fournir des bonnes pratiques simples à mettre en place.

Cybersécurité : l’approche analytique

Filip Verbeke a démontré les limites des solutions traditionnelles de sécurité, qui déclenchent une avalanche d’alertes (parfois plus de 10 000 par jours) sans résoudre le problème, du fait notamment d’une grande quantité de faux positifs. Au contraire, avec le temps, on constate que le délai nécessaire pour contrer une attaque s’allonge continuellement. Au final, en 2015, malgré un investissement de 42 milliards de dollars du gouvernement fédéral américain, plus de 35% des cyberattaques ciblant l’administration n’ont pas été détectées.

Avec l’approche analytique proposée par SAS, l’analyse prédictive vient enrichir la palette d’armes contre les cyberattaques. La solution de SAS analyse les relations entre machines – au-delà de l’analyse des logs – et propose une approche par les risques permettant de catégoriser les menaces.

Dans le cas d’un virus, l’attaque est, en général, connue et on peut la maîtriser rapidement. Dans le cas d’une tentative de fraude ou d’une menace persistante avancée, la problématique est plus complexe. Filip Verbeke cite le cas d’une grande entreprise dont l’un des fournisseurs de services de conditionnement d’air avait accès à son système d’information. Le système d’information du fournisseur a été piraté et le fraudeur est parvenu à remonter jusqu’à des systèmes stratégiques de l’entreprise qui contenait des informations confidentielles. Avec la solution de SAS, cette entreprise aurait pu analyser en temps réel le comportement des machines, pour localiser celles affichant un comportement inhabituel et bloquer toute tentative d’intrusion.

Compte-tenu de l’énorme quantité de données générée par ce type d’analyse, SAS fournit des outils à ses clients pour les traiter et exploiter. Des premiers résultats sont obtenus en moins de trois mois.

Filip Verbeke cite également l’exemple d’une banque qui exploitait un système traditionnel reposant sur 52 indicateurs et générant environ 20 000 alertes par jour. Celui-ci permettait de détecter à peine la moitié des fraudes (en moyenne 3 cas avérés par jour). Avec SAS, la banque a réduit le nombre d’indicateurs à 11 et le nombre d’alertes à 100, pour parvenir au final à couvrir 90% de la fraude.

Capgemini : vers la cyberanalytique

Selon Philippe Kerael, si la cybersécurité était exclusivement portée dans le passé par le département informatique, la cyberanalytique concernent également aujourd’hui les métiers. Ces derniers participent à l’enrichissement continuel des algorithmes de détection en coopération avec l’IT. Si l’on constate encore une faible maturité des DSI français dans ce domaine, les progrès sont notables. Les exemples de collaboration entre des DSI, data scientists ou experts de la business intelligence, et des spécialistes de la cybersécurité, autour du développement d’algorithmes de cybersécurité, se multiplient.

L’approche conjointe SAS et Capgemini répond aux enjeux modernes auxquels sont confrontées les banques et institutions financières pour lutter contre la fraude, qui les déleste en moyenne de 5% de leur chiffre d’affaires chaque année. Elle propose notamment une analyse des comportements atypiques, une analyse des liens (qui permet d’identifier d’autres entités associées à des catégories de fraude connues), ainsi que des outils de scoring des fraudes et d’analyse statistique détaillée.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

[Infographie] Les applis messaging, quel usage à travers le monde? - Mobile marketing

[Infographie] Les applis messaging, quel usage à travers le monde? - Mobile marketing | Web Analytics - Web analyse | Scoop.it
Si les applications de messagerie séduisent les professionnels de la relation client et du marketing, leur offre de service demeure à développer. Panorama des solutions les plus populaires.
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

95% des entreprises convaincues par l'A/B Testing - Ecommerce

95% des entreprises convaincues par l'A/B Testing - Ecommerce | Web Analytics - Web analyse | Scoop.it

Deux pratiques sont en passe de devenir monnaie courante chez les marketeurs et les e-commerçants: l'A/B testing et la personnalisation. C'est la tendance décelée par une étude de Kameleoon et Converteo.

L'A/B Testing et la personnalisation sont deux pratiques qui font l'unanimité chez les marketeurs et les e-commerçants, persuadés de leur efficacité. Tous ne sont pas encore passés à l'acte, mais la progression est bien réelle, comme le démontre l'étude* de Kameleoon et de Converteo. Ainsi, 60% des entreprises pratiquent l'A/B Testing (contre 50% en 2015), et 54% se sont misent à la personnalisation ou envisagent de le faire d'ici moins d'un an.

Il est intéressant de noter que ce sont les pure-players qui utilisent le plus l'A/B Testing et la personnalisation, et en particulier les acteurs du retail, des télécoms, de la banque/assurance et des médias, "les secteurs les plus chahutés par la révolution digitale", interprète Dounia Zouine, manager digital & data chez Converteo.

Par ailleurs, le volume de tests réalisés est à la hausse, surtout pour les sites enregistrant beaucoup de visites. Par exemple, une vingtaine de tests par an est pratiquée par les sites de plus de 5 millions de visiteurs uniques par mois... "L'A/B Testing et la personnalisation se démocratisent chez les marketeurs, et viennent en complément de la web analyse", souligne Dounia Zouine.


Des pratiques encore complexes

Pour plus de la moitié des répondants (52%), l'A/B Testing et la personnalisation des messages et des contenus restent complexes. Aussi, les entreprises envisagent-elles de se faire accompagner par des prestataires spécialisés, non pas tant sur la phase de réalisation que sur les phases amont (définition des objectifs, identification des pistes d'amélioration) et aval (analyse des résultats). "Toutefois, il n'est pas souhaitable que ce support externe soit pérenne. D'ailleurs, nous observons que les pratiques d'A/B Testing et de personnalisation se gèrent progressivement en interne, ce qui a l'avantage d'être moins coûteux et de garantir une certaine agilité aux entreprises", atteste Dounia Zouine.

Dans cette logique, les équipes marketing, CRM ou encore BI se rapprochent. "Il y a une vraie prise de conscience de la nécessité d'aborder la data dans son ensemble. On n'est pas encore dans une logique de 'desilotage' complète, mais on s'en approche !", conclut Dounia Zouine.


Le cas du Routard.com

Les voyageurs sont des zappeurs. En moyenne, un futur globe-trotter met 45 jours à préparer son séjour, et consulte non moins de 38 sites ! "Il est donc capital d'offrir une expérience client et usager différenciante et qualitative", souligne Thomas Sauzedde, dg du routard.com. En 2015, le guide de voyage en ligne fait appel aux services de Kameleoon. "Nous travaillons sur la refonte de notre Home Page, sur le déclenchement de pop-in, sur notre contenu mobile, mais aussi sur une segmentation plus fine de nos visiteurs grâce aux données de notre CRM, afin de cibler au mieux nos messages", explique Thomas Sauzedde. Pour ce faire, des phases d'A/B Testing sont lancées. Mais avant de tester des idées, encore faut-il les imaginer... "Nous réfléchissons à partir des besoins de nos clients, que nous déterminons via des études, via notre équipe CRM, nos commerciaux, ou encore par les clients eux-mêmes !", précise le directeur général. Au-delà de l'optimisation du site, encore en cours, c'est l'entreprise elle-même qui est reboostée par un tel projet. "Les équipes IT, en quête de sens, ont une plus grande latitude pour réfléchir aux évolutions du site et sont davantage que de simples exécutants ; de leur côté, les commerciaux prennent la liberté de proposer des offres nouvelles à leurs clients car tout peut être tester, et sont beaucoup plus proches des marketeurs", se félicitent Thomas Sauzedde.

*3e édition du baromètre Kameleoon et Converteo - Questionnaire administré par téléphone du 1er au 18 juillet 2016 auprès de 250 répondants tous secteurs d'activité confondus

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Quand l'émotion devient une donnée mesurable - Data driven marketing

Quand l'émotion devient une donnée mesurable - Data driven marketing | Web Analytics - Web analyse | Scoop.it

Capter les émotions des consommateurs et les utiliser comme n'importe quelle autre donnée marketing. Un nouvelle étape sera bientôt franchie dans l'exploitation du big data. L'objectif? Mieux décrypter les émotions du public et créer des spots publicitaires en résonance avec les émotions du client.

Savoir ce que ressent un consommateur devant une publicité ou lorsqu'il achète un produit, ces données dites émotionnelles ou "feel data" intéressent de plus en plus les marques, qui cherchent à les capter et les analyser. Une nouvelle étape dans l'exploitation du big data avec l'agrégation de donnés comportementales utilisées pour mieux cibler les campagnes de publicité. Signe des temps, en février 2016, Facebook a agrémenté son bouton "Like" de six émojis - la joie, la tristesse, l'étonnement, la colère, le rire, etc. - afin d'avoir une connaissance encore plus précise de ses utilisateurs et de leurs réactions face à différents contenus. Des informations que le réseau social peut ainsi exploiter dans le but de personnaliser le fil de chaque internaute en fonction de ses préférences.


Renverser le marketing

"Il est scientifiquement prouvé que l'émotion joue un rôle prépondérant dans l'ensemble des comportements humains, de la perception à la mémorisation. Les émotions sont responsables de 95% de nos décisions", affirme Nicolas Delattre, Feel Data Chief Strategist chez Datakalab, un laboratoire d'expertise qui réunit des créatifs, des scientifiques et des spécialistes en neurosciences. Leur ambition est d'analyser les émotions des consommateurs devant une publicité, un produit ou un service, pour déterminer via des outils neuroscientifiques - comme le bracelet connecté - quelles sont les couleurs, les éléments contextuels, etc. à améliorer pour maximiser une publicité. Un tableau de bord permet de visualiser en temps réel les émotions ressenties par les clients. "L'objectif est de renverser le marketing pour que les consommateurs impulsent par leurs émotions les futurs services et produits des marques", souligne Nicolas Delattre. Face à un message publicitaire, ces données émotionnelles permettront de mieux le calibrer et de l'adapter au profil émotionnel du client ! L'émotion devient alors une donnée mesurable.


L'émotion au coeur des préoccupations marketing

Des "feel data" qui renseignent les marques sur les envies, les aspirations et les attentes des consommateurs et, a contrario, ce qui suscite de la crainte ou de la tristesse. "Nous visons à démultiplier l'impact de la communication au travers de l'émotion, qu'elle soit plus intense et plus au service de la marque, souligne le Feel Data Chief Strategist de Datakalab. Nous intervenons en pré-tests ou post-tests publicitaires classiques, sur tous types de supports, à partir de la mesure des émotions mais aussi de l'attention face à un contenu audiovisuel sur écran."

Et de citer l'exemple récent d'une marque qui, après avoir enregistré des résultats décevants en post-test d'une campagne, a fait fait tester son nouveau spot à des consommateurs équipés de capteurs physiologiques. Pour ce faire, Datakalab a réuni un échantillon de personnes qu'il a dotées d'eye tracking, une technologie qui détecte les dilatations de la pupille et permet de mesurer ce que ressent une personne face à un contenu audiovisuel, et de bracelets connectés, qui analysent la micro-sudation. Ainsi équipées, les 20 personnes ont visualisé le spot télé de la marque, parmi d'autres films publicitaires. A l'issue de ce test, l'annonceur a revu le design sonore de son spot mais aussi certaines séquences. Résultat : un gain de 20 points d'impact constaté lors de la diffusion de la 2e vague.


Des premières expérimentations

Plusieurs marques ont été séduites par cette technologie comme Monsieur Bricolage, PMU, M6, La Française des jeux, Nestlé, Yves Rocher. Chez Disneyland Paris, la feel data a permis de mettre en évidence le manque d'impact d'un futur spot auprès des adolescents. Modifié, le nouveau film y a remédié. Red Bull envisage d'équiper ses sportifs de capteurs directement placés sur leur corps afin que "les téléspectateurs puissent avoir un aperçu de ce que ressent un sportif pendant sa descente ou son saut", expliquait Andi Gall, directeur de la technologie chez Red Bull Media House. Demain, on peut, ainsi, rêver d'affiches communicantes qui s'adaptent aux émotions des passants...

Mais les ambitions de Datakalab sont encore plus grandes. "A plus long terme, notre volonté est de partager ces connaissances pour améliorer d'autres domaines que celui du marketing : dans le monde de l'art, des médias, de l'architecture afin que ces feel data puissent servir à toute la société", avance Nicolas Delattre.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

La DMP, nouvelle alliée d'un marketing agile

La DMP, nouvelle alliée d'un marketing agile | Web Analytics - Web analyse | Scoop.it
La DMP (data management platform), composante du data-driven marketing, est la solution des données intelligentes. Dans ce dossier, nous faisons le tour de ce qu'il faut savoir avant de se lancer, afin d'exploiter au mieux les opportunités offertes par ce nouvel outil.
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

L' « intelligence big data », prochaine révolution numérique - Business Analytics Info

L' « intelligence big data », prochaine révolution numérique - Business Analytics Info | Web Analytics - Web analyse | Scoop.it

De nouvelles tendances numériques émergent et sont en train de converger très rapidement. Ces technologies révolutionnaires seront sources de progrès pour les entreprises tant en termes d’agilité, que de processus opérationnels et de productivité, à condition d’être bien préparées. Pour le chercheur James Canton, la prochaine révolution numérique traduira la synergie des big data et de l’intelligence artificielle, une fusion qu’il nomme « intelligence big data ».

La gestion des big data a longtemps été et reste un défi pour les organisations. D’ailleurs, si le stockage numérique permet depuis plusieurs années de sauvegarder l’information sur des disques ou sur des bases de données, dans les administrations, les hôpitaux et les entreprises, les documents papier sont encore beaucoup utilisés. Le fait de disposer de bases de données toujours plus grandes n’est pas toujours source de progrès pour les organisations, car en pratique il est très difficile de suivre le fil des téraoctets de vidéos, textes, photos et voix stockés chaque jour.

IA + Big Data = accélération des prises de décision


Collecter ces volumes massifs de données sur papier ou d’autres médias est tout aussi impossible. Autrement dit, les entreprises ne sont pas en mesure de répondre au besoin d’extraction d’information et de rapidité décisionnelle exigées par leurs clients et les marchés. C’est ici qu’intervient l’intelligence artificielle (IA). Cette technologie permet, via les machines intelligentes, une gestion optimisée des big data et une prise de décision extrêmement rapide. C’est pourquoi les deux technologies, big data et IA, sont en train de converger naturellement. Cette convergence va être très utile à l’Internet des Objets (IoT) : ce réseau massif de collecte de données via des millions de capteurs a besoin d’un « cerveau numérique » pour être utilisé et exploité. Cette synergie va aussi permettre des avancées dans la recherche pharmaceutique, la conception de voitures sans conducteur plus sûres, les énergies alternatives…

Si la collecte de données en vue d’identifier des tendances chez les consommateurs, les patients ou les salariés, d’accroître la productivité ou de résoudre des problèmes, a fait ses preuves, l’intelligence artificielle est indispensable pour extraire un sens des données récoltées. L’IA permettra d’analyser les volumes massifs de données, et de prendre les meilleures décisions, dessinant ainsi le futur de la croissance et du développement à l’échelle mondiale.

Deux technologies intimement liées

uels seront les défis ? Si les processus décisionnels autonomes deviennent la norme, des questions éthiques émergeront. Les systèmes d’apprentissage automatique nécessitent pour l’instant la supervision humaine, mais cela ne sera pas toujours le cas. L’intelligence artificielle investit la santé, le droit, la finance, la publicité, la sécurité, la défense là où la technologie big data à elle seule ne suffit pas. Il ne faut pas commettre l’erreur de voir ces deux technologies comme distinctes, mais bien comme un seul et unique phénomène. Cette tendance ne sera perturbante que pour ceux qui ne l’auront pas prévue dans leur stratégie d’entreprise. Car si nous n’en sommes qu’aux prémices de la convergence, big data et intelligence artificielle ne fonctionnent d’ores et déjà plus l’une sans l’autre. Le futur a besoin d’intelligence big data !

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Analytics points de vente : tracer pour performer

Analytics points de vente : tracer pour performer | Web Analytics - Web analyse | Scoop.it

Suivre le client à la trace, en boutique comme sur le web. C'est le rêve de tout retailer. Un rêve qui commence à devenir réalité, grâce à de nouveaux outils qui permettre de prendre les bonnes décisions en matière de merchandising, d'effectif, de promotions...

Combien de personnes s'arrêtent devant une vitrine? Lesquelles entrent ensuite dans le magasin ? Quels sont les rayons les plus visités ? Quel est le temps moyen d'une visite avec achat... Hier encore, toutes ces informations échappaient aux distributeurs. Mais une nouvelle génération d'outils marketing commence à nourrir l'intuition des enseignes en leur apportant des données chiffrées. " Avec le ticket de caisse, le beacon, la tablette vendeur, les bornes, le wifi, les caméras... La quantité de datas disponibles sur les consommateurs explosent ", observe Arnaud d'Hoop, CMO & fondateur de instore.digital, éditeur d'ID, plate-forme big data. Une stratégie qui, selon une étude de McKinsey, permettrait d'accroître de 20% la satisfaction client de 20%, de réduire de 20% le coût des services clients et surtout, d'augmenter les recettes de 15%. Des data qui n'ont de réel intérêt que croisées avec d'autres données - ventes par exemple - et interprétées à la lumière d'une stratégie marketing.


Les multiples atouts des analytics point de vente

De l'exploitation des données in store peut ainsi découler un nouvel agencement du magasin, une nouvelle disposition des supports de communication, l'ajout de cabines d'essayage, de points d'encaissement... Autant d'éléments qui peuvent impacter significativement les performances commerciales du point de vente. Enseigne de cadeaux et objets pour la maison, La Chaise Longue a fait appel à la start-up What The Shop pour équiper ses boutiques de petits boîtiers capables de capter les signaux émis par les smartphones dont le Wifi est activé. Pas d'application à télécharger, la seule condition, pour que ça marche, est que le Wifi soit activé. " Au départ, relate Jérôme Staëbler, directeur général de La Chaise Longue, nous l'avons utilisé pour mesurer les flux à proximité et à l'intérieur de certains magasins ainsi que la fréquence de visite des consommateurs. Le but étant de mesurer la performance commerciale de nos vitrines." Très vite, l'enseigne constate que la fréquence de visites est importante - ce qui indique que les vitrines jouent bien leur rôle de capteurs de flux - mais qu'a contrario, la fréquence d'achats est modeste. Elle décide donc d'organiser un jeu pour mieux convertir les visiteurs en clients.

Autre start-up, autre technologie. Fonctionnant par Wifi ou beacon, Instore.digital capte en temps réel l'ensemble des datas d'une surface de vente et permet aux enseignes d'interagir avec les mobiles des visiteurs. Les équipes marketing définissent des règles par profil de clients (exemple : tous les visiteurs qui passent plus de 10 minutes en magasin recevront un sms promotionnel) et l'action se déclenche automatiquement.

Autant de solutions qui apportent des éléments d'aide à la décision aux retailers et leur permettent enfin de passer du stade de l'intuition à celui de la décision éclairée d'éléments tangibles.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Nouvelles notifications de sécurité via Google Analytics

Nouvelles notifications de sécurité via Google Analytics | Web Analytics - Web analyse | Scoop.it
Il y a plus d'un an, nous avons lancé des alertes de navigation sécurisée dans Google Analytics. Leur objectif est d'avertir les internautes qu'un site Web est identifié comme étant infecté, et qu'il est possible qu'il soit utilisé pour diffuser des logiciels malveillants (malware) ou pour exécuter des attaques d'hameçonnage (phishing). Depuis le lancement de ce service, nous avons alerté plus de 24 000 propriétaires Google Analytics de l'infection de leur site Web par des tiers. Aujourd'hui, nous avons le plaisir de vous annoncer que nous ajoutons un type d'alertes dans Google Analytics. Désormais, nous affichons des notifications pour non-respect de nos consignes aux webmasters si nous détectons un site piraté à des fins de spam (et ce même si il n'est pas question de distribution de malware ou de phishing). Si votre site a été infecté par un tiers, le domaine concerné est signalé directement au sein de l'interface utilisateur de Google Analytics, et des liens s'affichent dans l'alerte pour vous rediriger vers des ressources qui devraient vous aider à résoudre le problème.
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Big Data : plongés dans un « lac de données », les silos sont enfin unifiés

Big Data : plongés dans un « lac de données », les silos sont enfin unifiés | Web Analytics - Web analyse | Scoop.it
D’abord « Open » avant d’être « Big », la data est devenue en cinq ans la pépite des chercheurs d’or 2.0. Faute de technologie adaptée, chacun devait au départ, travailler dans son coin du fait de l’impossibilité de centraliser les données. Mais désormais, ces silos sont devenus des obstacles au business des entreprises et nécessitent d’être réinventés.
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Marketing analytique temps réel : le graal de la relation client « Points De Vue « Business-analytics-info.fr

Marketing analytique temps réel : le graal de la relation client « Points De Vue « Business-analytics-info.fr | Web Analytics - Web analyse | Scoop.it
« Faire du marketing sans données, c’est comme conduire les yeux fermés, » argumente Dan Zarrella, expert des médias sociaux et auteur de plusieurs ouvrages sur le marketing. Par cette affirmation, il pose l’objet même de la transformation du marketing à l’ère du numérique : c’est le consommateur qui a pris le pouvoir. Comment le satisfaire tout en développant la performance de l’entreprise ?
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Avec R Server, Microsoft parfait son offre d'analyse big data - Le Monde Informatique

Avec R Server, Microsoft parfait son offre d'analyse big data - Le Monde Informatique | Web Analytics - Web analyse | Scoop.it
Big data : Le langage R, de plus en plus utilisé parmi les data scientists, constitue un bon point d'entrée pour réaliser des analyses complexes. Microsoft fait évoluer
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

L’analytique à l’épreuve des objets connectés - Business Analytics Info

L’analytique à l’épreuve des objets connectés - Business Analytics Info | Web Analytics - Web analyse | Scoop.it

Le phénomène n’est pas nouveau, et sa croissance est exponentielle : on estime qu’il y aura 30 à 50 milliards d’objets connectés dans le monde à l’horizon 2020. Une prolifération à laquelle la société, le monde, se voient contraints de s’adapter. Pourtant, peu d’entreprises semblent avoir pleinement conscience de la réalité qui se cache derrière ces chiffres, des possibilités offertes comme des risques associés. Un nouveau défi pour l’analytique, qui, après avoir fait ses preuves dans de nombreux métiers, pourrait endosser à présent son costume de cyber protecteur !

Par Thierry Bedos, Directeur général SAS France.

Une promesse vertueuse…

Portant depuis longtemps en germe la promesse d’une entreprise gérée de façon intelligente et d’une « vie facilitée », l’Internet des objets (ou plus communément l’IoT, de l’anglais Internet of Things,) est pourtant encore loin d’avoir dévoilé tout le spectre de ses fonctionnalités.

En plaçant des capteurs intelligents sur des plateformes pétrolières, des routes, des tuyaux ou des camions, les industriels sont désormais en mesure d’effectuer leur maintenance de façon prédictive. En générant des ordres de réparation préalablement aux incidents, ils évitent des pannes et optimisent l’utilisation de leurs ressources. Ceci n’est qu’un exemple d’application parmi tant d’autres : avec les objets connectés, le champ des possibles est colossal !

…mais dangereuse !

Qui dit « connecté », dit adresse IP, et donc… risques associés ! Pour les pirates informatiques, la recrudescence des objets connectés dans de nombreux secteurs d’activités constitue une véritable aubaine. Elle leur permet de s’emparer facilement et illégalement des données privées, confidentielles, précieuses.

Un réel danger pour les organisations de toutes tailles et tous secteurs d’activités confondus, qui doivent en prendre conscience sans plus attendre, et se prémunir contre cette menace. L’impérieuse nécessité d’éducation est fondamentale, et ce à tous les échelons de l’organigramme. Mais pas seulement : les cyber risques introduits dans la sphère de l’entreprise avec l’Internet des objets doivent servir de sonnette d’alarme pour les chefs d’entreprise, et les inciter à modifier une bonne fois pour toutes leur stratégie en matière de cybersécurité.

Mais, alors, comment faire ?

Le risque est bien réel comme on a pu le voir récemment aux Etats-Unis, mais le clivage à la tête de l’entreprise, l’est également : d’après une étude mondiale réalisée par The Economist Intelligence Unit quelques mois avant cet événement, plus de 30% des responsables de la sécurité informatique en entreprise s’attendaient à subir une cyberattaque importante et préjudiciable dans les trois mois, tandis que seuls 12% des dirigeants partageaient ce point de vue. Signe qu’il faut accentuer la pédagogie, surtout au sommet de la hiérarchie. Mais ce n’est pas tout.

Bien que certains dirigeants aient déjà planché sur la création de nouveaux postes pour lutter contre la cybercriminalité — en introduisant par exemple des privacy officers, tenus comme leur nom l’indique de veiller au respect de la confidentialité des données —, il convient d’approfondir cette piste. Et de faire de l’analytique sa principale alliée pour mener à bien cette bataille.

En matière de sécurité, l’analytique peut par exemple permettre d’obtenir une image continue et globale des menaces grâce à l’analyse des flux de trafic. Enrichie d’informations contextuelles telles que les données organisationnelles et les alertes générées par les infrastructures sécuritaires, elle rend compte de la normalité/l’anormalité de la situation au sein du réseau, et informe quant aux attaques à prévoir.

L’importance de l’analyse des « données chaudes »

La prolifération des objets connectés partout dans la société a incité les professionnels de l’analytique à s’adapter et à faire évoluer leurs pratiques en matière d’analyse des données récoltées. Par exemple, il est devenu nécessaire de traiter les données directement à la source, c’est-à-dire avant leur « refroidissement » (leur stockage). Facilitée par le dialogue permanent entre l’objet connecté et le reste du système d’information, cette exploitation immédiate des flux de données générées par l’IoT permet non seulement de prendre des décisions de manière instantanée, mais aussi de sécuriser ces dispositifs grâce à des algorithmes dédiés.

En adaptant leurs solutions de traitement des données aux exigences du marché, les principaux acteurs du domaine de l’analytique ont transformé la menace de l’IoT en opportunité. Après avoir notamment fait ses preuves dans le domaine du marketing, l’analytique est devenue toute puissante, avec un nouveau champ d’application qui s’ouvre à elle : la cybersécurité.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Comment le Big Data a envahi les hypermarchés


Les grandes enseignes multiplient les expérimentations entre rachats de start-up et créations d'incubateurs. De nombreuses start-up de la tech se spécialisent dans l'analyse de données pour les hypermarchés.

Carte de fidélité, paiement mobile, chariot connecté... Souriez, vous êtes fichés ! Depuis toujours, les hypermarchés collectent et traitent des données. Mais aujourd'hui, celles qu'ils recueillent sur les consommateurs sont de plus en plus précises et leur analyse devient une arme stratégique majeure pour donner la réplique aux Amazon et autres géants de l'e-commerce dont, on leur annonce tous les jours qu'ils vont leur tailler des croupières.

C'est évident : l'avenir des hypers passe par le Big Data (mégadonnées). « Amazon vient concurrencer Auchan et Carrefour avec de nouvelles armes, comme le traitement des données, que ces enseignes traditionnelles doivent s'approprier », clame Yves Marin, directeur chez Wavestone.


Campagnes publicitaires plus efficaces

La route est longue. Un seul chiffre : l'américain Walmart, numéro un mondial de la distribution, a généré l'an dernier un chiffre d'affaires de 13,7 milliards de dollars sur Internet, contre... 107 milliards pour Amazon, dont l'un des points forts réside aussi dans son système de recommandation. Ce n'est pas pour rien que Walmart a annoncé mardi mettre 3 milliards de dollars sur la table pour racheter Jet.com, un concurrent de la firme de Jeff Bezos.

La grande distribution a commencé à se mettre au pas. Les expérimentations se multiplient : rachats de start-up, créations d'incubateurs ou investissements en matériels et logiciels... Walmart s'est ainsi offert la société Kosmix pour monter sa propre infrastructure d'étude en temps réel des données.

Auchan Retail Data, l'entité du français Auchan qui gère les données, a quadruplé ses effectifs en un an (40 personnes). « La nouveauté avec le Big Data, c'est que l'on peut personnaliser la relation client à une très grande échelle. Avant, on s'adressait à un segment de clientèle. On est aujourd'hui dans une relation de one-to-one grâce aux capacités de calcul ", affirme Olivier Girard, son directeur. Ainsi les bons de réduction susceptibles de vous faire craquer arrivent par miracle sur votre page de navigation et dans votre boîte aux lettres ou mails. Les campagnes publicitaires deviennent plus efficaces. « On constate jusqu'à 40 % d'augmentation des ventes avec notre régie Imédiacenter ", note-t-il.

Un terrain fertile pour les start-up

Certains, comme Leclerc font appel à des « data scientists ", très en vogue chez les géants du Web. L'enseigne fait aussi appel aux start-up, sans forcément les racheter. « Il suffit qu'un acteur de type Amazon sorte une innovation pour que des technologies qui ont à peine quelques mois deviennent obsolètes. Dans ce cadre, investir ses propres billes à long terme est une prise de risques beaucoup trop importante ! » justifiait l'an dernier Michel-Edouard Leclerc, patron du groupe, dans « L'Usine digitale ".

Des jeunes pousses ont ainsi fleuri dans des domaines très pointus. « Il n'y avait aucun moyen de mettre en relation les données d'une personne à la fois cliente en magasin et en ligne. Notre société est capable de les associer pour améliorer les interactions avec les clients », explique Vihan Sharma, directeur général de Liveramp, une entreprise américaine qui a Carrefour pour client et qui s'est lancée dans l'Hexagone il y a un an. Elle traite 20 milliards de profils par mois environ en France, au Royaume-Uni et aux Etats-Unis.


« Le temps, c'est de l'argent »

A terme se profile la possibilité de monétiser les données aux clients : c'est déjà une source essentielle de revenus chez Cdiscount. C'est un enjeu pour les grandes surfaces. Pour l'heure, elles cherchent surtout à affiner le data. « Auchan commence à utiliser des données issues de l'open data, c'est-à-dire celles ouvertes et accessibles à tous sur Internet comme la météo et le trafic routier ", pointe Olivier Girard. Quant aux données des réseaux sociaux : « Nous les utilisons peu par peur de se disperser. Ce n'est pas notre priorité aujourd'hui. " Le temps, c'est de l'argent.

« La clef est de nous adapter au gros volume de données qui va nous arriver. Il faut être sûr que ce ne soit pas une source de perte de temps et d'inintelligence, expliquait récemment Georges Plassat, PDG de Carrefour, au Salon Viva Technology. « Nous évoluons vers une manière plus prédictive de servir le consommateur mais honnêtement si nos clients ont besoin, dans le futur, d'un indicateur sur leur réfrigérateur indiquant qu'ils ont besoin de lait, il faut que l'on s'inquiète. »

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Les directeurs marketing doivent s'investir dans l'Analytics

Les directeurs marketing doivent s'investir dans l'Analytics | Web Analytics - Web analyse | Scoop.it

Pourquoi les directeurs marketing devraient sérieusement s’investir dans le digital analytics ? 

Les responsables marketing et leurs équipes ont accès à une quantité de données immense et en constante croissance. Les études marketing, les enquêtes de satisfaction, les données clients, les données des plateformes de réseaux sociaux fournissent chacun leurs lots de données. Les outils de digital analytics produisent, eux-aussi, une quantité importante de données. Pour quelles raisons les directeurs marketing devraient-ils examiner ces données ? Y a-t-il réellement des enseignements profitables pour les marketeurs ? La collecte de données online a-t-elle un intérêt ? La réponse est oui, deux fois oui ! Nous verrons d’ailleurs au cours de ce billet, de quelle manière les données issues des outils de mesure d’audience répondent en fait aux deux plus grandes préoccupations des marketeurs !


Qui sont mes clients potentiels ?

Le marketeur digital a un besoin essentiel, une condition fondamentale dans la réussite de ces actions marketing : une plus large compréhension de ses clients potentiels.

L’une des missions des équipes marketing est de trouver le message déclencheur d’un comportement : inscription, prise de contact, mise en panier d’un produit. Pour trouver le message efficace, il est indispensable de connaître les attentes de l’internaute, son état esprit, être ainsi capable de se mettre à sa place.

Pour cela, le marketeur a besoin d’accéder à des enseignements précieux sur ses habitudes, ses motivations, ses craintes. Certes, chaque internaute est différent, mais certains invariants caractérisent les visiteurs d’un site. Cette connaissance permet de communiquer de manière efficace auprès de ces personnes et d’obtenir une réelle amélioration des résultats.

Les données quantitatives fournies par les outils de digital analytics sont d’une aide précieuse. Les analyses digitales fournissent des enseignements avantageux sur votre audience, sur ses centres d’intérêts, ses modes de navigation, ses points de blocages, ses préférences, etc. Voici quelques exemples de digital analytics incontournables :

Les expressions-clés saisies dans le moteur interne au site internet révèlent les préoccupations et les problèmes que souhaitent résoudre vos prospects.


La comparaison des indicateurs de performance d’annonces publicitaires ou de landing pages indique ce par quoi votre cible est attirée, quels sont les messages les plus porteurs : ceux qui portent sur les prix, sur la facilité d’utilisation, sur le service client ou bien sur la sécurité de la transaction ?


La comparaison du trafic recueilli par chaque rubrique ou rayons dévoilent les préférences de votre audience.


La lecture de billets de votre blog et le trafic généré par ces mêmes billets sur les pages de présentation de vos produits signalent à quel stade sont vos prospects dans leur cycle d’achat, au tout début en mode découverte ou plutôt vers la fin en mode sélection de l’entreprise.


La consultation de la page des conditions générales de paiement ou de la politique de retour des produits informe sur l’aversion au risque de votre clientèle.

La collecte de l’ensemble de ces données quantitatives permet ainsi la construction de persona. Les actions et les comportements des internautes fournissent une matière précieuse à la détermination de profils de clients potentiels. Reste à créer le message et les expériences personnalisées qui persuadent chaque profil.


Quelles améliorations puis-je apporter à mes actions marketing ?

Les marketeurs se font leur propre idée de la performance de leurs actions. Cette évaluation se base sur leur intuition et leur expérience et aboutit à la conclusion que le maximum a été fait et qu’il n’est pas possible de faire mieux. Pourtant, les concurrents prennent des parts de marché, les clients existants ne rachètent pas, les coûts des publicités augmentent considérablement et les budgets sont bloqués.

La bonne nouvelle est qu’il y a toujours possibilité d’améliorer la performance des pages de votre site, de vos campagnes ou de vos actions sur les réseaux sociaux. Les données issues du digital analytics sont là pour vous aider. Elles révèlent les contre-performances et l’emplacement précis du point de blocage.

Prenons l’exemple d’une campagne emailing. Les résultats de cette campagne engendrent des résultats trop faibles par rapport à ce qui était attendu.

Les données vous permettent de répondre aux questions suivantes:

- L’emailing a-t-il été ouvert ?
- L’emailing a-t-il été cliqué ?
- La page de destination de la campagne a-t-elle été cliquée ?
- Les visites issues de cette campagne ont-elles abouties à une conversion ?
- A quel moment et sur quelle page les destinataires de l’emailing ont-ils arrêté leurs consultations du site ?

Les analyses favorisent une plus grande compréhension des causes de la contre-performance de l’emailing. Vous savez ainsi si cela vient du sujet de l’emailing, de son contenu, du contenu de la landing page, de la fiche produit ou d’un problème d’inadéquation entre la promesse faite sur l’emailing et l’offre proposée sur le site.

Les données permettent d’affiner les campagnes dans leur contenu, leur emplacement et leur fréquence. Elles fournissent les évaluations nécessaires au pilotage des actions suivantes :

- Campagnes de publicité, d’emailing et de liens sponsorisés,
- Actions de référencement et de positionnement sur les moteurs,
- Actions sur les réseaux sociaux,
- Productions de contenus sur le site comme les blogs, livres blancs, vidéos,…
- Campagnes d’auto-promotion, mises en avant de produits à l’intérieur du site,
- Actions de merchandising, mises en avant sur le moteur interne,
- Actions de fidélisation.

L’analyse des données peut également conduire à la conclusion qu’une action marketing doit être arrêtée si elle n’apporte pas les résultats escomptés malgré les différents réglages réalisés.

Un second exemple avec une campagne sur Adsense, le réseau de sites de contenu de Google. Malgré l’ajustement de la diffusion des annonces sur un nombre restreint et ciblé de sites de contenus, le trafic généré reste de très faible qualité. L’action à mener est de suspendre ce type de publicité. Le budget dédié à ce type d’annonces peut alors être redistribué vers d’autres campagnes comme les campagnes d’annonces Adwords où le trafic généré est de qualité supérieure et la concurrence élevée.

Ainsi, même si vous avez l’impression que vos sites Internet, votre contenu, vos campagnes, vos landing pages sont conformes à ce qui est attendu par les internautes, et que vous respectez les bonnes pratiques partagées dans la communauté marketing, il y a toujours une marge de progrès pour favoriser la conversation que souhaitent engager les internautes avec vous.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Data visualisation, l'art de montrer la data - Data driven marketing

Data visualisation, l'art de montrer la data - Data driven marketing | Web Analytics - Web analyse | Scoop.it
Malgré la démocratisation des technologies de traitement du big data, sa représentation reste une problématique majeure. Infographie statique compréhensible du plus grand nombre ou smart app interactive nécessitant un background technologique ? Regards croisés sur la data visualisation.
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Google Analytics : 6 fonctionnalités utiles à connaître - Blog freelance

Google Analytics : 6 fonctionnalités utiles à connaître - Blog freelance | Web Analytics - Web analyse | Scoop.it

Très puissant, Google Analytics regorge de fonctionnalités performantes pour gérer au mieux votre activité. Ce tableau de bord présente des informations essentielles concernant le trafic de votre site internet, les performances de vos canaux de communication, les conversions, etc. Cependant, savez-vous utiliser pleinement toutes ses fonctions ?


Codeur.com vous propose d’étudier 6 outils bien utiles.


1 - La création d’alertes

Pour maîtriser parfaitement les performances de votre site internet et prendre les mesures nécessaires en cas d’erreur ou de souci stratégique, Google Analytics vous permet de créer des alertes.

Par exemple, vous pouvez paramétrer une alerte dès qu’un visiteur tombe sur une page 404. Vous pourrez immédiatement remédier à ce lien cassé. Vous avez aussi la possibilité de déterminer des seuils (de visites, de conversion, de page vue, du taux de rebond, etc).

Ainsi, dès qu’un de ces chiffres atteint votre objectif ou, au contraire, est plus bas que la moyenne, vous pouvez réagir. Pour trouver cette fonction, rendez-vous sur Administration, puis dans la colonne « Vue », cliquez sur « Alertes personnalisées ».


2 - Les tableaux de bord personnalisés

Chaque entreprise définit ses propres indicateurs de performance. Les mesures à effectuer pour un e-commerce diffèrent de celle d’une PME, d’un freelance ou d’un commerce de proximité. Or, peu importe votre activité, le tableau de bord affiché par défaut sur Google Analytics est identique.

Pour visualiser directement les KPI pertinents pour votre entreprise, vous pouvez cliquer sur « Tableau de Bord », dans la colonne de gauche, et choisir « Nouveau tableau de bord ». Il vous suffit de choisir les données que vous souhaitez voir apparaître lorsque vous ouvrez Google Analytics. Vous pouvez également télécharger des modèles avec des KPIs configurés.


3 - Les segments

Vous souhaitez veiller sur une cible bien précise de votre trafic ? Alors, utilisez les segments. Cette fonction permet de créer un groupe de données, qui répond à des critères précis, pour ensuite l’analyser de manière détaillée.

Par exemple, si vous souhaitez accroître les visites sur mobile, vous pouvez créer un segment qui analyse le comportement des mobinautes. Plus précis encore, Google Analytics vous offre la possibilité de définir un segment de visiteurs mobiles qui viennent depuis les réseaux sociaux (ou un réseau social en particulier), pour visualiser leur parcours. Pour configurer cette fonction, rendez-vous dans votre Administration, colonne « Vue », rubrique « Segments ».


4 - Le tracking des recherches internes du site

Pour optimiser l’expérience utilisateur, analysez les recherches effectuées directement dans le moteur de recherche interne de votre site internet. Cela vous permet de récolter des données sur les besoins et les problématiques de vos visiteurs. Vous pouvez aussi connaître les pages à mettre en avant dès l’accueil ou dans la sidebar.

Afin de connaître les requêtes internes à votre site, rendez-vous dans la section « Comportement » de Google Analytics, puis dans la rubrique « Recherche sur site ». Et voilà, vous verrez ce que vos visiteurs recherchent et s’ils trouvent la page correspondant à leur demande.


5 - Le tracking des interactions sociales

Quels sont les articles plus lus, commentés ou partagés sur vos réseaux sociaux ? Google Analytics peut connaître la réponse, à condition de le configurer correctement. Cette fonctionnalité demande une implémentation par réseau social. Vous pouvez le faire manuellement en utilisant ce guide ou bien passer par le Google Tag Manager.

Le temps passé sur la configuration vaut le coup. Vous aurez ensuite suffisamment de données pour parfaitement analyser les retombées de votre stratégie social media.


6 - La création de raccourcis

Si vous décidez de créer un tableau de bord spécifique, un segment ou toute autre application personnalisée sur Google Analytics, vous pouvez générer un raccourci. Cela vous aide à retrouver rapidement cette donnée, en cliquant sur un bouton en page d’accueil. Gain de temps assuré.

Pour créer un raccourci, il vous suffit simplement de cliquer sur le mot « Raccourci » qui s’affiche en dessous de chaque page Google Analytics. Vous retrouverez ensuite ce lien dans la rubrique « Raccourci » de la colonne de gauche.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Intelligence artificielle : quelles opportunités pour les marques ? - Retail

Intelligence artificielle : quelles opportunités pour les marques ? - Retail | Web Analytics - Web analyse | Scoop.it

Quelles nouvelles perspectives et opportunités l'intelligence artificielle ouvre-t-elle pour le marketing et la relation client? Décryptage avec Catherine Michaud, CEO d'Integer et administrateur à l'AACC.

L'intelligence artificielle (IA) semble bien incarner le fantasme ultime du marketing: parvenir à la connaissance améliorée voire absolue des consommateurs. Qu'en pensez vous ?

Catherine Michaud : L'intelligence artificielle offre une capacité de connaissance qui devient infinie. Non seulement c'est de la connaissance en temps réel mais elle apporte en prime une information précise et puissante dans la relation client. Elle inaugure aussi une nouvelle ère dans la relation client car elle est adaptative. Elle permet en amont du parcours d'achat d'aller chercher et interpréter des données dans le monde ouvert.

Pendant l'achat, des robots assistants peuvent guider on line et off line le client en comprenant et interprétant ses besoins et en enrichissant l'expérience client.

Ce qui différencie l'intelligence artificielle de ces nombreux programmes que nous connaissons aujourd'hui est donc bien cette adaptation perpétuelle à un environnement. Là où une IA est capable d'apprendre de son milieu, et de s'en nourrir, les programmes actuels ne fournissent des solutions que dans le circuit fermé de leur programmation.

Quels en sont les risques ?

Les risques sont psychologiques. La sollicitation d'une marque serait tellement pertinente et tellement juste que vous allez avoir l'impression d'une intrusion dans votre intimité. Un sentiment qui peut devenir très rapidement anxyogène. De plus, si la marque n'a pas mis en place des règles très précises, de protection des données personnelles, elles se retrouvera dans une zone de risque financière et réglementaire.

Comment les marques et les métiers du marketing peuvent-ils s'adapter au machine learning et deep learning ?

En réalité, l'IA est double : une IA faible, de?ja` utilise?e dans les syste`mes experts ou le programmatique. Et une IA forte, plus puissante, capable de reproduire le fonctionnement du cerveau humain. En matie`re de facultés d'apprentissage de ces programmes, le machine learning peut être supervise? (on donne un cadre pre?cis et des instructions au programme) ou non supervise?. Il permet de de?livrer des segmentations et des scores plus fins. Le deep learning, lui, imite les re?seaux neuronaux du cerveau, qui sont organise?s en couches. Or, jusqu'a` re?cemment, les programmes rencontraient des difficulte?s a` faire apprendre les couches profondes.

Est- ce que l'IA va engendrer de nouveaux métiers du marketing ?

Oui absolument. On va pouvoir séparer les genres. Dans la relation client, on recherche plutôt des personnes expertes en analytique et capable d'avoir de l'empathie envers le client. Il s'agit de deux qualités antinomiques. L'IA va permettre de changer la nature de nos métiers en créant par exemple un assistant virtuel capable d'analyser les données et conserver les agents dans les centres de contacts pour la relation directe avec les clients. Mais ni l'intelligence artificielle, ni les robots n'ont encore envahi la société, pas plus qu'ils en remplaceront les humains.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

DMP : outil indispensable ou... décevant ? - Data driven marketing

DMP : outil indispensable ou... décevant ? - Data driven marketing | Web Analytics - Web analyse | Scoop.it

Les Data Management Platforms ont été au coeur des discussions de la troisième édition du Data Performance Summit 2016, le 28 septembre. Si l'outil suscite les passions, son utilité fait débat parmi les acteurs.

La Data Management Platform (DMP) n'en finit pas de susciter les passions. La thématique s'est invitée à la troisième édition du Data Performance Summit Paris 2016, le 28 septembre. Concept à la mode, outil limité ou, à l'inverse, brique incontournable pour améliorer la performance de la marque ? Les professionnels du marketing ont tous un avis sur la question.


La DMP pour tous ?

Une chose est sûre : la DMP fait le "buzz", au point que (tous) les annonceurs se penchent sur la question. Mais, mettre en oeuvre une Data Management Platform s'avère-t-il indispensable ? La DMP n'est pas faite pour tout le monde, rappelle ainsi Karine Lucas, Head of Data Intelligence au sein de l'agence digitale iprospect : "Une DMP ne sera, par exemple, pas utile à une marque ne recevant pas beaucoup de visites sur son site, explique-t-elle. Celle-ci ne doit pas être considérée comme un outil magique, mais comme une brique au sein d'un écosystème."

Arthur Millet, Managing director de La Place Média, place de marché RTB 100 % média, regroupant 40 groupes médias et quelque 300 sites Web, a vécu l'amère expérience de la DMP. Ainsi, l'activité régie de La Place Média - qui commercialise aux enchères et en temps réel l'audience digitale qualifiée des éditeurs médias partenaires - a souhaité passer de l'analytics à la vente de segments. "Nous nous sommes équipés de la DMP de Krux, un très bel outil... mais, vendu sans le manuel, regrette Arthur Millet. Résultat : nous n'avons pas vendu un seul segment". Pourquoi ? Dans le marché du RTB, "ceux qui possèdent l'intelligence sont les acheteurs, les DSP, explique-t-il. Nous avons connaissance des données de navigation, mais il nous manque le contexte."

La Place Média a, depuis, coupé court à l'expérience DMP, sans pour autant renier l'outil : "Mes éditeurs vont continuer à s'équiper de DMP pour connaître leur audience et pour pouvoir adresser un contenu spécifique à un individu déterminé, à un moment donné", poursuit le Managing director.


La DMP, déjà dépassée ?

Pour les éditeurs de technologie de CRM onboarding, consistant en la réconciliation instantanée des identités offline et online d'un consommateur pour les connecter en temps réel aux plateformes de marketing digital - à l'instar des trading desks, des DSP et autres DMP -, la Data Management Platform atteint ses limites. "Les marques qui se sont équipées de DMP il y a deux ans sont nos plus grands clients aujourd'hui", remarque Nicolas Blandel, CEO de Temelio. Jimi Fontaine, CEO et cofondateur de Graphinium, enfonce le clou : "Avec l'onboarding, il est possible d'activer facilement des données first party... sans besoin d'une DMP."


La DMP, incontournable ?

La DMP jouit d'un a priori positif de la part des marques. Si Volkswagen débute son projet de déploiement de DMP, en quête de nouveaux leviers pour trouver des leads de qualité, Engie a sauté le pas de l'outil, il y a plus de 2 ans. L'objectif : améliorer la performance des process de fidélisation client. Après un déploiement en quatre mois, "la DMP prend place dans un dispositif global, témoigne Patrice Noirot-Nerin, directeur marketing et digital d'Engie. C'est un outil qui pilote d'autres outils, de personnalisation des sites, par exemple."

"Toutes les grandes sociétés sont éligibles à la DMP, prône Didier Richaudeau, directeur associé du cabinet de conseil Equancy, que ce soit pour améliorer la performance de l'achat média, pour augmenter la valeur du client cross-canal ou pour fidéliser l'audience via la personnalisation." Equancy note ainsi, chez certains de ses clients, un taux de conversion en hausse de 25 % et une multiplication par 1,6 du taux d'acquisition de nouveaux clients. Des performances à faire pâlir d'envie les non-détenteurs de DMP ?

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Comment l’intelligence artificielle va redéfinir l’emploi - Business Analytics Info

Comment l’intelligence artificielle va redéfinir l’emploi - Business Analytics Info | Web Analytics - Web analyse | Scoop.it

La démocratisation de l’intelligence artificielle est sur le point de bouleverser le marché du travail et la façon dont nous travaillons. Pour les entreprises, l’intégration réussie de cette technologie nécessitera d’investir dans la gestion des talents, car l’homme restera un maillon essentiel de la chaîne de valeur.

Lassé de perdre une heure par jour à fixer des rendez-vous, Dennis Mortensen, patron de la société d’intelligence artificielle x.ai, a confié la gestion d’une partie de son agenda à Amy Ingram, son assistante virtuelle. Dans le sillage de Siri d’Apple ou de Cortana de Microsoft, les agents numériques se diffusent rapidement dans l’entreprise, suscitant autant l’enthousiasme que l’inquiétude de voir les emplois disparaître, comme dans l’industrie où l’automatisation a pris le pas sur une partie de la main d’œuvre.

L’innovation technologique bouleverse le marché du travail

Les experts prédisent en effet que la technologie prendra en charge les tâches répétitives dans un futur proche. Moshe Vardi, professeur de science informatique à la Rice University de Houston, a estimé, à l’assemblée générale de l’Association américaine pour le progrès de la science, que l’intelligence artificielle pourrait pousser près de la moitié de la population mondiale à changer d’emploi dans les 30 prochaines années. Le fondateur de Tesla et SpaceX Elon Musk et le physicien Stephen Hawking craignent même que les robots remplacent un jour l’humanité toute entière ! Pour d’autres, comme Dermot O’Brien, le responsable RH du spécialiste des technologies RH ADP, l’innovation technologique va avant tout aider les individus à être plus performants et à se concentrer sur les aspects les plus intéressants de leur travail.

Dans son ouvrage de 1942 « Capitalisme, Socialisme et Démocratie », Joseph Schumpeter a théorisé la manière dont la technologie allait bouleverser la créativité par grandes « vagues » de progrès. La première a eu lieu en 1785 avec l’énergie hydraulique, la seconde, en 1845 avec la vapeur ; la troisième, en 1900, avec l’électricité et la chimie. Viennent ensuite, comme le décrit le futuriste Rick Von Feldt, la quatrième en 1950, avec l’électronique et l’aviation, puis la cinquième en 1990 avec les logiciels et les produits numériques. La sixième, celle des nanotechnologies, des énergies renouvelables, de la robotique et de l’intelligence artificielle, aura lieu vers 2020. Quelles en seront les conséquences ? Selon le cabinet Gartner, en 2030 les machines intelligentes pourraient remplacer 90 % des emplois actuels.

Le rôle décisif du gestionnaire des talents

De nombreux spécialistes défendent une ligne optimiste. Pour AJ Jaghori, de YoloData, les emplois impliquant des relations humaines fortes ne seront pas remplacés par les machines ! Et même s’il a recours à un assistant virtuel, Dennis Mortensen avoue ne pas tout lui confier. « Avec toute automatisation, un ensemble de nouveaux postes se crée » note-t-il. En revanche, l’intelligence artificielle va entraîner de profonds changements dans la manière de diriger et d’évaluer les salariés. D’abord, les entreprises devront recruter des candidats capables d’apprendre rapidement. Dans une enquête Accenture de 2016, les dirigeants ont confié privilégier les profils de candidats multitâches et flexibles, avant la possession d’une « expertise pointue sur la tâche confiée ». Les sociétés devront aussi recruter les candidats ayant les compétences pour utiliser les nouvelles technologies.

Elles devront surtout investir dans la formation et dans la redéfinition des rôles – ou « gestion des talents » – en fonction des nouvelles technologies adoptées. Dans le cas d’une réduction des effectifs humains, le gestionnaire des talents devra estimer si la culture d’entreprise le permet, car dans certaines sociétés, l’intégration de l’intelligence artificielle pourrait amoindrir la motivation et la productivité. Ce sera au gestionnaire des talents de montrer les avantages et les limites des nouvelles technologies, parfois perçues comme une menace. L’éducation des salariés aura ainsi un rôle crucial pour une intégration technologique réussie sur le lieu de travail. La formation entre pairs, couramment pratiquée par les start-up, pourra être encouragée, tout comme l’autoformation : de plus en plus, il va être de la responsabilité de chacun de s’informer et de se mettre régulièrement à niveau en matière de technologie ! Karie Willyerd, dans un ouvrage sur le sujet, souligne l’importance du développement professionnel pour rester à la page. Pour elle, les collaborateurs doivent en apprendre un peu chaque jour, à l’instar des robots, et rester ouverts au changement ; car il y a fort à parier que la technologie et les hommes se complèteront dans l’avenir.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Google Analytics Insights : un sacré coup de pouce pour votre business !

Google Analytics Insights : un sacré coup de pouce pour votre business ! | Web Analytics - Web analyse | Scoop.it
Google vient d’annoncer sur son blog une nouvelle fonctionnalité dans votre outil Analytics : baptisée “Insights”, elle vous propose une analyse intelligente de vos données et des recommandations à mettre en oeuvre pour booster votre trafic. Pas encore impressionnés ? Alors précisons que ces “insights” sont découverts et générés automatiquement ! La firme a mis ses experts en “machine learning” sur le coup et le résultat promet d’être intéressant… et surtout très utile ! Toutefois, il faudra un peu de patience car les Insights ne sont pour le moment déployés que pour les utilisateurs anglophones et en version mobile uniquement.

Pour rappel, Google Analytics (GA) est un outil d’analyse d’audience, bien connu des experts du Search marketing car utilisé par plus de 10 millions de sites Web, soit plus de 80% du marché mondial ! Le panel de fonctionnalités proposées y est large : analyse de contenu, analyse du trafic et de ses sources, des conversions, de la publicité, de l’activité mobile, etc. Les search marketers analysent les rapports Analytics quotidiennement afin d’améliorer le trafic, les conversions, l’expérience mobile et bien d’autres aspects de leur site Web. Toutefois, il s’avère généralement difficile et fastidieux de fouiller la grande quantité de rapports générés afin d’en tirer des conclusions et des actions à entreprendre.

Les “Insights” sont justement là pour vous guider et sont accessibles via le menu “Assistant” de votre compte GA. A première vue, chaque Insight se présente sous la forme d’une fiche-conseil contenant plusieurs informations :

une observation ou une statistique issue de l’analyse des données,
la période de temps concernée,
un graphique ou un tableau de données illustratif de l’observation,
une recommandation,
un lien redirigeant vers un rapport ou un ensemble de données,
etc.


































Ces Insights devraient reporter, d’une part, des anomalies détectées grâce à vos données (des problèmes de temps de chargement, par exemple) et, d’autre part, des observations statistiques liées à votre business (des augmentations de vente sur certains articles, par exemple).

La firme a également mis en place autour des Insights des fonctionnalités “sociales” : un bouton-pouce vous permettra de dire si un Insight vous a été utile ou non et tous les Insights pourront être facilement partagés (par email, Slack ou sur les réseaux sociaux) et sauvegardés comme favoris. Cerise sur le gâteau, ces retours et partages seront exploités par la firme, toujours par des techniques d’apprentissage statistique, afin d’adapter ses futures recommandations à votre profil d’utilisation !

Pour finir, les GA Insights constituent un grand pas de Google en direction de la “business intelligence”, ces systèmes de recommandation qui tentent de prédire les tendances du marché pour garder un temps d’avance sur la concurrence. Et, étant donné l’expertise grandissante de Google en Intelligence Artificielle et la quantité de données à sa disposition, les performances des outils Google pourrait bien surpasser rapidement celles des systèmes existants…
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

A quoi sert une DMP ?

A quoi sert une DMP ? | Web Analytics - Web analyse | Scoop.it

Lors de la 2ème édition sur la Data Management Platform organisée par le CCM Benchmark Institut en partenariat avec le Journal du Net, la définition de ce qu’est une DMP auprès des professionnels présents semblait encore floue. Et pour cause, comme le précise Mick Levy, directeur de l’innovation business chez Business & Decision, « l’acronyme DMP est un fourre-tout qui demande à être renommé pour une meilleure compréhension par les professionnels du marketing ». En effet, alors que la DMP est issue du monde des médias, son acronyme ne fait aucunement référence au média ou au marketing…

1 – À quoi sert une DMP ?

À l’origine, les premières DMP étaient centrées sur les données de navigation Internet, elle était donc essentiellement utilisée par les agences et les régies publicitaires afin de valoriser l’audience et monétiser l’achat médias. Aujourd’hui, les DMP les plus évoluées intègrent les différents points de contact pour la collecte de données et le ciblage marketing. L’activation des données issues d’une DMP permet alors de personnaliser l’expérience sur l’écosystème digital (site, mobile, email), mais aussi sur d’autres canaux (call center, magasin).

Par ailleurs, l’agrégation des données propriétaires et tierces dans la DMP enrichit les profils des prospects et clients. On a alors 3 types de données :

- Data 1st party : elle concerne les données dont l’annonceur est propriétaire ;
- Data 2nd party : il s’agit des données issues des campagnes marketing de l’annonceur ;
- Data 3rd party : ce sont des données externes collectées par des tiers spécialisés qui peuvent être achetées par les annonceurs.

Pendant la matinée, les intervenants ont également débattu sur les critères à prendre en compte dans le choix d’un outil DMP. En effet, avoir une vision claire à long terme de l’objectif que l’ont veut atteindre avec une DMP est essentiel. Par exemple, est-ce que l’objectif est de réduire les coûts d’acquisition ? Augmenter sa connaissance client ? Personnaliser l’expérience client ? Pour Thierry Vallaud, directeur chez BVA Data Sciences, « il faut avant tout définir les indicateurs clés, en mesurer la performance et déterminer les résultats qu’on attend quant à l’usage de la DMP ».

Attention, les résultats obtenus dépendent grandement de la qualité de la data. Aussi, est-il primordial que la data soit nettoyée afin d’atteindre des analyses prédictives performantes. Il faut donc prendre le temps de nettoyer la data pour un flux d’entrée pertinent.


2 – Retour d’expérience

Pour illustrer l’usage des DMP, 3 annonceurs étaient présents : Voyages-sncf.com, La Dépêche du Midi et Altarea Cogedim. Chacun a apporté son point de vue et témoigné sur son retour d’expérience.

Pour ces 3 acteurs de secteurs d’activité très variés, les objectifs souhaités sont bien évidemment différents. Par exemple, pour La Dépêche du Midi, il s’agit de valoriser l’audience pour une meilleure monétisation de ses espaces publicitaires. Pour Altarea Cogedim, créateur et gestionnaire de centres commerciaux, la DMP doit permettre d’augmenter la connaissance client et créer de la préférence de marque. En revanche, pour Voyages-sncf.com, il s’agit avant tout d’obtenir une personnalisation de l’expérience client et une meilleure maîtrise de son audience.

Grâce à la DMP, l’exploitation des données (digitales et physiques) va offrir à l’entreprise l’occasion de personnaliser ses actions marketing et de centraliser leur suivi.

Actuellement, le marché de la DMP compte de nombreux acteurs, mais tous n’ont pas le même positionnement. Dans son livre blanc « Comprendre les Data Management Platforms » dont je recommande vivement la lecture, Converteo classe la DMP dans 3 catégories :

Les connecteurs : les éditeurs de logiciels de DMP comme Adobe, Oracle, Teradata ;
Les médias buyers : acteurs d’achat médias comme 1000 mercis ou Weborama ;
Les qualificateurs d’audience et « Data Exchange » : ils s’adressent directement aux éditeurs et jouent un rôle intermédiaire entre éditeurs et annonceurs comme Sociomantic, RadiumOne, Weborama.

Conclusion

Un projet DMP ne se décide pas à la légère. En effet, il est important de procéder par étape : étudier d’abord les opportunités et en définir les besoins, puis sélectionner les partenaires technologiques en fonction des objectifs pré-établis, et enfin procéder à sa mise en place. En outre, le service marketing et le service informatique doivent travailler en parfaite collaboration et donc avoir les mêmes objectifs. Enfin, il est important de former ses équipes en interne et si possible travailler en mode agile afin d’être efficace. La DMP offre de nombreuses possibilités marketing, chaque point de contact avec la marque devient une opportunité de collecter et d’actionner la donnée client pour des campagnes et des parcours personnalisés encore plus efficaces. Aussi, avoir un projet DMP est extrêmement intéressant à condition que la coordination et la collaboration entre les différents services sélectionnés soient bien préparées.

more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Big Data : vers une logique Data Centric

Big Data : vers une logique Data Centric | Web Analytics - Web analyse | Scoop.it
S’il est acquis que la création de valeur passe par l’exploitation de la « Data », il est important pour l’entreprise, à l’ère du Big Data, de se poser les bonnes questions quant à sa capacité à identifier, capter, analyser la donnée, mais surtout quant à sa capacité à en percevoir sa valeur pour elle-même, ses clients, ses fournisseurs ou ses partenaires.
En adoptant une vision Data Centric, l’entreprise se met en capacité de tirer de la valeur de toutes les données, qu’elles soient blanches (internes), grises (externes) ou noires (Dark Data : données présentes en masse au sein des entreprises mais non exploitées). Or, pour y arriver, l’entreprise doit modifier son approche actuelle de la donnée, héritée de 20 ans de culture de la Business Intelligence.
more...
No comment yet.
Scooped by Aleksandra Noir'ô
Scoop.it!

Marketing : on a des données, mais pas toujours les bons outils pour les analyser

Marketing : on a des données, mais pas toujours les bons outils pour les analyser | Web Analytics - Web analyse | Scoop.it
Qlik et EBG ont réalisé un baromètre mesurant l'impact du numérique sur les résultats des actions marketing et commerciales. Si le numérique est devenu est une obsession des dirigeants, ces derniers restent dans le flou quand il s'agit d'en estimer l'impact précis. La faute à des organisations en silos qui résistent et à des systèmes d'informations pas toujours adaptés aux enjeux de 2015.
more...
No comment yet.