Janv.
07

Définition et histoire du digital analytics

Article lu 16449 fois dans la/les catégories Digital Analytics

L’objectif de cet article est de faire un retour historique sur la discipline, les principaux évènements qui ont marqué son évolution et de tenter de prédire les prochaines tendances.

Il s’adresse à la fois aux débutants et aux confirmés ayant des connaissances techniques ou non qui souhaitent améliorer leur culture digital analytics en (re)découvrant son histoire.

Il est composé de 16 parties auxquelles vous pouvez accéder directement grâce aux liens suivant…

- Le digital analytics, une activité cruciale pour les annonceurs

- Définition du digital analytics

- Présentation du marché du digital analytics

- Evolution du digital analytics de 1993 à aujourd’hui

- 1993 : début de l’analyse Web grâce à l’analyse des logs

- Schéma simplifié du fonctionnement de la récolte des données via les logs

- 1997 : première utilisation de la méthode de récolte des données par tag JavaScript

- Introduction

- Définition et fonctionnement des tags JavaScript

- Schéma simplifié du fonctionnement de la récolte des données via les tags

- Le futur : le server-side

- Les solutions majeures de digital analytics

- Réussir en digital analytics, une question de solution ?

- Les valeurs ajoutées des solutions payantes

- Le coût des solutions payantes

- Astuce pour calculer le coût de sa licence

- Exemples de rapport

- Évolution des solutions majeures de digital analytics de 1993 à nos jours

- Positionnement des solutions majeures de digital analytics

- Les communautés qui gravitent autour du digital analytics

- 2010 : Lancement des Tag Management System (TMS)

- Définition et fonctionnement d’un TMS

- Avant et après l’arrivée des TMS

- Fonctionnalités avancées des TMS

- Les solutions majeures de TMS

- Evolution des principales solutions de TMS de 2007 à aujourd’hui

- Comment choisir sa solution de TMS ?

- 2012 : Création de la directive européenne sur les cookies

- Introduction

- Que dit la loi exactement ?

- Subtilités à connaitre

- Comment se mettre en conformité avec la loi ?

- Les solutions pour se mettre en conformité avec la loi

- Vous hésitez encore à vous mettre en conformité avec la loi ?

- La révolution technologique à lancer

- Introduction

- L’évolution des technologies de stockage de données

- Les prochaines grandes tendances

Le digital analytics, une activité cruciale pour les annonceurs

Les annonceurs ont compris que leur présence digitale était devenue indispensable dans le marketing et la commercialisation de leurs produits / services et qu’elle ne « cannibalisait » pas leur présence traditionnelle.

Ils ont aussi compris que leur présence digitale n’existait pas que grâce à l’acquisition de trafic mais essentiellement grâce à sa monétisation et donc aux visiteurs que les annonceurs réussissent à convertir en client, en inscrit, ou encore en internaute engagé.

Cependant, aujourd’hui, les prospects / clients utilisent une multitude d’appareils (PC, téléphones, tablettes, TV etc.) pour se connecter à de nombreux supports (sites Web, sites mobiles, applications etc.) via un nombre croissant de canaux de communication online (liens sponsorisés, emailing etc.). A cela s’ajoute les supports offlines (presse écrite, TV, radio etc.) avec lesquels les annonceurs doivent jongler en harmonie.

L’ensemble forme un écosystème complexe qui rend difficile le marketing et la commercialisation des produits / services des annonceurs :

Le digital, un écosysteme complexe

Heureusement, une des spécificités des supports et canaux de communication online (par rapport aux supports et canaux de communication offline) est qu’ils sont entièrement mesurables et donc pilotables à la performance.

L’objectif majeur de tous les annonceurs aujourd’hui est de comprendre leur écosystème pour savoir le piloter, l’optimiser de manière semi-automatisée et fournir à leur prospect / client l’expérience la plus personnalisée possible.

Le digital analytics est une des composantes permettant d’atteindre cet objectif.

Définition du digital analytics

Le digital analytics c’est la mesure, le suivi et l’analyse du comportement des visiteurs dans le but d’augmenter les performances des annonceurs.

C’est une discipline transversale à ces trois domaines du digital marketing :

Le digital analytics, une discipline transversale

La discipline est basée sur l’utilisation d’une ou plusieurs solution(s) de mesure d’audience qui récolte des données sur les visiteurs et génère des rapports à analyser.

Présentation du marché du digital analytics

Le marché du digital analytics est mature. Il existe depuis environ 20 ans en Europe et en Amérique du nord.

On y distingue principalement 3 types d’acteur :

Relation annonceur, agence(s) et éditeur(s)

Les annonceurs sont conscients de la valeur ajoutée que leur apporte le digital analytics et cela quel que soit leur(s) modèle(s) économique(s). Ils sont maintenant quasiment tous équipés d’une ou plusieurs solutions (en France par exemple, au second semestre 2015, selon le cabinet de conseil Converteo, 90% des 200 premiers sites Français en termes de trafic sont équipés d’une solution de digital analytics).

De nombreuses agences généralistes ou spécialisées se sont lancées dans le domaine du conseil en digital analytics et accompagnent de plus en plus d’annonceurs. L’accompagnement va généralement de l’aide au choix de la solution jusqu’à l’analyse des données et la rédaction de recommandations d’optimisation. Certaines agences font également de l’achat média, c’est-à-dire qu’il achète pour leur client annonceur des espaces pour diffuser leur publicité, des liens sponsorisés etc. Le but est de faire venir des visiteurs qualifiés sur le site Web de l’annonceur. Ils sont alors généralement rémunérés en prélevant un pourcentage du budget média investi. Dans la plupart des cas, pour être neutre et tiers de confiance, les agences ne mêlent pas activité de conseil en digital analytics et achat média.

Les agences ont fortement contribué à l’évolution rapide de la maturité du marché grâce à leur compétence et à l’expérience acquise par l’accompagnement de l’ensemble de leur client.

En parallèle, les éditeurs de solution jouent aussi un rôle important dans l’évolution de la maturité du marché. Ils sont en effet chargés de répondre et d’anticiper les besoins des annonceurs via la mise à disposition de fonctionnalité adaptée et facile à prendre en main.

Généralement, un annonceur travaille avec une ou plusieurs agence(s) qui l’accompagne dans la mise en œuvre de sa stratégie et qui se charge de gérer ses relations avec le ou les éditeurs (Criteo par exemple pour l’achat média, Adobe Analytics pour le digital analytics etc.).

Il existe différents types d’agence : les agences généralistes qui peuvent accompagner un annonceur à la fois sur son marketing offline et online, les agences spécialisées dans le marketing online par exemple voir dans un domaine précis du marketing online (digital analytics, achat média etc.). Les agences généralistes ont l’avantage d’avoir une couverture globale du besoin et les agences spécialisées sont plus pointues dans leur spécialisation. Il n’y a pas de meilleure agence mais une ou plusieurs agences plus adaptée qu’une autre pour répondre à un besoin donné. L’essentiel pour bien choisir est donc de connaitre et d’anticiper ses besoins. Il est important que l’annonceur ait des ressources compétentes en interne pour choisir, piloter et suivre son ou ses agences de façon à ce qu’elle réponde toujours à ses objectifs.

Evolution du digital analytics de 1993 à aujourd’hui

Les principales étapes de l'évolution du digital analytics

L’évolution du digital analytics est étroitement liée aux évolutions du Web.

Trois évolutions majeures du Web ont bouleversé le digital analytics : deux évolutions technologiques, l’arrivée du langage JavaScript et des nouvelles technologies de stockage et une évolution légale : la directive européenne sur les cookies.

L’arrivée du langage JavaScript a révolutionné la discipline en permettant de collecter de nouvelles données de façon plus précise (voir le chapitre « 1997 : première utilisation de la méthode de récolte des données par tag JavaScript »).

La démocratisation des nouvelles technologies de stockage a rendu possible de nouveaux usages comme l’accès et l’utilisation des données en temps réel à des fins d’optimisation des performances digitales tant au niveau de l’acquisition de trafic que de la personnalisation (voir le chapitre « La révolution technologique à lancer »).

L’application de la directive européenne sur les cookies dans les pays de l’union européenne a obligé les annonceurs à demander le consentement de leur visiteur avant l’utilisation de solution de suivi de leur comportement. Les annonceurs doivent maintenant trouver un juste milieu entre le fait d’être en accord la loi et le fait de toujours collecter plus de données (voir le chapitre « 2012 : création de la directive européenne sur les cookies »).

Dans le domaine du digital analytics, suite à la création du marché par la solution webtrends, deux évènements majeurs ont marqué l’évolution de la discipline : la sortie de la solution de mesure d’audience gratuite Google Analytics et la sortie des premiers Tag Management System (TMS). Ces deux évènements ont modifié le marché. La solution Google Analytics a largement contribué au développement de la discipline. Elle est connue de tous et rare sont les annonceurs à ne pas l’avoir déjà utilisée (en France par exemple, au second semestre 2015, selon le cabinet de conseil Converteo, 73% du top 200 des sites en terme de trafic sont équipés de la solution Google Analytics). Les solutions de TMS sont maintenant incontournables et facilitent tous les jours la vie des équipes marketing (voir les chapitres suivant sur « Les solutions majeures de digital analytics » et « 2010 : lancement des Tag Management System (TMS) »).

1993 : début de l’analyse Web grâce à l’analyse des logs

Le digital analytics est né grâce au protocole http qui a la particularité d’enregistrer chaque échange entre le visiteur et le site Web dans un fichier log. C’est grâce à ces données que l’analyse du comportement des visiteurs a pu débuter.

Un protocole est un ensemble de règles définies pour un type de communication. Si on veut trouver une analogie dans la vie courante, le protocole utilisé pour parler avec une autre personne pourrait être le langage. Il y aurait alors un protocole français, anglais ou encore français canadien. Le protocole http est le protocole que nous utilisons tous les jours pour afficher les pages Web des sites que nous visitons.

Nous l’utilisons inconsciemment en le renseignant dans la barre d’adresse de notre navigateur Web, lorsque nous souhaitons visiter un site :

Emplacement du protocole HTTP et du WWW dans une adresse Internet classique

Emplacement du protocole HTTP et du WWW dans une adresse Web classique

Vous connaissez surement d’autres protocoles comme le protocole https, qui est une version sécurisée du protocole http de plus en plus utilisée ou encore le protocole ftp par exemple.

Le protocole http a été inventé en 1990 par Tim Berners-Lee avec les url et le langage HTML pour créer le World Wide Web (qui est la signification de l’acronyme WWW visible dans la majorité des adresses web également).

Schéma simplifié du fonctionnement de la récolte des données via les logs

Fonctionnement de la collecte de données via l'analyse des logs

Voici un extrait de fichier log :

Extrait d'un fichier log

Extrait d'un fichier log

Le premier travail des solutions de mesure d’audience fonctionnant à partir de l’analyse des logs est d’attribuer chacune des demandes (chaque ligne du fichier log correspond à une demande, aussi appelée « hit », de la part du navigateur Web) au bon visiteur. Cela permet ensuite de reconstituer les visites de chacun d’eux sur la base de leur adresse IP.

Au début du Web (de 1990 à 1996), les pages étaient des pages statiques composées quasi-exclusivement de texte et de lien. Un hit était donc équivalent à l’affichage d’une page. Petit à petit, les pages se sont beaucoup enrichies avec l’arrivée d’images, de vidéos, d’animations grâce à des technologies comme l’AJAX ou le HTML5. Étant donné que chaque hit correspond à l’appel d’un élément de la page, le nombre de hits a augmenté de façon exponentielle ce qui a rendu difficile la reconstitution des visites par les solutions de digital analytics via l’analyse des logs. De plus, la mesure des interactions avec les contenus dynamiques (lecture d’une vidéo etc.) était quant à elle impossible étant donné que ces interactions n’entrainent, par défaut, aucune écriture dans les logs.

D’autres nouveautés externes à l’évolution des sites Web ont vu le jour et ont dégradé la qualité des données récoltées via l’analyse des logs : l’apparition des moteurs de recherche et de leur robot, les serveurs proxys permettant de surfer anonymement, l’attribution d’adresses IP dynamiques par les Fournisseurs d’Accès à Internet (FAI) et les techniques de mise en cache des contenus intégrées au système de gestion de contenu (CMS).

L’évolution des pages et du Web en général ont rendu inutilisable l’analyse des logs.

Aussi, les services marketing se sont vite appropriés le Web du fait de sa valeur ajoutée. Pour ces services, l’analyse des fichiers logs s’est révélée être  une méthode trop technique pour être facilement utilisable.

La mesure d’audience via l’analyse des logs était donc devenue inadaptée.

Les éditeurs de solution de digital analytics ont dû faire évoluer leur méthode de récolte des données avec l’évolution du Web.

Aujourd’hui, la récolte des données via l’analyse des logs n’est quasiment plus utilisée. La solution Urchin de Google, l’une des dernières basée sur l’analyse des logs, rachetée en 2005 pour créer Google Analytics, n’est plus vendue ni supportée depuis le 28 mars 2012.

1997 : première utilisation de la méthode de récolte des données par tag JavaScript

Introduction

Deux ans après la création du langage JavaScript (JS) les éditeurs de solution de digital analytics ont créé la méthode de récolte des données via l’utilisation de tag JavaScript.

Définition et fonctionnement des tags JavaScript

Un tag est un bout de code JavaScript.

Voici un exemple de tag de la solution Google Analytics :

Exemple de tag de la solution Google Analytics

Exemple de tag de la solution Google Analytics

Google Analytics a été pris en exemple car c’est la solution la plus répandue

Le tag des solutions digital analytics doit être inséré sur toutes les pages du site Web.

Le tag est exécuté par le navigateur au chargement de la page, il récolte des données sur le visiteur et sur sa visite : des informations concernant la page en cours de visualisation, le navigateur utilisé, la zone géographique, la résolution d’écran, etc. Il envoie ces données à un serveur distant, ou local dans de rares cas, suivant la solution de mesure d’audience utilisée.

La solution associe ensuite, dès réception, ces données à la bonne visite et au bon visiteur. Cette association est possible grâce à l’envoi lors de l’exécution du tag de l’identifiant du visiteur. Chaque visiteur a un identifiant unique qui est stocké dans un cookie (fichier texte présent dans le navigateur du visiteur). Le fait que l’identifiant soit stocké dans un cookie permet l’envoi systématique du même identifiant de visiteur à chacune de ses visites (sauf bien sûr s’il supprime ses cookies ou change de navigateur, dans ces cas, un nouvel identifiant de visiteur sera créé et le visiteur sera considéré comme nouveau et donc compter en double).

Enfin, la solution stocke les données et les restitue sous forme graphique à l’utilisateur en temps réel ou avec un délai maximum de 24h.

Schéma simplifié du fonctionnement de la récolte des données via les tags

Fonctionnement de la récolte des données via les tags Javascript

Les tags de la majeure partie des solutions sont constitués de deux éléments :

- L’initialisation des différentes variables et l’appel des fonctions

- Une librairie JavaScript contenant l’ensemble des définitions des différentes fonctions appelées dans le tag pour obtenir et envoyer les données

Reprenons l’exemple du tag Google Analytics présenté plus haut :

Exemple de tag de la solution Google Analytics

Exemple de tag de la solution Google Analytics

Les lignes 1 et 10 correspondent à l’ouverture et à la fermeture de la balise JavaScript indiquant au navigateur que le code qui suivra devra être interprété comme du code JavaScript.

Les lignes 7 et 8 permettent respectivement de définir le numéro de la propriété Google Analytics (il existe en général une propriété par site Web) et d’envoyer l’information qu’une page a été vue. En complément de la page vue, Google Analytics enverra d’autres informations sur l’internaute et sa visite aux serveurs de Google Analytics (ex. : résolution d’écran, navigateur etc.).

Les lignes 2 à 5 permettent entres autres d’appeler la librairie JavaScript contenant les définitions de l’ensemble des fonctions disponibles.

Voici un extrait du contenu de la librairie JavaScript de Google Analytics :

Extrait du contenu de la librairie JavaScript de Google Analytics

Extrait du contenu de la librairie JavaScript de Google Analytics

La définition de la fonction appelée plus haut est surlignée (voir la librairie JavaScript Google Analytics complète). Cette librairie, pour diminuer son poids (environ 25Ko) et donc son temps de chargement, a été volontairement minifiée (suppression des sauts de ligne, de l’indentation etc.) et obfusquée (remplacement du nom des variables par des lettres etc.) par Google. Elle est donc telle quelle difficilement lisible.

Si vous voulez la rendre plus lisible en supprimant la minification, vous pouvez utiliser par exemple le service en ligne jsbeautifier. Sur ce site, il vous suffit de copier-coller le contenu de la librairie JavaScript puis de cliquer sur le bouton « Beautify JavaScript or HTML ».

Chez certains éditeurs comme Google, la librairie est commune à tous les utilisateurs de la solution et est hébergée sur les serveurs de l’éditeur. Dans la solution Adobe Analytics par exemple, la librairie est hébergée sur les serveurs de l’annonceur et peut donc être spécifique à chaque annonceur. Le choix entre hébergement local ou distant de la librairie, s’il est permis par la solution, dépend des besoins de l’annonceur. L’hébergement local rassure principalement pour sa sécurité, les garanties de performance et la possibilité de personnaliser la librairie de la solution et l’hébergement distant, pour la certitude d’avoir toujours la dernière version de la librairie de la solution et ainsi de pouvoir profiter des nouvelles fonctionnalités.

Chaque solution de mesure d’audience dispose de son propre tag incluant sa propre librairie.

Le tag doit être placé en général juste au-dessus de la balise </body> ou de la balise </head>.

Les valeurs prises par chacune des variables inclues dans le tag sont généralement contextuelles. Elles peuvent dépendre de la page en cours de visite (la catégorie de contenu etc.), de la visite (niveau d’engagement etc.) ou du visiteur (sexe, âge etc.). La valeur de chaque variable et les données envoyées sont donc différentes d’une page à l’autre.

Une fois les données récoltées par le tag, il ne reste plus qu’à les envoyer aux serveurs de la solution de mesure d’audience. L’exécution de la fonction d’envoi (pour Google Analytics, la fonction « send ») contenue dans le tag transmet l’ensemble des données récoltées sur le visiteur et sur sa visite. Ces données sont récoltées via différentes sources : la première, celle présentée ci-dessus, par l’intermédiaire des variables présentes dans le tag, la seconde par l’intermédiaire des cookies (fichiers textes propres au navigateur Web) qui permettent de stocker des informations spécifiques sur le visiteur, et enfin la troisième par l’intermédiaire du navigateur qui détient un certain nombre d’information sur le visiteur (résolution d’écran, navigateur utilisé etc.).

Les données sont transmises via une requête composée de plusieurs paramètres contenant chacun une ou plusieurs données sur le visiteur et sur sa visite.

La requête est envoyée en utilisant la méthode d’envoi GET (en utilisant le protocole HTTP ou HTTPS en fonction du protocole utilisé par la page Web où est exécuté le tag).

Voici un extrait de requête faite par la solution Google Analytics :

Extrait de requête de la solution Google Analytics (visualisée grâce à la console du navigateur Google Chrome)

Extrait de requête de la solution Google Analytics (visualisée grâce à Chrome Developer Tools, un outil du navigateur Google Chrome)

On constate par exemple que le paramètre tid prend la valeur du numéro de compte Google Analytics défini dans le tag (voir le code du tag plus haut).

Il est possible de visualiser les requêtes effectuées vers l’ensemble des solutions en utilisant le debugger du navigateur (exemples : sur Firefox, le plugin Firebug est souvent utilisé et sur Chrome, le Chrome Developer Tools). Les données sur le visiteur et sur sa visite sont en général envoyées grâce à la méthode GET sous forme de paramètre via l’appel d’une image transparente d’1×1 pixel. Une fois reçues par les serveurs de la solution de mesure d’audience, les données sont enregistrées et traitées.

Capture d’écran de Chrome Developer Tools (raccourci : CTRL + MAJ + i)

Capture d’écran de Chrome Developer Tools (raccourci : CTRL + MAJ + i)

Les noms des paramètres utilisés par les solutions dans les requêtes qui sont envoyées à leurs serveurs sont différents des noms des variables utilisées dans le tag à cause de la limite de taille des requêtes envoyées. Cette limite est variable d’un navigateur à l’autre mais est en moyenne de 3000 caractères (pour les requêtes réalisées en utilisant la méthode GET). Si la requête envoyée dépasse cette limite, elle est coupée par le navigateur et le serveur de la solution ne reçoit alors qu’une partie des données. C’est pour cela que les noms des paramètres utilisés par les solutions dans leurs requêtes sont souvent très courts.

Cette différence entre noms des paramètres des requêtes et variables utilisées dans le tag rend fastidieux la vérification des données envoyées.

C’est la raison pour laquelle les solutions fournissent en général un tableau descriptif de chaque paramètre permettant de s’assurer de la valeur de chacun d’entre eux (exemple : tableau descriptif des paramètres Google Analytics).

Si l’implémentation de la solution a bien été réalisée, une requête est faite par page vue étant donné que le tag de la solution aura été soigneusement inséré sur toutes les pages. Si l’annonceur souhaite mesurer un ou plusieurs éléments précis contenus dans la page (ex. : le nombre de téléchargement d’un fichier, le nombre de lecture d’une vidéo etc.), autant de requêtes supplémentaires qu’il y a d’éléments précis mesurés seront envoyées aux serveurs de la solution.

La méthode de récolte des données via l’utilisation des tags JavaScript permet de quasiment tout mesurer, des transactions e-commerce jusqu’au nombre de clics effectués sur n’importe quel élément de la page.

La mesure du nombre de visiteur unique reste cependant approximative et devrait plutôt être appelée navigateur unique (terme utilisé dans la solution ComScore Digital Analytix, racheté par Adobe en novembre 2015). En effet, les solutions créent et utilisent un cookie (propre au navigateur du visiteur et stocké dans celui-ci) pour identifier spécifiquement chaque visiteur. Il suffit alors qu’un visiteur se rende sur le même site avec deux navigateurs différents (en ayant préalablement supprimé ses cookies s’il s’est déjà rendu sur le site) pour que la solution de digital analytics utilisée comptabilise 2 nouveaux visiteurs uniques au lieu d’un seul.

La méthode de récolte des données via les tags est cependant victime de son succès, il n’est pas rare de voir des sites avec plusieurs dizaines de tag qui s’exécutent sur chaque page.

Cela alourdit le temps de chargement de la page, nuit à l’expérience utilisateur et diminue les taux de conversion.

Aussi, un des enjeux des annonceurs est d’être en conformité avec la législation sur le respect de la vie privée des internautes et de maitriser l’envoi de leurs données à leurs partenaires pour éviter toute fuite de données. Or il est malheureusement courant que des tags embarquent eux-mêmes d’autres tags, appelés tags de second niveau, derrière lesquels se cachent des solutions / usages dont l’annonceur n’a pas connaissance.

Le futur : le server-side

Nous devrions assister de 2017 à 2018 à l’émergence d’une nouvelle forme de collecte de données : le server-side.

Le server-side, après la collecte de données via l’analyse des logs puis via les tags JavaScript, devrait être la troisième génération de collecte de données.

L’idée est de ne plus envoyer plusieurs fois les mêmes données à plusieurs solutions mais de n’envoyer les données qu’une seule fois à sa solution de Tag Management System (TMS) qui se chargera de les envoyer ensuite à l’ensemble des solutions souhaitées.

A chaque génération de page / écran, le site / l’application génère un appel vers le TMS avec les données du datalayer qu’il souhaite transmettre à ses partenaires. C’est ensuite le TMS qui déclenche, en fonction des règles définies par l’annonceur, les tags des partenaires :

Le futur de la collecte de données : le server-side

Voici les points forts du server-side :

  • Augmentation des taux de conversion en diminuant le temps de chargement des pages (il n’y a plus qu’un tag qui est appelé contre plusieurs dizaines aujourd’hui)
  • Meilleure prise de décision grâce à des données plus fiables : le déclenchement des tags ne dépend plus de l’interaction de l’utilisateur avec la page (ex : fermeture de la page de conversion avant que celle-ci ait fini de charger et donc que les tags aient été exécutés). Les taux de transmission approchent les 100%, là où le taux de transmission de la technologie tag varie fortement
  • Reprise du contrôle sur les données transmises aux partenaires : l’exécution des tags coté client favorise la fuite de données (« data leakage »), en effet, ceux-ci peuvent récupérer des données sans avertir l’annonceur et les envoyer à des partenaires tiers (via les tags de second niveau). L’approche server-side permet de contrôler l’envoi de ces données.

L’adoption du server-side est ralentie par le manque de compatibilité des solutions avec ce mode de fonctionnement. Cependant, de plus en plus d’annonceurs sont conscients des avantages et poussent pour que l’ensemble des solutions qu’ils utilisent deviennent compatibles.

Les solutions majeures de digital analytics

Les solutions de digital analytics gratuites et payantes

Les solutions de digital analytics gratuites et payantes

Toutes ces solutions fonctionnent en SaaS (Software As A Service). On s’y connecte donc comme on se connecte à son webmail par exemple.

Certains éditeurs comme webtrends ou IBM proposent des versions installées (dite “On-Premise”) de leur solution sur les serveurs de l’annonceur pour répondre aux besoins de certains mais les demandes dans ce sens tendent à diminuer.

Suite au lancement de sa solution payante Google Analytics Premium, Google est devenu le seul éditeur à proposer à la fois une solution gratuite performante et, si l’annonceur souhaite aller plus loin, une solution payante (mode freemium). La stratégie de proposer une solution gratuite dans un premier temps puis une solution payante permet à Google aujourd’hui de disposer d’un nombre très important d’utilisateurs de sa solution et donc de prospect. Google peut ainsi accompagner avec ses solutions les annonceurs tout au long de l’évolution de leur maturité en leur permettant de passer de la version gratuite à la version payante en douceur, à la fois pour les équipes métiers et techniques (car l’implémentation technique et l’interface de la solution changent peu entre la version gratuite et payante de Google Analytics).

Les annonceurs matures ayant des besoins avancés utilisent les solutions payantes et les annonceurs débutants se tournent plutôt, dans un premier temps, vers Google Analytics.

Réussir en digital analytics, une question de solution ?

Premièrement, il n’y a pas de meilleure solution de digital analytics mais plutôt une solution plus adaptée que les autres pour répondre à un besoin donné.

Pour choisir la bonne solution, l’important est de n’oublier aucun besoin essentiel. Pour y arriver, réfléchissez en cas d’utilisation : qu’est-ce que vous souhaitez que la solution vous permette de faire ? Quelles sont les questions auxquelles vous souhaitez répondre ? Ces cas d’utilisation devront faire partie des objectifs auxquels chaque potentiel prestataire devra répondre correctement lors d’un « POC » (« Proof Of Concept », test de la solution). Le choix d’une solution est un investissement important tant au niveau financier pour l’achat (sauf si vous faites le choix d’une solution gratuite) qu’humain pour l’implémentation et l’exploitation. Il ne faut pas hésiter à se faire accompagner dans cette démarche par une agence spécialisée.

Aussi, la mise en place d’une stratégie digital analytics efficace repose plus sur vous et vos équipes que sur la solution. La solution n’est qu’un des facteurs clés de votre succès. En effet, votre réussite repose aussi sur votre capacité à vous assurer que l’implémentation de votre solution colle avec vos besoins, que les données récoltées sont qualitatives, que les bonnes personnes soient formées, que vous ayez des tableaux de bord synthétiques et surtout… Que vous vous serviez des données pour améliorer votre prise de décision !

Trop souvent encore, les annonceurs sont équipés d’une ou plusieurs solutions performantes mais ils n’utilisent qu’une partie de leurs capacités faute de temps et de budget pour recruter un(e) digital analyste ou pour faire appel à une agence pour les accompagner.

Les valeurs ajoutées des solutions payantes

Les solutions payantes se différencient des solutions gratuites pour 5 raisons principales :

  • Une garantie contractuelle de support (jusqu’à 24h/24h, 7 j. / 7 j. en langue locale)
  • Une garantie contractuelle de disponibilité des serveurs de collecte de données et de rapport (en général à plus de 99%) et de performance (temps de traitement des requêtes jusqu’à l’affichage dans les rapports)
  • Une garantie contractuelle de la propriété des données
  • Un service conseil et commercial attitré
  • Des fonctionnalités avancées inclues dans une suite de produits complémentaires pour répondre aux besoins des annonceurs tout au long de l’évolution de leur maturité

Le coût des solutions payantes

Le coût des solutions payantes est basé en général sur l’achat d’une licence annuelle comprenant un pack de requêtes.

En fonction des besoins de l’annonceur, des produits complémentaires au produit de base peuvent être souscrits. Un coût annuel fixe et / ou variable supplémentaire sera alors à prévoir.

Les licences sont généralement souscrites pour une durée de 1 an.

Il y a, si la solution est correctement implémentée, au moins une requête faite par page vue.

Si l’annonceur mesure grâce à sa solution le nombre de clic sur les liens sortant, les liens de téléchargement de fichier etc., on peut atteindre sur certaines pages vues 4 à 5 requêtes par exemple.

Astuce pour calculer le coût de sa licence

Voici une base de calcul à adapter pour estimer son nombre de requêtes par an :

(Nombre de pages vues sur l’année N-1) + (pourcentage de croissance prévisionnelle de pages vues sur l’année N) + (25% des pages vues prévisionnelles sur l’année N * 3).

La dernière parenthèse comprend l’ajout de l’estimation des pages vues entrainant plus d’une requête (ici on estime que 25% des pages vues prévisionnelles sur l’année N comporteront 3 requêtes).

Exemple pour un site ayant 1.000.000 de pages vues sur son année N-1 et prévoyant une croissance de 10% de son nombre de pages vues sur l’année N :

( 1.000.000 + (10% de 1.000.000) ) + (25% de 1.000.000 * 3) = 1.850.000 requêtes.

Attention à ne pas sous-estimer son nombre de requête car si le pack de requête acheté est dépassé, un surcoût, au prix unitaire d’une requête, est facturé. Le coût unitaire d’une requête dépend des solutions et du pack de requête acheté (plus le pack de requête acheté est important, plus le coût unitaire d’une requête est faible).

Globalement, les prix sont compris entre 5.000 € / an pour un site à faible trafic (inférieur à 500.000 pages vues par mois), 50.000 € / an pour un site à trafic moyen (plusieurs millions de pages vues par mois) et plus de 100.000 € / an pour un site à fort trafic.

A noter que la solution payante de Google, Google Analytics premium, se différencie en proposant une licence unique indépendante du nombre de pages vues à env. 140.000 € / an.

Exemples de rapport

Voici trois exemples de rapport : le premier lié à l’acquisition de trafic, le second à la navigation et le troisième à la conversion. Ils sont tous issus de Google Analytics à titre d’exemple. Des rapports similaires sont disponibles dans les autres solutions de digital analytics.

Voici les différents rapports :

Exemple de rapport Google Analytics sur la performance de l'acquisition de trafic

Exemple de rapport Google Analytics sur la performance de l'acquisition de trafic

Exemple de rapport Google Analytics des flux de navigation des internautes

Exemple de rapport Google Analytics des flux de navigation des internautes

Exemple de rapport Google Analytics de l'entonnoir de conversion

Exemple de rapport Google Analytics de l'entonnoir de conversion

Évolution des solutions majeures de digital analytics de 1993 à nos jours

Evolution des principales solutions de digital analytics

Le marché du digital analytics a été créé par la société webtrends en 1993.

Entre 1996 et 2000, 6 acteurs suivent le pas et lancent leur solution de digital analytics : WebSideStory, Omniture, Unica, Coremetrics, NedStat et XiTi.

Le marché a ensuite évolué modérément jusqu’en mars 2005. A cette date, Google fait son entrée et donne le rythme en rachetant Urchin software en mars 2005 et en lançant Google Analytics en novembre 2005, soit seulement 8 mois plus tard.

La seule notoriété de la marque Google constitue un avantage important pour l’adoption de leur solution Google Analytics, qui est en plus gratuite et dont les fonctionnalités évoluent rapidement. Cette concurrence est bénéfique à la fois pour les annonceurs, car elle pousse l’ensemble des éditeurs de solution digital analytics à faire évoluer leur produit plus rapidement, mais aussi pour les autres éditeurs car la maturité du marché évolue plus vite et donc le nombre de prospect potentiel augmente. Google a sorti Google Analytics Premium, une version de Google Analytics plus puissante et payante en septembre 2011. Depuis cette date, Google étend peu à peu ses parts de marché sur les grands comptes.

Une vague importante de rachats a débuté avec celui d’Omniture par Adobe en septembre 2009. Le marché s’est ensuite concentré avec le rachat de Coremetrics et Unica par IBM et de Nedstat par ComScore. Grâce à celui-ci, ComScore, reconnu pour sa mesure via les panels, a complété son offre avec la mesure digitale ce qui lui confèrait un positionnement unique et intéressant vis-à-vis de ses concurrents. La concentration du marché a continué en novembre 2015 avec le rachat de la solution ComScore digital analytics par Adobe (la solution ComScore digital analytics aura existé 3 ans et demi).

Grâce à ces rachats, Adobe et IBM, ont constitué les premières briques de ce qu’ils appellent aujourd’hui leur suite de solutions de digital analytics : Adobe Marketing Cloud et IBM Enterprise Marketing Management (EMM).

L’évolution a été marquée également par la fin brutale des solutions de digital analytics de Microsoft en mars 2009 (la solution aura existé 3 ans) puis de Yahoo! en juin 2012 (la solution aura existé 5 ans) à cause d’une vague de suppression des activités non génératrices de revenu dans les deux cas (ces deux solutions étaient gratuites).

Trois solutions restent indépendantes aujourd’hui sur le marché : webtrends, AT Internet et Webtrekk. Ces solutions tirent leur épingle du jeu : webtrends avec sa volonté d’innovation, AT Internet est leader sur le marché Français et Webtrekk est leader sur le marché Allemand.

A noter également, l’initiative open-source de Piwik avec deux offres, une offre basique lancée en mars 2008 et une offre professionnelle lancée en septembre 2013.

Positionnement des solutions majeures de digital analytics

Les 7 solutions majeures de digital analytics

Les 7 solutions majeures de digital analytics

Etude « Magic quadrant », catégorie « Digital Marketing Analytics » par le cabinet Gartner  (septembre 2015)

Etude « Magic quadrant », catégorie « Digital Marketing Analytics » par le cabinet Gartner (septembre 2015)

On retrouve dans cette étude les solutions Adobe, Google, IBM, comScore et webtrends. Les solutions non présentes sont les solutions AT Internet et Webtrekk. Seules les solutions de digital analytics fournissant une suite de solutions éprouvée sont présentes dans cette analyse. Cette suite de solution a pour objectif de répondre à l’ensemble des besoins des annonceurs, de la collecte de données jusqu’à l’analyse et l’optimisation.

Google est leader dans cette étude. Grâce à la sortie de sa solution payante Google Analytics Premium et aux autres produits de sa suite (dont Doubleclick, Adwords, Retargeting etc.), Google a la suite de solution la plus complète du marché.

Adobe est également leader dans cette étude. Adobe, suite au rachat d’Omniture, a créé la suite Adobe Marketing Cloud comprenant toutes les solutions de la suite d’Omniture. Cette suite de solution a ensuite été étoffée avec le rachat de la solution Française Neolane pour renforcer la suite sur le suivi et l’optimisation de l’acquisition de trafic. Neolane est devenu le produit Adobe Campaign au sein de la suite Adobe Marketing Cloud. Par ailleurs, la solution de mesure Adobe Analytics et la solution de testing et personnalisation Adobe Target de la suite Adobe Marketing Cloud sont intégrables dans les solutions Dreamweaver, Flash, et Flash Builder de la suite Adobe Creative grâce à des extensions.

IBM est challenger dans cette étude. IBM, suite aux rachats des solutions Coremetrics et Unica entres autres, a créé la suite Entreprise Marketing Management (EMM) qui fait partie dorénavant de l’offre « IBM’s Smarter Commerce » composée, entre autre, du framework e-commerce WebSphere Commerce.

ComScore est visionnaire dans cette étude. ComScore Digital Analytix, suite à son rachat en novembre 2015 par Adobe, devrait contribuer à l’amélioration du classement d’Adobe dans la prochaine version de l’étude tant sur la capacité à délivrer que sur l’exhaustivité de sa suite.

webtrends est un acteur de niche dans cette étude au même titre que d’autres acteurs spécialisés dans des domaines précis (comme Visual IQ par exemple dans le domaine de l’attribution). En effet, webtrends ne dispose que d’une solution de digital analytics et d’une solution de testing et de personnalisation alors que les autres éditeurs disposent de solution d’optimisation de l’acquisition de trafic par exemple.

En résumé, Google et Adobe sont leaders, IBM est challenger et webtrends est un acteur de niche comme les éditeurs AT Internet et Webtrekk qui ne sont pas présents dans cette étude.

Les communautés qui gravitent autour du digital analytics

Le digital analytics en Amérique du nord et en Europe était, à ses débuts, une discipline confidentielle et peu pratiquée. C’était difficile pour les premiers pratiquants de trouver des ressources et de partager leur expérience. Le niveau de maturité progressait donc lentement.

Cela en a poussé certains à se réunir sous forme de communauté. La première initiative a été lancée aux Etats-Unis avec la Web Analytics Association (WAA) en 2003 (renommée depuis en Digital Analytics Association).

Elle a été créée par Jim Sterne, Andrew Edwards et Bryan Eisenberg (de gauche à droite) :

Jim Sterne, Andrew Edwards et Bryan Eisenberg de la digital analytics association

Jim Sterne, Andrew Edwards et Bryan Eisenberg de la digital analytics association

Elle s’articule autour de plusieurs pôles :

  • Évangélisation
  • Education
  • Evènement
  • Internationalisation de la discipline
  • Gestion des membres / sponsoring
  • Recherche
  • Définition de standards

Elle a de multiples objectifs dans chacun de ses pôles, l’objectif transverse est d’évangéliser la discipline en présentant sa valeur sous forme de cas concrets.

Elle est surtout active aux Etats-Unis même si elle est présente également en Europe.

En Allemagne par exemple, la Digital Analytics Association est bien représentée et très active : 10 à 30 événements sont organisés depuis 2014 dans différentes villes. Les événements sont appelés DAALAs pour “Digital Analytics Association Late Afternoons”.

Ensuite, Eric Peterson, un consultant reconnu en digital analytics aux Etats Unis, a lancé en 2004 le premier forum dédié au digital analytics. Le forum est soutenu et modéré par la Digital Analytics Association. Il a été très actif de 2005 à 2011 (jusqu’à 661 messages en avril 2008). Etant donné que la maturité du marché a évolué, il l’est moins aujourd’hui, même s’il y a toujours environ 30 messages soumis par mois. On y trouve des offres d’emploi, des questions pratiques liées à des sujets d’implémentation ou de changement de solution, etc.

En 2007, Eric Peterson a continué à faire progresser la discipline en lançant les WAW : « Web Analytics Wednesday ». Les WAW sont des évènements digital analytics gratuits permettant aux personnes intéressées par le digital analytics de se rencontrer et d’échanger. De nombreux évènements ont été organisés aux États-Unis mais aussi en Australie, en France, en Pologne etc. Aujourd’hui, les WAW sont moins populaires même si des évènements ont toujours lieu aux États-Unis et en Angleterre notamment.

Enfin, en 2009, pour aider les personnes intéressées par le digital analytics à se lancer et à acquérir de l’expérience, Eric Peterson, toujours, avec le soutien de deux autres consultants en digital analytics reconnus (John Lovett et Aurélie Pols) a lancé « Analysis Exchange ». L’objectif de « Analysis Exchange » est d’aider les associations et les organisations à but non lucratif à progresser en digital analytics gratuitement avec l’aide d’une personne souhaitant se faire une expérience (un étudiant par exemple) sous la direction d’un mentor expérimenté. En 2014, soit 5 ans après le lancement, plus de 400 organismes en avaient profité.

En Europe, deux initiatives majeures ont été lancées : les measure bowling et camp.

L’idée des “measure bowling” est de réunir les personnes intéressées par le digital analytics autour d’une partie de bowling afin de s’amuser et d’échanger.

Les measure bowling ont été lancés sur la base d’un échange sur Twitter :

Les échanges Twitter à l'origine de la création du measure bowling

L’idée a été convertie en événement grâce à Peter O’Neill (à gauche) et Nicolas Malo (à droite) :

Nicolas Malo et Peter O'Neill, les créateurs du measure bowling

Des measure bowling sont maintenant organisés partout en Europe… Tous à la même date !

Peu après le premier measure bowling à Londres a été organisé le premier Measure camp, toujours à Londres, en septembre 2012 par Peter O’Neill.

Les measure camp sont des « unconference », c’est-à-dire que le contenu est créé par les participants eux-mêmes au début de l’événement avec une volonté de partage et d’échange. Chaque participant peut ensuite se rendre dans la salle où est traité le sujet qu’il souhaite. Les « unconference » existaient déjà dans beaucoup de domaine dont le développement Web sous forme de bar camp (le premier bar camp a eu lieu en 2005).

Le concept s’est exporté à Paris avec l’organisation du premier measure camp en juin 2015. En France, l’organisation des measure camp et bowling est soutenue par l’AADF (Association des Analystes Digitaux Francophones).

A noter également qu’au fur et à mesure du temps, de nombreuses ressources ont été créées que ce soit sous forme de livres ou d’articles de blog. On peut citer, entre autres, les livres et articles de Avinash Kaushik (le premier livre s’intitule : « Web Analytics: An Hour A Day » et le second s’intitule « Web Analytics 2.0 »), les livres et articles de Bryan Eisenberg (livres « Call to action », « Waiting for Your Cat to Bark? » et « Always Be Testing »), de Jim Stern (livres « Social media metrics » et « The Devil’s Data Dictionary ») et le modèle de maturité analytics créé par Stéphane Hamel : « Online Analytics Maturity Model ».

Voici les sites pour suivre l’actualité des événements cités :

Imprimer et partager cet article :

  • Twitter
  • Facebook
  • LinkedIn
  • viadeo FR


Brice Bottégal
À propos de l'auteur, Brice Bottégal :

Brice Bottégal a débuté sa carrière chez Hub’Sales, une agence spécialisée dans le conseil en digital analytics, en tant que consultant digital analytics. Il a pris ensuite la responsabilité de l’avant-vente et a participé au lancement de la solution d’assurance qualité Hub’Scan. Après ça, Brice Bottégal a rejoint l’éditeur TagCommander en tant que product manager. TagCommander édite une des solutions majeures de Tag Management System et de Data Management en Europe. Ensuite, Brice Bottégal a rejoint Tinyclues en tant que Product Manager. Tinyclues aide les annonceurs à trouver la meilleure audience pour leurs campagnes en utilisant des technologies de pointe de machine learning. Brice Bottégal est également professeur de digital analytics à l’école HETIC depuis 6 ans.

Vous pouvez laisser un commentaire, ou faire un trackback à partir de votre site.

36 commentaires pour l'actualité “Définition et histoire du digital analytics”

 
  1.  Alban Gérôme says:

    Bonsoir Brice,

    Super article. J’ai trouvé ta partie sur l’avenir des TMS gérant les tags côté serveur brillante. Avant de me servir de DTM je pensais qu’un TMS réduisait toutes les requêtes HTTP des differents tags en une seule requête ce qui est un best pratice mais que nenni! ReactJS et AngularJS 2 ne vont que renforcer le role du serveur dans l’implémentation des web analytics et du SEO à mon avis.

    Je voulais juste ajouter que la phase de consolidation des acteurs du marché de 2009-2010 avait commencé dès fin 2006. Omniture s’est lancé dans une stratégie d’acquisitions qui ont culminé par le rachat de Visual Sciences. Adobe a fini par acquérir Omniture dans ce que je considère comme une deuxième phase de consolidation.

    Alban

    [Répondre]

    admin le 08 Octobre 2016 à 08:24 a répondu :

    Merci Alban pour ton retour intéressant. Effectivement, la vague de rachat a commencé en 2006 et s’est intensifiée à partir de 2009-2010, c’était assez fou cette période, je me demandais à l’époque quand est-ce que ça allait s’arreter :)

    [Répondre]

  2. [...] Le digital analytics est «la mesure, le suivi et l’analyse du comportement des visiteurs dans le but d’augmenter les performances des annonceurs». [...]

  3.  P. Vanhulst says:

    Bonjour,

    Je suis un étudiant en informatique de gestion, en train de finaliser la rédaction de mon mémoire sur l’analyse web, la visualisation de données et l’analyse visuelle.
    Autant dire que la partie “Background” de mon document vient d’être légèrement chamboulée par toutes les informations contenues dans cet article : il faut dire que les solutions payantes abordées ici sont peu accessibles pour le premier étudiant venu.
    Puis-je faire référence à cet article dans mon document ?

    En tous cas, merci pour cette mine d’information !
    P. Vanhulst

    [Répondre]

  4. Vraiment rien à redire. Cet article est une référence en la matière. J’avais justement une petite étude à mener sur le Web Analytics dans le cadre de ma première année de Master Management de Projet Ecommerce (Lille 2) et votre blog s’est révélé ici être une véritable mine d’or. C’est tellement pertinent et constructif que je suis déçu de ne pas pouvoir poursuivre ma lecture sur d’autres thèmes. J’espère que vous n’avez pas abandonné l’administration de votre site…

    Merci et bonne continuation ;-)

    [Répondre]

  5.  Eric says:

    C’est de bon augure pour la suite !

    J’ai été aussi surpris que tu parle de Xiti et pas de Weborama, qui a mon avis, fait tout à fait partie du paysage des WA avec la solution Wreport, et à aussi contribué à sa manière via sa solution gratuite et son annuaire.

    Je sais que beaucoup de jeunes webmasters apprécient Google Analytics, mais je ne sais pas si cette solution est bien implantée dans le monde de l’entreprise ? Des chiffres la dessus seraient intéressants.

    [Répondre]

    Brice Bottégal le 05 Mai 2010 à 17:27 a répondu :

    Bonjour Eric :)

    Comme je le disais, Weborama tire son épingle du jeu en étant spécialisé dans l’adServing ce qui lui permet d’offrir des synergies puissantes qui peuvent justifier le choix de leurs outils. L’outil d’analyse comportementale de Weborama, Wreport, n’est pas assez répandu selon moi pour être cité.

    Je ne remets pas en cause cependant la contribution de Weborama au monde du WA en France durant ces 10 dernières années :)

    En ce qui concerne Google Analytics, oui la solution est bien implantée essentiellement chez les petites & moyennes entreprises mais aussi dans de grandes entreprises où Google Analytics répond à l’ensemble des besoins !

    Il faut faire très attention à ne pas se focaliser sur l’outil. Il faut premièrement définir ses besoins et choisir l’outil qui y répond le mieux et non pas partir d’un outil et essayer de faire rentrer les besoins au chausse-pied dans l’outil ;)

    [Répondre]

  6.  tangi says:

    Bel effort de pédagogie :) Merci pour l’article.

    [Répondre]

    Brice Bottégal le 08 Avril 2010 à 08:21 a répondu :

    Merci Tangi :)

    [Répondre]

  7.  Olivier says:

    Bonjour Brice,
    J’arrive après la bataille pour te féliciter pour cet excellent article !
    A+

    [Répondre]

    Brice Bottégal le 08 Avril 2010 à 08:32 a répondu :

    Bonjour Olivier !

    Merci à toi ! J’essaye de communiquer encore sur l’article donc si tu arrives après la bataille c’est bon signe :)

    [Répondre]

  8.  Christophe Drot says:

    Quelle clarté ! Quelle pédagogie !
    Merci, je savais quasiment et vaguement tout mais je ne savais jamais comment bien expliquer tout ça, enchaîner, hiérarchiser, expliquer sans utiliser en permanence des analogies approximatives ou fumeuses.
    maintenant, j’ai l’outil idoine, merci.

    (PS : j’ai été envoyé vers vous par Yann Lemort (http://www.facebook.com/l.php?u=http%3A%2F%2Fwww.viadeo.com%2Ffr%2Fprofile%2Fyann.lemort&h=e93cd42d0c9258ac52c4c233d0c4804f)

    [Répondre]

    Brice Bottégal le 10 Avril 2010 à 10:59 a répondu :

    Merci beaucoup Christophe et merci également à Yann, il m’a déjà ajouté sur Viadeo. Je suis content que cela vous serve, c’était le but et si l’information peut être relayée, c’est encore mieux ! :)

    [Répondre]

    Yann Lemort le 04 Avril 2010 à 16:32 a répondu :

    > merci également à Yann, il m’a déjà ajouté sur Viadeo. Je suis content que cela vous serve

    En effet, j’ai parlé de vous ce matin aux étudiants de Skema. Ils ont apprécié :-)

    Bonne continuation.

    [Répondre]

    Brice Bottégal le 02 Avril 2010 à 14:35 a répondu :

    Je ne connaissais pas l’école Skema. Je suis content qu’ils trouvent le sujet intéressant car il y a de quoi s’y intéresser :)

  9.  Marc Harnist says:

    Ce qui serait intéressant c’est un tutoriel sur le paramétrage des “Objectifs” chez Google Analytics.

    [Répondre]

    Brice Bottégal le 04 Avril 2010 à 16:12 a répondu :

    C’est noté ;)

    Merci à vous

    [Répondre]

  10. Merci Brice. Excellente rétrospective.

    On en est encore à l’analyse et à l’interprétation de données relativement brutes (il faut bien que les consultants vivent :) .

    Envisagez-vous aussi un article de prospective. Quelle sera la prochaine avancée technologique de l’Analytics ?

    Peut-on on envisager des solutions de Web Analytics Prédictif ?
    Peut-on imaginer de modéliser les bonnes pratiques (sur la base d’un benchmark sectoriel par exemple) et à la suite d’une campagne de mesure de recevoir des conseils d’optimisation avisés de la part de son Web Analytics ?

    Désolé vous aviez parlé de 2010, ce sera peut-être pour 2012 (l’année de tous les possibles dit-on :)

    [Répondre]

    Brice Bottégal le 09 Mars 2010 à 09:05 a répondu :

    Merci beaucoup !

    Voici mes reponses :

    Envisagez-vous aussi un article de prospective. Quelle sera la prochaine avancée technologique de l’Analytics ?

    Oui, j’y ai pensé mais cela ne sera pas pour le prochain article, je récolte des informations à ce sujet pour publier un article mais plus tard, lorsque j’aurai assez d’informations :)

    Peut-on on envisager des solutions de Web Analytics Prédictif ?

    Oui bien sûr ! On pourrait très bien imaginer un outil, qui, se basant sur son “expérience” c’est à dire en fait sur un historique de données conséquent soit capable de prédire le trafic provenant de telle ou telle source, les ventes pour un site de e-commerce etc. comme on le voit pour des logiciels dans d’autres domaines.

    Peut-on imaginer de modéliser les bonnes pratiques (sur la base d’un benchmark sectoriel par exemple) et à la suite d’une campagne de mesure de recevoir des conseils d’optimisation avisés de la part de son Web Analytics ?

    C’est difficile de parler de bonnes pratiques en web analytics car les cas sont toujours très différents. Un outil ne vous donnera jamais de conseils mais vous donnera au mieux des champs d’exploration comme le fait la fonctionnalité “Intelligence” de Google Analytics. La pertinence des conseils relèvera de votre capacité d’analyse et de vos connaissances.

    Désolé vous aviez parlé de 2010, ce sera peut-être pour 2012

    Peut être ou peut être pas… Cela va tellement vite !!!! :D

    [Répondre]

    Jean-François Bouverat le 06 Avril 2010 à 18:14 a répondu :

    Bonsoir,

    Avez-vous quelques précisions sur la fonctionnalité “Intelligence” de Google Analytics. Parlez-vous des alertes ou d’autre chose de plus sioux ?

    [Répondre]

  11. Tout simplement brillant !
    Merci Brice et au plaisir de vous lire encore.
    Christophe

    [Répondre]

    Brice Bottégal le 02 Mars 2010 à 14:54 a répondu :

    Merci beaucoup :)

    [Répondre]

  12.  Magali Morard says:

    Tout simplement : GRAND MERCI !!

    J’avais justement besoin de schémas et d’informations facilement intégrales dans une prez… et c’est toujours plus facile quand c’est deja en français… ce que l’on ne trouvait pas jusqu’à présent selon moi (je vous mettrai evidemment en reference sur la prez en question !)

    Merciiii

    Magali

    PS : dans le livre d’Avinash Kaushik “one hour a day”, il parle d’un script ecrit en 1995 : « analog » par Stephen Turner, toujours très utilisé sur le Web… est ce que vous en sauriez plus la dessus ? comme par exemple est ce que c’est une base de certains des outils de mesure
    actuels, ou est ce que c’est un petit outil à part ?
    merci

    [Répondre]

    Brice Bottégal le 11 Mars 2010 à 11:49 a répondu :

    Content de vous avoir aidé Magali. Si votre présentation n’est pas confidentielle, pourrez-vous la partager ici svp ? Je pense que cela pourrait nous intéresser :)

    Le docteur Stephen Turner a sorti le deuxième analyseur de log nommé Analog en pensant qu’il était le premier alors que deux ans plus tôt est sorti GetSites, le véritable premier analyseur de log documenté. GetSites est devenu ensuite GetStats puis WebStats en 2004.

    Ces deux outils, Analog et GetSites ont surement inspiré les premiers éditeurs de solution arrivés en 1993 et 1995.

    [Répondre]

    Magali Morard le 12 Mars 2010 à 12:21 a répondu :

    Merci pour ce retour !

    La presentation est pour des cours prevus la semaine prochaine, je la partage dès que ces cours sont réalisés :)

    en vous souhaitant une belle apres-midi (le soleil est dans le Nord de la France aujourd’hui… en attendant la pluie of course )

    Bien a vous

    magali

    [Répondre]

  13.  Philippe Oger says:

    Super bon article Brice. Ca fait plaisir de voir des gens qui se bougent dans cette industrie.
    La recherche est vraiment costaud, et c’est tres bien écris!

    [Répondre]

    Brice Bottégal le 10 Mars 2010 à 22:33 a répondu :

    Merci beaucoup Philippe, c’est encourageant :)

    [Répondre]

  14.  Michel Maurisse says:

    Bonjour,

    Bonne synthèse du sujet, bravo.

    Vous ne citez ni l’outil eStat de la société de mesure d’audience Médiamétrie ni l’outil de Weborama. Leur part de marché est-elle négligeable ? Sont-ils dépassés par les progrès de Google ? Quel avenir pour ces outils spécifiques du marché français (Xiti, eStat, Weborama) ?

    [Répondre]

    Brice Bottégal le 10 Mars 2010 à 22:25 a répondu :

    Merci Michel :)

    Je considère que les outils de Weborama et que l’outil de Médiamétrie ne font pas partis des outils de mesure d’audience majeurs du marché en effet. Google Analytics dépasse les possibilités offertes par l’outil de Médiamétrie, c’est certain. Je ne connais pas assez l’outil de Weborama pour pouvoir le comparer avec Google Analytics sur la partie analyse d’audience uniquement car les outils de Weborama proposent des services complémentaires. Ce qui est sûr c’est que Google Analytics est plus répandu aujourd’hui sur le marché que ces deux outils.

    Weborama tire son épingle du jeu en étant spécialisé dans l’adServing ce qui lui permet d’offrir des synergies puissantes qui peuvent justifier le choix de leurs outils. XiTi est la solution gratuite de l’éditeur de solution AT Internet. AT Internet est une des sociétés leader sur le marché des solutions payantes en Europe et est maintenant reconnu au niveau mondial.

    Pour résumer, AT Internet va très bien, Weborama grâce à sa suite d’outils propose un service quasiment unique et va bien sur son segment de marché et eStat survit grâce à la notoriété de Médiamétrie.

    [Répondre]

    Philippe Oger le 11 Mars 2010 à 23:39 a répondu :

    Perso, j’ai jamais été tres fan de Xiti. eStat je connais que de nom. Sauf erreur de ma part, Weborama, je crois est surtout francais, et qu’ils sont peu, voire pas dans d’autre pays. Cela dit, j’ai eu l’occasion de voir une presentation de leur produit, et j’avais été impressionné par le fait qu’il avait du data demographique… super valable dans la recherche de persona. Je pense qu’ils ont été un des seul web analytics tools a le faire. Yahoo Analytics maintenant le fait également, et s’avere etre un outil super balaise, et meme plus balaise que Gogle Analytics.

    En ce qui me concerne, je me vois mal depenser de l’argent dans un outil web analytics, dans la mesure ou les outils gratuits sont egalement tres performant.

    [Répondre]

  15.  Mehdi Laanaït says:

    Excellent article Brice.

    Je m’en servirai pour mes futurs padawans :)

    [Répondre]

    Brice Bottégal le 08 Mars 2010 à 08:31 a répondu :

    ^^ Merci Mehdi ! Content que ça puisse te servir, tu me diras si tes padawans ont apprécié :)

    [Répondre]

  16.  Olivier Duffez says:

    Bravo Brice, je n’avais jamais lu de présentation aussi complète sur le sujet. Je mets le blog dans mon agrégateur de flux !

    Olivier

    [Répondre]

    Brice Bottégal le 09 Mars 2010 à 21:12 a répondu :

    Merci Olivier pour le compliment ! Je compte annoncer (si c’est possible) le lancement de ce blog et la parution de cet article sur le forum de WRI dans la rubrique Google Analytics. Félicitation d’ailleurs pour le très grand succès de votre site.

    [Répondre]

  17.  Stéphane Hamel says:

    Super article! Excellente intro!

    Un petit détail: l’internet est beaucoup plus vieux que 1990 – en fait, il remonte à l’époque de la guerre froide, vers les années 60.

    À+
    Stéphane

    [Répondre]

    Brice Bottégal le 03 Mars 2010 à 15:30 a répondu :

    Bonjour Stéphane !

    En effet, je voulais dire que l’année 1990 a été l’année où Internet est sorti des centres de recherche pour arriver dans le grand public. Je vais modifier ça.

    Merci beaucoup pour le compliment et le retour :D

    [Répondre]

 

Laisser un commentaire