Une plateforme de data-visualization doit-elle faire disparaître la data ?

On dit qu’elles sont l’avenir du commerce ; qu’elles ont fait gagner Donald Trump ; qu’elles entraînent des intelligences artificielles… Puissantes et désirables, les données sont partout.

La jeune société Phenix, en plein essor, projette à son tour de créer sa plateforme pour valoriser ses données auprès de ses clients. Mais pour elle, la question de les supprimer va se poser.

1

Phenix : une entreprise, des millions de données

Phenix propose à la grande distribution de valoriser leurs invendus par du don, des bio-déchets et de la vente en date courte. Dans ce processus, la société collecte chaque jour des données sur les produits, qui peuvent permettre de réduire ces invendus qui pénalisent le chiffre d’affaire.

Mon rôle : concevoir une plateforme de visualisation pour les valoriser auprès de ses clients.

Les recherches et les 1ers personas ont fait émerger un besoin récurrent pour les futurs utilisateurs : l’efficience. Si réduire « la casse » est important, la gestion quotidienne d’un supermarché est chronophage et sera toujours prioritaire par rapport à l’analyse de données.

La phase de découverte a été réalisée pendant les vacances d’été. Les clients étant peu disponibles, les 1ers entretiens ont été effectués avec des acteurs clés chez Phenix : les chefs de projet et les commerciaux, au contact quotidiennement avec les clients, et eux-même futurs utilisateurs de la plateforme.

  • Recueil des indicateurs clés pour les magasins
  • Hypothèses de  job stories puis de personas.
  • Le sujet étant complexe, elles ont été testées et affinées à 2 reprises : en interne avec des entretiens, auprès des clients avec des questionnaires en ligne.
  • Détermination des enjeux primaires et secondaires des personas, et de principes de design.
  • Un lexique universel et évolutif est mis en place. En effet, certains mots avaient des sens différents en fonction des interlocuteurs.

2

Soulager les utilisateurs de l’analyse de données : l’hypothèse

Pour répondre à cet enjeu d’efficience, le point de départ de la réflexion a donc été : aujourd’hui, peut-on proposer, plutôt que des chiffres ou des graphiques, une analyse de ces derniers ?

L’hypothèse était que cela permettrait :

D’éviter la surcharge d’information de l’utilisateur. Un peu comme Google Now centralise les informations utiles issues de masses de données.

De diminuer les erreurs humaines dûes à la fatigue ou l’émotion en simplifiant ou supprimant l’analyse des chiffres. 

Des interactions simplifiées, plus humaines. Si on va à l’extrême, comme les assistants de maison qui parlent plutôt qu’empiler des chiffres sur un écran.

De faire remonter très rapidement des anomalies, comme la finance et le trading haute fréquence qui utilisent beaucoup d’algorithmes autonomes.

3

Concrètement : un peu naïf comme vision

Des recherches et entretiens avec des spécialistes ont permis d’éclairer la situation. Automatiser le traitement des données, que ce soit avec la manière de les représenter, de les choisir, ou avec des algorithmes, c’est faire une partie du chemin décisionnel de l’utilisateur à sa place.

Si notre cerveau a une capacité d’analyse rapide, la répétition de cette tâche consomme du temps et de l’énergie, en proportion de la masse de données à analyser. Voici un exemple d’analyse simple par un responsible qualité de magasin :

  • voir la donnée, 1600€ ht d’invendus cette semaine,
  • la comprendre : c’est la valeur hebdomadaire en prix d’achat des produits que le magasin ne pourra pas vendre avant leur DLC,
  • la connecter à d’autres données, comme les invendus de la semaine dernière,
  • s’en faire une représentation mentale, ça monte,
  • en tirer une information : La casse du magasin a augmenté,
  • questionner sa pertinence,
  • la confronter au contexte : le directeur régional a donné un objectif à la baisse,
  • pour finalement en tirer du sens : c’est mal parti pour la prime mensuelle,
  • et réagir : enquêter sur la raison de cette hausse.

Recherches internet et entretiens avec des spécialistes :

  • Nicolas Enjalbert, Data & Design lead, Numa Paris.
  • Louis-Jean Teitelbaum, Creative Technology Lead, Fjord Paris. Notamment en charge de Carrefour.
  • Anthony Firka. Lead UX designer, BNP Paribas, confronté quotidiennement à des dashboards et à la data-visualization.

Quand on voit ce cheminement mental dans son ensemble, on se rend compte que parler de supprimer les données est très binaire.

La donnée brute  se combine et se transforme petit à petit pour prendre du sens. Supprimer les données, c’est donc le cas extrême où l’on fait tout le chemin ou presque à la place de l’utilisateur.

Finalement la question est “où placer le curseur, jusqu’où transformer les données pour procurer la meilleure expérience utilisateur possible ?”

4

Mais alors comment transformer ces données ?

En atelier chez Phenix, la transformation des données a été abordée, par le prisme de 4 moyens identifiés et documentés en amont :

I- Sélection

Commençons par l’évidence, on peut choisir les données à montrer. Cela peut être fait à la conception par le designer, ou avec des outils pour que l’utilisateur fasse son propre tri.

II- Métamophose

On peut aussi donner une forme aux données pour qu’elles soient comprises plus facilement. Ici Russell Goldenberg nous montre où boire une bière en fonction de sa qualité et de son prix.

III- Narration

Il est aussi possible de changer de perspective et de commencer par raconter une histoire. Les données ne seront qu’un élément d’illustration, au service de la narration. Ici on peut voir la place des investissements dans le sport féminin.

IV- Automatisation

L’outil le plus récent est l’automatisation de tâches par des algorithmes, voire même des algorithmes qui apprennent automatiquement, le fameux machine learning. En théorie, l’analyse peut être complètement programmée.

L’hypothèse issue de l’atelier : une plateforme hybride et évolutive

A

Insights
Envoyer des données transformées en analyses de manière automatique.

B

Exploration
Donner accès à des données sélectionnées et présentées dans une interface intuitive.

Un atelier de co-création en interne chez Phenix.
Objectif : évaluer la possibilité de procurer une meilleure expérience de pilotage par les données d’invendus qu’avec la commande initiale, une page web de dataviz générique.

  • En amont, recherche sur les différentes méthodes de transformation des données. Entretien avec Clodéric Mars (CTO, Craft Ai) sur les possibilités offertes par le machine learning.
  • Sélection des participants, création d’un support de présentation à projeter, d’un fichier excel de timebox et des éléments papiers pour les ateliers.
  • Animation de l’atelier, chronometré, avec un jeu de rôle pour générer de l’empathie, un « crazy 8 », et une confrontation sur des écrans préliminaires de visualisation du flux de la casse.
  • Compilation, synthèse et restitution des informations acquises.

A

Envoyer des analyses

Côté pile : Pour faire gagner du temps aux utilisateurs, Phenix est capable d’envoyer des analyses automatiques pertinentes. De plus, les envoyer par email permet de s’inscrire dans leur quotidien. Ils se servent des emails automatiques provenant des autres logiciels qu’ils utilisent comme liste de tâches.

Ici par exemple à 10h, après le rush de la rotation des rayons, Laurent, notre directeur de magasin reçoit un email. Une alerte attire son attention. Un produit a été anormalement mis en casse la veille. Il va enquêter.

Ce rapport est intégré dans une mini narration en 3 temps (le mois dernier, aujourd’hui, demain), correspondant à 3 moments clés de la vie d’un responsable magasin. Chaque rapport contient des alertes basées sur des analyses et des chiffres clés pour enrichir sa vision opérationnelle.

  • Réalisation d’arborescence, de wireframes papier, puis d’écrans sur Sketch.
  • Réalisation de prototypes, sur Invision pour le site web et en jpg pour les alertes par email.
  • Les données compilées n’étant pas accessibles à ce moment, création de lots de données crédibles pour les testeurs avec les chefs de projet.
  • Écriture du protocole de test.
  • Test auprès de chefs de projet Phenix (persona Mathieu), d’un directeur de magasin (persona Laurent) et de responsables qualité (persona Sarah).
  • Modification des prototypes après chaque test.

Pourquoi ne pas plus transformer les données ?
Les enseignements des tests utilisateurs

En pratique, on a atteint la première limite à la suppression totale des données avec cette alerte de “chute du don”. En lecture rapide dans l’email, les testeurs l’ont tout simplement négligée.

C’est à la lecture du chiffre clé en mineur (-51.7% en 1 semaine) qu’ils ont saisi son intérêt.

Ce phénomène c’est Dan Wagner, ancien directeur des données de la campagne d’Obama, qui l’explique le mieux.

Les femmes et les hommes ont une vision d’ensemble du monde et peuvent évaluer les données avec un spectre plus large. Un responsable de magasin, contrairement à un algorithme, connaît ses collègues, le fonctionnement précis du magasin, peut interroger ses prestataires.

Il a plus d’options pour faire coïncider les données avec la réalité : recherche de corrélations, utilisation de différentes sources d’information, interrogation des biais méthodologiques…

Une phrase n’a qu’une seule interprétation. Un chiffre en a de multiples pour un utilisateur averti. Il est important d’en laisser l’accès.

B

Laisser explorer les données : pourquoi et comment

Spectre d’analyse plus large.
Une vision « humaine » du monde, plus complète, permet des corrélations inaccessibles aux algorithmes, une meilleure analyse, et la découverte de nouveaux insights.

Déchiffrer son magasin.
Analyser soi-même les données donne une vision précise du fonctionnement du magasin, de la chaîne de valeur, et permet d’être plus efficace dans son travail de tous les jours

Satisfaction intellectuelle.
Comprendre le dessous des cartes permet  une meilleure expérience. Il faut prendre en compte la frustration quand on nous en empêche, et la curiosité.

Concrètement, côté face, l’objectif du site web est de donner une forme plus digeste aux données. L’interface a été conçue suivant le mantra de Ben Shneiderman : Aperçu d’abord, puis détails à la demande avec zoom et filtre.

Ici, pour l’aperçu, le flux de casse vécu en magasin sert de base à la navigation pour trouver intuitivement ce que l’on cherche. L’utilisateur voit les destinations des invendus et peut cliquer sur les détail de chacune.

Et justement, pour ces détails sont appliqués les principes expliqués par la psychologue Anne Treisman : la perception préattentive. Nous pouvons, en regardant un graphique pendant une fraction de seconde, répondre à des questions sur son contenu de manière très fiable, sans effort. Ici par exemple les longueurs des barres en 2 dimensions permettent des comparaisons quantitatives plus efficaces que les graphiques basés sur une surface (camembert) ou en 3D.

Un système doit être évolutif  pour éviter l’obsolescence, qui est non seulement un écueil commercial, mais aussi éthique. Après tout, des responsables vont prendre des décisions ayant un impact sur les employés à partir des informations présentées. Ces dernières doivent donc être pertinentes et justes.

Le site propose donc des outils pour affiner les analyses et les alertes que l’on a vu en partie A (en plus des analytics) :

  • Un feedback des alertes e-mails.
  • L’utilisateur peut sur le site web choisir les alertes pertinentes, s’en désabonner et en préciser la raison.
  • Des boutons « créer une alerte » accompagnent les graphiques. L’utilisateur peut donc en fonction de ses besoins spécifiques enrichir l’écosystème d’analyses.
  • Réalisation d’arborescence, de wireframes papier, puis d’écrans sur Sketch.
  • Réalisation de prototypes, sur Invision pour le site web et en jpg pour les alertes par email.
  • Les données compilées n’étant pas accessibles à ce moment, création de lots de données crédibles pour les testeurs avec les chefs de projet.
  • Écriture du protocole de test.
  • Test auprès de chefs de projet Phenix (persona Mathieu), d’un directeur de magasin (persona Laurent) et de responsables qualité (persona Sarah).
  • Modification des prototypes après chaque test.

Conclusion... tl;dr

Le travail de design d’expérience utilisateur a permis de fournir à Phenix une ligne directrice pour valoriser ses données sans les supprimer mais en les transformant pour qu’elles s’adaptent à divers moments-clés de la vie de ses utilisateurs.

Ainsi la plateforme prend une forme duale, en poussant des analyses rapides issues des données & et en laissant l’accès complet à ces dernières.

  • Les ateliers et entretiens ont permis de coordonner les équipes dans un but commun (et souvent de communiquer des informations collectées par leurs collègues).
  • Le prototype de site web et de système d’analyses continue de subir des séries de tests et d’évolutions.
  • Des fichiers partagés mis en place permettent un travail collaboratif (prototype Invision, lexique, types d’analyses…)
  • Les personas, job stories, principes de design et amorce de style-guide sont des références dans l’évolution de cette plateforme.

La suite ?

À l’avenir, une fois ce 1er MVP installé, plusieurs chantiers seront nécessaires :

  • Faire des tests de machine learning avec la société démarchée.
  • Travailler le visual design, les animations et le procédé narratif, pour générer de l’émotion.
  • Étendre le service aux groupes (Franprix).
  • Mettre en place un processus qualitatif d’amélioration à base d’interviews régulières des clients.

Quelques documents de travail