La qualité des données est un enjeu fondamental depuis les débuts de l'informatique et du digital. Comme l'exprime l'adage bien connu, "garbage in, garbage out" : en d'autres termes, la précision et la pertinence des informations restituées dans vos systèmes (reportings, analyses, outils, Erp, CRM, systèmes d'information, etc.) sont directement liées à la qualité des données entrantes. Une donnée de qualité est une véritable aide à la décision pour les dirigeants, managers, et chefs de projet.
Selon notre expérience, la question de la qualité des données intervient systématiquement dans les projets impliquant de l'analyse des données, émergeant inévitablement à un moment ou à un autre.
Quelques exemples pratiques de problèmes de non-qualité des données :
- Pour une entreprise industrielle, le pilotage par le Directeur Commercial de la performance des commerciaux était rendu impossible du fait de la faible qualité des informations saisies dans le CRM : données clients absentes, saisie tardive de l’avancement des négociations avec les clients, etc.
- Pour une entreprise de gestion de location immobilière, la saisie “analytique”, permettant d’attribuer des dépenses et des revenus aux actifs immobiliers, était faite de façon incomplète et non systématique, empêchant le calcul de la rentabilité de ces actifs par les décideurs.
- Un courtier en assurance automobile partageait aux autorités des informations selon un format incohérent, générant des erreurs d’interprétation (03/05/2023 était interprété comme le 5 mars 2023, et non comme le 3 mai 2023).
- Un opérateur de télécommunication payait certaines de ses factures fournisseurs plusieurs fois, à cause d'une mauvaise saisie des numéros de factures, entrainant un échec de l'algorithme de détection de doublons.
Dans certains secteurs fortement réglementés (Banque, Assurance), la qualité des données peut même faire l’objet de projets qui lui sont entièrement consacrés. Ce type de processus correspond à ce que l'on appelle la gouvernance des données. Dans ces secteurs en effet, la qualité de données constitue une contrainte légale forte :
- Dans le secteur bancaire, les accords de Bâle exigent ainsi des banques qu’elles disposent de processus solides de gestion des risques, ce qui inclut une attention particulière à la qualité des données utilisées pour évaluer et quantifier les risques financiers.
- De même, la Directive Solvabilité II, de l'Union européenne, concernant le secteur de l'assurance, établit des exigences concernant la qualité des données utilisées dans les modèles actuariels et les évaluations des risques.
Quel que soit votre secteur d’activité, l’exploitation pertinente de vos données impose en tout cas de “mettre sous contrôle” la qualité de celles-ci. Ceci implique généralement :
- Un travail ponctuel de “nettoyage” et de remise en qualité des données,
- La mise en place d’outils de gestion des données et/ou de process pour assurer un maintien dans le temps de la qualité des données.
La non-qualité des données collectées peut venir de problèmes techniques, informatiques, ou, la plupart du temps, d’une mauvaise qualité lors de la saisie des données (ou l’absence de saisie ou de mise à jour de ces données). Ainsi, faire un travail sur la qualité des données revient bien souvent à faire preuve d'une connaissance client sans faille, ou simplement travailler en proximité avec le métier, qui est souvent le seul à pouvoir juger de la qualité des données.
Dans cet article, nous vous présentons les principaux enjeux de la qualité de la donnée, et ce qu’il faut savoir pour aborder pertinemment le sujet.
Comment définir et mesurer la qualité des données ?
La qualité de la donnée peut généralement être analysée selon les grandes dimensions suivantes :
- Exactitude : L'exactitude des données concerne la précision des informations collectées et stockées. C'est la correspondance entre la valeur enregistrée dans le système et la réalité du monde extérieur. Par exemple, un numéro de téléphone inexact peut entraîner des erreurs de communication avec un client, et ainsi détériorer la gestion de la relation client.
- Cohérence : La cohérence fait référence à l'uniformité des données dans le temps et à travers différents systèmes ou bases de données. Cela signifie que les mêmes informations devraient être identiques, quel que soit l'endroit où elles sont stockées ou consultées.
- Validité : La validité des données est relative à la conformité, aux normes, ou aux formats définis. Par exemple, un code postal valide doit correspondre à une région géographique spécifique.
- Intégrité : L'intégrité des données concerne la complétude et la cohérence des données au sein d'un système. Elle vise à éviter la corruption des données et à assurer que les relations entre les ensembles de données sont maintenues.
- Disponibilité / Fraîcheur : La disponibilité des données fait référence à la facilité et à la rapidité avec lesquelles les données peuvent être récupérées et utilisées lorsque cela est nécessaire.
- Exhaustivité : L'exhaustivité des données se rapporte à la présence de toutes les données requises. Il faut parfois fouiller longtemps parmi des sources de données différentes et nombreuses. Des données incomplètes peuvent entraîner une analyse biaisée ou incomplète, conduisant à des décisions mal informées des décideurs.
Les enjeux de la qualité de la donnée
La non-qualité des données et ses dangers
La non-qualité peut représenter une menace pour de nombreuses opérations commerciales et générer une série de problèmes organisationnels. Un peu plus concrètement, voici trois situations fréquemment rencontrées où des données de mauvaise qualité peuvent être particulièrement dommageables :
- Mauvaises décisions business : Des données de mauvaise qualité se répercutent sur vos analyses business et peuvent donc conduire à des analyses erronées, ce qui entraîne à son tour des décisions commerciales hasardeuses. Vos reportings auront beau l'air visuellement irréprochables, ils perdent alors toute leur valeur si les données intégrées y sont de mauvaise qualité.
- Opportunité manquée : L'exploitation efficace des données est devenue un fort levier de détection d’opportunités, et peut donner lieu à de nouvelles opportunités commerciales.
- Baisse de productivité : Les employés peuvent passer beaucoup de temps à nettoyer et à corriger les données défectueuses, ce qui peut réduire leur productivité et limiter leur capacité à se concentrer sur des tâches plus stratégiques. Cette perte de temps et d'efficacité peut finalement se traduire par des coûts plus élevés et une performance globale réduite.
Les avantages d’une donnée de qualité
Les avantages sont nombreux et varient avec votre secteur d’activité et notamment avec votre utilisation de la donnée. Le plus fréquemment, une donnée de qualité permet pour les entreprises de se démarquer dans les domaines suivants :
- Efficacité de vente : Une qualité supérieure des données peut aider à augmenter l'efficacité des ventes en permettant une meilleure segmentation des clients, une prévision des ventes plus précise et une meilleure compréhension du comportement des clients etc…
- Meilleure productivité et gain de temps : Des données de haute qualité peuvent améliorer la productivité en réduisant le temps passé à corriger des erreurs, à chercher des informations manquantes ou à résoudre des conflits de données. Cela permet aux utilisateurs de se concentrer sur des tâches à valeur ajoutée.
- Meilleure scalabilité : Avec des données de qualité, les entreprises peuvent facilement augmenter leur échelle d'opérations. Les systèmes basés sur des données solides et fiables sont plus faciles à étendre et à reproduire dans de nouvelles régions ou de nouveaux segments de marché. Cela facilite la croissance et l'expansion de l'entreprise.
- Prise de décision plus efficace : Des données précises et à jour, accompagnées de rapports de qualité, permettent d’améliorer la prise de décision en fournissant une vue claire et fiable de l'entreprise.
Cette liste est évidemment non exhaustive et l’application à votre domaine pourra faire apparaître de nombreux avantages.
Optimiser la qualité des données : 5 étapes essentielles, de l’audit à la maîtrise dans la durée
Nous vous présentons ici les grandes étapes d’un projet d’amélioration des données au sein de votre organisation.

#1 Cartographiez vos données
Tout comme une carte et une boussole sont indispensables pour se lancer dans une course d’orientation, il est primordial de disposer d’une cartographie claire des données de son entreprise et des flux qui y sont associés avant de traiter la question de la qualité en tant que telle.
Or, force est de constater que la majorité des entreprises ont une idée bien limitée de leur architecture de données ! S’il existe des outils permettant de cartographier en partie les flux de données, l'exercice de cartographie consiste bien souvent en un travail d'investigation, de fond, nécessitant une vue transverse du fonctionnement de l'entreprise, de ses process et de ses métiers.
L’exercice de cartographie des données permet d’évaluer votre patrimoine de données, et de documenter l’ensemble des traitements effectués, de l’amont (ex : saisie par un commercial d’un projet de contrat dans le CRM) à l’aval (ex : restitution dans un tableau de bord de Direction).
Mener à bien cet exercice nécessite à la fois une très bonne compréhension des aspects techniques, mais également une capacité à travailler en proximité avec les équipes métier, qui sont souvent les plus à même de qualifier la donnée.
#2 Évaluez les conséquences de la non-qualité de données
Les conséquences des problèmes de qualité sont généralement bien connues des équipes métier et des équipes de Direction :
- doutes permanents sur la validité des chiffres,
- débats sur la responsabilité des erreurs dans les données,
- retard dans la production d’états financiers, etc.
#3 Mesurez et quantifiez la qualité de vos données

Comme le veut la devise attribuée au physicien et ingénieur britannique Lord Kelvin (1824-1907) : "Ce qui ne peut être mesuré ne peut être amélioré." (“If you cannot measure it, you cannot improve it.”)
Il est ainsi indispensable de quantifier précisément les problèmes de données, en matière de fréquence des erreurs, de sources, etc.
Le contrôle de la cohérence des chiffres peut se faire sur une base de règles logique (ex : on sait que certaines combinaisons sont impossibles), ou sur une base statistique (une combinaison de données est peu probable, et on peut la suspecter de révéler une erreur) permet de détecter les anomalies potentielles.
Au-delà d’un sondage ponctuel, il est indispensable de mesurer la qualité de la donnée sur la durée. Le développement d’un tableau de bord de suivi de la qualité de la donnée présente de nombreuses vertus :
- Possibilité d’identifier instantanément les indicateurs de qualité de données problématiques et à traiter,
- Transparence donnée à l’ensemble des équipes sur les progrès réalisés,
- Motivation des équipes, qui ne veulent pas se retrouver identifiées comme étant les “mauvais élèves” à la source de problèmes de qualité de données.
Enfin, des solutions technologiques "low-code" voire "no-code" sont disponibles sur le marché pour vous aider à devancer les problèmes de données en les détectant automatiquement dès qu'ils apparaissent et avant que d'autres personnes ne soient affectées.
#4 Autant que possible, traitez les problèmes à la racine
Une fois les problèmes de qualité identifiés, il va s’agir :
- à court terme, de corriger les problèmes,
- de mettre en place des mesures pour repérer et traiter le plus efficacement possible les problèmes qui ne manqueront pas d’apparaître à l’avenir.
Dans la mesure du possible, le plus efficace est de contrôler la qualité des données au moment de sa création ou acquisition, de manière préventive. Dans les systèmes sources, il peut par exemple s’agir d’interdire la saisie de certaines données incohérentes, et de suggérer des corrections à l’utilisateur.
Ce traitement à la racine n’étant pas toujours possible – car pouvant nécessiter des développements sur mesure dans des systèmes dont on ne maîtrise pas forcément la technologie – il faut alors adopter une approche corrective. Les indicateurs calculés et restitués dans les tableaux de bord de qualité de la donnée permettent alors de repérer les erreurs, et de d’orienter vers les systèmes sources dans lesquels elles devront être corrigées.
#5 Adaptez vos process et votre organisation
Les approches décrites jusqu’ici nécessitent de mettre en place ou d’adapter l’organisation humaine.
Pour garantir un haut niveau de qualité dans la durée, les approches correctives nécessitent en effet de repenser les processus qui créent ou modifient les données.
Les processus peuvent être adaptés de deux manières au moins :
- Process control : en insérant des vérifications et des procédures de contrôle dans le processus de production des données lorsque : (1) de nouvelles données sont créées, (2) des ensembles de données sont mis à jour, ou (3) de nouveaux ensembles de données sont accessibles par le processus.
- Process redesign : en remaniant les processus afin d'éliminer les causes de la mauvaise qualité et introduire de nouvelles activités qui produisent des données de meilleure qualité.
Dans les organisations à grande échelle, de véritables démarches de Data Governance sont mises en place pour distribuer la responsabilité de la qualité de la donnée au sein de l’organisation.
La qualité de donnée : ce qu'il faut retenir
Bien que de plus en plus présente dans les esprits des dirigeants et des équipes, la qualité de donnée reste un enjeu majeur pour de nombreuses organisations.
Cartographier vos données, comprendre vos sources et l'ensemble des besoins est crucial pour de nombreuses raisons citées plus haut.