Un référentiel unifié pour garantir la qualité des données immobilières
Pour un business case de la gouvernance des données.

La donnée, un actif ou un passif ?

La donnée est une représentation de notre activité, un flux à l’état pur. Plus encore que sa capture, son stockage, son partage, c’est sa qualité qui détermine sa valeur. C’est bien ce que 84 % des CEO ont compris : la qualité de leurs données représente un sujet majeur pour leur exploitation1. Une donnée erronée devient un passif pour son propriétaire. Selon une étude du MIT, nous savons déjà depuis plusieurs années que la non-qualité occasionne d’importantes pertes de marge brute pour les entreprises2. Si fiabiliser la data ne coûte que 1, la fiabiliser ultérieurement coûte 10 et sa découverte ultérieure par le client coûte 1003. Comment expliquer une telle situation ? Des choix stratégiques opérés à partir d’informations erronées, auxquels vient s’ajouter le temps perdu par le métier et les services informatiques à traiter ces données inexactes. IBM estime que les données peu qualitatives coûtent à l’économie américaine 3 100 Mds$ par an4. D’où la nécessité d’instaurer une gouvernance des données pour en assurer la qualité. Cependant, les chiffres ne mentent pas, et les coûts non plus. Seule une donnée vérifiée et exacte est un véritable actif dématérialisé que l’on saura valoriser à part entière à l’image de nos patrimoines immobiliers « matériels ».

Un socle de données pour bâtir une gouvernance de la data

À ce stade de la maturité du marché, il est important d’apporter éclairage et structure à la masse de solutions émergentes. Plus encore qu’une solution informatique, le secteur a besoin d’un socle référentiel qui a la capacité de traiter, mettre en qualité et redistribuer des données. La Plateforme est la solution des solutions : en amont, elle automatise la collecte des données provenant de sources hétérogènes et assure la fiabilisation de ses valeurs avant de redistribuer des données mises en qualité aux différents acteurs du secteur immobilier. Tel est le cercle vertueux que la constitution d’un référentiel, ou « master data », permet de mettre en place. La qualité de la donnée, qu’est-ce à dire ? L’édifice de la qualité compte plusieurs étages : la précision, l’exhaustivité, la pertinence, la validité, la fraîcheur et la cohérence. Une première dans le monde de l’immobilier à une échelle de cette magnitude : l’Union notariale financière (Unofi) a mis en place avec La FoncièreNumérique un système de gouvernance de la donnée qui collecte automatiquement des données provenant de sources diverses, en monitore et mesure la qualité en temps continu.

Le business case d’un référentiel unifié de données

Plus encore que d’éviter les coûts liés aux erreurs, des données de qualité ouvrent aux bailleurs, propriétaires et investisseurs de nouveaux horizons de valorisation. En nous fondant sur un patrimoine digital fiabilisé, nous, les acteurs de l’immobilier, accédons à de multiples avantages compétitifs pour mieux décider, investir, manager et bâtir ensemble. Dans le cas de l’Unofi, le temps de recherche des informations patrimoniales était en moyenne de l’ordre de 5 h/semaine par collaborateur. La mise à disposition via la plate-forme de La FoncièreNumérique de toutes les informations, sans effort de formation, a permis de constater une économie de 50 % après six mois, soit près de 20 jours récupérés sur une année par collaborateur. Disposer de données de qualité et par conséquent d’une vision granulaire de nos patrimoines, c’est la condition sine qua non pour une prise de décision à la fois éclairée, partagée et accélérée, ainsi qu’une gestion du risque optimisée avec la possibilité de détecter en amont des signaux faibles (risques réglementaires, exploitation, gestion…).

Le référentiel, première pierre à l’édifice d’un immobilier apprenant grâce à l’IA

Notre engagement pour une donnée patrimoniale de qualité coïncide avec notre investissement dans le développement d’applications de machine learning qui s’alimentent de larges jeux de données. Sans données fiables, pas d’intelligence artificielle utile envisageable. Munies de données qualifiées, nos applications de machine learning peuvent ainsi offrir aux acteurs de l’immobilier leurs modèles prédictifs pour une exploitation patrimoniale optimisée. La qualité de la data, c’est notre assurance intelligence pour inventer ensemble des modèles de valeur inédits dans l’immobilier, sa conception, son évolution, son exploitation.

1- Kale Panoho, “Council Post: The age of analytics and the importance of data”, Forbes, octobre 2019
2- Thomas C. Redman, “Seizing Opportunity in Data Quality”, MIT Sloan, 27 novembre 2017.
3- John Way, “Seizing Opportunity in Data Quality (mit.edu)”
4- “The Costs of Poor Data Quality”, Anodot.

Publié dans Business Immo, le 10 septembre 2021

Recommended Posts