En février 2011, un décret validait la création d’un grand portail de données publiques (open data). Dix ans plus tard, connue sous le nom d’ETALAB, la plateforme alimente en data (www.data.gouv.fr) et en outils (www.api.gouv.fr) un nombre grandissant de professionnels exerçant dans des secteurs d’activités multiples et variés.

Parmi les 9 grandes catégories de données aujourd’hui disponibles, le bloc « environnement, énergie, logement » intéresse particulièrement les professionnels de l’immobilier. Notamment depuis le décret du 28 décembre 2018 visant à améliorer la transparence des marchés fonciers et immobiliers par la publication du fichier DVF (Demandes de Valeurs Foncières).

Dans les faits, l’ensemble des transactions immobilières réalisées depuis 2015 sont recensées et qualifiées par la direction générale des finances publiques dans un fichier précisant entre autres par chacune d’entre elles : les informations cadastrales, les prix de vente, les surfaces des biens ou encore les dates de réalisation des transactions. Le fichier est mis à jour tous les 6 mois, en avril et en octobre.

Cette mine d’informations, représentant plus de 6 millions de biens vendus (il se vend en moyenne 1 million de logements par an), a grandement amélioré notre capacité collective à réaliser des estimations par des extractions ciblées, la mise en place d’outils statistiques, voire de sites internet dopés pour la plupart par des algorithmes et de l’intelligence artificielle (IA).

Cependant, si la base de données initiale est assez similaire, il n’est pas rare qu’une même demande d’estimation aboutisse à des valeurs bien différentes selon les sources (que ce soit un prix au mètre carré, une estimation ou une fourchette d’estimations). Le périmètre pris en compte, le choix des critères ou encore les modalités d’actualisation des prix sont autant de variables qui peuvent justifier des écarts dans les résultats. Certains sont dans le marché, d’autres moins cohérents. Un site qui sera pertinent pour une demande, ne le sera pas de fait pour une autre. Et inversement. En conséquence, nous vous invitons à recouper plusieurs sources d’informations, 3 minimum, et à garder une réserve certaine sur les conclusions mathématiques qui en découleraient.

En toute hypothèse, même avec l’injection de data des plus grands réseaux d’agences et de mandataires, même avec la technologie la plus aboutie (machine learning, big data…) développée par une équipe d’experts en data science, ces informations statistiques seules ne suffisent pas pour finaliser une estimation. Leur réelle utilité est de proposer une fourchette attractive et réaliste, et de proposer de mettre relation un propriétaire vendeur avec un professionnel de l’immobilier, car finalement, rien ne remplace le travail et l’expertise de ce dernier. Ces différentes sources sont alors des points d’appui pour lui, permettant de réduire les marges d’erreur, et in fine de justifier une valeur.