La data dans tous ses états

Il en va du vaste territoire de la data comme des modes. Il y a cinq années, tout le monde pensait processus. Depuis deux ans, tout le monde parle de la data comme de la pierre philosophale des alchimistes. La data est souvent comprise comme parée de deux vertus : celle d’alimenter en carburant les processus de l’entreprise et celle de se substituer à l’intelligence humaine au travers d’outils de Machine Learning / IA et de Data Analytics piochant dans des merveilleux Data Lakes. Ces outils sont souvent perçus comme se substituant à l’intelligence humaine pour ce qui est des prises de décision. La réalité est beaucoup plus nuancée. Tout d’abord, la référence aux processus et aux données est aussi vieille que les systèmes d’information. Selon le principe « Garbage in – Garbage out », on ne peut pas faire du pilotage efficace avec des données corrompues. C’est là tout l’enjeu de la qualité des données qui, comme le montre très clairement Benoît Caplain, implique une réflexion très structurée sur la stratégie de l’entreprise, les enjeux des métiers, les outils techniques d’aide à l’extraction et au traitement de données. Ainsi que le démontre Robert Maembe, les outils ne sont certes pas une quotité négligeable dans la construction d’un système de pilotage. Dotés de facilités d’extraction, d’analyse et de tri de données en grand volume, ils représentent la couche supérieure du système d’information et, pour être efficaces, supposent un nettoyage sous-jacent des bases de données. Ce nettoyage s’appuie, nécessairement, sur une réflexion stratégique à dominante intuitive. Que veut-on piloter ? Pour quelles décisions ? Robert Worsley fait clairement ressortir la dimension organisationnelle d’un projet de numérisation, tant en termes de rôles et compétences que de gouvernance. Nous espérons que ce dossier, à la fois technique et pratique, aidera les entreprises cherchant à se numériser – PME notamment – à s’organiser de la manière la plus efficace. Typiquement, un projet de digitalisation doit comporter une phase préalable de revue du Business Model et des processus, puis, comme l’expose Benoît Caplain, une phase de définition des données cœur de métier ou metadonnées et enfin une phase d’outillage reposant sur des bases solides.

Big Data et IA ne sont pas nécessairement synonymes de complexité comme le montre Antony Seifert dans son article. La simplicité et le self-service sont aussi gages de réussite.

Autant de sujets qui sont la base des travaux et des échanges au sein des groupes de la DFCG relatifs à la transformation digitale des fonctions financières, les systèmes d’information, la RPA et l’Automatisation intelligente.

Nous vous souhaitons une bonne lecture. Les auteurs des articles de ce dossier se tiennent à votre disposition.