Dans un monde où l’incertitude est devenue la norme, il n’y a d’autre choix que de s’appuyer sur l’analyse des données du passé, afin de prédire une situation future et de prendre des décisions pour donner vie au scénario envisagé.
Mais comment analyser les milliards de données qui proviennent de milliers de sources (liées entre autres à l’IoT, Internet, Plateformes) ? Comment identifier celles qui sont pertinentes dans une situation spécifique ? Comment préserver l’anonymat des individus concernés et garantir une utilisation responsable des informations recueillies ? C’est là qu’intervient l’intelligence artificielle, qui vient éclairer ce brouillard de data, et le cadre règlementaire sur la protection des données (RGPD – texte européen qui encadre le traitement des données de manière égalitaire) effectif depuis le 25 mai 2018. Les outils de gestion basés sur le machine learning sont capables de repérer l’information importante dans la masse et d’anticiper des problématiques à venir.
Les solutions de gestion disposent aujourd’hui de routines d’intégration qui peuvent qualifier les données avec des règles métiers très précises. Cela permet de garantir la qualité et la véracité de la data finale. Les données sont normalisées, et deviennent intelligibles pour tous. Car il va de soi qu’un directeur financier n’aura pas forcément besoin des mêmes informations qu’un logisticien ou qu’un directeur juridique. Et pourtant, ils s’appuient tous sur les mêmes données.
Parallèlement, soulignons la croissance des situations de co-innovation. Aujourd’hui, les organisations mettent en commun leurs talents, leurs moyens et leurs compétences. Cela implique aussi d’être en mesure de partager leurs données, d’où l’importance de s’appuyer sur des écosystèmes d’information ouverts et des solutions de collaboration informatique performantes capables de qualifier les ressources plurielles des différents intervenants pour les rendre homogènes.