webleads-tracker

 

La donnée, nouveau carburant de l’entreprise

La donnée, nouveau carburant de l’entreprise

Alors que la déferlante du numérique envahit le monde économique, la performance et la compétitivité des entreprises sont dépendantes de leurs capacités d’anticipation. Pour une prise rapide et pertinente de décision, l’analyse d’importants volumes de bases de données dont la fiabilité est avérée est strictement nécessaire.

L’avènement de l’exploitation de l’intelligence artificielle offre aujourd’hui aux organisations des outils d’analyse de plus en plus performants. Encore faut-il que les architectures de données y soient préparées.

Les entreprises génèrent et collectent des données en masse qui sont encore loin d’être exploitées efficacement. Elles sont généralement organisées en silos de bases de données dans les entreprises et leur validité n’est pas toujours garantie. Entre le moment où elles sont collectées et leur mise à disposition pour être analysées, leur exploitation n’est pas forcément compatible avec une activité qui s’exerce en temps réel.

La qualité de la donnée est pourtant d’une importance essentielle pour le pilotage d’une entreprise

La conception des bases de données relationnelles n’est généralement pas adaptée à une gestion efficace, économique, de masse de données en croissance continue. La qualité de la donnée est pourtant d’une importance essentielle pour le pilotage d’une entreprise, et son exploitation pertinente représente un véritable avantage concurrentiel pour ceux qui la maîtrisent. Malheureusement, beaucoup d’organisations n’ont pas encore initié quoique ce soit dans ce domaine par ignorance du problème et de l’enjeu. Cet état de fait pourrait devenir d’autant plus handicapant avec l’adoption accrue des technologies d’IA.

Depuis une vingtaine d’années, les grands acteurs d’Internet n’ont cessé de rechercher le moyen de repousser les limites des bases de données traditionnelles. De nouvelles solutions sont apparues, comme Hadoop ou Dynamo sur AWS, pour un stockage très peu onéreux de tous les types de données, à l’échelle du pétaoctet et constituantes des fondations du «datalake». Un seul et même emplacement dont la conception permet aux entreprises le stockage d’importants volumes de données provenant de sources différentes. L’adoption de l’usage du Cloud simplifie la mise en œuvre et les évolutions de ce datalake. Une plateforme d’analyse ne pourra devenir performante que lorsque la question de l’architecture des données aura été d’abord résolue.

Les plateformes d’analyse modernes doivent être en capacité de réception et traitement des données, telles qu’elles se présentent. Les solutions technologiques d’aujourd’hui basées sur les fichiers ou les objets s’affranchissent de la structure des données et aucune modification des données n’est requise. L’exigence du traitement en temps réel n’est pas encore celle de toutes les fonctions de l’entreprise, loin s’en faut. Beaucoup attendent encore la constitution  de lots importants de données avant d’en effectuer le transfert en une seule fois. De nombreux rapports d’activité sont ainsi constitués sur des données datant de plus de 24 heures. Pour autant, des technologies de streaming, comme Apache Spark, transfèrent des données de manière plus fluide par la constitution de petits lots de données à grande échelle.

La dimension stratégique des données est telle que les organisations se dotent de data scientists.

Avec raison les utilisateurs souhaitent qu’on leur mette à disposition des données sous la bonne forme, avec les bons outils et au bon moment. Ainsi, les solutions les plus récentes prennent en compte l’expérience des utilisateurs lors de leurs interactions avec les données. L’apparition de l’apprentissage machine dans les solutions analytiques nécessite encore plus de données, que ce soit dans leur phase d’apprentissage automatique ou en phase opérationnelle. La dimension stratégique des données est telle que les organisations se dotent de data scientists. Ces experts s’appuient sur des solutions spécifiques pour le partage des informations, la documentation et l’exécution des algorithmes de machine learning dans un document interactif appelé «notebook».

Les entreprises manquent souvent de temps et de ressources pour mener à bien ce chantier. C’est la raison pour laquelle l’adoption de technologies agiles et sécurisées est nécessaire. Il est en effet essentiel qu’aujourd’hui les entreprises maîtrisent leurs données, les exploitent au mieux pour recueillir le bénéfice des capacités de l’IA et de l’apprentissage machine, avec comme objectif l’amélioration des services proposés aux clients finaux.