A la recherche de l'excellence industrielle
"Si on veut connaître exactement ces processus métiers, il faut faire parler les données. Dans l'industrie, les données techniques sur des moteurs, des machines, mais aussi les données sur des méthodes et procédures d'intervention sur des schémas prioritaires s'avèrent essentielles et sont à la base d'une connaissance poussée de son système de production. De la même manière, dans le monde informatique, les logs et les métriques sont des données essentielles à connaître en temps réel. Notre but est de casser les silos et de faire la connexion entre les catégories de données", explique Stéphane Estevez. Le groupe Zeppelin, qui fournit des engins et solutions pour le secteur de la construction, l'extraction minière, la gestion de chantiers, ainsi que des moteurs et systèmes de propulsion pour l'industrie, recourt ainsi au service de Splunk dans le but de réduire les risques d'arrêt dans les usines et prédire la maintenance des machines et équipements. "Nos pannes d'équipement sont extrêmement coûteuses. Notre centre de services utilise la plateforme Splunk pour prédire les problèmes à l'avance, de manière à ce que nous puissions envoyer des techniciens pour entretenir l'équipement des clients de manière préventive, avant que la panne ne survienne", explique René Ahlgrim, data scientist chez Zeppelin.
Peaufiner ses données
La maîtrise de la data constitue une expertise en soi, pour que celle-ci soit véritablement exploitable. "L'historique des données qui manque de qualité et de mise en conformité peut être un problème pour évoluer vers des modèles prédictifs. Meilleures sont les fondations, meilleures seront les réponses et les interprétations de ces données. Nous proposons un service intitulé Security Log Monitoring qui permet de collecter les logs et d'apporter des informations en temps réel qui les concernent. Définir les logs essentiels - comme les logs métiers - les trier et les hiérarchiser sont alors des tâches essentielles. C'est un aspect crucial pour partir sur de bonnes bases, ainsi qu'un atout économique car il en ressort forcément une efficacité accrue, et une meilleure conformité", décrit Alain Khau.
La visualisation, la hiérarchisation, le paramétrage des données sont des critères essentiels. "Il faudrait cartographier les données dans toute organisation souhaitant gérer massivement des datas par la suite", confirme Emmanuel Germain, directeur général adjoint de l'ANSSI. "Dans nos outils de data science, nous proposons un volet destiné à la découverte de la qualité des données. Il s'agit d'établir un état des lieux au sein des entreprises quant aux données en place (champ, écart-type, intitulé de colonnes, champ vide). Le but est de juger la qualité des données, ce qui implique donc de faire confiance aux data scientists" souligne Alain Khau. Les demandes relatives à l'industrialisation de ce type de data science appliqué à l'information en entreprise se multiplient. "Il importe d'être capable de communiquer clairement dans les organisations sur les liens qui existent entre les algorithmes", poursuit-il.
Stéphane Estevez indique que "si on veut louer du matériel industriel, on doit pouvoir voir l'état du service et sa géolocalisation. Dans une pelleteuse, il y a d'importantes quantités de données liées à ses résultats. Un serveur web qui corrèle ces informations joue alors un rôle central. Regrouper dans une même base des données très hétérogènes comme le niveau d'essence, la localisation ou l'évolution de performance s'avère précieux. Avec les structurations et hiérarchies de données dans les systèmes d'où elles proviennent, certaines informations peuvent être invisibles, ce qui demande un retraitement pour que l'intégralité des éléments pertinents soient exploitables et interprétables."
Lire la suite en page 3 : Les enjeux de sécurité
NEWSLETTER | Abonnez-vous pour recevoir nos meilleurs articles