Accueil Solutions cartographiques & IT Contact

L’in­tel­li­gence arti­fi­cielle au secours de la contex­tua­li­sa­tion des données

Par Editorial Board - 4 décembre 2019
Temps de lecture : 6min

Avec la digi­ta­li­sa­tion des process et l’in­té­gra­tion de l’IoT, un exploi­tant de réseau reçoit une quan­tité colos­sale d’in­for­ma­tions à croi­ser et analy­ser. Problème : toutes ne sont pas déci­sives, voire indis­pen­sables. Il est donc primor­dial d’être en capa­cité de trier et analy­ser les données auto­ma­tique­ment, pour ne garder que celles qui sont essen­tielles à la compré­hen­sion du contexte et à la prise d’une bonne déci­sion. Pour ce faire, l’in­tel­li­gence arti­fi­cielle peut être une aide précieuse pour contex­tua­li­ser la donnée. Expli­ca­tions.

Pourquoi contex­tua­li­ser la donnée ?

Contex­tua­li­ser la donnée, c’est déter­mi­ner si celle-ci est déci­sive pour répondre à une problé­ma­tique précise. Une mission essen­tielle pour les gestion­naires de réseaux, qui sont souvent confron­tés à des volumes de données parti­cu­liè­re­ment impor­tants.

En effet, les données à contex­tua­li­ser peuvent être issues de capteurs, de réfé­ren­tiel tech­nique ou de main­te­nance, et sont souvent stockées dans une zone tampon, nommée data lake. Tout l’enjeu est alors de trai­ter effi­ca­ce­ment ces données pour pilo­ter les opéra­tions de main­te­nance des réseaux en temps quasi-réel. Pour y parve­nir, on parle de défi des « 3 V » : il s’agit de trai­ter le volume, la variété des données, et d’op­ti­mi­ser la vélo­cité avec laquelle on peut les analy­ser.

Problème : non seule­ment, les volumes à trai­ter par les gestion­naires de réseaux sont massifs, mais le cerveau humain a aussi ses limites, et n’est capable d’in­té­grer qu’un nombre limité de para­mètres simul­ta­né­ment. D’où l’in­té­rêt d’im­pliquer l’in­tel­li­gence arti­fi­cielle (IA) dans le proces­sus de tri et d’ana­lyse, grâce au machine lear­ning.

Quel rôle pour l’in­tel­li­gence arti­fi­cielle ?

Vous l’au­rez compris, les méthodes de machine lear­ning permettent de trier ou filtrer les données réel­le­ment utiles aux gestion­naires de réseaux, et donc de gagner un temps précieux. Mais celles-ci doivent être fine­ment para­mé­trées.

Ces méthodes s’ap­puient la plupart du temps sur un appren­tis­sage dit « super­visé » : l’algo­rithme d’in­tel­li­gence arti­fi­cielle s’en­traîne sur un jeu de données « étique­tées », c’est-à-dire auxquelles on attri­bue, par exemple, une variable indiquant si la donnée est à trans­mettre ou non. L’al­go­rithme pourra ainsi modi­fier son compor­te­ment pour le faire coïn­ci­der avec cette étiquette de réfé­rence (ou label).

L’intel­li­gence arti­fi­cielle permet donc non seule­ment de contex­tua­li­ser la donnée de manière perti­nente, mais aussi de mimer le compor­te­ment d’un expert. Il s’agit là d’enri­chir la donnée concer­née avec d’éven­tuelles sources complé­men­taires pour faci­li­ter la prise de déci­sion, et ce, de manière plus précise et rapide.

Comment bien para­mé­trer l’in­tel­li­gence arti­fi­cielle ?

La machine construit son appren­tis­sage sur un biais intro­duit par l’hu­main dans l’al­go­rithme. Il faut donc veiller à rester le plus objec­tif possible lors de l’étique­tage des données, pour éviter que le biais n’im­pacte néga­ti­ve­ment le trai­te­ment de la data. Cette objec­ti­vité n’est attei­gnable que si le program­ma­teur de l’al­go­rithme dispose de très bonnes connais­sances métier.

Si l’on décide, par exemple, de trans­for­mer une variable numé­rique (comme une tempé­ra­ture, un chiffre brut) en une variable caté­go­rique dont les valeurs sont des classes (chaud, froid, tiède), on intro­duit un biais. Les contours des classes seront des valeurs forcé­ment subjec­tives. Il convient donc de lais­ser la valeur sous forme numé­rique pour éviter toute erreur d’in­ter­pré­ta­tion.

La métho­do­lo­gie CRISP-DM est plébis­ci­tée dans ce contexte. Celle-ci repose sur un proces­sus cyclique en plusieurs phases :

La force de cette métho­do­lo­gie est que le proces­sus sur lequel elle repose n’est pas stric­te­ment dirigé. On peut ainsi reve­nir à l’étape précé­dente si néces­saire, ce qui permet une gestion flexible et adap­table de la démarche de recherche.

L’in­tel­li­gence arti­fi­cielle permet de contex­tua­li­ser la donnée effi­ca­ce­ment, à condi­tion d’être bien entraî­née. Son atout majeur : sa capa­cité à trai­ter des situa­tions complexes avec de nombreux facteurs, souvent diffi­ciles à appré­hen­der pour un humain. Le Data scien­tist a donc un rôle clé dans cette démarche : il devra sélec­tion­ner les sources complé­men­taires qui permet­tront d’en­ri­chir les données, pour assu­rer une réponse perti­nente à la problé­ma­tique.

Par Editorial Board - 4 décembre 2019

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Gestion du réseau d’eau potable : cas d’usage du logiciel Casses
[Infographie] Renouvellement des réseaux d’eau en France : les chiffres clés

Recommandé pour vous

S'inscrire à la newsletter

Pour ne rien rater de notre actualité...