Intelligence Artificielle et industrie : entre fausses croyances et vrais principes

L’Intelligence Artificielle est aujourd’hui à la base de nombreuses applications à chaque étape de la chaîne de valeur industrielle. Avec quels bénéfices concrets ? Pour quels cas d’usages concrets ? Avec quel impact sur la stratégie d’entreprise et les métiers ?

Nous avons demandé à Pierre Girardeau de Cross Data, entreprise experte en Intelligence Artificielle, de lever les fausses croyances et de nous donner les vrais principes à suivre pour une implémentation réussie de l’Intelligence artificielle pour accélérer vers l’industrie 4.0.

 

 

 

L’Intelligence Artificielle : définition

L’Intelligence Artificielle se visualise dans l’esprit comme un robot humanoïde. Pourtant, cette vision est bien plus concrète dans la vraie vie.

Selon le Larousse, l’IA se définit comme étant « l’ensemble des théories et techniques que l’on met en œuvre pour réaliser des machines capables de simuler l’intelligence humaine ».

Cette forme d’intelligence s’adapte très bien à des tâches répétitives, voire lourdes. Au-delà de cette définition, l’IA se caractérise en pratique par des algorithmes (des programmes informatiques) qui réalisent des suites d’opérations mathématiques pour apprendre une tâche sur une situation donnée et la répéter dans un contexte similaire.

 
 

Passé et présent de cette technologie

L’IA semble être une technologie récente, car l’on en parle seulement depuis quelques années. Pourtant, la première fois que l’on parle d’IA se date après la Seconde Guerre mondiale, dans les années 50 avec de nombreux chercheurs qui s’étaient penchés sur ce sujet et notamment le Alan Turing qui a développé un test permettant de différencier une IA d’un humain.

Ou encore la conférence de Dartmouth en 1956 sur l’IA qui visait surtout à comprendre comment l’être humain est capable d’apprendre. L’objectif était de modéliser le schéma de pensée d’un humain à l’aide d’équations mathématiques.

L’IA a été un sujet de recherche pendant des années avec des premiers résultats très rapides puisque le premier neurone artificiel, nommé « Perceptron » fût créé en 1957.

Pendant la fin du 20e siècle, l’essor de la recherche sur les domaines liés à l’IA tel que le développement de l’apprentissage automatique par renforcement ou encore le deep learning (apprentissage profond) s’est encore accru.

 

Alors pourquoi l’IA connaît-t-il un succès depuis seulement quelques années ?

Il y a trois grandes raisons à cette notoriété relativement récente :

  1. Les capacités de calcul des ordinateurs qui n’ont fait que croître au fur et à mesure des années et qui permettent aujourd’hui de mettre en œuvre des algorithmes crée il y a des dizaines d’années, mais qui ne pouvaient pas être utilisés de manière performante tant qu’il ne disposaient pas de ces récentes capacités de calcul
  2. L’open source: qui désigne le fait que les modèles algorithmiques qui servent à faire de l’IA sont libres de droit et peuvent donc être utilisés par tous, y compris pour des utilisations commerciales ou industrielles. Ils sont récupérables facilement sur internet et notamment sur github.com. Il est à ce jour possible d’utiliser les mêmes outils de machines learning que ceux utilisés chez Google ou Facebook
  3.  Et enfin, nous possédons dorénavant des données en masse. Cela est dû à l’avènement du web, à la baisse du coût de stockage des infrastructures mais aussi grâce aux objets connectés, à l’IoT (Internet of Things).
 
 

Un bon projet d’IA débute avec vos cas d’usage !

Aujourd’hui, la technologie ne freine que très peu les projets. Alors, pour se lancer dans un cas d’IA, le projet ne débutera pas du point de vue de la technologie car les capacités de calcul et de stockage sont peu coûteuses et les algorithmes les plus performants sont disponibles sur internet en open source. Seuls des sujets aux enjeux liés à l’IoT nécessiteront des besoins technologiques, parfois spécifiques.

Ce qu’il faudra donc pour un projet mêlant Intelligence Artificielle et industrie, c’est se concentrer sur le cas d’usage. Car la vraie valeur ajoutée est celle qui sera portée par le métier : qu’est-ce qui pourrait être automatisée dans vos processus ? Quel est le temps que vous pourrez gagner ?

 

Seule votre créativité sera votre limite :

  • IA, Data ou encore algorithmes, à quoi ces mots vous font-ils penser ?
  • Faites la liste des cas d’usages qui vous viennent à l’esprit : « Je voudrais savoir si une machine va casser avant qu’elle casse » « je voudrais ordonnancer mes taches de fabrication en un clin d’œil »
  • Puis, chiffrez! Chiffrez ce que chaque cas d’usage pourrait vous rapporter : du temps gagné, de l’argent, de la robustesse dans vos process !

 

 

L’IA n’est pas seulement un outil de calcul, c’est aussi un outil de capitalisation des savoirs humains.

Mettre en place des algorithmes oblige à formaliser des cas d’usage. Ainsi, tous les collaborateurs d’une structure se doivent d’être d’accord autour d’équation mathématique. Cela facilite grandement la mise en place de processus puisque pour qu’un algorithme fonctionne, il faut lui décrire très précisément votre méthodologie, tout comme vous pouvez le faire auprès de vos collaborateurs !

C’est d’ailleurs pour cela que la mise en place d’un projet d’IA est plus aisée dans un secteur tel que dans l’industrie. Car les entreprises du secteur industriel possèdent déjà une culture très orientée process et donc pour mettre en place des projets IA, le langage est commun avec les experts, data scientist ou ingénieurs qui accompagnent ces projets.

Cela facilite grandement l’implémentation des cas d’usages.

 

Concrètement, que peux faire l’IA aujourd’hui ?

Aujourd’hui, l’IA peut pour vous automatiser des tâches répétitives grâce aux fonctions suivantes  :

  • classifier: mettre des étiquettes sur des éléments
  • segmenter: mettre dans des groupes sans forcément mettre d’étiquettes
  • Analyser du texte ou des images
  • Prévoir: des carnets de commandes, des pannes…
  • Optimiser : les tâches en fabrication par exemple

 

Ces fonctions sont indicatives, il ne faut pas s’enfermer dans cette liste et toujours penser au cas d’usages !

Mais pourquoi un bon cas d’usage, c’est mieux qu’une super solution d’IA ?

Parce qu’il y a des termes très à la mode : réseau de neurones, deep learning qui ne sont pas forcément utiles pour tout et surtout pour votre organisation !

 Ce n’est pas parce qu’une technologie est complexe qu’elle vous apportera un bénéfice.

 

Quelques exemples et cas concrets

Partir d’abord par une technologie complexe, c’est le cas d’une entreprise qui avait engagé, par la DSI (Direction Système Information), un budget sur 2 ans pour explorer les capacités du Deep Learning.

Ils souhaitaient utiliser cette technologie pour prévenir des pannes machines. Ils ont donc centré cette problématique autour de la DSI, mais ni la production ni la maintenance n’ont participé à la construction du cahier des charges.

Cette phase exploratoire a duré plus d’un an et il n’y avait pas de livraisons intermédiaires définies à la production ! Cela n’a pas abouti parce qu’au bout du compte, ce qui a été livré à la production ne les a pas convaincus, car pas impliqués dans ce projet qui pourtant les concernait. Et finalement, les réels cas d’usages utiles pour eux ont été manqués.

Les utilisateurs finaux doivent être dans la boucle depuis le départ !

C’est le cas positif concret d’une autre entreprise industrielle ! Une équipe SAV (Service Après-Vente) souhaitait comprendre si les pannes prématurées de leurs matériels étaient dû à des erreurs dans la fabrication ou bien dû aux conditions d’exploitation du matériel chez le client.

Ils ont réalisé une analyse statistique en utilisant du machine learning pour déterminer si les facteurs qui impactent une casse proviennent de la fabrication ou des conditions d’exploitation.

Etaient impliqués dans le projet : le SAV, la direction générale, la DSI et la production. Durant la première phase d’un mois, ils ont cherché à savoir s’ils possédaient les données nécessaires pour répondre à cette question, ce cas d’usage.

Puis, ils ont créé une TASK force qui a réalisé une veille sur les outils statistiques qui pouvaient leur être utile. Ils ont finalement utilisé du machine learning et ce sont rendus compte que ces pannes prématurées provenaient des conditions d’exploitation. Cela leur a permis d’échanger avec leurs clients en expliquant leur démarche et les raisons des pannes.

Un bon cas d’usage, c’est un cas d’usage venant du métier et jugé utile car le ROI (Retours sur Investissements) est positif à court terme et à long terme.

 

Un bon cas d’usage permet un quick-win en moins de 3 mois avant d’aller plus loin et réunit une équipe transverse : le métier, la SI, un support de la direction générale…

 

Alors avant de vous lancer dans un projet IA…

Demandez-vous :

  • Quels sont les process utiles à mon métier ?
  • Puis-je les améliorer avec des données et / ou des algorithmes ?
  • Si la réponse est oui, alors ces données sont-elles disponibles ? Propres ?
  • Puis-je me débrouiller seul avec Excel ou mes outils actuels ?
  • Est-ce que j’ai besoin d’aller plus loin ?

 

Si la réponse à toutes ces questions convergent, vous pouvez démarrer par un projet ‘‘facile’’ au début pour obtenir une conversion maximale.

Et ne manquez pas de vous faire accompagner pour sécuriser et accélérer votre projet !

 

 

 

Le blog

Comment réussir l’industrialisation d’un produit électronique ?

Cahier des tendances VivaTech 2022

Comment la 5G va-t-elle transformer nos usines ?