Analyse comparative d’algorithmes intelligents en reconnaissance de motifs sur cartes de contrôle

L’assurance qualité est un moyen, pour une entreprise, d’augmenter ses profits en réduisant à la fois ses pertes pendant la fabrication et ses coûts reliés aux garanties. Pour atteindre cet objectif, les entreprises manufacturières utilisent les outils de contrôle statistique de procédé (CSP, en anglais : statistical process control, SPC).

L’outil principal du CSP est la carte de contrôle – parfois aussi appelée carte de Shewhart – qui permet de visualiser l’évolution d’un indicateur de qualité. Elle a été inventée en 1924 par le statisticien Walter A. Shewhart, de Bell Labs, qui la publia en 1931 dans le livre « Economic Control of Quality of Manufactured Product » (Shewhart, 2015).

Au cours des décennies suivantes, l’usage des cartes de contrôle devient courant, car elles sont simples à construire et faciles à interpréter. De plus, il existe plusieurs références bibliographiques dédiées aux professionnels dont la plus populaire est le « Statistical Quality Control Handbook » publié par la Western Electric Co. en 1958 (Western Electric Co., 1985). Cet ouvrage présente 15 différents modes de comportement non naturels observables sur les cartes de contrôle et offre des pistes de solution concrètes pour déterminer les causes assignables et y remédier.

La période de popularité des systèmes experts est relativement courte, car dès la fin des années 80, les réseaux de neurones artificiels (RNA, en anglais : artificial neural networks, ANN) commencent à être utilisés pour automatiser la lecture et l’interprétation des cartes de contrôle (Pugh, 1989). Depuis ce temps, la reconnaissance de formes, de manière générale, est dominée par l’intelligence artificielle (IA). Les RNA sont plus flexibles que les opérateurs humains et tolèrent généralement mieux le bruit statistique (Masood et Hassan, 2010). De plus, les RNA sont aussi capables d’identifier des motifs non linéaires qui sont pratiquement impossibles à détecter à l’œil, même avec l’assistance d’un système expert.

Au tournant du 21e siècle, le monde est secoué par l’explosion de la quantité de données numériques produites : c’est le début de l’ère des mégadonnées (en anglais: big data). En parallèle, la puissance des ordinateurs continue d’augmenter exponentiellement suivant ce qu’on appelle la loi de Moore. Le chevauchement de ces deux phénomènes culmine en 2011 avec le projet IBM Watson, composé d’algorithmes d’IA, qui remporte au jeu télévisé Jeopardy quatorze ans après la victoire de Deep Blue contre le champion mondial d’échecs Gary Kasparov. Ceci marque le début de la médiatisation de masse des projets d’IA accompagnée d’une hausse marquée de l’intérêt général pour l’apprentissage machine (en anglais : machine learning).

Les systèmes experts

Les systèmes experts sont des logiciels qui sont reliés à au moins deux sources de données : une base de données qui contient un ensemble de règles et un flux de données qui vient du processus à contrôler. Les règles sont basées sur les connaissances d’experts dans le domaine et sont encodées sous la forme de conditions logiques. Le tout est relié à un moteur d’inférence qui applique les règles. Ce dernier produit un résultat qui est ensuite communiqué aux utilisateurs par le biais d’une interface graphique .

Les réseaux de neurones artificiels

Les RNA sont les modèles les plus utilisés en classification automatisée de motifs de cartes de contrôle. Hahicha et Ghorbel (2012) rapportent que pour la période allant de 1991 à 2000, 56,10% des publications révisées utilisent les RNA et que pour la période allant de 2001 à 2010, ce nombre grimpe à 65,75%. Ce constat est appuyé par le nombre d’articles publiés sur les RNA qui montre une hausse annuelle moyenne de 6,3% pour cette période . Cette tendance s’accélère ensuite pour la période allant de 2011 à 2017 avec une hausse annuelle moyenne de 13,1%.

Le jeu de données utilisé est constitué de 300 cartes de contrôle synthétiques et les poids sont déterminés en utilisant l’algorithme de rétropropagation du gradient (RPG, en anglais : backpropagation, BP). La taille de la fenêtre (c.-à-d. le nombre de points qui définissent une carte) est de cinq points qui sont représentés un pour un par les nœuds de la couche d’entrée. Il conclut que les RNA sont aussi efficaces que les cartes de contrôle traditionnelles pour détecter les changements de valeurs moyennes à la suite d’une hausse subite. Cette étude constitue la preuve de concept des RNA en RMCC.

Les cartes de contrôle synthétiques 

Les algorithmes d’apprentissage machine étudiés sont évalués en utilisant des cartes de contrôles synthétiques générées à partir de modèles substituts. Cette approche est proposée en premier en RMCC par Alcock et Manopoulos (1997) et est ensuite est devenue courante dans le domaine. Hahicha et Ghorbel (2012) rapportent que sur 73 articles publiés entre 2001 et 2010, 68 (93,15%) utilisent ce type de données. Dans cette section, les équations mathématiques utilisées pour générer les motifs non naturels des cartes de contrôles sont présentées. Afin de les expérimenter, ces équations ont été codées sous la forme de fonctions à l’aide du langage de programmation Python version 3.6.

Le motif normal 

Le motif normal ou naturel est celui qui est observé quand un procédé est sous contrôle (c.-à-d. en l’absence de cause assignable). Le motif normal est généré à partir de l’équation suivante : 𝑦(𝑡) = 𝜇 + 𝑟(𝑡)𝑠 (1.7)

Dans l’équation 1.7, 𝜇 corresponds à la valeur moyenne, 𝑟(𝑡) est la composante aléatoire distribuée selon 𝒩(0,1) multipliée par le scalaire 𝑠.

Le motif cyclique

Le motif cyclique est caractérisé par la régularité avec lequel un sous-motif est répété. Montgomery (2005) attribue les causes assignables suivantes à la présence de motifs cycliques : changements environnementaux systématiques (p. ex. le changement de température entre le jour et la nuit), la fatigue des opérateurs, les mouvements de va-et-vient des machines et la fluctuation du voltage de la source de tension. Le motif cyclique est généré à partir de l’équation suivante :
𝑦(𝑡) = 𝜇 + 𝑟(𝑡)𝑠 + 𝐴 sin ( 2𝜋𝑡 / 𝑇 ) (1.8)

L’équation 1.8 n’est rien de plus que le motif normal de l’équation 1.7 superposé à un signal sinusoïdal d’amplitude 𝐴 avec une période 𝑇.

Les motifs de tendances positives et négatives 

Les motifs de tendances positives et négatives sont caractérisés par des mouvements continus dans une direction. Montgomery (2005) attribue ces motifs à l’usure graduelle des outils, la fatigue des opérateurs et parfois aux variations saisonnières comme la température. Les motifs de tendances positives et négatives sont générés à partir de l’équation suivante où 𝑔 est la pente : 𝑦(𝑡) = 𝜇 + 𝑟(𝑡)𝑠 ± 𝑔𝑡 (1.9)

Les motifs de hausses et de baisses subites 

Les motifs de hausses et baisses subites sont caractérisés par un changement rapide de la valeur moyenne d’un procédé. Montgomery (2005) attribue ces motifs à l’introduction de nouvelles méthodes de fabrication, de nouveaux matériaux ou de nouveaux opérateurs. Les motifs de hausses et de baisses subites sont générés par l’équation suivante où 𝑘 représente le changement de la moyenne et 𝐻(𝑡−𝑐) est la fonction de Heaviside avec 𝑐 comme paramètre de translation : 𝑦(𝑡) = 𝜇 + 𝑟(𝑡)𝑠 ± 𝑘𝐻(𝑡−𝑐) (1.10)

Table des matières

INTRODUCTION
0.1 Problématique
0.2 Contribution
CHAPITRE 1 REVUE DE LITTÉRATURE
1.1 Les systèmes experts
1.2 Les arbres décisionnels et les machines à vecteurs de support
1.3 Les réseaux de neurones artificiels
1.4 Les cartes de contrôle synthétiques
1.4.1 Le motif normal
1.4.2 Le motif cyclique
1.4.3 Les motifs de tendances positives et négatives
1.4.4 Les motifs de hausses et de baisses subites
1.4.5 La classification avec les réseaux de neurones artificiels
1.5 Le perceptron
1.5.1 L’algorithme de la rétropropagation du gradient
1.5.2 La séparation des classes
1.5.3 Conclusion
1.6 La classification avec les arbres décisionnels
1.6.1 Le fonctionnement des arbres décisionnels
1.6.2 L’algorithme ID3
1.6.3 Une version améliorée de l’algorithme ID3 : C4.5
1.6.4 Deux algorithmes supplémentaires : C5.0, CART
1.6.5 Les forêts aléatoires
1.6.6 Conclusion
1.7 La classification avec les machines à vecteurs de support
1.7.1 Les classificateurs linéaires généralisés
1.7.2 Les machines à vecteurs de support à marge souple
1.7.3 Les machines à vecteurs de support à marge non linéaire
1.7.4 La séparation en classes multiples
1.7.5 Conclusion
1.8 Conclusion
CHAPITRE 2 MÉTHODOLOGIE
2.1 Planification du projet
2.2 Les facteurs de forme
2.2.1 Facteur de forme no. 1 : FF1
2.5.2 Facteur de forme no. 2 : FF2
2.5.3 Facteur de forme no. 3 : FF3
2.5.4 Facteur de forme no. 4 : FF4
2.5.5 Facteur de forme no. 5 : FF5
2.5.6 Facteur de forme no. 6 : FF6
2.5.7 Facteur de forme no. 7 : FF7
2.3 Évaluation des algorithmes
CHAPITRE 3 PRÉSENTATION ET ANALYSE DES RÉSULTATS
3.1 Les arbres décisionnels
3.2 Les systèmes spécialisés basés sur les AD
3.3 Les forêts aléatoires
3.4 Les systèmes hybrides basés sur les AD et les FA
3.5 Influence des hyperparamètres sur la précision des AD et des FA
3.6 Résumé des résultats pour les AD et les FA
3.7 Analyse des résultats pour les MVS linéaires
3.8 Les modèles hybrides basés sur les MVS linéaires spécialisées et les FA
3.9 Les MVS gaussiennes
3.10 Influence des hyperparamètres sur la précision des MVS gaussiennes
3.11 Les modèles hybrides spécialisés basés sur les MVS gaussiennes
3.12 Résumé des résultats pour les MVS
3.13 Les réseaux de neurones multicouches
3.14 Les systèmes spécialisés basés sur les RNA multicouches
3.15 Influence du nombre de neurones dans la couche cachée sur la précision d’un RNA 99
3.16 Influence de la topologie sur la précision d’un RNA
3.17 Récapitulatif de l’ensemble des résultats
CHAPITRE 4 DISCUSSION
CONCLUSION

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *