Les différentes approches d’analyse des tolérances

Les différentes approches d’analyse des tolérances

Une analyse des tolérances au pire des cas consiste à déterminer les valeurs des tolérances qui assurent un fonctionnement du système, au regard d’une ou plusieurs caractéristiques fonctionnelles, dans 100% des cas. Cette analyse est relativement pessimiste et conduit à des intervalles sur les écarts spécifiés qui peuvent engendrer des coûts importants. Les pires des cas se trouvent dans la configuration des écarts en limite de tolérance. J. Joskowicz [Joskowicz 1998] propose une analyse au pire des cas d’un mécanisme plan. L’exemple traité illustre la pertinence de l’approche. Une variation géométrique des pièces du mécanisme entraîne une variation de l’espace de configuration. L’influence des tolérances géométriques des pièces est modélisée par une zone dans l’espace de configuration autour du chemin de contact nominal (confiauteurs proposent une relation explicite de la zone enveloppe du comportement cinématique nominal du mécanisme et mènent une analyse des tolérances en linéarisant le comportement cinématique du mécanisme à l’ordre 1. Leurs résultats montrent une comparaison entre leur méthode et les méthodes d’analyse stochastique telles que la simulation de Monte-Carlo. Dans le cas des engrenages, la caractéristique fonctionnelle n’est pas exprimée explicitement en fonction des écarts géométriques, et il est très difficile d’affirmer que le pire des cas sur l’engrènement correspond à tous les écarts géométriques en limite de tolérance [Bruyère 2006]. Il ne faut pas oublier que lorsqu’il est utilisable, ce type d’analyse peut fournir des résultats numériques très rapides.

Cette approche est de plus en plus populaire. Dans le cas d’un assemblage par exemple, elle permet de trouver les valeurs des tolérances qui autorisent une très petite proportion de pièces de ne pas s’assembler. Cela conduit à un élargissement des tolérances par rapport à l’analyse au pire des cas. Par exemple, dans le cas d’un assemblage simple unidirectionnel composé d’un empilement de n pièces, les intervalles de tolérances se voient multipliés par n par rapport au pire des cas [Pillet 2005]. L’analyse statistique consiste à déterminer la probabilité p d’un produit à s’assembler, ou d’une manière plus générale, à respecter une exigence fonctionnelle, étant donné une allocation de tolérances sur les pièces du produit. Considérons un produit possédant n écarts géométriques paramétrés appelés Xi. La caractéristique fonctionnelle étudiée notée Y est fonction de ces paramètres [Nigam 1995]. Elle est aussi appelée fonction réponse : La fonction f appelé aussi fonction réponse lie les écarts géométriques à la caractéristique observée. Elle peut être explicite ou implicite. Il existe plusieurs techniques statistiques d’analyse des tolérances adaptées à différentes formes de f. La liste qui suit est une liste non-exhaustive. Elle résume principalement les travaux de S. D. Nigam dans son article.

Cette méthode nécessite d’avoir une fonction réponse qui soit explicite et linéaire. Méthode de Croft : Cette méthode est basée sur l’hypothèse que les distributions des Xi couvrent une étendue plus grande que son intervalle de tolérance qui donne lieu à des distributions normales tronquées qui sont approximées par des distributions uniformes. Cette approche est pessimiste, puisque la distribution uniforme fournit une concentration plus importante aux extrémités que la loi normale. Par contre, toute dissymétrie de la distribution réelle est ignorée puisque seules des distributions uniformes sont considérées. Cette méthode est proche de l’approximation linéaire et donne des résultats sensiblement identiques lorsque le nombre d’écarts géométrique augmente. espace euclidien tout en conservant la valeur de la probabilité en tout point de cet espace. Cette transformation est appelée une transformation iso probabiliste [Khani-Shali 2007]. Cette opération transforme les variable aléatoires Xi en d’autres variables aléatoires suivants une loi normale centrée réduite. La probabilité de défaillance est estimée par la résolution d’un problème d’optimisation : elle correspond à la distance minimum entre l’équation d’état limite, et le centre du repère normé. La résolution du problème est fait en approximant la fonction d’état limite par un hyperplan au voisinage du minimum (méthode FORM : First Order Reliability Method) ou par une hyperbole (méthode SORM : Seconde Order Reliability Method) (Fi Simulation de Monte Carlo : La simulation de Monte Carlo est une méthode statistique d’estimation de paramètres stochastiques, telle la moyenne et l’écart-type d’une caractéristique observée, de sa distribution de probabilité, de la proportion de respect de la caractéristique à une exigence, etc. Cette technique est très souvent utilisée pour des problèmes complexes pour lesquels une résolution mathématique n’est pas envisageable ou lorsqu’ils font intervenir un nombre trop importants de variables d’entrée. La simulation de Monte-Carlo est basée sur l’échantillonnage aléatoire des variables d’entrée, supposées indépendantes. Elle est de plus en plus utilisée pour l’analyse statistique des tolérances des pièces ou des produits. Elle a pour principal avantage de reposer sur un principe très simple basé sur un processus itératif : Considérons une caractéristique Y dont on souhaite estimer.

 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *