Algorithmes éthiques, interprétables et explicables

Algorithmes éthiques, interprétables et explicables

Afin d’atténuer les risques accompagnant l’utilisation des SDA, de nombreuses recom- mandations sont formulées par les chercheurs, les pouvoirs publics et les entreprises comme l’accountability ou l’intelligibilité (Partie 2.1.1). Différents dispositifs techniques sont conçus pour tenter de les satisfaire. En se focalisant sur les enjeux d’intelligibilité, nous distinguons une branche de littérature visant à concevoir des algorithmes de décision interprétables (Par- tie 2.1.2) et une autre branche dont le but est d’obtenir des explications après la phase de conception du SDA (Partie 2.1.3).Comme la plupart des transformations technologiques, le développement des SDA com- porte des risques et des opportunités [40]. Dans des secteurs aussi divers que la santé, la jus- tice, la sécurité, les transports ou l’énergie, l’utilisation d’algorithmes pour remplacer ou ai- der les humains promet des décisions plus fiables, équitables, efficaces, transparentes et res- ponsables. Mais ces transformations peuvent aussi avoir des conséquences néfastes, qu’elles soient intentionnelles ou accidentelles, sur les individus et la société. Comme l’ont montré de nombreux auteurs, les algorithmes peuvent automatiser des biais discriminatoires en re- produisant les processus de décision humains [11, 19]. La généralisation de la collecte de données personnelles, souvent nécessaires pour concevoir et faire fonctionner les SDA, fait courir le risque d’une société de surveillance généralisée faisant peser avec force le poids des normes sociales sur les individus [24], sans parler du coût environemental colossal que re- présentent ces systèmes de stockage et de traitement. Aussi, le recours accru aux algorithmes crée des points de vulnérabilité qui peuvent être exploités par des acteurs malveillants et qui rendent les conséquences d’éventuelles défaillances dramatiques (infrastructures nucléaires, manipulation de l’opinion publique [96], etc.).

La fairness (ou équité) peut être définie comme l’absence d’utilisation in- justifiée de certains attributs (genre, âge, religion, etc.) i.e. l’absence de biais discrimi- natoires [27]. Les discriminations algorithmiques ont reçu une attention particulière dans la littérature suite à la découverte de biais dans des systèmes existants [11, 19]. De nombreux outils, associés à différentes définitions de biais discriminatoires, sont aujourd’hui accessibles pour les identifier et les réduire [67, 93, 46]. Toutes les défi- nitions n’étanle fonctionnement des SDA. Cette mesure organisationnelle ou réglementaire, impli- quant les personnes responsables du SDA permet de limiter l’opacité lorsque cette dernière est intentionnelle. La transparence est par exemple rendue obligatoire pour les administrations françaises dans la loi pour une république numérique. Bien que souhaitable dans de nombreuses situations, elle est parfois insuffisante pour répondre à tous les enjeux notamment lorsque le fonctionnement du système n’est pas intelli- gible [9].— Intelligibilité : L’intelligibilité est la propriété d’un algorithme dont le fonctionne- ment est compréhensible [2, 48, 12]. Elle peut être globale si l’algorithme est com- préhensible dans son ensemble, ou locale si les décisions individuelles sont com- préhensibles. Elle peut s’adresser à différentes parties prenantes ayant ou non des connaissances techniques préalables. L’intelligibilité est une forme de “facilitateur” pour l’ensemble des autres desiderata [78]. Comme nous le verrons dans la suite, au moins deux stratégies peuvent être employées pour assurer l’intelligibilité : l’inter- prétabilité et l’explicabilité.

Les travaux de cette thèse se focalisent sur les deux derniers objectifs ainsi que sur la jus- tification des SDA qui participe à l’accountability. En effet, la compréhension, la contestation et la justification des SDA constituent des caractéristiques essentielles pour les intéressés et sont par ailleurs des problématiques nouvelles dues à la complexification des traitements algorithmiques. La suite de cet état de l’art aborde en particulier les travaux sur l’interpré- tabilité et l’explicabilité, les travaux sur la contestabilité étant encore peu nombreux [55, 91, 80, 58].Une première approche pour permettre l’intelligibilité est d’utiliser des algorithmes interprétables. Ces algorithmes, dont l’arbre de décision ou le modèle linéaire sont des exemples, peuvent être facilement compris par des humains sans avoir à employer une méthode spécifique. Les réseaux de neurones, dont l’information apprise lors de la phase d’apprentissage prend la forme de liens entre des neurones, sont à l’inverse difficiles à com- prendre, même pour les spécialistes qui les conçoivent. C’est un exemple de modèle non interprétable. La nécessité de trouver un compromis entre l’inteprétabilité d’un algorithme et ses performances, généralement mesurées par la précision du modèle, est communément admise. Une représentation de ce compromis et de l’objectif de ce champ de recherche sont schématisés dans la Figure 2.1. On voit que les modèles les plus précis sont les moins in- terprétables et inversement. Pour améliorer cette situation, deux stratégies peuvent être em- ployées : rendre compréhensibles les méthodes les plus performantes ou concevoir des mé- thodes à la fois performantes et intelligibles.

 

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *