Expliquer et justifier les décisions algorithmiques

Expliquer et justifier les décisions algorithmiques

L’idéal de l’objectivité

Depuis longtemps, des machines nous remplacen et nous aident dans nos travaux manuels, aujourd’hui d’autres machines nous remplacent dans nos tâches intellectuelles. Cette évolution s’inscrit dans l’idéal de la “matérialité logique” dans lequel tout problème logique peut être rendu matériel et donc traité automatiquement par une machine physique adaptée. Cet idéal est loin d’être nouveau et avait conduit Blaise Pascal dès le XVIIe siècle à concevoir une machine à calculer capable de réaliser des opérations mathématiques simples. Aujourd’hui, ce ne sont plus seulement des calculs mathématiques qui sont confiés aux machines, mais des décisions complexes aux conséquences parfois considérables. Comment expliquer ce choix ? Qu’est-ce qui pousse nos sociétés à confier les décisions nous concernant à des automates ? Avant de décrire les dispositifs techniques qui rendent cela possible, il est utile de replacer l’avènement des algorithmes de décisions dans des tendances plus anciennes. Puisqu’elles sont censées représenter le monde de manière transparente et objective, les données jouissent d’une grande légitimité dans le débat public et dans les processus de prise de décision. Les décisions fondées sur des données sont généralement réputées préférables aux décisions fondées sur le seul jugement humain. D’ailleurs, tout au long du XXe siècle, la société a exigé de la part de plusieurs corps de professionnels de justifier leurs pratiques par  des mesures chiffrées [94]. Un exemple emblématique de ce phénomène est celui du corps médical qui a été forcé d’adopter (progressivement et notamment à la suite de différents scandales sanitaires au milieu du XXe siècle) une évaluation systématique des traitements proposés aux patients par des mesures statistiques répondant à des exigences de méthodologie strictes. Dans cet exemple 1 , c’est la nécessité de rendre des comptes (accountability) qui est le moteur du remplacement d’un savoir issu de l’expérience des professionnels par un savoir plus scientifique fondé sur des données brutes (“objectives”) qui est censé conduire à plus de transparence. Depuis plus d’un siècle, ce rapport de force tend nettement au bénéfice de ce second type de savoir, surtout lorsque des décisions importantes sont en jeu. Cette tendance a été largement documentée et commentée par de nombreux auteurs issus de différents champs des sciences sociales. Elle est par exemple abordée par Alain Desrosières qui analyse les mécanismes sociaux à l’œuvre dans l’établissement d’un argument fondé sur une mesure statistique (argument qui pourra participer à une décision) [33]. Elle est abordée également par Alain Supiot qui décrit comment des règles basées sur des objectifs mesurables se sont progressivement imposées dans les textes législatifs avec des conséquences souvent délétères [107]. Dans le champ du numérique, Dominique Cardon s’intéresse à l’utilisation accrue des algorithmes pour l’accès à l’information en ligne et en étudie les conséquences sociales [21]. Ces dispositifs techniques utilisant des statistiques, des règles basées sur des objectifs mesurables ou des méthodes algorithmiques pour rationaliser les décisions sont souvent critiqués par les sciences sociales : sous couvert d’une prétendue objectivité apportée par l’utilisation de données et d’analyses mathématiques parfois complexes, les raisons qui motivent et justifient une décision se retrouvent masquées et écartées de l’espace public du débat. En effet, bien qu’ils soient présentés comme objectifs, ces dispositifs sont en réalité conçus par des personnes porteuses de représentations auxquelles les systèmes de décisions résultants ne peuvent pas échapper.

LIRE AUSSI :  Cours initiation à l’algorithmique - introduction générale

Le développement de l’apprentissage automatique

Un algorithme d’IA est un algorithme ayant pour projet de simuler l’intelligence humaine. Plus précisément, on considère qu’un algorithme emploie une forme d’IA dès lors  que son comportement n’est pas explicitement implémenté par un développeur humain, mais que l’algorithme est capable d’une forme d’apprentissage à partir de données, il tombe dans ce cas dans le domaine de l’apprentissage automatique (ML 2 ), ou par un système d’expérimentations, il appartient alors au domaine de l’apprentissage par renforcement. Dans le cas du ML, qui nous intéresse particulièrement dans cette thèse, l’algorithme est conçu pour reproduire une structure ou des motifs présents dans un jeu de données, appelées données d’entraînement. Au cours d’une phase d’entraînement, l’algorithme adapte un ensemble de paramètres, appelés coefficients du modèle, pour satisfaire au mieux un objectif défini par le développeur. Le plus souvent, il s’agit de prédire aussi fidèlement que possible un des attributs du jeu de données 3 . Le développement de l’IA a eu deux moteurs principaux. Le premier est la croissance exponentielle de la puissance de calcul des ordinateurs. La loi empirique de Gordon Moore postule que la densité de transistors sur les processeurs (et donc la puissance de calcul) double tous les deux ans 4 . Ainsi, des algorithmes effectuant des calculs de plus en plus complexes, et nécessitant notamment des phases d’apprentissage parfois très gourmandes, ont pu être employés. Le deuxième moteur de ce développement est l’explosion des volumes de données disponibles due notamment à la numérisation de nos sociétés. En effet, l’usage, aujourd’hui quasi-systématique, d’outils numériques dans les services administratifs, les communications, le commerce et l’industrie ont conduit à une multiplication des données accessibles ainsi qu’à une diversification des domaines d’utilisation de ces données. 

Formation et coursTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *