L’utilisation de l’ia face aux exigences du droit au proces equitable

Les garanties du procès équitable mises en place par la C.E.D.H. en son article 6 sont nombreuses. L’article établit que « [t]oute personne a droit à ce que sa cause soit entendue équitablement, publiquement et dans un délai raisonnable, par un tribunal indépendant et impartial, établi par la loi, qui décidera, soit des contestations sur ses droits et obligations de caractère civil, soit du bien-fondé de toute accusation en matière pénale dirigée contre elle. Le jugement doit être rendu publiquement, mais l’accès de la salle d’audience peut être interdit à la presse et au public pendant la totalité ou une partie du procès dans l’intérêt de la moralité, de l’ordre public ou de la sécurité nationale dans une société démocratique, lorsque les intérêts des mineurs ou la protection de la vie privée des parties au procès l’exigent, ou dans la mesure jugée strictement nécessaire par le tribunal, lorsque dans des circonstances spéciales la publicité serait de nature à porter atteinte aux intérêts de la justice » .

L’utilisation de l’IA au sein de la justice répressive aura des conséquences sur toutes les garanties du procès équitable. Par exemple, l’exigence du délai raisonnable pourrait être presque toujours respectée grâce au travail en partie fourni par l’IA, plus rapide que celui de l’humain. Nous pouvons également citer la présomption d’innocence qui pourrait éventuellement être mise à mal à cause de la justice prédictive.

Étant donné que nous focalisons notre analyse sur la création des décisions juridiques des tribunaux répressifs, nous étudierons les garanties qui seront le plus impactées par l’intégration de l’IA à ce niveau de la procédure. Nous exposerons donc dans ce chapitre dans quelle mesure les garanties d’indépendance et d’impartialité du juge, l’accessibilité de la justice et la motivation du jugement risquent d’être mis à mal par le recours à un algorithme.

Pour ce faire, nous mettrons en balance les garanties précitées avec l’exigence de conformité à l’article 6 de la Cour européenne des droits de l’homme. Afin de rendre notre analyse plus nuancée, nous agrémenterons cela par des illustrations tirées des trois cas d’études présentés dans le chapitre premier.

L’EXIGENCE D’INDEPENDANCE DU JUGE

L’indépendance du juge et du tribunal figure à l’article 6§1 de la Convention européenne de sauvegarde des droits de l’homme et des libertés fondamentales (C.E.D.H.). Nous ne reviendrons pas sur la définition de cette notion, déjà explicitée dans le chapitre précédent. Néanmoins, la Cour européenne des droits de l’homme (Cour. eur. D.H.) a fourni dans son arrêt Findlay c. Royaume-Uni quatre critères permettant d’analyser l’indépendance de l’organe tranchant le litige ; le mode de désignation de de ses membres, la durée du mandant de ces derniers, les garanties contre les pressions extérieures et l’apparence d’indépendance. Afin d’étudier la conformité de l’exigence d’indépendance de l’organe judiciaire dans le cadre de l’intervention de l’IA, nous allons envisager ces quatre critères à l’aune des cas d’études préalablement présentés.

La justice partiellement robotisée

En imaginant que le juge humain soit assisté par un logiciel intelligent, il n’y aurait pas d’atteinte au critère lié au mode de désignation des membres de « l’organe judiciaire » (donc, le juge). Étant donné que c’est au juge humain que revient la décision de suivre ou de ne pas suivre la proposition du juge robot, on peut en conclure qu’il en est indépendant et que seul compte le respect des règles de désignation de ce juge humain. L’indépendance du juge humain pourrait également être mise à mal si ce dernier ne se sent plus libre de s’écarter de la proposition de décision fournie par le juge algorithmique. Cette hypothèse pourrait s’avérer vraie dans le cas où le juge humain choisirait la voie de la facilité , ou s’il se sent tenu par ce pseudo-système du précédent. Concernant le critère relatif à la durée du mandat de ses membres, aucune perturbation ne serait à signaler puisque, comme expliqué ci-dessus, le juge humain resterai le seul à juger souverainement de l’affaire. Seul le respect de la durée de son mandat compte.

Par contre, s’agissant du critère relatif à la garantie contre les pressions extérieures, une justice partiellement robotisée s’avère être un potentiel problème. Nous renvoyons au problème de l’intervention du secteur privé pour le développement de l’algorithme. Le critère de transparence est celui qui souffrirait le plus de l’intervention de l’IA dans le processus décisionnel. Reprenons la situation découlant de l’affaire Loomis : Northpointe avait refusé de divulguer le code source de son logiciel COMPAS sur base duquel Monsieur Loomis avait été condamné à un emprisonnement de 6 ans. Monsieur Loomis s’était alors plaint du manque de transparence du logiciel qui l’empêchait alors de contester le bien-fondé et la pertinence des résultats concernant sa potentielle récidive rendus par l’algorithme. La Cour européenne des droits de l’homme a relevé dans son arrêt Şahiner c. Turquie  l’importance de la confiance que doivent inspirer les organes juridiques aux justiciables et plus spécialement aux prévenus dans le cadre d’un procès pénal . Cependant, elle a elle-même tempéré ce principe en y insérant une limite : les craintes de l’accusé ne sont prises en compte que dans la mesure où elles seraient objectivement justifiées . Il semble légitime de la part d’un accusé de ne pas avoir confiance en l’indépendance totale d’un juge humain qui se baserait en partie sur des données fournies par un logiciel dont les rouages internes, c’est-à-dire la manière dont les informations sont traitées individuellement, sont volontairement rendus opaques par ses concepteurs .

La justice intégralement robotisée

Pour rappel, au sein d’une justice intégralement robotisée, une décision judiciaire est rendue sans aucune intervention humaine. L’intégralité de l’affaire repose alors sur l’IA. Il apparait clairement que le critère de mode de désignation des membres de l’organe judiciaire pose question étant donné que la Cour européenne des droits de l’homme a énoncé que cette désignation devait être compatible avec les exigences d’indépendance et d’impartialité . Le mode de désignation de l’organe judiciaire n’est pas de mise car il ne résultera ni d’un vote ni d’une loi. Personne ne choisira l’algorithme puisqu’il sera créé et développé par une société (certainement du secteur privé) au profit du secteur public. Ce premier critère n’est donc pas rencontré.

En second lieu, le critère ayant égard à la durée du mandat n’impose pas de durée minimum . Un juge algorithmique respecterait à première vue le principe d’inamovibilité du juge. Mais aussi tôt surviennent des questions, telles que, quid d’une mise à jour importante du logiciel intelligent ? Est-ce que, si cette mise à jour intervenait lors d’une affaire en cours, elle pourrait être perçue comme une atteinte à l’inamovibilité du juge ? Tout dépendra probablement du degré de changement que cette mise à jour apporterait au fonctionnement de l’algorithme.

Le critère des garanties contre les pressions extérieures semble par contre être moins enclin à une quelconque violation. L’algorithme fonctionnant de manière autonome pour chaque étape de son raisonnement, il ne peut être soumis à aucune pression hiérarchique ou provenant d’un confrère , au contraire du juge humain.

Ce qui pourrait entacher cette apparence d’indépendance de l’algorithme, ce sont les biais. Ces derniers pourraient être induis de manière involontaire par les personnes qui développeront et entraineront l’algorithme. Cette suspicion de dépendance ne se trouverait que renforcée dans le cas d’un secret d’entreprise bien gardé quant au fonctionnement interne de l’algorithme. Ce secret d’entreprise aurait donc des conséquences directes sur le critère d’apparence d’indépendance du juge algorithmique. Un manque de transparence sur le fonctionnement de ce dernier ne pourra qu’alimenter la méfiance du prévenu, dont le destin serait entièrement livré à une machine dont on ne connaît pas les fondements. Quand un justiciable a une crainte par rapport à l’indépendance du juge et que celle-ci s’avère être objectivement fondée, il peut demander la récusation du juge sur base de l’article 828 du code judiciaire. On peut se demander dans quelle mesure il serait envisageable de récuser un juge algorithmique. Pour que cela soit pertinent, il faudrait alors remettre l’affaire à un autre algorithme, entrainé et programmé de manière différente afin de contrer les craintes du justiciable. Sauf qu’une multiplicité d’algorithmes ainsi que des divergences entre ceux-ci éradiquerait tous les avantages d’une justice robotisée et reviendrait à une situation analogue à celle de la justice humaine et des inconvénients qui en découlent. Il apparaît clairement que l’exigence d’indépendance vis-à-vis de l’organe juridictionnel ne peut être rencontré dans une justice entièrement robotisée.

Table des matières

INTRODUCTION
CHAPITRE 1 : GENERALITES ET DEFINITIONS
A.- DEFINITIONS GENERALES
B.- LE FONCTIONNEMENT DE L’INTELLIGENCE ARTIFICIELLE
1) Explication technique
2) Trois cas d’étude illustrant l’utilisation de l’IA dans le domaine de la justice
C.- LES CONSEQUENCES DE L’UTILISATION DE L’IA
1) L’indépendance et l’impartialité
2) La motivation du jugement
3) L’accessibilité du juge
CHAPITRE 2 : L’UTILISATION DE L’IA FACE AUX EXIGENCES DU DROIT AU PROCES EQUITABLE
D.- L’EXIGENCE D’INDEPENDANCE DU JUGE
E.- L’EXIGENCE D’IMPARTIALITE DU JUGE
F.- L’EXIGENCE D’ACCESSIBILITE DE LA JUSTICE
G.- L’EXIGENCE DE MOTIVATION DU JUGEMENT
CHAPITRE 3 : QUELQUES PISTES DE REFLEXION AFIN DE GARANTIR LE DROIT AU PROCES EQUITABLE
CONCLUSION

Cours gratuitTélécharger le document complet

Télécharger aussi :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *