Photographie d'un schéma

On découvre que les décisions administratives se construisent dans des hypothèses de plus en plus fréquentes sur la base d’algorithmes et que cela soulève divers problèmes juridiques. Pourtant, le droit correspondant se bâtit dans la difficulté : comme on le découvre à la lecture de divers ouvrages récents, il demeure incomplet, incertain, non satisfaisant.

1°. On connait « Parcoursup », cet algorithme -plus exactement cette batterie d’algorithmes – visant à orienter les bacheliers vers les filières de l’enseignement supérieur. On sait moins que des algorithmes sont également utilisés par les administrations fiscales dans le cadre de la lutte contre la fraude comme par les services de renseignement dans le cadre de la lutte contre le terrorisme, cependant que la justice administrative expérimente un projet d’algorithmes qui permettraient d’identifier les séries contentieuses, etc… (voir l’ouvrage dirigé par Jeremy Bousquet, Thibault Carrère et Sabrina Hammoudi).

On découvre que ce développement inexorable est de nature à engendrer de nombreux problèmes juridiques et que le droit positif ne leur apporte que bien peu de réponses (cela n’est pas propre au droit français : sur le cas du droit italien, que l’on peut dire, pourtant, davantage sensibilisé au problème, en témoigne l’ouvrage dirigé par Roberto Cavallo Perin et Diana-Urania Galetta).

2°. La vérité est qu’il n’y a que trois questions sur lesquelles on ait quelque information.

La première est celle de la transparence des algorithmes (sur le sujet, voir spécialement l’ouvrage dirigé par Lucie Cluzel-Métayer, Catherine Prébissy-Schnall et Arnaud Sée). Les algorithmes publics sont des documents administratifs et ils sont communicables à ce titre, mais en outre la loi du 7 octobre 2016 sur la République numérique organise à la fois l'accès à eux lorsqu’ils sont utilisés à l’appui d’une décision individuelle et leur publication, dans les collectivités de 50 agents ou plus. En pratique, la seconde obligation semble peu respectée.

La deuxième concerne l’usage d’algorithmes « auto-apprenants », c’est-à-dire dont la logique interne s’enrichit des informations qu’ils tirent des réalités auxquels les décisions qu’ils inspirent s’appliquent (un logiciel de lutte contre la fraude fiscale peut se nourrir des cas de fraude que son utilisation permet de déceler). On n’en sait pas énormément sur le sujet mais le Conseil Constitutionnel, dans sa décision du 12 juin 2018 sur « Parcousup » indique tout de même que ce type d’algorithme ne peut pas être utilisé dans l’élaboration d’une décision individuelle « sans le contrôle et la validation du responsable du traitement ».

La troisième est celle des décisions « automatiques » fondées sur des algorithmes : soit les cas dans lesquels une décision individuelle serait prise sur le seul fondement du traitement par un algorithme de données concernant le destinataire -et notamment d’un « profilage » de cette personne- sans qu’une intervention humaine ultérieure puisse infléchir ou corriger (cette question est présente de façon récurrente dans toute la littérature, mais notamment dans l’ouvrage dirigé par Karen Yeung et Martin Lodge). Tant le Règlement européen sur la protection des données de 2016 que la loi nationale limitent le recours à ce genre de mécanique décisionnelle. Ils le bannissent même en principe si la décision est susceptible de produire des effets sur la personne, mais il est vrai qu’ils assortissent cette interdiction de plusieurs exceptions (critiquées notamment par la CNIL dans une délibération du 30 novembre 2017).

3°. A côté de ces trois apports, dont à vrai dire aucun n’épuise son sujet, de nombreuses questions restent largement, voire totalement, en suspens.

Il y a d’abord celle de savoir s’il existe des limites au recours à des algorithmes par les décideurs administratifs et, si oui, quelles elles sont. On a rappelé les butoirs que le Conseil Constitutionnel a estimé devoir placer face aux logiciels « auto-apprenants », mais elles ne nous disent pas plus largement s’il existe des limites à la part de leur pouvoir d’appréciation que les responsables publics peuvent partager avec des algorithmes (le problème est largement analysé dans l’ouvrage dirigé par Karen Yeung et Martin Lodge).

Voisine est la question suivante. Dans certaines hypothèses, les algorithmes seront utilisés dans des dispositifs redoutables pour la vie privée et qui ne sont encore qu’incomplètement encadrés à ce titre. La question se pose en particulier pour les systèmes de reconnaissance faciale, sur lesquels ni le droit européen ni le droit national n’ont encore pris de position très claire.

Un problème fréquemment mis en avant et indiscutablement encore non réglé par le droit positif est celui des biais que peuvent recéler les algorithmes -ou/et les données auxquelles on les applique- et qui peuvent conduire à des discriminations inacceptables. Ce problème est souvent exagéré : il faut lire les ouvrages d’Aurélie Jean, qui montrent que tout système d’appréhension du réel comporte des biais qui tiennent aux angles sous lesquels cette appréhension est effectuée. Il n’en reste pas moins que certains biais conduisent vers des discriminations inacceptables -fondées sur la race, le sexe, la situation sociale…- qu’il convient d’éviter. Il faudrait pour cela des mécanismes de vérification, voire de certification, que le droit national ne prévoit pas encore.

En fait, le droit français partage avec la plupart des autres un retard dans la mise en place de mécanismes de régulation de l’élaboration et de mise en œuvre des algorithmes publics (cet aspect des choses est abordé notamment dans l’ouvrage de Fotis Fitsilis, ainsi que dans celui dirigé par Alejandro Huergo Lora et il est très présent dans l’ouvrage dirigé par Karen Yeung et Martin Lodge). Qui est apte à décider d’avoir recours à des algorithmes, qui en pilote la conception, dans quel rapport avec les data scientists qui les formulent, qui vérifie qu’ils ne comportent pas d’imperfections -biais, mauvaise interprétation des textes, etc…- ? Tout cela est encore non réglé.

Ce qui est encore peu clair, également, c’est l’articulation des droits économiques sur les algorithmes, en particulier lorsqu’ils auront été élaborés par des experts extérieurs à l’administration concernée. Comment faire en sorte que le droit de propriété intellectuelle des concepteurs de l’algorithme ne soit pas une limite à sa transparence ?

De grandes interrogations concernent enfin la situation des algorithmes dans le contentieux administratif. Elles concernent d’abord, tout simplement, la contestation possible des algorithmes publics. Pourront-ils faire l’objet de recours directs, ou simplement d’une contestation indirecte dans le cadre d’actions contre les actes qui auront été pris sur le fondement ? Sur quelles bases pourront-ils être discutés : l’insuffisance de motivation ou son défaut de transparence ou d’explicabilité, l’erreur de droit consistant dans la mauvaise interprétation des textes par l’algorithme, le déficit d’examen particulier des circonstances (voir notamment Juris-Classeur Administratif, fasc. 109-55). Comment pourrait se présenter une mise en œuvre de la responsabilité du fait des algorithmes (voir l’ouvrage dirigé par Jeremy Bousquet, Thibault Carrère et Sabrina Hammoudi) ?

Ces interrogations concernent aussi l’éventualité de l’utilisation d’algorithmes comme instruments d’aide à la décision juridictionnelle dans le cadre de la justice administrative. Peut-on imaginer par exemple, que les juges administratifs utilisent des algorithmes pour asseoir sur la multitude des précédents, les jugements à rendre sur le chiffrage des indemnisations en matière de responsabilité -dans le cadre de ce qui serait une « justice administrative prédictive » - ?

4°. On voit que les problèmes non réglés pèsent encore plus lourd que les solutions assez limitées que le droit positif a fournies pour le moment.

Cela est dû au caractère nouveau et parfois délicat de ces problèmes, mais sans doute aussi au fait que les normateurs nationaux attendent un peu que le droit européen apporte des réponses.

Il n’est pourtant pas évident qu’il soit pressé de le faire. Pour intéressant qu’il soit, le récent projet de Règlement sur l’accès aux données et leur utilisation (23 février 2022, COM (2022) 68 final) porte sur d’autres objets.

Références

Jeremy Bousquet, Thibault Carrère et Sabrina Hammoudi (dir.), L’action publique algorithmique : risques et perspectives (colloque Nîmes, 9 avril 2021), à paraître

Roberto Cavallo Perin et Diana-Urania Galetta (dir.), Il diritto dell’amministrazione pubblica digitale, G.Giappichelli editore, 2020

Lucie Cluzel-Métayer, Catherine Prébissy-Schnall et Arnaud Sée (ss. dir.), La transformation numérique du service public : une nouvelle crise ?, Mare & Martin, 2021

Alejandro Huergo Lora (dir.), La regulacion de los algoritmos, Thomson Reuters Aranzadi, 2020

Fotis Fitsilis, Imposing Regulation on Advanced Algorithms, Springer, 2019

Aurélie Jean, De l’autre côté de la Machine. Voyage d’une scientifique au pays des algorithmes, Editions de l’Observatoire, 2019 – Les algorithmes font-ils la loi ?, Editions de l’Observatoire, 2021

Juris-Classeur Administratif, fascicules 109-20 et suivants, par Jean-Bernard Auby, Lucie Cluzel-Métayer, Thierry Piette-Coudol et Catherine Prebissy-Schnall, mise à jour régulière

Karen Yeung et Martin Lodge (dir.), Algorithmic Regulation, Oxford University Press, 2019

Partager cet article

Articles sur le même thème