Back to
Point de vue
Publié le
Vendredi 02 Octobre 2015
La gendarmerie envisage de se doter d’un outil informatique identifiant, à partir d’un traitement statistique de millions de données relatives aux crimes et délits, les lieux et les moments où la délinquance a le plus de chance de se produire. Les conséquences des erreurs de ce dispositif seraient, aux dires des promoteurs de ce projet, limitées et rapidement corrigeables. Cet exemple, parmi d’autres, montre combien le phénomène de massification des données, dit big data, fait miroiter chez les décisionnaires publics de nouvelles perspectives d’amélioration et de gains de performance. Cependant, ils risquent ainsi de se dessaisir radicalement de certaines de leurs prérogatives les plus fondamentales.
bigdata.jpg

Par sa dimension mécanique et la nouvelle philosophie d’action qu’il induit, le « big data » tend à déposséder le gestionnaire public d’une partie de son rôle d’organisateur de l’action publique et à entraver sa capacité même d’analyse de celle-ci ; de plus, l’absence de transparence des algorithmes de traitement pose un réel problème démocratique. Une réflexion sur l’utilisation de ces nouvelles technologies devient ainsi nécessaire.

Une mécanisation de la prise de décision publique

En se donnant pour objectif de corréler un maximum d’informations ayant trait au citoyen et à sa vie publique, pour en extraire des règles de prise de décision, ce mode de gouvernement prétend d’abord modéliser la réalité de la manière la plus conforme et fidèle qu’il soit. L’objectif est d’atteindre une rationalité décisionnelle optimale et de rejoindre ainsi une gouvernance de la cité définie comme une « technique pure », dans le sens que lui prête Foucault lorsqu’il définit la notion de « gouvernementalité[1] ». Dans son analyse des travaux de Foucault, Castel[2] montre de plus qu’une telle forme de gouvernance aboutit à concevoir la prévention des risques comme l’un des buts de l’action sociale.

Les big data introduisent ainsi une rupture nouvelle dans la manière de concevoir l’exercice du pouvoir public : la régulation des interactions sociales entre citoyens n’est plus tant le fruit du contrat initial entre ceux-ci (ou d’une compréhension de celles-ci) que le produit de traitements de données d’une réalité qu’il convient de réguler et d’orienter. Le système de gouvernement des individus devient un système autoalimenté par les propres éléments de sa régulation – les données.   

Sur qui repose le pouvoir de décision ?

L’utilisation publique de ces technologies de traitement massif n’est dès lors pas un choix anodin. Qu’ils concernent le calcul d’aides sociales, l’évaluation de sanctions judiciaires, ou la détermination des niveaux de remboursement de soin, ces outils peuvent avoir un réel impact sur la vie des citoyens. Le choix de leur usage est ainsi éminemment politique, et doit donc être tranché démocratiquement.

Il faut bien noter tout d’abord que ces instruments peuvent être difficilement conciliables avec les principes de l’intérêt général et de la socialisation des risques, établis aujourd’hui en France. Par leur puissance de calcul, ces outils peuvent, en effet, inciter à transgresser certains prérequis de notre système social et mettre en difficulté, au prétexte de la réalité des données, certains de nos concitoyens ou groupes sociaux.

Toute action proposée par un outil de traitement doit être validée par une personne physique responsable en dernier ressort. Le volume des données, la mécanisation du traitement réduisent cependant sa capacité décisionnelle. Le décideur public qui les emploie se prive, de fait, pour partie, de sa capacité d’analyse, et tend objectivement à se décharger d’une part de sa responsabilité sur l’outil informatique.

La nécessité d’accéder au code source pour maîtriser la prise de décision publique

Le vrai pouvoir de décision est entre les mains de celui qui contrôle l’algorithme de traitement. Les institutions publiques peuvent posséder autant de données qu’elles le souhaitent, et les ouvrir de la manière la plus large possible, leur action restera toujours confinée à un rôle secondaire tant qu’elles ne maîtriseront pas les algorithmes de traitement. Il ne s’agit pas de préconiser l’ouverture de tous les modèles de traitement utilisés dans la sphère publique. Il s’agit plutôt d’affirmer que, quand un algorithme de traitement massif impacte la vie publique, le citoyen doit pouvoir comprendre comment il fonctionne. Ignorer tout de la façon dont une action publique est mise en œuvre conduira inévitablement à douter qu’elle poursuit bien un objectif d’intérêt général, et cette suspicion est inacceptable.

La transparence de l’outil informatique est donc gage de respect de l’intérêt général. Or le code source des algorithmes de traitement massif est rarement laissé accessible par les entreprises qui les produisent, pour des raisons de propriété intellectuelle. Dans l’algorithme, les règles formalisant le passage d’une donnée d’entrée vers une donnée de sortie correspondent souvent à des choix de conception logicielle protégés par leur propriétaire. Le choix de l’architecture décisionnelle est donc généralement laissé, de fait, au bon vouloir du fournisseur du logiciel. Par exemple, le logiciel Predpol, qui repose sur un algorithme fermé, utilise uniquement des données de criminalité et des données territoriales, et non pas des données économiques ou sociales. C’est un choix méthodologique essentiel, et en tant que tel, il mérite d’être connu et discuté. Les développements récents de l’intelligence artificielle et des réseaux de neurones conduisent cependant, par leur capacité d’auto-apprentissage, à s’interroger sur notre capacité à en « contrôler » le fonctionnement et donnent ainsi une nouvelle dimension à ce débat.

Pour construire un nouveau rapport avec la technologie de traitement massif

Un nouveau rapport doit donc être établi entre les systèmes de traitement massif et les autorités publiques. Il doit permettre un maintien des prérogatives des représentants de l’intérêt général, qui prendrait la forme d’un accès libre aux algorithmes de traitement. Parallèlement, un travail d’analyse des plus constants et précis doit être mené, afin de cerner les limites, failles et points d’amélioration de ces outils. France Stratégie participera à ce travail en organisant un prochain cycle de séminaires sur les mutations technologiques et les mutations sociales, lors duquel seront abordées toutes ces questions.

[1] Notion reprise par A. Rouvroy dans l’analyse des méthodes de gouvernement algorithmiques.

[2] R. CASTEL, La Gestion des risques : de l'anti-psychiatrie à l'après-psychanalyse, 1981.

Tous nos travaux sur  :