Abstract
De la gouvernementalité algorithmique de fait au nouvel état de droit qu’il lui faut
Séance du 7 octobre 2014, enregistrée au Centre Pompidou (Salle Triangle)
La deuxième séance du séminaire Digital Studies de cet automne portait sur le thème : « De la gouvernementalité algorithmique de fait au nouvel état de droit qu’il lui faut ». Bernard Stiegler (philosophe, directeur de l’Institut de Recherche et d’Innovation) a débattu avec Antoinette Rouvroy (docteur en sciences juridiques et chercheur à l’Université de Namur).
Le propos d’Antoinette Rouvroy, s’appuyant sur la notion de « régimes de vérité » chez Foucault, a exploré la question de savoir en quoi la « gouvernementalité algorithmique », apparue avec le numérique, constitue un nouveau mode de gouvernement des conduites, et a souligné ses répercussions cruciales en termes épistémologiques, sémiotiques et juridiques. Elle a mis en évidence une crise de la notion de représentation, portée par l’idéologie des big data selon laquelle le traitement automatique des « données brutes » permettrait de découvrir la vérité à même le réel, en se passant de toute vérification, de toute interprétation, de toute critique. A travers le travail opéré sur ces données, qui en efface la signification, ce sont aussi trois sources d’incertitude qui tendent à être suspendues : celles de la subjectivité, de la sélectivité et de la virtualité. Tout en montrant les conséquences de cette idéologie des big data sur l’identité personnelle, qui témoigne du paradoxe d’une hyper-personnalisation mêlée à une fragmentation et un isolement de l’individu, Antoinette Rouvroy a également pointé trois types de « récalcitrances » à ce mouvement, que sont l’ineffectué de l’histoire, l’ineffectué de l’avenir et la mansuétude humaine.
L’intervention de Bernard Stiegler a ajouté à ces réflexions l’idée d’un droit algorithmique qui resterait à construire. Le caractère indispensable d’une différenciation entre le fait et le droit trouve une illustration particulière à travers la réfutation du texte de Chris Andersen, The End of theory, qui postule l’inutilité de la formulation d’hypothèses et l’élaboration de théories scientifiques à l’heure des big data. Bernard Stiegler a montré la nécessité d’un effort d’interprétation des données brutes, en s’appuyant sur la distinction kantienne entre l’entendement, dont les processus analytiques sont computationnels et automatisables, et la raison dont les processus synthétiques, échappent au règne de l’automaticité et rendent l’individu capable de trancher et de décider. Il a également souligné le lien entre l’automaticité algorithmique et les problématiques du capitalisme contemporain, en particulier ses conséquences sur l’emploi. Il est dès lors capital de mobiliser notre raison, orientée vers l’instauration de circuits de transindividuation, pour élaborer dès à présent un nouveau modèle.
Vidéo de la séance