Réflexion - le Pré-crime, l'avenir de la sécurité

Minority report est il encore un film de science fiction (et aussi une nouvelle de P.k. Dick)? Pas si sûr…

A l’heure où l’on s’inquiète de l’arbitraire de l’état d’urgence , à l’heure où l’on parle de l’utilisation de nos données personnelles, les sociétés de sécurité sont déjà passées à une étape de plus : La prédiction du crime, baptisé Precrime dans l’oeuvre de Philip K. Dick. S’il s’agissait d’arrêter un criminel avant qu’il ne commette un crime, dans la réalité d’aujourd’hui, il s’agit plutôt d’être sur les lieux d’un crime afin d’éviter qu’il n’arrive, ou bien de contrôler une personne qui a un comportement suspect. Bref, tout ce qui devrait rassurer le citoyen lambda.

Quelques exemples montrent l’état de l’art :

Mais évidemment, les recherches ne s’arrêtent pas là. Les universités américaines, toujours à l’affut d’un bon budget fédéral, étudient des systèmes pour prédire le passage à l’acte des malades mentaux, par exemple. Dans ce cas, elles récoltent des données dans les dossiers médicaux, les achats, les activités en ligne… L’université de Virginie a, par exemple, agrégé des données provenant de réseaux sociaux avec d’autres sources afin de prédire des crimes et délits. Et cela, juste avec les données publiques avec souvent la géolocalisation des tweets. Lorsque l’on se souvient que des université canadiennes ou américaines ont participé à des tests de méthodes de tortures de la CIA (exportées dans des dictatures comme le Chili de Pinochet), dans les années 50 à 80, on peut raisonnablement se poser la question de la limite de ces expérimentations. L’excuse de cette époque était alors la lutte contre l’espionnage russe. Aujourd’hui, les ennemis ont changé, pas les excuses.

Si aujourd’hui nous sommes au courant, à travers des sociétés présentes dans les salons internationaux de la sécurité, des projets officiels et des logiciels de pré-crime, quid des projets officieux et surtout quid de ceux utilisés dans des pays dictatoriaux, loin de toute caméra. La législation étudie déjà depuis la fin des années 2000, les dispositions nécessaires à l’installation de tels systèmes. Dans le cadre de l’état d’urgence, en France, aux USA ou ailleurs, les verrous légaux sautent très vite pour permettre l’usage d’outils plus que dangereux. Aujourd’hui, il est difficile d’avoir un chiffre montrant le gain de ces systèmes en dehors de reconstitutions de situations à un instant T pour savoir si le système aurait détecté des crimes. A Indio, on avance une baisse de 8% des vols mais est-ce que le système est le seul facteur de cette baisse? De même, l’approche statistique a des failles importantes en orientant la surveillance volontairement à un endroit, laissant d’autres cibles démunies, ce qui peut profiter à une personne ayant une analyse identique sous la main. Les variables utilisées pour définir les comportements et crimes visées sont vastes et on peut, par exemple envisager de passer du terroriste jihadiste à un militant syndical ou environnemental. L’outil est identique, c’est l’utilisation qui pose problème.

Est-ce que la fin de Minority Report sera aussi celle de la fin de ces nouveaux softwares d’intelligence artificielle. Les décideurs ont-ils la culture nécessaire pour analyser les danger des ces systèmes en de mauvaises mains (où ils sont peut-être déjà)? Pensent-ils être plus malins que les autres ? La main-mise* des lobbies de l’armement et de la sécurité sur beaucoup des politiques militaires et policières repond malheureusement aux questions.

(*) : En France, Manuel Valls est ami de longue date avec Alain Bauer, lui même conseiller sécurité de Nicolas Sarkozy, professeur de criminologie, auteur d’un rapport sur l’utilisation des fichiers de police et de gendarmerie, et sur le rapprochement avec les autres fichiers.


Ecrit le : 03/02/2016
Categorie : geek, reflexion
Tags : bigdata,espionnage,Geekeries,Geopolitique,internet,précrime,Réflexion,sécurité,torture

Commentaires : par Mastodon ou E-Mail.