Souriez, vous êtes fichés!

Si une personne vous interroge sur la sécurité, vous répondrez indéniablement qu’il n’y en a pas assez, qu’il faudrait plus d’agents et de caméras, plus de mesures rétorsives et punitives dans une société frappée par la délinquance et le terrorisme.

 

Chaque année, de nouvelles méthodes sont appliquées pour répondre à ce sentiment d’insécurité. Nous pouvons citer le recrutement de nouveaux policiers, leur formation aux nouvelles menaces, les mesures préventives sociales pour éviter le basculement dans la criminalité ou pour en sortir. Mais tout ceci ne suffit pas, les résultats ne sont pas visibles car les médias nous montrent encore de nouveaux faits criminels quotidiennement. Le crime n’est pas endigué.

 

Aux Etats-Unis, en Allemagne et au Royaume-Uni, il existe une méthode qui va plus loin pour tenter de réaliser l’impossible : empêcher le crime de se produire. Bien sûr, cela fait sourire car si cela existait, la criminalité disparaitrait grâce aux actions préventives de la police. Et pourtant, c’est que qu’il se passe dans les pays cités qui appliquent une méthode bien particulière : le screening algorithmique.

 

Le principe est simple : un ordinateur analyse les données suivant un algorithme particulier pour déterminer où les crimes risquent de se produire, qui va ou vont les produire et qui va ou vont en être victimes. Pour cela, il épluche les dossiers judiciaires pour déterminer une liste de criminels ou de victimes potentiels selon des zones dites sensibles où des faits ont été constatés.

 

Dit comme ça, cette technologie semble intéressante. Elle est souvent comparée à celle utilisée dans le film Minority Report où une agence de police utilise des personnes dotées du don de voyance pour empêcher les crimes de se produire. Interrogez les personnes qui ont connue ce système, elles vous apporteront une tout autre réponse.

 

Quand la sécurité tourne à la paranoïa

 

Pour que le système fonctionne, il faut un algorithme, c’est-à-dire des instructions binaires simples assemblées au fur et à mesure de nouvelles questions pour déterminer le résultat final. Ainsi, c’est comme si vous posez des questions et que la machine vous répond oui ou non puis, en fonction du résultat, vous posez d’autres questions jusqu’à obtenir la réponse finale qui enclenchera la commande ou la procédure. En informatique, l’algorithme est traduit en codes suivant un langage spécifique mais surtout des instructions dont seuls les concepteurs les connaissent. Du coup, une question importante se pose : quelles sont les algorithmes qui permettent de définir les critères sur un possible crime à venir ?

 

Rappelons que dans un Etat de droit, la transparence des procédures est primordiale pour respecter la présomption d’innocence. Or, dire qu’un ordinateur vous déclare comme « criminel potentiel » sans vous apporter les preuves ni détailler complètement la procédure relève de la violation de ce droit.

 

Et pourtant, la police fait fi de cette remarque en regardant la question sous un autre angle. Le principe veut que les personnes ayant déjà été arrêtées et/ou condamnées risquent de récidiver. Il est vrai que le risque de récidive existe si la personne libérée ne parvient pas à se détacher du milieu où elle a baigné. Là où apparaissent des dérives est lorsque la police considère que, sur base de vos origines, de votre milieu géographique, de votre situation sociale, de vos relations privées et publiques, et de votre passé judiciaire, vous êtes un danger potentiel. En gros, si vous avez consommé de la drogue mais qu’après vous avez arrêté, que vous vivez dans un bidonville et que vous côtoyez des amis douteux, vous risquez de commettre un crime. Pire, vous risquez même de figurer sur la liste des plus dangereuses personnes de la ville ! Bonjour la réinsertion … à cause d’un ordinateur !

 

Un ordinateur qui applique des procédures que personne, excepté les concepteurs, connaissent. Répondre à la question posée précédemment relève du secret industriel. Pas question de révéler le secret du produit dans le marché de la sécurité. Là se pose une question encore plus cruciale : jusqu’où peut-on marchander avec la sécurité ? Il existe des sociétés de gardiennage pour assurer la sécurité des lieux, des marchandises et des personnes par des agents privés, il existe même des groupes militaires privés pour réaliser des tâches que l’armée a accepté de déléguer mais peut-on demander à des sociétés de se substituer à la justice en déclarant d’office qui est coupable à leurs yeux ?

 

Jusqu’où pour des résultats ?

 

La police désire acheter un produit qui fonctionne. Le logiciel qu’elle emploie doit faire ses preuves. Pour elle, les algorithmes ont facilité les interventions car les prédictions se sont avérées exactes. Les zones les plus sensibles sont ainsi devenues plus faciles à maitriser car la police peut déterminer les effectifs à affecter pour arrêter les personnes listées par l’ordinateur. En outre, le logiciel permet aussi d’orienter les patrouilles de police pour surveiller les zones sensibles où des crimes ont été commises.

 

Est-ce suffisant pour déclarer le produit comme efficace ? Pas pour tout le monde. La police souhaite empêcher les faits de se réaliser sur l’ensemble du territoire, pas seulement dans les zones de danger. C’est là qu’intervient le fichage expliqué plus haut. Selon les personnes listées, la police cherche à tout prix à justifier l’efficacité de ce programme en poussant les fichés à commettre un crime via une pression permanente sur leur situation « judiciaire » selon l’ordinateur pour ensuite les arrêter lorsque ceux-ci se trouveraient dans les conditions qui le définissent comme criminel prêt à passer à l’action.

 

C’est à partir de ce stade que la question de l’abus mérite d’être débattue. Un ordinateur est toujours limité par des algorithmes incomplets. Il ne peut totalement décrire une personne car il se base sur les informations recueillies et données. Or, connait-il la situation actuelle de la personne fichée ? Non. Sait-il que la personne s’est détachée de sa vie précédente pour se reconstruire ? Pas toujours. Cela relance la problématique du casier judiciaire où un criminel reste jugé pour les faits qu’il a commis dans le passé sans se demander ce qu’il est ensuite devenu. D’autant qu’une fois listé, il est pratiquement impossible de demander à y être retiré, c’est l’ordinateur qui détermine le danger que vous représentez pour la société, pas la police ni les services compétents. 

 

La sécurité à tout va : la fausse bonne idée ?

 

Le logiciel répond à une demande croissante de sécurité. Ce domaine est devenu au fil des années une des priorités pour le gouvernement. Pourtant, il existe d’autres problèmes liés à la thématique mais ne pouvant se résoudre par les méthodes traditionnelles.

 

L’analyse de la situation sociale par exemple car l’insécurité provient en partie de personnes n’ayant aucune perspective d’avenir et considèrent le crime comme le seul moyen de s’en sortir. Une société se basant sur le tout-répressif sans plan social de réinsertion est comme un plan militaire sans volet civil : un projet voué à l’échec dès sa mise en application. Une des solutions pour réduire la criminalité sans augmenter la sécurité est d’investir dans le social par des plans de formation ou des aides financières afin de permettre aux personnes les plus susceptibles de commettre un crime de s’insérer. Ce problème est fondamental aux Etats-Unis où l’absence d’aides publiques, couplée à l’accès facile aux armes à feu, entraine le sentiment d’abandon dans les quartiers les plus malfamés, un des critères retenus pour lister les probables criminels. Mais ceci relève de la perception des élus politiques du problème sécuritaire et tant que la solution de la répression azimutée primera, l’illusion de la solution parfaite continuera d’être entretenue.

 

Un logiciel reste un logiciel

 

Faut-il dès lors bannir tous les logiciels utilisés par la police pour déterminer la probabilité des crimes selon des algorithmes ? Non car n’oublions pas qu’il ne s’agit pas d’une intelligence artificielle qui fusionne la police et la justice mais d’un outil de police avec des procédures sur son utilisation.

 

Ainsi, réaliser une carte marquant les zones les plus dangereuses est très utile pour planifier des opérations de police en réduisant le risque de blessure tout en augmentant les chances de coincer les criminels. En revanche, considérer ceux-ci comme Madame Soleil qui remplace sa boule de cristal par des écrans d’ordinateur est très dangereux. Cela signifierait que la police prétend connaitre mieux les personnes qu’elle fiche que quiconque. Or, peut-elle réellement prédire ce qu’il va se passer ? Peut-on se demander si la personne ne va pas changer d’avis ou se trouvait simplement au mauvais endroit au mauvais moment ? Jamais nous ne pourrons lire les pensées des autres sur base d’algorithmes que peu de personnes connaissent.

 

Ce qui est encore plus dangereux est le risque de dérives que ce système peut entrainer. Une simple modification voire un piratage des algorithmes peut envoyer des innocents en prison sur base de données faussement incluses ou interprétées (car tout est sujet à interprétation avec les informations). Pire, jusqu’où allons-nous pousser la sécurité ? Allons-nous considérer les manifestations comme illégales ? Le jour où cela le deviendra, les programmes seront prêts à ficher les organisateurs et leurs contacts car le fichage, rappelons-le, se fonde aussi sur le réseau de contacts.

 

La sécurité reste une thématique importante mais elle ne doit pas devenir trop envahissante ni trop intrusive pour ne pas tomber dans la paranoïa de ne plus oser faire quoi que ce soit. La vie privée doit restée privée tout comme la liberté d’agir doit rester libre sans que quiconque impose une étiquette pour définir ce qu’on n’est pas en réalité. Big Brother n’est pas loin, un soupçon d’insécurité suffit pour l’accueillir à bras ouverts pour qu’il nous emprisonne ensuite avec les siens.

 

Source :

 

 

Le sujet et la plupart des arguments proviennent du reportage « Prédire les crimes » diffusé sur ARTE le mardi 2 octobre.