LE DIRECT
ⓘ Publicité
Radio France ne vous demandera jamais de communiquer vos coordonnées bancaires.
Manifestation de policiers à Marseille, le 23 octobre 2016

Un truc fou : les algorithmes ne suffisent pas à prévenir les crimes

5 min
À retrouver dans l'émission

Les algorithmes de police prédictive se multiplient. Les premiers résultats ne sont pas mirobolants, mais ils posent les bonnes questions.

Manifestation de policiers à Marseille, le 23 octobre 2016
Manifestation de policiers à Marseille, le 23 octobre 2016 Crédits : BERTRAND LANGLOIS / AFP - AFP

La police prédictive, consiste, pour le dire vite, à utiliser des bases de données de faits de délinquance (quelle est leur nature ? qui les commet ? où ? à quelle fréquence ? etc.) et de faire travailler des algorithmes pour qu’ils fournissent au choix des lieux à risques, ou même des listes de personnes susceptibles d’être impliquées dans des actes de violence. Bien des villes du monde entier - France comprise - se sont dotées de ces outils technologiques censés remplir un objectif parfaitement louable : faire de la prévention.

Or, après le temps de l’enthousiasme, vient celui des études, qui douchent un peu froidement. Un exemple est particulièrement intéressant, celui d’un algorithme du nom de “Strategic Subjects List”, qui est utilisé depuis 2013 à Chicago. Le programme a été fabriqué conjointement par le département de la police de Chicago et l’Institut technologique de l‘Illinois. Il identifie et classe les personnes les plus susceptibles d’être impliquées - comme auteurs ou victimes - dans des fusillades. Pour ce faire, il utilise des données comme les arrestations liées à la drogue, l’affiliation à un gang, l’âge lors de la dernière arrestation etc.. Plus de mille personnes sont listées et classées. L’idée est d’identifier les personnes les plus vulnérables à cette criminalité et de leur proposer une aide, en amont. La police se félicite de son outil. Ok, mais le problème, c’est que la criminalité n’a pas baissé à Chicago, où 2016 est même en passe d’être une année record.

Une étude de la Rand Corporation (un think tank spécialisé dans les questions de défense) - étude rendue publique en août - explique pourquoi. Et c’est tout à fait instructif. Le programme n’aide pas à prévenir les crimes, ni même à orienter les personnes ciblées vers des programmes sociaux. Son seul effet manifeste est que les personnes sur la liste sont plus fréquemment arrêtées. Pourquoi ? Il semblerait que quand une fusillade a lieu quelque part, le premier réflexe des enquêteurs soit d’aller regarder les personnes listées qui habitent dans le le coin, et de commencer par elles.

Les réactions de la police de Chicago à cette étude sont encore plus révélatrices. Elle reproche à la Rand Corporation de ne pas avoir évalué le modèle prédictif lui-même, mais de se concentrer sur les stratégies d’intervention de la police, sur les pratiques de terrain. Et si ça n’était pas ça le problème ? Que des algorithmes puissent établir des listes valides, c’est une chose, que l’on sache qu’en faire, c’en est une autre. Et c’est manifestement ce qui est arrivé aux policiers de Chicago à qui on a fourni ces listes sans leur expliquer précisément qu’en faire. Quoi leur dire à quelqu’un susceptible d’être impliqué dans une fusillade ? Comment l’aborder ? Que leur proposer ? Quel suivi ? En l’absence de réponse à ces questions, la police fait comme elle a toujours fait. Et voilà comment les craintes que les défenseurs des droits ont toujours eu au sujet de la police prédictive se réalisent : il s’agit moins de prévenir que de renforcer les vieilles pratiques policières. Avec tous les biais que l’on connaît. Et notamment le fait de cibler toujours les mêmes, les pauvres et les minorités.

Quelles conclusions peut-on tirer de tout ça ?

Les inquiets des technologies auront vite fait de se réjouir que ces programmes ne marchent pas. Car c’est le principe même de la prédiction qui est critiquable, qu’il nous mènera au cauchemar imaginé par Philip K. Dick dans “Minority Report” (toute évocation de la police prédictive entraîne nécessairement une référence à "Minority Report")… Peut-être, sauf que je ne suis pas sûr qu’en matière technologie, on ne fasse jamais machine arrière.… J’ai bien peur qu’on doive faire désormais avec la police prédictive, comme on doit faire avec la vidéosurveillance, malgré tous les doutes quant à leur efficacité en matière de prévention du crime…Il s’agit là de croyance, et la raison n’a que peu de poids contre les croyances.

Alors, prenons le problème dans l’autre sens. Si ces outils sont amenés à se développer, la question n’est-elle pas comment faire avec eux ? Or les premiers résultats ont quelques mérites :: ils montrent que ces programmes ne servent à rien si la police ne change pas profondément ses méthodes de travail, qu’ils ne servent à rien si c’est la police seule qui les utilise - qu’il ne suffit pas d’envoyer une patrouille dans une rue que l’algorithme a identifiée comme à risque, ou que deux policiers sonnent chez une personne en lui expliquant qu’elle risque 20 ans de prison si elle commet un crime pour prévenir la délinquance, ces résultats montrent ce qu’on sait depuis longtemps en matière de prévention, mais qu’il est utile de rappeler : c’est une question sociale, dans le sens le plus large du terme.

Chroniques
8H45
5 min
Le Journal de la culture
Le Journal de la culture : Lundi 24 octobre 2016
L'équipe
ⓘ Publicité
Radio France ne vous demandera jamais de communiquer vos coordonnées bancaires.

France Culture

est dans l'appli Radio France
Direct, podcasts, fictions

INSTALLER OBTENIR

Newsletter

Découvrez le meilleur de France Culture

S'abonner
À venir dans ... secondes ...par......