La police britannique utilise des logiciels pour prédire les crimes et c’est freakant

Oui, on se croirait dans Rapport minoritaire.

Un peu plus tôt cette semaine, en naviguant sur Reddit, je suis tombé sur une nouvelle que je ne croyais pas lire avant encore de nombreuses années. À tel point qu’en lisant uniquement le titre de l’article, je croyais qu’il s’agissait d’une fausse nouvelle ou d’une brève tirée d’un site satirique. Mais après avoir lu l’article en question, j’ai dû me rendre à l’évidence : on vit bien dans le futur.

En effet, dans un article paru sur le site de la très crédible BBC, le journaliste Leo Kelion rapporte que 14 forces de l’ordre du Royaume-Uni ont déjà utilisé, utilisent présentement, ou ont l’intention de le faire prochainement, des logiciels permettant de prédire quand et où des crimes seront commis. Si vous pensez que je suis en train de vous décrire le synopsis du film Rapport minoritaire avec Tom Cruise — inspiré de la nouvelle éponyme de Phillip K. Dick publiée en 1956 —, eh bien non.

Tout ceci est bien réel.

Des algorithmes remplacent les précogs

Si vous vous rappelez un peu du film, vous vous souviendrez que des êtres humains mutants, aussi appelés « précogs », aident les policiers de l’an 2054 à déceler d’éventuels crimes qui surviendront dans un avenir rapproché. 

Dans le cas qui nous concerne, ce sont plutôt des algorithmes — « un ensemble de règles opératoires dont l’application permet de résoudre un problème énoncé au moyen d’un nombre fini d’opérations » (merci, Larousse) — qui fournissent les informations aux policiers afin que ceux-ci puissent rendre leur travail plus efficace. Du moins, c’est ce que la police britannique prétend. Cette dernière explique que l’utilisation de ces logiciels lui permet d’allouer ses ressources de façon plus efficiente, ce qui est très avantageux compte tenu des importantes compressions budgétaires subies dernièrement. Les policiers peuvent donc être envoyés à des endroits plus stratégiques, où des crimes ont statistiquement plus de chances de survenir.

Concrètement, comment ça marche?

Si, comme moi, vous imaginez un Tom Cruise avec une casquette de police carreautée et un accent anglais swiperdes profils de criminels devant un écran géant, je vous confirme que c’est pas exactement comme ça que ça fonctionne.

Les algorithmes visent à déterminer des scores de dangerosité, autant chez les criminels que chez les victimes.

Deux types de logiciels sont utilisés par les forces de l’ordre pour tenter de prévenir les crimes. D’abord, la cartographie prédictive (ou « predictive mapping », en anglais) sert à identifier certains endroits plus dangereux sur le territoire couvert par le service de police dont il est question. Le nombre de patrouilles est donc plus élevé dans ces « endroits chauds » que dans des coins jugés plus sécuritaires par le logiciel. 

Le deuxième type de logiciels utilisé fait l’« évaluation des risques liés à un individu ». Dans ce cas-ci, les algorithmes visent à déterminer des scores de dangerosité, autant chez les criminels que chez les victimes. Ils associent donc un « pointage de risques » pour chaque personne sur le degré de probabilité qu’elle commette un crime ou qu’elle en soit victime.

Tous ces calculs sont effectués grâce à la base de données du service de police du Royaume-Uni, qui contient des informations (incidents, fiche d’arrestations et accusations retenues) sur environ 5 millions de personnes.

Une pratique décriée

Liberty, un groupe de défense des droits de la personne basé au Royaume-Uni, a été l’un des premiers acteurs à mettre en question l’adoption de cette nouvelle technologie au sein de 14 forces de l’ordre britanniques. C’est d’ailleurs grâce à ce groupe qu’on en sait un peu plus sur ce programme. L’organisme a en effet effectué 90 requêtes d’accès à l’information auprès du gouvernement du pays afin de savoir quels services de police utilisaient ou avaient l’intention d’utiliser les logiciels controversés.

Le groupe a aussi vivement critiqué le manque de transparence de la police britannique sur la façon exacte dont les algorithmes réussissaient à effectuer leurs calculs.

 

Dans un communiqué publié mardi dernier, le groupe s’oppose vigoureusement à cette nouvelle façon de faire pour plusieurs raisons. D’abord, le fait que les algorithmes utilisent les bases de données de la police, qui contiennent déjà de nombreux biais, pourrait causer davantage de discrimination envers les communautés ciblées.

Ensuite, les pointages de risques calculés à partir des informations de chaque individu pourraient amener les policiers à faire du profilage selon différents critères — comme la race ou le niveau de revenus par exemple. Le groupe a aussi vivement critiqué le manque de transparence de la police britannique sur la façon exacte dont les algorithmes réussissaient à effectuer leurs calculs, à tel point que même les policiers ne le comprendraient pas totalement.

Finalement, le danger du « biais d’automation », soit qu’une personne accepte le résultat fourni par le logiciel sans même le questionner, pose aussi problème selon Liberty.

Le groupe recommande donc que les services de police du Royaume-Uni cessent immédiatement d’utiliser les logiciels de prédictibilité de crimes ou, minimalement, partagent davantage d’informations sur le programme.

Rapport minoritaire, ailleurs dans le monde?

Aux États-Unis, le même genre de technologie est utilisé par 50 services de police, dont celui de Los Angeles, depuis peu et là aussi, de nombreux groupes de défense des droits individuels s’opposent à cette pratique, notamment en raison des enjeux liés aux libertés civiles. Et c’est exactement pour cette raison que la technologie n’a pas encore été adoptée au Canada.

Une maudite bonne affaire.

Du même auteur

Vous n'allez pas rester là sans rien dire ?
Faites-vous entendre...

mode_comment Afficher les commentaires keyboard_arrow_down keyboard_arrow_up