Utilisation de l'intelligence artificielle par la police dans plusieurs pays
les utilisations pratiques de l'intelligence artificielle, les auteurs de science-fiction imaginaient des esprits numériques autonomes qui pourraient servir l'humanité. Bien sûr, parfois, un HAL 9000 ou WOPR subvertirait les attentes et deviendrait un voyou, mais c'était tout à fait involontaire, n'est-ce pas ?
Et pour de nombreux aspects de la vie, l'intelligence artificielle tient ses promesses. L'IA est, au moment où nous parlons, à la recherche de preuves de la vie sur Mars. Les scientifiques utilisent l'IA pour essayer de développer plus précis et plus rapides de prédire le temps.
Mais en ce qui concerne le maintien de l'ordre, la réalité de la situation est beaucoup moins optimiste. Notre HAL 9000 n'affirme pas ses propres décisions sur le monde - au lieu de cela, les programmes qui prétendent utiliser l'IA pour le maintien de l'ordre ne font que réaffirmer, justifier et légitimer les opinions et les actions déjà entreprises par les services de police.
L'IA présente deux problèmes : le tech-washinget une boucle de rétroaction classique. Le lavage technologique est le processus par lequel les partisans des résultats peuvent défendre ces résultats comme impartiaux parce qu'ils sont dérivés des «mathématiques». Et la boucle de rétroaction est la façon dont ces mathématiques continuent de perpétuer des résultats néfastes historiquement enracinés. "Le problème de l'utilisation d'algorithmes basés sur l'apprentissage automatique est que si ces systèmes automatisés sont nourris d'exemples de justice biaisée, ils finiront par perpétuer ces mêmes biais", comme le note un philosophe des sciences.
Bien trop souvent, l'intelligence artificielle dans le maintien de l'ordre est alimentée par des données collectées par la police et ne peut donc prédire la criminalité qu'en se basant sur les données des quartiers que la police surveille déjà. Mais les données sur la criminalité sont notoirement inexactes, de sorte que l'IA policière ne manque pas seulement le crime qui se produit dans d'autres quartiers, elle renforce l'idée que les quartiers où ils sont déjà sur-surveillés sont exactement les quartiers vers lesquels la police a raison de diriger les patrouilles et la surveillance.
La façon dont la technologie de l'IA lave les données injustes créées par un système de justice pénale injuste devient de plus en plus évidente.
En 2021, nous avons eu un meilleur aperçu de ce que signifie vraiment la « police basée sur les données ». Une enquête menée par Gizmodo et The Markup a montré que le logiciel qui a mis PredPol, désormais appelé Geolitica, sur la carte prédit de manière disproportionnée que des crimes seront commis dans des quartiers habités par des classes populaires, des personnes de couleur et des Noirs en particulier. Vous pouvez lire ici l'analyse technique et statistique qu'ils ont effectuée afin de montrer comment ces algorithmes perpétuent les disparités raciales dans le système de justice pénale.
Gizmodo rapporte que «Pour les 11 départements qui ont fourni des données sur les arrestations, nous avons constaté que les taux d'arrestation dans les zones prévues restaient les mêmes, que PredPol ait prédit un crime ce jour-là ou non. En d'autres termes, nous n'avons pas trouvé de corrélation forte entre les arrestations et les prédictions. C'est précisément pourquoi la police dite prédictive ou tout autre système de police basé sur les données ne doit pas être utilisé. La police patrouille dans les quartiers habités principalement par des personnes de couleur, ce qui signifie que ce sont les endroits où ils procèdent à des arrestations et écrivent des citations. L'algorithme prend en compte ces arrestations et détermine que ces zones sont susceptibles d'être le témoin de crimes à l'avenir, justifiant ainsi une forte présence policière dans les quartiers noirs. Et ainsi le cycle recommence.
Cela peut se produire avec d'autres technologies qui reposent sur l'intelligence artificielle, comme la détection acoustique des coups de feu, qui peut envoyer des alertes faussement positives à la police indiquant la présence de coups de feu.
Cette année, nous avons également appris qu'au moins une soi-disant société d'intelligence artificielle qui a reçu des millions de dollars et des quantités incalculables de données gouvernementales de l'État de l'Utah n'a en fait pas pu tenir ses promesses d'aider à diriger les forces de l'ordre et les services publics vers les zones à problèmes.
C'est précisément pourquoi un certain nombre de villes, dont Santa Cruz et la Nouvelle-Orléans, ont interdit l'utilisation par le gouvernement des programmes de police prédictive. Comme l'a dit le maire de Santa Cruz à l'époque, "Si nous avons des préjugés raciaux dans la police, cela signifie que les données qui entrent dans ces algorithmes sont déjà intrinsèquement biaisées et auront des résultats biaisés, donc cela n'a aucun sens d'essayer et utiliser la technologie lorsque la probabilité qu'elle ait un impact négatif sur les communautés de couleur est évidente.
L'année prochaine, la lutte contre l'utilisation irresponsable par la police de l'intelligence artificielle et de l'apprentissage automatique se poursuivra. L'EFF continuera à soutenir les gouvernements locaux et étatiques dans leur lutte contre la police dite prédictive ou basée sur les données.