You are currently viewing L’intelligence artificielle et les forces de l’ordre : quels enjeux ?

L’intelligence artificielle et les forces de l’ordre : quels enjeux ?

Cela fait maintenant plusieurs années que l’intelligence artificielle (IA) a quitté le domaine de la science-fiction pour intégrer nos sociétés. De plus en plus utilisée et développée, elle deviendra bientôt indispensable au quotidien. Des milliers de startups, principalement en Chine et aux États-Unis, ainsi que des agences nationales participent à la « course à l’innovation ».[1] De l’ensemble de la recherche en ligne aux véhicules autonomes, en passant par la traduction et les infrastructures connectées, les applications concrètes sont multiples. Même dans les secteurs où elle n’a pas encore de potentiel, des recherches sont en cours. L’IA est appelée à transformer presque tous les aspects de notre quotidien et de l’économie en général. Par exemple, dans le domaine de la santé, les chercheurs étudient comment l’employer pour analyser un très grand nombre de données liées à la santé pour repérer des motifs récurrents. Cela pourrait mener à de nouvelles découvertes et des moyens d’améliorer les diagnostics individuels.

La sphère de la justice n’est pas en reste. En effet, elle peut aider les avocats, magistrats et de manière générale les acteurs de la justice dans leur travail et à la prise de décision. Elle pourrait assurer une plus grande sécurité juridique en rationalisant la décision judiciaire, ou chercher la réponse la plus adaptée possible à la situation. De plus, la lenteur est souvent une des plus vives critiques envers les institutions judiciaires et l’IA pourrait améliorer le traitement quantitatif des dossiers.[2] L’utilisation de l’IA peut mettre en place ce qu’on appelle la « justice prédictive ». Dans ce cas, un logiciel analyse de très nombreux exemples et en tire « automatiquement » des règles de décision, qu’il propose au juge. De tels logiciels sont déjà utilisés à l’étranger pour régler des litiges mineurs, comme en Ontario pour les conflits entre voisins ou employés et employeurs, ou en Estonie pour les litiges de moins de 7000€.[3] Bon nombre de débats existent encore quant à l’établissement de « juges-robots », mais il semblerait, dans le cas de l’aide à la décision judiciaire, que les éventuels biais des algorithmes puissent être facilement contrés par la garantie que les magistrats restent indépendants de ces propositions et qu’ils gardent le pouvoir de décider.     

Mais la matière judiciaire ne se résume pas aux tribunaux, elle commence avec la poursuite des infractions par les forces de l’ordre. Or, l’intelligence artificielle inquiète beaucoup lorsqu’elle est utilisée par les services répressifs et plus généralement dans les processus de la justice pénale. Activité de privation des libertés par définition, la police doit bénéficier de la confiance de la population pour être efficace et légitime, et cela en garantissant le respect des droits fondamentaux des individus. Or, comme toute autre activité humaine, le maintien de l’ordre n’est pas exempt de biais qui minent cette confiance, et ce même sans l’utilisation de nouvelles technologies. L’intelligence artificielle peut améliorer le travail des services répressifs, mais elle peut aussi renforcer ces biais et menacer le respect des droits individuels.

Les enjeux de l’utilisation de l’intelligence artificielle par les forces de l’ordre sont multiples : nationaux et internationaux, économiques et sociaux, politiques et sociétaux. Au niveau de l’Union européenne, la protection des droits doit être garantie, l’utilisation de l’IA étudiée et encadrée. Au niveau des Etats, cela peut devenir un enjeu géopolitique par leur position dans la course à l’innovation, mais également de souveraineté si des entreprises privées sont en tête. Pour comprendre ces enjeux, il est nécessaire de revenir sur l’intelligence artificielle et les outils répressifs qui en découlent.

Les outils des forces de l’ordre

Si le terme d’intelligence artificielle est entré dans le langage commun et son utilisation devenue banale dans les médias, il n’en existe pas réellement de définition partagée. L’IA est une discipline jeune d’une soixante d’années, qui réunit des sciences, théories et techniques et dont le but est de parvenir à faire imiter par une machine les capacités cognitives d’un être humain. Les spécialistes préfèrent en général employer le nom exact des technologies concrètement en œuvre, qui relèvent aujourd’hui essentiellement de l’apprentissage automatique ou machine learning.[4] Selon certains auteurs,[5] il existerait quatre phases dans le développement de l’IA. Les trois premières phases correspondent à l’IA « faible », qui n’a pas conscience d’elle-même et qui reste sous contrôle humain et la quatrième serait l’IA « forte ». La première phase de l’IA concerne des logiciels informatiques « traditionnels », programmés par des algorithmes et mis en œuvre par l’homme. Le second palier, débuté vers 2012, est le Deep Learning. Il s’agit de neurones virtuels disposés en réseaux et qui s’éduquent par essais et erreurs. Ces deux premières phases nous sont contemporaines. La troisième phase serait une IA plus contextuelle et transversale, pouvant tenir compte de son environnement et associer ses savoirs à la situation.[6]

Les principales tendances actuelles liées à l’IA dans le domaine de l’application de la loi et de la justice pénale sont regroupées autour de quatre thèmes majeurs : la police prédictive, la reconnaissance faciale, l’IA et la justice pénale, l’IA et les frontières.

La police prédictive repose sur l’idée que le traitement algorithmique d’ensembles de données permet de révéler des modèles de délinquance et de victimisation futurs probables, qui peuvent ainsi être contrés avant qu’ils ne se produisent. Elle peut prendre différentes formes, mais les méthodes de police prédictive sont généralement regroupées dans quatre catégories. Elles peuvent viser à prévoir les crimes ou les lieux et des moments à risque accru, les délinquants ou identifier les personnes à risque, l’identité des auteurs ou l’identité des victimes. De telles initiatives sont apparues dans différents Etats membres, surtout depuis le début des années 2010. La prévision et la prévention ont été particulièrement efficaces en ce qui concerne le blanchiment d’argent et le financement du terrorisme. Cela s’explique par l’obligation pour les entités financières d’identifier et évaluer les risques, ce qui peut conduire à la déclaration de transactions « suspectes » aux cellules de renseignements financiers compétentes.[7]

La technologie de reconnaissance faciale permet l’identification ou l’authentification automatique d’un individu en faisant correspondre les caractéristiques de son visage à partir de deux ou plusieurs images numériques. Dans le domaine de l’application de la loi, le recours à la reconnaissance faciale qui a suscité plus d’attention concerne la reconnaissance faciale en direct. En France, certains défendent son utilisation dans le cadre de la lutte contre le terrorisme et elle a déjà été testée à Nice après les attentats.

Comme évoqué dans l’introduction, l’IA peut avoir de multiples applications pour l’amélioration de la justice pénale. Elle peut faciliter l’accès au droit, soutenir les mesures alternatives de règlement des litiges en matière civile, le règlement des litiges en ligne ou le profilage des juges. Mais ce sont les algorithmes de récidive qui attirent le plus l’attention : l’idée est que le traitement de suffisamment de données concernant des individus déjà condamnés par la justice permet de connaître les risques de récidive.

L’utilisation de l’IA dans le contrôle des frontières ne sera pas traitée dans cet article. Elle concerne un pan très spécifique des activités des forces de l’ordre et nécessiterait donc une analyse séparée.

Ces outils numériques sont déjà utilisés dans plusieurs pays, en particulier aux Etats-Unis, en Chine et en Russie, avec des approches différentes de ces technologies. En Europe, le Royaume-Uni est un des Etats les plus avancés en ce qui concerne leur application. Ce sont ces Etats qui ont d’abord expérimenté, expériences dont on peut d’ores et déjà tirer des leçons, notamment en termes de respect des droits.  

La position de l’Union européenne

Le point de vue de l’UE sur l’utilisation de tels outils est très clair : des garanties doivent être mises en place pour les encadrer et empêcher toutes dérives et violations des droits fondamentaux. La Commission européenne a affirmé dans son Livre Blanc sur l’intelligence artificielle de 2020 que « le recours à l’IA peut porter atteinte aux valeurs sur lesquelles l’UE est fondée et entraîner des violations des droits fondamentaux, tels que les droits à la liberté d’expression et de réunion, la dignité humaine, l’absence de discrimination, la protection des données à caractère personnel, le respect de la vie privée ou le droit à un recours juridictionnel effectif et à un procès équitable, ainsi que la protection des consommateurs. »[8] Il est d’ailleurs admis que « ces risques peuvent résulter de failles dans la conception globale des systèmes d’IA ou de l’utilisation de données sans correction de biais éventuels. »[9]

Certains algorithmes utilisés par les forces de l’ordre peuvent contenir des biais de nature sexiste ou raciale. Big Brother Watch, une ONG britannique de défense des libertés civiles qui milite en dénonçant notamment les abus par la technologie, dont la surveillance d’Etat, a produit un rapport étudiant les biais dans la prise de décision algorithmique. Il se concentre sur l’utilisation d’algorithmes prédictifs dans les décisions policières et judiciaires britanniques, et en tire des conclusions alarmantes.

Selon ce rapport, la police prédictive soulève des questions concernant la protection des données, le droit à la présomption d’innocence et à un procès équitable. En effet, les approches prédictives reposent au moins partiellement sur le traitement de données initialement collectées et sur des logiciels prédictifs produits par des entreprises privées, qui ne possèdent pas les compétences répressives des autorités administratives, et ne devraient donc pas pouvoir influer sur la liberté des individus. De plus, une autre partie des données utilisées sont relatives à d’anciens crimes et à l’historique criminel des individus et ces modèles prédictifs peuvent étendre et consolider les biais représentés dans les données sur la criminalité, grâce à des « boucles de rétroaction » qui se perpétuent d’elles-mêmes. Par exemple, dans une approche de prédiction géographique des crimes, les algorithmes utilisent les données de la criminalité passée pour prédire les tendances futures, mais ces données représentent les crimes surveillés plutôt que leur occurrence réelle. Les données de la police peuvent représenter des pratiques policières discriminatoires et des inégalités sociétales ; donc, les prévisions qui en résultent sont susceptibles de produire des représentations inexactes ou biaisées de l’activité criminelle, conduisant à des interventions policières discriminatoires.[10]

Le constat sur la reconnaissance faciale en direct est encore plus accablant. Selon le groupe, l’utilisation de cette technologie par la police britannique est sans fondement légal ou politique, sans orientation et incompatible avec les droits fondamentaux. Les caméras de reconnaissance faciale en direct, qui font office de points de contrôle pour l’identification biométrique, constituent une menace évidente pour la vie privée des individus, ainsi que pour la liberté d’expression et d’association des personnes. Ce bilan vient notamment du fait que la technologie de reconnaissance faciale utilisée par la police est incroyablement imprécise, et les taux d’identification biaisés des technologies de reconnaissance faciale posent de sérieux problèmes. Le rapport indique que les caméras de reconnaissance faciale identifient mal des personnes innocentes jusqu’à 98% du temps, avec une moyenne de 95% de personnes mal identifiées. D’autres études, notamment aux Etats-Unis,[11] ont révélé que divers algorithmes de reconnaissance faciale présentent des biais de précision démographique, c’est-à-dire qu’ils identifient mal certains groupes démographiques et en particulier les femmes et les personnes de couleur, à un taux plus élevé que les hommes blancs.

La Commission européenne admet volontiers que l’utilisation de l’IA implique des risques importants pour les droits fondamentaux et que la réglementation européenne actuelle n’est pas suffisante pour en garantir le respect. Elle indique dans le Livre Blanc précité que « l’objectif d’un éventuel cadre réglementaire devrait consister à définir des moyens de réduire au minimum les divers risques de préjudice pouvant se présenter, notamment les plus sérieux. » Pour autant, cela ne veut pas dire que de telles technologies ne seront pas utilisées, voire encouragées. En effet, ce document constate également le retard de l’Europe dans le développement de ces technologies, où le montant des investissements consacrés à la recherche et à l’innovation est bien inférieur à ceux d’autres régions du monde. En 2016, par exemple, 3,2 milliards d’euros ont été investis dans l’IA en Europe, contre environ 12,1 milliards d’euros en Amérique du Nord et 6,5 milliards d’euros en Asie.[12] Respectant les droits ou non, l’IA reste un enjeu géopolitique de taille auquel l’UE répond avec des plans coordonnés renforçant la coopération entre les Etats membres pour maximiser les investissements et la recherche.

Les enjeux nationaux

Les acteurs nationaux sont de plus en plus conscients des enjeux stratégiques, économiques et militaires du développement de l’IA. Récemment, de nombreux pays ont d’ailleurs dévoilé des stratégies visant à la promouvoir, qui tournent principalement autour de l’éducation, la recherche et le développement, les infrastructures numériques, les services publics et l’éthique.[13] Les acteurs se distinguant le plus par leur volonté de devenir des leaders globaux sont les Etats-Unis, la Chine et, avec un certain retard, l’Union européenne.

Les Etats-Unis et la Chine dominent le secteur du fait de la taille de leur marché et du montant de leurs investissements, mais aussi de leur politique laxiste en matière de protection des données. [14] Cependant, alors que dans l’Empire du milieu les entreprises et la recherche sont soumises à l’autorité étatique, ce sont les GAFAM qui « mènent la danse aux Etats-Unis ». [15] En effet, la Commission de sécurité nationale pour l’intelligence artificielle, censée formuler une série de recommandations auprès de l’exécutif afin de préserver l’avance des États-Unis en IA, est composée de grands noms de l’industrie numérique et elle implique également des cadres dirigeants de la Silicon Valley. D’après Charles Thibout, « la frontière entre les GAFAM et l’État est particulièrement poreuse, les liens interorganisationnels et interpersonnels qui unissent ces deux mondes concourent à la structuration d’un « complexe techno-étatique ».[16] Les Etats-Unis n’ont pas de véritable stratégie de développement et se reposent sur les multinationales. Or, celles-ci ne défendent que leurs intérêts propres, et non ceux de l’Etat. Cela peut poser des problèmes de souveraineté, et ce dernier perd l’avantage de pouvoir réguler ces technologies de manière efficace et autonome. Par exemple, en juin 2020, IBM a annoncé qu’elle quittait complètement le secteur de la reconnaissance faciale, et son PDG s’est demandé si c’était un outil approprié pour l’application de la loi. Dans les jours qui ont suivi, Microsoft et Amazon ont annoncé qu’ils allaient, au moins temporairement, interdire aux forces de l’ordre d’utiliser leur logiciel de reconnaissance faciale.[17] Même si la liberté d’entreprendre est primordiale dans un système néolibéral et si les entreprises sont libres de développer leurs technologies dans le sens qu’elles souhaitent, les forces de l’ordre doivent rester dans le champ des compétences étatiques et ne pas être soumises au bon vouloir de ces firmes. Le problème de la dépendance aux entreprises privées s’est aussi posé directement au sein des départements de police. Certains utilisaient des logiciels propriétaires dans leur stratégie de police prédictive, notamment PredPol, développé par l’entreprise du même nom. Non seulement leur efficacité est source de débat, comme étudié plus haut, mais le rapport de Big Brother Watch dévoile qu’il a été rapporté que PredPol impose une obligation contractuelle à ses clients, y compris aux forces de police, de s’engager dans des activités promotionnelles, telles que l’approbation publique de PredPol comme réduisant avec succès la criminalité, malgré le manque de preuves claires pour corroborer cette affirmation.[18] Une telle obligation pose de très nombreux problèmes de transparence, d’indépendance, de responsabilité et d’éthique.

A l’inverse, la Chine mène une politique dirigiste et interventionniste, notamment dans les secteurs industriels et académiques. C’est l’Etat qui détient le plan de développement de l’IA et qui décide du financement. Il impose même des axes stratégiques aux BATHX, les grandes entreprises technologiques chinoises.[19] Mais dans le même temps, les utilisations de l’IA et en particulier de technologies telles que la reconnaissance faciale en direct par les forces de l’ordre chinoises ont été très controversées sur la scène internationale. Par exemple, l’Etat utilise la reconnaissance faciale pour identifier des membres de la minorité Ouighour,[20] qui est en outre victimes de très nombreuses discriminations, voire de violations des droits fondamentaux.

            Les outils technologiques permis par le développement de l’IA peuvent être d’une grande utilité aux forces de l’ordre. Cependant, à l’heure actuelle, ils soulèvent, à raison, de trop nombreuses inquiétudes. Leurs algorithmes biaisés, leur développement par des entreprises privées rendant leur contrôle difficile et leur utilisation violant les droits fondamentaux impliquent que des solutions ainsi qu’un cadre réglementaire adéquat doivent être trouvés. Une fois cela accompli, ils pourront être réellement utiles à nos sociétés en protégeant les droits et en bénéficiant de la confiance des individus.


[1] CASSINI, Florent AMAT, « Géopolitique de l’intelligence artificielle : une course mondiale à l’innovation », La revue géopolitique, diploweb.com, 28 mars 2018.

[2] Laurence Pécaut-Rivolier et Stéphane Robin, “Justice et intelligence artificielle, préparer demain – épisode I”, Dalloz actualité, 14 avril 2020. URL: https://www.dalloz-actualite.fr/flash/justice-et-intelligence-artificielle-preparer-demain-episode-i

[3] Vie Publique, La Rédaction, “L’intelligence artificielle (IA) dans les décisions de justice : une révolution en cours”, 7 décembre 2020. URL: https://www.vie-publique.fr/eclairage/277098-lintelligence-artificielle-ia-dans-les-decisions-de-justice

[4] Conseil de l’Europe, « Intelligence artificielle ». URL : L’IA, c’est quoi ? (coe.int) [consulté le 03/02/2021]

[5] Notamment Laurent Alexandre, cité par Bernard De Backer , « Géopolitique de l’intelligence », La revue nouvelle, n°8, Février 2018.

[6] Bernard De Backer , « Géopolitique de l’intelligence », La revue nouvelle, n°8, Février 2018.

[7] European Parliament, Policy Department for Citizens’ Rights and Constitutional Affairs (D-G for Internal Policies), “Artificial Intelligence and Law Enforcement, Impact on Fundamental Rights”, Study requested by the LIBE committee, July 2020, pp. 21-36.

URL:https://www.europarl.europa.eu/RegData/etudes/STUD/2020/656295/IPOL_STU(2020)656295_EN.pdf 

[8] Commission européenne, LIVRE BLANC Intelligence artificielle : Une approche européenne axée sur l’excellence et la confiance, 19 février 2020, COM/2020/65 final.

[9] Idem.

[10] Big Brother Watch submission to the Centre for Data Ethics and Innovation: Bias in Algorithmic Decision-Making (Crime and Justice), June 2019. URL: Microsoft Word – Big Brother Watch submission to the Centre for Data Ethics and Innovation Bias in Algorithmic Decision-Making (Crime and Justice) (June 2019).docx

[11] Osonde A. Osoba and Douglas Yeung, “Bans on Facial Recognition Are Naive. Hold Law Enforcement Accountable for Its Abuse”, The RAND Blog, June 17, 2020.

[12] Commission européenne, LIVRE BLANC Intelligence artificielle Une approche européenne axée sur l’excellence et la confiance, 19 février 2020, COM/2020/65 final.

[13] Nicolas Miailhe, « Géopolitique de l’Intelligence artificielle : le retour des empires ? », Politique étrangère, vol. 83, n° 3, automne 2018, pp. 110-114.

[14] Idem.

[15] Charles Thibout, « De l’IA en Amérique : les GAFAM mènent la danse stratégique », IRIS, 30 janvier 2019.

[16] Idem.

[17] Osonde A. Osoba and Douglas Yeung, “Bans on Facial Recognition Are Naive. Hold Law Enforcement Accountable for Its Abuse”, The RAND Blog, June 17, 2020.

[18] Big Brother Watch submission to the Centre for Data Ethics and Innovation: Bias in Algorithmic Decision-Making (Crime and Justice), June 2019.

[19] Charles Thibout, « De l’IA en Amérique : les GAFAM mènent la danse stratégique », IRIS, 30 janvier 2019.

[20] European Parliament, Policy Department for Citizens’ Rights and Constitutional Affairs (D-G for Internal Policies), “Artificial Intelligence and Law Enforcement, Impact on Fundamental Rights”, Study requested by the LIBE committee, July 2020, pp. 24-27.

Léon De Tombeur

Diplômé en Histoire à la Sorbonne et en Relations Internationales à Lyon III, je me suis notamment intéressé à la politique internationale de l’Union européenne. Animé par un désir de contribuer à l’Europe afin de la rendre plus sociale et respectueuse de l’environnement, je me suis rendu à Bruxelles afin de travailler de concert avec les institutions européennes. Ma spécialisation tend davantage vers le domaine de la défense et de la sécurité, j’ai réalisé mon mémoire de fin d’études sur le futur de la défense anti-missile du continent européen. C’est pourquoi j’ai choisi le portefeuille de la coopération judiciaire et policière.

Laisser un commentaire