France : la  « Loi olympique » pour assurer la sécurité des JO de Paris en 2024 a des relents racistes


France : la  « Loi olympique » pour assurer la sécurité des JO de Paris en 2024 a des relents racistes
Cette photographie prise le 10 novembre 2022 montre la typographie des Jeux olympiques de Paris 2024 à Saint-Denis, au nord de Paris. Le nom des mascottes olympiques et paralympiques de Paris 2024 « Les Phryges », représentant les bonnets phrygiens révolutionnaires français. AFPL’Assemblée nationale a adopté la « loi olympique » visant à garantir la sécurité des Jeux Olympiques de Paris en 2024. L’article 7 qui autorise la vidéosurveillance algorithmique fait polémique et suscite la controverse. Les opposants à la vidéosurveillance algorithmique estiment que la technologie n’a pas encore fait ses preuves et dénoncent les dangers liés à la discrimination. Pour ses partisans, celle-ci permettra d’anticiper les mouvements de foule et de détecter les objets suspects, tels que des bagages abandonnés ou des projectiles, grâce à une analyse automatisée des images capturées par les caméras de surveillance. « Du fait de la sous-représentation des minorités ethniques dans les données fournies aux algorithmes pour leur apprentissage, il existe des biais discriminatoires et racistes non négligeables. D’après une étude du MIT, l’erreur de reconnaissance faciale est certes de 1 % pour les hommes blancs, mais elle est surtout de 34 % pour les femmes noires », observe l‘avocat Arnaud Touati, spécialiste en droit numérique. Au-delà de l’article 7, les partis de gauche et les organisations de défense des droits de l’Homme fustigent un projet « liberticide et sécuritaire ».
Vidéosurveillance, scanners corporels, sanctions en cas de violence dans les stades et renforcement des services de santé, etc. La « loi olympique » couvre un large éventail de mesures pour garantir le bon déroulement des Jeux Olympiques de Paris en 2024. Mais c’est son article 7 qui suscite la controverse. Celui-ci prévoit une expérimentation de la vidéosurveillance algorithmique (VSA) pour assurer la sécurité des événements sportifs, récréatifs ou culturels. La « loi olympique » a été adopté avec 59 voix pour (majorité présidentielle, Les Républicains, Rassemblement national) et 14 contre (Nouvelle Union populaire écologique et sociale/NUPES). Bien que la loi ait été adoptée par le Sénat le 12 avril dernier, l’alliance des partis de gauche (la NUPES) a introduit un recours au Conseil constitutionnel. L’alliance dénonce « un projet liberticide et sécuritaire ». Les partis qui constituent l’alliance demandent au Conseil de censurer les mesures qu’ils estiment porter atteinte à la Constitution comme la légalisation de la vidéosurveillance algorithmique ou la possibilité de procéder à l’examen de caractéristiques génétiques sans le consentement de la personne
Une technologie à l’efficacité douteuse
Les partisans de la vidéosurveillance algorithmique considèrent que cette technologie permettra d’anticiper les mouvements de foule et de détecter les objets suspects, tels que des bagages abandonnés ou des projectiles, grâce à une analyse automatisée des images capturées par les caméras de surveillance. Or, la technologie n’a pas encore fait ses preuves et est en phase d’expérimentation, comme il est précisé dans la « loi olympique ».
Des communes ont aussi utilisé la vidéosurveillance algorithmique en toute illégalité et opacité, comme le précise Noémie Levain, juriste à la Quadrature du Net: « Il est difficile d’obtenir des informations concrètes sur ce qu’il se passe quand ces caméras sont utilisées, puisque les communes qui les utilisent battent en retraite ».
Au fait de la sous-représentation des minorités ethniques dans les données fournies aux algorithmes pour leur apprentissage, il existe des biais discriminatoires et racistes non négligeables.
Une intelligence artificielle avec des biais racists et discriminatoires
En janvier 2020, la Commission nationale de l’informatique et des libertés (CNIL) publiait déjà un rapport sur les dangers discriminatoires liés aux algorithmes. En effet, en partant du postulat que les algorithmes sont créés et gérés par des humains, ils ne font que refléter les biais discriminatoires de notre société. « Du fait de la sous-représentation des minorités ethniques dans les données fournies aux algorithmes pour leur apprentissage, il existe des biais discriminatoires et racistes non négligeables. D’après une étude du MIT, l’erreur de reconnaissance faciale est certes de 1 % pour les hommes blancs, mais elle est surtout de 34 % pour les femmes noires », observe l’avocat Arnaud Touati, spécialiste en droit numérique.
Dans le cadre de la loi pour les Jeux Olympiques, Noémie Levain explique pourquoi la formulation de la loi est problématique: « La vidéosurveillance algorithmique va être utilisée pour détecter des comportements suspects ou à risque. Mais la définition d’un comportement à risque est hautement politique. Par exemple, l’algorithme considère comme suspect de rester statique pendant 300 secondes […]. Ce qu’on observe, c’est que c’est stigmatisant pour une partie de la population qui passe le plus de temps dans la rue, qui sont souvent des personnes vulnérables, comme les personnes qui mendient, par exemple ».
Le gouvernement se veut rassurant et estime que les mesures de protection des données et l’absence de reconnaissance faciale sont suffisantes pour empêcher toute dérive en matière de vidéosurveillance algorithmique. Il affirme que des garde-fous ont été mis en place, notamment en promettant qu’aucune donnée biométrique ne sera traitée et sauvegardée. « Ça ne visera pas les [personnes portant des] sweats à capuche », ironise Gérald Darmanin, le ministre de l’Intérieur.
La France dans l’illégalité au regard des dispositions européennes
L’Union Européenne planche actuellement sur un vaste projet de loi sur l’intelligence artificielle et cette loi pourrait mettre la France dans l’embarras, puisqu’elle deviendrait le premier pays de l’UE à donner son feu vert à une surveillance généralisée. « Alors que la France se présente en championne des droits humains partout dans le monde, sa décision d’autoriser la surveillance de masse assistée par intelligence artificielle pendant les Jeux olympiques entraînera une offensive généralisée contre le droit à la vie privée, le droit de manifester et les droits aux libertés de réunion et d’expression » fustige Amnesty International.
La législation pourrait donc aussi violer le règlement européen en cours d’élaboration.
Pour Katia Roux, spécialiste Technologies et Droits humains d’Amnesty International « Cette technologie n’est pas légale aujourd’hui. En France, il y a eu des expérimentations, mais sans jamais le fondement légal que cette loi propose de créer. Au niveau européen non plus. Cela fait même partie des discussions en cours au Parlement européen sur les technologies et la régulation des systèmes d’intelligence artificielle. La législation pourrait donc aussi violer le règlement européen en cours d’élaboration ». Elle estime qu’en « adoptant cette loi, la France se poserait en championne de la vidéosurveillance au sein de l’UE et créerait un précédent extrêmement dangereux. Cela enverrait un signal extrêmement inquiétant auprès d’États qui pourraient être tentés d’utiliser cette technologie contre leur propre population ».
Généralisation de la technologie après les JO ?
Si cette loi controversée est promulguée en vue des JO, l’expérimentation de la vidéosurveillance algorithmique sera poursuivie jusqu’en juin 2025, soit quatre mois après la fin des JO. Les détracteurs de la vidéosurveillance algorithmique craignent donc que son utilisation, d’abord prévue de manière exceptionnelle, ne se généralise à l’avenir.
Les évènements sportifs sont souvent utilisés comme terrain d’expérimentation pour les nouvelles technologies de sécurité, de maintien de l’ordre et de surveillance. Les JO de Londres ont, par exemple, contribué à la généralisation de la surveillance dans la capitale britannique. Amnesty International s’inquiète également que la vidéosurveillance ne dérive vers une surveillance biométrique ou vocale à terme, car la reconnaissance faciale n’est qu’une fonctionnalité à activer.
Léna Job (à Londres)
L’article France : la  « Loi olympique » pour assurer la sécurité des JO de Paris en 2024 a des relents racistes est apparu en premier sur L-Post.
Source: LPOST

Check Also

Liège: vers une réhabilitation (enfin) des anciens bâtiments de la RTBF au Palais des Congrès?

Liège: vers une réhabilitation (enfin) des anciens bâtiments de la RTBF au Palais des …

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.