Quel est le risque d’une surveillance permanente de tous»? Quel est le danger de la «surveillance constante de tous» ?

La présidente d’Île-de-France Mobilités appelle à autoriser «la vidéoprotection algorithmique pour les transports du quotidien». Risques d'»instrumentalisation politique» et de «répression», inefficacité, «banalisation» de technologies «intrusives»… La vidéosurveillance basée sur l’intelligence artificielle suscite de nombreuses critiques.

La Quotidienne Société

De la vie quotidienne aux grands enjeux, recevez tous les jours les sujets qui font la société locale, comme la justice, l’éducation, la santé et la famille.

France Télévisions utilise votre adresse e-mail afin de vous envoyer la newsletter «La Quotidienne Société». Vous pouvez vous désinscrire à tout moment via le lien en bas de cette newsletter. Notre politique de confidentialité

«Décupler la puissance» du numéro d’alerte 3117, «plus de présence humaine» avec un doublement des effectifs de la Brigade régionale de transport (BRT) avec 200 agents d’ici 2028… À l’occasion de la Journée de mobilisation contre les violences faites aux femmes dans les transports, mardi 9 décembre, Valérie Pécresse, la présidente LR du conseil départemental et d’Île-de-France Mobilités (IDFM), a mis en avant plusieurs mesures censées «accroître la sécurité» sur le réseau francilien.

Au-delà de ces annonces, résumées dans un communiqué, IDFM confirme auprès de France 3 Paris Île-de-France que sa présidente milite pour autoriser «la vidéoprotection algorithmique pour les transports du quotidien«.

L’autorité cite un sondage BVA selon lequel «près de neuf Franciliens sur dix y sont favorables«, avec un «déploiement dans les rames et dans les gares» qui «alerterait immédiatement les forces de l’ordre en cas d’agression, de cri ou de lutte«.

Selon IDFM, «il ne s’agit pas d’utiliser la reconnaissance faciale et donc pas de porter atteinte à l’anonymat des voyageurs, mais de repérer les situations s’apparentant à des agressions«. L’autorité appelle à autoriser la vidéosurveillance «intelligente» au-delà des «grands événements» comme les matchs et les concerts.

«Il faut exploiter davantage les 80 000 caméras qui maillent le réseau et qui sont regroupées dans le centre opérationnel de sécurité que nous avons financé, seule la vidéo algorithmique nous permet de le faire«, assure-t-elle.

«Fort de l’expérience réussie pendant les Jeux Olympiques et Paralympiques, le choix de cette technologie permettrait d’agir beaucoup plus rapidement«, pour «repérer (…) les faits et d’interpeller les délinquants et criminels«, estime Valérie Pécresse. Une proposition de loi a été déposée à l’Assemblée nationale et au Sénat pour généraliser ces dispositifs aux transports en commun, rappelle IDFM.

Bastien Le Querrec, juriste à la Quadrature du net (LQDN), une association qui défend les droits et libertés sur internet, dénonce «un cas typique de solutionnisme technologique à des fins électoralistes«. «Contrairement à la vidéosurveillance classique, ces technologies entraînent une surveillance permanente de tous avec une absence totale de ciblage. Avec ou sans opérateur derrière l’écran, les comportements sont analysés de manière encore plus intrusive. C’est inacceptable«, alerte-t-il.

Le développement des technologies implique également plusieurs biais, souligne le juriste. «L’analyse humaine est certes biaisée, avec notamment les problèmes de racisme dans la police. Mais les algorithmes sont loin d’être neutres et froids, c’est un mythe. Les images utilisées pour leur phase d’apprentissage reflètent la ségrégation de l’espace public, où certaines personnes – jeunes, racisées – sont plus souvent dans la rue pour des raisons sociodémographiques, et donc surreprésentées«, détaille-t-il.

Les algorithmes sont souvent instrumentalisés pour cibler les personnes sans abri qui font la manche ou les personnes migrantes

Bastien Le Querrec, juriste à la Quadrature du net

Selon Bastien Le Querrec, la configuration des logiciels pour rechercher des événements spécifiques reflète nécessairement «des choix politiques» avec un risque d’»instrumentalisation» et de «répression«. «Repérer quelqu’un qui reste statique, assis ou couché dans l’espace public… Les algorithmes sont souvent instrumentalisés pour cibler les personnes sans abri qui font la manche ou les personnes migrantes. Ce sont des outils particulièrement dangereux«, pointe-t-il du doigt.

De son côté, Maryse Artiguelong, responsable du groupe de travail «libertés numériques» à la Ligue des droits de l’Homme (LDH) dénonce également du «technosolutionnisme«. «On ne peut pas remplacer l’humain par la technologie. Dans les rapports publiés suite aux JO, les parlementaires ne sont pas élogieux. L’événement s’est bien passé parce qu’il y avait beaucoup de policiers sur le terrain.

Selon Maryse Artiguelong, il est difficile d’imaginer que la vidéosurveillance algorithmique soit efficace pendant les heures d’affluence pour détecter des comportements inappropriés, voire des agressions. Elle met en garde contre le risque de normaliser ces technologies jusqu’à mettre en place un jour la reconnaissance faciale pour identifier les agresseurs. Elle souligne que la solution réside notamment dans l’éducation des hommes aux violences sexistes et sexuelles. De son côté, Bastien Le Querrec rappelle que la plupart des violences faites aux femmes se produisent dans des espaces privés et au travail, et accuse Valérie Pécresse de jouer sur la peur et l’insécurité, s’éloignant ainsi des compétences du Conseil régional. Les images utilisées pour leur phase d’apprentissage reflètent la ségrégation de l’espace public, où certaines personnes – jeunes, racisées – sont plus souvent dans la rue pour des raisons sociodémographiques, et donc surreprésentées», détaille-t-il.

Bastien Le Querrec, juriste à la Quadrature du net, souligne que les algorithmes sont souvent utilisés pour cibler les personnes sans abri ou les personnes migrantes. Selon lui, ces choix politiques risquent d’entraîner une instrumentalisation et une répression. Il met en garde contre le repérage de personnes statiques dans l’espace public, soulignant que les algorithmes peuvent être dangereusement utilisés pour cibler des populations vulnérables.

Maryse Artiguelong, responsable du groupe de travail «libertés numériques» à la Ligue des droits de l’Homme (LDH), dénonce également le «technosolutionnisme». Elle souligne qu’il est impossible de remplacer l’humain par la technologie et met en garde contre l’inefficacité de la vidéosurveillance algorithmique dans des situations d’affluence. Elle souligne également le risque de banalisation de ces technologies intrusives, qui pourraient un jour conduire à la reconnaissance faciale pour l’identification des agresseurs.

Artiguelong souligne que la véritable solution réside dans l’éducation des individus aux violences sexistes et sexuelles, plutôt que dans la surveillance technologique. Le Querrec rappelle que la plupart des violences faites aux femmes surviennent dans des espaces privés et au travail, remettant en question l’efficacité de la vidéosurveillance algorithmique dans la lutte contre ces violences.

En réaction aux annonces de Valérie Pécresse concernant l’augmentation de la sécurité dans les transports en Île-de-France, IDFM confirme que la présidente milite pour l’autorisation de la vidéoprotection algorithmique. Cette mesure suscite des inquiétudes quant à la violation de la vie privée des voyageurs. Selon IDFM, l’objectif n’est pas d’utiliser la reconnaissance faciale, mais de repérer des situations d’agression sans compromettre l’anonymat des individus.

En conclusion, les critiques soulignent les risques liés à l’utilisation de la vidéosurveillance algorithmique, mettant en garde contre les dérives potentielles en termes de surveillance et de contrôle social. Ils insistent sur la nécessité de préserver les libertés individuelles et de s’attaquer aux causes profondes des violences plutôt que de recourir à des technologies intrusives. L’autorité demande l’autorisation de mettre en place une vidéosurveillance «intelligente» non seulement lors des grands événements tels que les matchs et les concerts. «Il est nécessaire d’exploiter davantage les 80 000 caméras du réseau regroupées dans le centre opérationnel de sécurité que nous avons financé, seule la vidéo algorithmique nous permet de le faire», affirme-t-elle. Valérie Pécresse estime qu’après le succès des Jeux Olympiques et Paralympiques, l’utilisation de cette technologie permettrait d’intervenir plus rapidement pour repérer et interpeller les délinquants et criminels. Une proposition de loi a été déposée pour étendre ces dispositifs aux transports en commun.

Cependant, Bastien Le Querrec de la Quadrature du net critique cette approche comme étant un exemple de solutionnisme technologique à des fins électoralistes. Il souligne que contrairement à la vidéosurveillance traditionnelle, ces technologies entraînent une surveillance permanente sans ciblage, ce qui est inacceptable. Il met en garde contre les biais des algorithmes qui peuvent conduire à une surveillance injuste et discriminatoire. Il alerte également sur le risque d’instrumentalisation des technologies pour cibler certaines populations vulnérables.

De son côté, Maryse Artiguelong de la Ligue des droits de l’Homme dénonce également cette approche technosolutionniste. Elle souligne qu’il est essentiel de ne pas remplacer l’humain par la technologie et met en doute l’efficacité de la vidéosurveillance algorithmique dans des situations d’affluence. Elle met en avant l’importance de l’éducation pour lutter contre les violences sexistes et sexuelles, plutôt que de recourir à des technologies intrusives. Elle met en garde contre le risque de normalisation de ces technologies jusqu’à l’utilisation de la reconnaissance faciale. Enfin, elle critique Valérie Pécresse pour exploiter la peur et l’insécurité au lieu de se concentrer sur les compétences du Conseil régional.

SOURCE

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *