Enquête : Le jour où Nice a voulu appliquer la surveillance émotionnelle dans ses tramway
Par Vincent VDO
Nice, ville emblématique de la Côte d’Azur, est souvent célébrée pour son cadre idyllique, ses plages et son patrimoine culturel. Mais en janvier 2019, elle a failli devenir le théâtre d’une expérimentation technologique inquiétante : l’introduction de la reconnaissance des émotions dans les tramways de la ligne 1. Ce projet, porté par la municipalité de Christian Estrosi – fervent adepte de la “Safe City” et multi-condamné pour diffamation et injure publique, tout en étant visé par des enquêtes pour détournement de biens publics et autres affaires – et la start-up messine Two-I, visait à analyser les expressions faciales des usagers via les caméras de vidéosurveillance pour détecter stress, anxiété ou colère. Présentée comme une avancée pour la sécurité, cette initiative a suscité une vive controverse, révélant les dangers d’une surveillance intrusive dans une ville déjà saturée de caméras. Bien que l’expérimentation ait été abandonnée, cet épisode reste un signal d’alarme : jusqu’où irons-nous dans la quête d’une “Safe City” au détriment des libertés individuelles ?
Une ambition sécuritaire sous couvert d’innovation
En janvier 2019, la ville de Nice, forte de son statut de laboratoire de la vidéosurveillance en France, a envisagé de tester un logiciel novateur développé par Two-I, une start-up basée à Metz. Baptisé “Two-I émotions”, ce système promettait d’analyser en temps réel les expressions faciales des voyageurs dans les 170 rames de la ligne 1 du tramway, connectées au Centre de Supervision Urbain (CSU). Selon les porteurs du projet, l’objectif était de détecter des émotions comme le stress ou la colère pour anticiper des comportements potentiellement dangereux, sans recourir à une reconnaissance faciale individuelle mais à une analyse collective, capable de traiter jusqu’à 10 000 visages par seconde [1].
Ce projet s’inscrivait dans la vision de Christian Estrosi, maire de Nice et promoteur acharné de la “Safe City”, malgré un parcours judiciaire marqué par plusieurs condamnations – notamment pour diffamation envers le Syndicat national de l’environnement en 2016 (10 000 euros d’amende) et injure publique envers Éric Gilli en 2020 (5 000 euros d’amende) – et des enquêtes en cours pour des soupçons de détournement de biens publics, favoritisme, et gestion controversée de structures comme le Syndicat mixte des stations du Mercantour ou le Grand Prix de France de F1 [2][3][4][5]. Avec plus de 3 300 caméras de vidéosurveillance – la plus forte densité par habitant en France [6] – Nice se positionne depuis des années comme un pionnier des technologies sécuritaires. L’expérimentation de Two-I, bien que limitée à une phase pilote, devait renforcer cette image en intégrant une technologie de pointe dans les transports publics, un lieu où les tensions peuvent parfois éclater.
Une polémique immédiate et justifiée
Dès l’annonce du projet, les critiques ont fusé. L’opposition municipale, menée par le Parti socialiste, a dénoncé une initiative “orwellienne”, accusant la municipalité de franchir une ligne rouge dans la surveillance des citoyens [7]. La Ligue des droits de l’Homme et d’autres associations de défense des libertés ont également tiré la sonnette d’alarme, pointant les risques d’atteinte à la vie privée et à la dignité des usagers. Le Parti socialiste a saisi la Commission nationale de l’informatique et des libertés (CNIL) pour obtenir un avis sur la légalité du dispositif, soulignant l’absence de consultation préalable des élus et l’opacité entourant le projet [8].
Les inquiétudes étaient multiples. D’abord, la fiabilité des algorithmes de reconnaissance des émotions restait douteuse. Ces technologies, souvent entraînées sur des bases de données limitées et biaisées, peuvent mal interpréter les expressions faciales, surtout dans un contexte multiculturel comme celui des transports publics. Une personne fatiguée ou préoccupée pourrait-elle être signalée comme suspecte ? Les risques de stigmatisation et d’erreurs étaient réels, comme l’ont montré des études sur des technologies similaires, notamment aux États-Unis et en Chine [9].
Ensuite, la question des données posait problème. Même si Two-I affirmait que son système anonymisait les données, l’utilisation des caméras de vidéosurveillance pour analyser les émotions soulevait des craintes quant à un possible détournement ou piratage des informations collectées. Dans une ville comme Nice, où le réseau de surveillance est déjà omniprésent, l’ajout d’une couche d’analyse émotionnelle renforçait le sentiment d’un contrôle permanent, transformant un simple trajet en tramway en une expérience scrutée et jugée.
Un projet abandonné, mais un précédent inquiétant
Face à la polémique, le projet n’a finalement pas vu le jour. Officiellement, des contraintes techniques – notamment l’insuffisance des réseaux IP de la régie des transports – ont conduit à son abandon [10]. Mais les critiques éthiques et la pression des associations ont également joué un rôle déterminant. Aucun contrat ni subvention n’a été soumis au conseil municipal, et la CNIL n’a pas eu à se prononcer officiellement, le projet ayant été stoppé avant sa mise en œuvre.
Cet épisode n’était pas un cas isolé à Nice. Quelques semaines plus tard, en février 2019, la ville testait la reconnaissance faciale lors du carnaval, une autre initiative controversée qui a renforcé les craintes d’une surveillance généralisée [11]. Ces projets successifs illustrent une tendance inquiétante : sous prétexte de sécurité, les technologies de surveillance s’immiscent de plus en plus dans la vie quotidienne, souvent sans débat public ni transparence, sous l’égide d’un maire dont le passif judiciaire – incluant une condamnation définitive en 2024 pour diffamation envers Pierre-Alain Mannoni – et les enquêtes en cours pour des affaires de gestion alimentent les soupçons de dérives autoritaires [12][13].
Les dangers d’une surveillance émotionnelle
La reconnaissance des émotions, bien que séduisante pour les autorités, pose des problèmes éthiques et pratiques majeurs. D’un point de vue technique, ces algorithmes sont loin d’être infaillibles. Une étude de 2019 menée par l’Association for Psychological Science a montré que les corrélations entre expressions faciales et émotions réelles sont souvent faibles, surtout dans des contextes réels où les individus peuvent masquer ou modifier leurs expressions [14]. Dans un tramway bondé, comment distinguer une grimace de douleur d’un signe de colère ? Les erreurs d’interprétation pourraient conduire à des interventions injustifiées, stigmatisant des usagers innocents.
Sur le plan éthique, la reconnaissance des émotions franchit une nouvelle frontière dans l’intrusion dans la vie privée. Les émotions sont une part intime de l’expérience humaine, et leur analyse automatisée par des machines soulève des questions fondamentales. Qui décide de ce qu’est une “émotion suspecte” ? Quels garde-fous garantissent que ces données ne seront pas utilisées à d’autres fins, comme des études marketing ou des profilage comportemental ? Dans un contexte où les scandales de fuites de données sont fréquents, l’idée de confier des informations aussi sensibles à des algorithmes est particulièrement préoccupante.
Enfin, ce type de technologie risque de normaliser une surveillance omniprésente. À Nice, où chaque coin de rue est filmé, l’ajout d’une analyse émotionnelle aurait transformé les citoyens en objets d’étude permanents, érodant l’espace de liberté individuelle. Comme le soulignait la CNIL dans un rapport de 2019 sur les technologies de reconnaissance faciale, ces dispositifs doivent être encadrés par des “garanties fortes” pour éviter les dérives [15]. Or, dans le cas niçois, aucune consultation publique n’avait été organisée, renforçant l’impression d’une décision imposée d’en haut par un maire dont les démêlés judiciaires, incluant des soupçons de détournement de biens publics, jettent une ombre sur la transparence de sa gestion [16].
Un avertissement pour l’avenir
L’abandon du projet de reconnaissance des émotions dans les tramways niçois est une victoire pour les défenseurs des libertés individuelles. Mais cet épisode doit servir de leçon. Nice, avec son arsenal de surveillance et l’ambition de “Safe City” portée par Christian Estrosi – un responsable politique multi-condamné et visé par de multiples enquêtes pour des affaires de gestion, de favoritisme et de détournement – incarne une tendance mondiale où les technologies de contrôle social se développent à un rythme alarmant. D’autres villes, en France et à l’étranger, pourraient être tentées par des initiatives similaires, surtout dans un climat où la sécurité est une priorité politique.
Le jour où Nice a voulu lire les émotions de ses citoyens, elle a frôlé une dystopie technologique. Cet épisode nous rappelle l’importance de la vigilance citoyenne face à l’expansion des technologies de surveillance. Il est crucial de continuer à questionner leur légitimité, à exiger transparence et débat public, et à défendre notre droit à l’intimité. Car si la sécurité est un enjeu légitime, elle ne doit jamais se faire au prix de notre humanité, surtout sous l’égide d’un dirigeant dont le passif judiciaire et les affaires en cours soulèvent des doutes sur ses intentions.
Sources :
2.ledauphine.com/politique/2016/05/19/loup-dans-le-mercantour-estrosi-condamne-pour-diffamation
3. Nice-Matin, “Estrosi condamné pour injure publique envers Éric Gilli”, 13 octobre 2020.
8. Nice-Matin, “Projet de reconnaissance émotionnelle abandonné à Nice”, 30 janvier 2019.
9. The Guardian, “Emotion recognition tech is flawed and dangerous, scientists warn”, 25 janvier 2019.
12. Le Monde, “Christian Estrosi de nouveau condamné pour diffamation”, 21 mars 2024.
13. France 3 Provence-Alpes-Côte d’Azur, “Estrosi et le loup : une condamnation confirmée”, 20 mai 2016.
15. CNIL, “Reconnaissance faciale : pour un débat à la hauteur des enjeux”, novembre 2019.