Illustrattion réalisée par Contre7
Vous pensiez que le cauchemar d’Orwell resterait de la science-fiction ? Détrompez-vous. Sous couvert d’« innovation » et de « sécurité », la France vient d’offrir à l’Europe un cheval de Troie redoutable : la légalisation de la surveillance de masse par intelligence artificielle. Reconnaissance faciale en temps réel, lecture des émotions, détection des opinions politiques et religieuses… tout y est. Et ce n’est plus de l’anticipation : c’est déjà en train de se mettre en place. Grâce à Paris.
Imaginez une manif pour le climat. Un badge, une pancarte, un slogan. Une caméra intelligente vous scanne, vous classe, vous archive. Même si vous n’avez rien à vous reprocher, vos données finissent dans les fichiers. Autre scène : un migrant à Lampedusa, scruté par une IA qui analyse ses expressions pour deviner s’il ment. Conclusion ? Trop nerveux : demande d’asile rejetée. Cette dystopie n’est pas un délire paranoïaque. C’est la future norme européenne, soutenue et imposée par la France dans le cadre du très orwellien « AI Act ».
Ce règlement, censé encadrer l’usage de l’IA pour protéger les libertés fondamentales, s’est transformé en machine à justifier l’injustifiable. Pourquoi ? Parce que Paris a obtenu ce qu’elle voulait : une gigantesque faille dans le texte, au nom de la « sécurité nationale ». Grâce à des documents confidentiels dévoilés par Disclose et Investigate Europe, on découvre comment la France a patiemment saboté les garde-fous du texte pour imposer sa vision sécuritaire.
Dès 2022, Paris entre en croisade. En coulisses, elle impose sa « ligne rouge » : pas question d’interdire les technologies jugées intrusives, comme la reconnaissance faciale en temps réel. Pour les diplomates français, maintenir l’ordre public, c’est de la sécurité nationale. Et qui dit sécurité nationale, dit immunité réglementaire. La reconnaissance faciale pour fliquer les manifestants ? Circulez, y’a rien à voir. La France est d’ailleurs le seul pays à exiger une exclusion totale du maintien de l’ordre du champ d’application du texte.
Face aux réticences, la pression s’intensifie. En septembre 2022, un diplomate français tente de convaincre les rapporteurs européens que la reconnaissance faciale est indispensable pour… les Jeux olympiques. Oui, vous avez bien lu. Des caméras dopées à l’IA dans nos rues pour surveiller les supporters, les manifestants, les passants. Et pour forcer la main aux députés, le gouvernement passe en force : une loi valide l’expérimentation de la vidéosurveillance algorithmique jusqu’en mars 2025.
L’activisme de l’exécutif atteint son apogée fin 2023. Le SGAE (Secrétariat général aux affaires européennes), bras armé de Matignon, envoie un courrier au Conseil de l’UE : priorité à la « sécurité nationale », exigence de pouvoir déployer l’IA en cas d’ »urgence justifiée ». Résultat ? L’article 2.3 de l’AI Act stipule que le texte ne s’applique pas aux compétences des États en matière de sécurité. En clair : chacun fait ce qu’il veut. Et selon Aljosa Ajanovic, de l’EDRI, cela ouvre la porte à une surveillance biométrique de masse, avec des conséquences désastreuses pour nos droits.
Mais ce n’est pas tout. L’article 46 du règlement permet à la police d’utiliser des IA à haut risque sans autorisation, en cas d’urgence. Et devinez quoi ? Ces systèmes pourront traquer une personne en fonction de sa religion, son orientation sexuelle, ses opinions politiques. Oui, vous avez bien lu. Le texte prévoit que ces critères peuvent être utilisés pour justifier une surveillance algorithmique, si la personne est jugée « à risque ». La France, encore une fois, salue la possibilité d’identifier quelqu’un à partir d’un badge, d’un accessoire ou d’un symbole religieux ou politique.
Félix Tréguer, de la Quadrature du Net, résume : « C’est le retour des pseudo-sciences et des catégories arbitraires, automatisées pour servir la violence d’État ». Et pour couronner le tout, la France a aussi obtenu que les prisons et les zones frontalières soient exclues de la définition d’espace public. Résultat : ces zones deviennent des laboratoires où l’on peut expérimenter sans frein la détection des émotions, l’analyse du comportement, le tri algorithmique des individus.
Cerise sur le gâteau : le gouvernement justifie cette fuite en avant liberticide par la « compétitivité ». Si l’Europe encadre trop l’IA, les entreprises partiront ailleurs. Emmanuel Macron en personne s’inquiète : « on régulera des choses qu’on ne produira plus ». À peine voilé, le soutien à Mistral AI, pépite française de l’IA, dont l’un des fondateurs affirme que l’AI Act, dans sa version finale, est « tout à fait gérable ». Il faut dire que parmi les actionnaires, on retrouve Cédric O, proche du président. L’État au service du business, même au détriment des libertés.
Bienvenue dans l’Europe des algorithmes, où la France montre la voie. Celle d’un contrôle permanent, d’une surveillance totalisante, et d’une société où chaque citoyen est une donnée à exploiter, un suspect à profiler, une cible à neutraliser. Big Brother ne viendra pas : il est déjà là. Et il parle français.
Lien vers le pdf officiel : » AI Act : courrier confidentiel envoyé par la France au secrétariat du Conseil de l’UE «