Journée d’étude : L’intelligence artificielle générative et l’enjeu des données personnelles

L’intelligence artificielle (IA) est un ensemble de techniques qui remontent aux années 1940-1950 avec les travaux de Turing, de Wiener. Supposée simuler à l’aide de machines le raisonnement humain, l’IA s’appuie sur des modèles mathématiques, algorithmiques, informatiques. La technologie informatique a connu plusieurs évolutions avec les systèmes experts qui permettent de reproduire le raisonnement d’un expert (par exemple médecin pour un diagnostic de santé), les réseaux neuronaux qui s’inspirent de la biologie (neurones et synapses) pour raisonner souvent avec des méthodes d’apprentissage probabilistes, le machine learning (apprentissage automatique) qui permet d’apprendre à partir de données massives, le deep learning (apprentissage profond) qui repose sur l’apprentissage des significations des données. L’apprentissage automatique et l’apprentissage par renforcement permettent à partir de l’analyse de données massives de déduire des règles à suivre dans le système d’IA. L’un des défis est l’apprentissage du langage naturel ; récemment avec les LLM (large languages models) est apparue l’intelligence artificielle générative, c’est-à-dire une IA qui a la capacité de créer, que ce soit le texte (ChatGPT, projet OpenAI), l’image (DALL-E et Midjourney), le son (Suno) ou la vidéo (Sora). Avec ChatGPT qui a atteint en l’espace de cinq jours 1 million de comptes créés et le buzz médiatique. Ainsi, l’IA générative est devenue un phénomène de société dès fin 2022. L’IA générative dépasse les systèmes de recommandation (comme sur Amazon, Booking), ceux de score par les banques pour discerner les profils des clients. Les nouvelles promesses opèrent dans les secteurs de la justice (prédictive), de la santé, de la sécurité (vidéosurveillance et identification algorithmiques, reconnaissance faciale et biométrie). Mais les avancées technologiques peuvent servir le deepfake (hypertrucage pour les photos et les vidéos par exemple mais aussi pour des textes vraisemblables mais faux), ainsi que le pillage de données qui enfreint les droits des créateurs, en les agrégeant pour fournir des réponses probabilistes. Il existe aussi des fausses IA avec des travailleurs du clic qui effectuent des micro-tâches sous-payées (Casilli, 2019). L’IA générative, à la capacité de calcul impressionnante, présente aussi des limites avec les biais relatifs aux données sous ou sur-représentées, avec l’absence de mention des sources et des hallucinations (production d’informations fausses ou erronées). L’IA générative présente en outre des risques pour les données personnelles. En effet, la question de l’exploitation des données comportementales et personnelles se pose en termes de menaces, d’autant plus que dans ce contexte technologique le RGPD ne suffit pas pour les protéger. Vécu, aux débuts, comme une contrainte par les entreprises se sentant sous injonction règlementaire, les discours du MEDEF mettent désormais en avant la mise en conformité. Tels sont les enjeux, parmi d’autres, abordés lors de cette prochaine journée d’étude.

Selon une profonde ambivalence, l’IA générative permet certes des avancées mais dans le même temps déploie les conditions de surveillance et traitement-exploitation des données en lien avec ces avancées. L’opacité des algorithmes ne permet pas de connaître leur conception et mise en œuvre, afin de participer à la gouvernance des développements en matière d’IA générative, ou de cerner exactement la surveillance, la traçabilité et l’exploitation des données. Le consentement, face aux injonctions technologiques, conduit à l’acceptabilité de l’IA générative au nom de l’innovation dans un contexte d’économie numérique fondée sur des algorithmes, l’IA et l’exploitation de données d’usages collectées. La démultiplication des services attire ainsi les utilisateurs-consommateurs, dont l’attention est devenue une ressource dans le cadre de l’économie de l’attention, faisant partie de la surveillance des données, que Shoshana Zuboff (2019/2022) inscrit dans le capitalisme, non plus structuré par la propriété des moyens de production mais celle des outils de traçage et exploitation des données comportementales, voire de leur orientation pour conseiller/personnaliser en lieu et place de la manipulation, supportée par l’invasion des plateformes.

La protection des données dans un contexte de sophistication informatique avec les algorithmes et l’intelligence artificielle, pour toujours plus de traçabilité et d’exploitation de données doit donner encore lieu à la vigilance, sans nier les avantages de l’informatique et de l’intelligence artificielle. Cette dernière fondée sur une économie des données représente un enjeu informatique et société majeur puisque la captation permanente des données est nécessaire pour nourrir les systèmes d’intelligence artificielle, qui fait désormais l’objet d’un « AI Act » : « l’Union (européenne) doit agir en tant qu’organisme normatif mondial en matière d’IA ». En France, la mesure est prise avec un « avis relatif à l’impact de l’intelligence artificielle sur les droits fondamentaux » en avril 2022 .

À l’heure des développements de l’intelligence artificielle qui provoquent des craintes (communiqué CNIL du 8/07/2021) et font l’objet de travaux de réglementation, la recherche Informatique et Société, qui a tôt travaillé les enjeux sociaux de la surveillance, se préoccupe de l’intelligence artificielle qui renouvelle les systèmes biométriques pour traquer des profils d’individus, pour servir des intérêts sécuritaires et économiques, à la frontière de la discrimination interdite en vertu de l’article 21 de la Charte des droits fondamentaux de l’Union européenne. L’IA vise à automatiser les déductions exigeant des traitements massifs de données (non pas seulement personnelles, mais par recoupements sophistiqués, et avec des machines apprenantes en permanence). Les régulations et cadres réglementaires sont-ils suffisants pour protéger des droits inaliénables ? La demande d’une éthique ne suffit pas, même s’il s’agit d’engager des compromis dans le cadre de régulations en cours, avec le renfort des lois. La question concerne aussi le consentement : à l’heure des traitements par les systèmes d’IA, est-il vraiment éclairé ?

Programme de la journée

10h conférence introductive

Roger Bautier, Méconnaissance et autorité de l’IA générative

Fortement médiatisée, l’apparition de ChatGPT en novembre 2022 a attiré l’attention sur les développements de l’intelligence artificielle générative en mettant en lumière les performances des transformeurs pré-entraînés, qui offrent des potentialités à la fois diverses et massives pour le traitement de l’information, l’invention intellectuelle ou la production artistique. Ils ont montré, en particulier, leur aptitude à générer des suites de mots acceptables, sans que soit concernée leur relation au monde : ces suites peuvent être conformes aux contraintes de la langue et, plus largement aux aspects rhétoriques du discours, tout en n’impliquant aucune dimension référentielle. Au-delà de l’accomplissement de tâches linguistiques, les applications sont diverses et impressionnantes et les méthodes utilisées présentent des avantages incontestables, notamment en matière de quantité de données traitées et produites, que celles-ci soient unimodales (comme du texte) ou multimodales (textes, images, sons…).

On comprend dès lors que l’IA générative doive susciter un examen attentif de ses implications dans le domaine réglementaire en général, dans celui de la protection des données personnelles ou dans celui de son impact écologique. En guise d’introduction à cet examen, on se propose de présenter deux préalables qui ne sont pas encore très étudiés : d’une part, le déficit d’élucidation de son fonctionnement et, d’autre part, la construction problématique de son autorité.

Roger Bautier est Professeur émérite des Universités, USPN, LABSIC

10h45-11h30

Nicolas Berkouk, Régulation de l’Intelligence Artificielle : le point de vue d’une autorité de protection des données

L’essor fulgurant des performances des techniques d’apprentissage profond dans les années 2010 a permis de développer des systèmes qui rendent possibles des usages qui hier semblaient inaccessibles. Si ChatGPT en est l’exemple le plus populaire, l’intelligence artificielle ne se limite, et ne se limitera pas à ceux-ci, et on observe dès à présent une profusion de nouveaux systèmes qui reposent sur cette technologie : caméra intelligentes, voitures autonomes, médecine personnalisée, industrie 4.0, etc…
L’Union Européenne s’est dotée cette année, avec le règlement IA, d’un premier cadre réglementaire visant à encadrer la mise sur le marché des systèmes d’IA. Pour autant, ce règlement s’applique sans préjudice des textes européens pré-existants, et en particulier du Règlement Général sur la Protection des Données (RGPD). En effet, les données personnelles constituent le carburant par lequel les modèles d’IA sont nourris, et leur développement est incidemment soumis au RGPD.
Dans cette présentation, j’introduirai les grands enjeux jurico-technique de l’application des principes de la protection des données au développement et déploiement de systèmes d’IA.

Nicolas Berkouk est Expert scientifique au sein du service IA de la CNIL

pause

11h45-12h30

Julien Cloarec, Analyser, interpréter, générer : les grands modèles de langue en interconnexion

L’intervention portera sur l’impact des grands modèles de langage (LLM) dans la structuration et l’analyse de corpus textuels, ainsi que leur rôle dans la génération de texte. Je débuterai par une explication de la manière dont les LLM permettent de vectoriser un corpus, c’est-à-dire de transformer le texte en représentations numériques exploitables pour diverses tâches d’analyse. Cette étape clé permet l’exploitation de vastes quantités de données textuelles, en créant des représentations vectorielles qui capturent les nuances sémantiques des mots et des phrases. À ce stade, j’évoquerai également l’importance des données personnelles utilisées dans l’entraînement des LLM, soulignant les enjeux de confidentialité et les précautions à prendre pour garantir que les représentations vectorielles ne compromettent pas la vie privée des individus. Ensuite, je montrerai comment ces modèles peuvent être utilisés pour analyser des textes, notamment à travers des techniques telles que le zero-shot topic modeling, où un LLM peut identifier des sujets dans un corpus sans nécessiter de données d’entraînement spécifiques. Cette forme d’analyse ouvre des perspectives pour l’exploration automatique de grandes bases de données textuelles. Ici encore, le rôle des données personnelles sera discuté, en particulier sur la manière dont ces informations peuvent influencer les résultats et la nécessité d’anonymiser les données pour éviter des biais ou des violations de la confidentialité. Je poursuivrai avec une discussion sur l’interprétation des résultats obtenus grâce aux LLM. L’accent sera mis sur la capacité de ces modèles à fournir des explications et des interprétations des sujets ou des thèmes extraits, facilitant ainsi la prise de décisions informées. À ce stade, j’aborderai les implications des données personnelles dans l’interprétation, en mettant en lumière les risques liés à l’identification involontaire de personnes à partir de données agrégées. Par la suite, j’expliquerai comment les LLM peuvent générer du texte à partir des interprétations obtenues, en présentant des exemples de génération de contenu basé sur les thèmes identifiés. Cette démonstration mettra en avant la puissance de ces modèles dans la création automatique de texte pertinent et contextuellement approprié, tout en considérant les précautions nécessaires pour que les données personnelles ne soient pas utilisées de manière inappropriée dans ce processus. Enfin, je conclurai par une réflexion sur la conceptualisation et les implications de ces IA interconnectées dans les pratiques professionnelles et académiques. L’objectif est de fournir une approche pratique et éclairée sur l’utilisation des LLM, en soulignant leur potentiel transformateur dans l’analyse et la génération de texte, tout en ouvrant la discussion sur les implications éthiques et les défis liés à l’utilisation des données personnelles à grande échelle dans ces processus.

Julien Cloarec est Professeur des Universités, Ingénieur diplômé en Informatique, Docteur en Sciences de Gestion, Université Jean Moulin Lyon 3, iaelyon School of Management

14h30-15h15

Olivier Koch : Les enjeux de l’IA dans les industries de presse

Le développement de l’IA générative conversationnelle a suscité de nouvelles incertitudes dans les secteurs de la presse. La désinformation en ligne optimisée par les performances de l’IA est appréhendée, au sein des rédactions, comme un facteur d’érosion croissante de la confiance des publics dans les médias. Les gains de productivité de l’IA, réels ou escomptés, provoquent une course aux équipements et partenariats stratégiques en même temps qu’elle soulève des enjeux de droit de la propriété intellectuelle de premier ordre, enjeux d’ailleurs fort similaires à ceux négociés avec de grandes plateformes sous forme de droits voisins. L’exécution automatisée de certaines tâches routinières des journalistes et des métiers de l’édition remet en question l’organisation, la division et le management du travail, suscitant de nombreuses inquiétudes des professionnels au sein de filières. À travers l’étude des documents et entretiens où ces incertitudes sont objectivées, cette communication propose de formaliser les positionnements en cours des industries de presse vis-à-vis des enjeux de l’IA générative

Oliver Koch est enseignant chercheur à l’USPN, rattaché au Labsic. Ses travaux portent sur l’évolution des industries de presse et des stratégies d’influence internationales. 

15h15-16h

Antoine Henry : Art et IA, exploration d’imaginaires artistiques

Cette communication explore de multiples imaginaires, travaux et créations entre la science, l’art et la société. Nous ferons un voyage exploratoire à travers des exemples pour parler de la créativité, de l’éthique et de l’utilisation d’algorithmes pour produire des œuvres d’art ou pour avoir une pensée critique sur l’IA. Dans tous ces exemples, nous trouvons la question du lien entre l’art et la science et comment ils se nourrissent l’un l’autre. À travers ce cheminement, nous reviendrons aussi plus particulièrement sur les enjeux associés à la donnée dans ce contexte artistique, à sa production, son exploitation, sa mise en forme voire sa restitution. Les artistes se positionnent alors à la pointe d’approches critiques et éthiques associées à l’IA.

Antoine Henry est Maître de conférences, à l’Université de Lille
pro.univ-lille.fr/antoine-henry/

Pause

16h15-17h

Yann Bonizec : L’intelligence artificielle au cœur des transformations écologiques et numériques 

Cette intervention explore l’interconnexion entre transformation numérique et écologique, en se concentrant sur le rôle de l’intelligence artificielle (IA). Contrairement aux visions traditionnelles de transition, les transformations en cours sont continues et nécessitent des ajustements constants. La médiance, définie comme la relation dynamique entre l’homme et son milieu, sert de cadre théorique. L’intervention examine les impacts négatifs de l’IA, tels que la consommation énergétique élevée et les déchets électroniques, ainsi que ses contributions positives à l’optimisation énergétique et à la réduction des émissions de carbone. En dépassant la logique de compensation, il est crucial d’adopter une approche intégrée et de repenser l’éco-conception. L’IA peut agir comme un instrument de la médiance, aidant à surmonter les sentiments d’impuissance face aux enjeux écologiques. La gestion équitable et éthique des données est centrale, nécessitant des régulations étatiques renforcées par des outils transactionnels innovants.

Yann Bonizec est maître de conférences associé à l’USPN et au LabSIC

Participation gratuite mais inscription obligatoire.

Proposition de loi « ingérences étrangères », une nouvelle étape dans l’escalade sécuritaire

L’Observatoire des Libertés et du Numérique* demande aux parlementaires de s’opposer à l’extension des finalités des boîtes noires de renseignement inscrite dans la proposition de loi « ingérences étrangères ».

« L’ingérence étrangère », un énième prétexte à l’extension de la surveillance de masse

La  proposition loi « Prévenir les ingérences étrangères en France« , présentée par le député Sacha Houlié avec le soutien du camp présidentiel, a été adoptée par l’Assemblée Nationale (27 mars) et le Sénat (22 mai) avec le soutien des partis Les Républicains et Rassemblement national – alliés naturels du gouvernement pour les lois sécuritaires, mais ici, avec également le soutien du PS et d’EELV.

L’objectif affiché de cette loi est de limiter les intrusions d’autres Etats via l’espionnage et les manipulations pour contraindre les intérêts géopolitiques de la France. Mais, alors que le gouvernement dispose déjà de nombreux outils pour éviter ces intrusions, ce texte fraîchement adopté ne peut qu’inquiéter.

En effet, ces dispositions pourraient avoir pour conséquence de soumettre des associations d’intérêt public œuvrant pour l’intérêt collectif à des obligations de déclaration des subventions de fondations étrangères, renforçant ainsi les possibilités de contrôle gouvernemental. 

Par ailleurs, dans une logique constante de solutionnisme technologique, le texte promeut l’extension d’une technique de renseignement dite de l’algorithme de détection ou « boîte noire de renseignement ».

Des gardes fous toujours remis en cause

Cette technique a été instaurée par la loi renseignement de 2015 nos organisations s’y étaient alors fermement opposées. Elle implique, en effet, la nécessaire surveillance de l’intégralité des éléments techniques de toutes les communications de la population (qui contacte qui ?  quand ?  comment ?  voire pourquoi ?), qu’elles soient téléphoniques ou sur internet, tout cela pour poursuivre l’objectif de détecter automatiquement des profils effectuant un certain nombre d’actions déterminées comme étant « suspectes ». Ces profils seront ensuite ciblés et plus spécifiquement suivis par des agents du renseignement. Cette technique agit donc à la manière d’un énorme « filet de pêche », jeté sur l’ensemble des personnes résidant en France, la largeur de maille étant déterminée par le gouvernement.

En raison de son caractère hautement liberticide, cette mesure avait été limitée à la stricte lutte contre le risque terroriste et instaurée de façon expérimentale pour quelques années avec des obligations d’évaluation. Malgré des résultats qui semblent peu convaincants et des rapports d’évaluation manquants, cette technique a, depuis, été pérennisée et explicitement élargie à l’analyse des adresses web des sites Internet.

Un dévoiement des finalités

L’OLN dénonçait déjà les risques induits par l’utilisation de ce dispositif avec la finalité de « lutte contre le terrorisme », notamment en raison de l’amplitude de ce que peut recouvrir la qualification de terrorisme, notion du reste non définie dans le texte.

L’actualité vient confirmer nos craintes et l’on ne compte plus les usages particulièrement préoccupants de cette notion : désignation « d’écoterroristes » pour des actions sans atteinte aux personnes, multiples poursuites pour « apologie du terrorisme« , pour des demandes de cessez-le-feu et des propos liés à l’autodétermination du peuple palestinien, condamnations pour une préparation de projet terroriste sans qu’un projet n’ait pu être établi par l’accusation.

Cette proposition de loi élargira cette technique de l’algorithme à deux nouvelles finalités de renseignement :

1° L’indépendance nationale, l’intégrité du territoire et la défense nationale ;

2° Les intérêts majeurs de la politique étrangère, l’exécution des engagements européens et internationaux de la France et la prévention de toute forme d’ingérence étrangère ;

Là encore, la définition des finalités est bien trop vague, sujette à de très larges interprétations, pouvant inclure les actions suivantes : militer contre des accords de libre-échange, lutter contre des projets pétroliers, soutien aux migrants, remettre en cause les ventes d’armement ou les interventions militaires de la France…

Un encadrement bien limité

Si un contrôle théorique de ses finalités doit être opéré par la Commission Nationale de Contrôle des Techniques de Renseignement (CNCTR), ses avis peuvent ne pas être suivis.

De même, si la proposition de loi est, là encore, prévue pour une phase « expérimentale » pendant 4 ans et avec des obligations de documentation, peu de doutes sont permis sur ce qu’il adviendra, au vu des précédents sur le sujet.

Un élargissement des « techniques spéciales d’enquête »

Dans le cadre de ce nouveau texte sécuritaire, le Sénat en a aussi profité pour aggraver le barème des peines et créer une nouvelle circonstance aggravante dite « générale » applicable à l’ensemble des infractions (au même titre que l’usage de la cryptologie) permettant de monter d’un palier la peine de prison encourue (3 à 6, 5 à 7, 7 à 10…) dès que l’infraction est commise « dans le but de servir les intérêts d’une puissance étrangère, d’une entreprise ou d’une organisation étrangère, ou sous contrôle étranger ». Cette aggravation de peine permettra l’utilisation des « techniques spéciales d’enquête« , soit les intrusions les plus graves dans la vie privée (écoutes téléphoniques, balises GPS, la prise de contrôle d’appareil, hacking informatique…). Là où ces techniques étaient censées n’être utilisées que pour les crimes les plus graves, elles sont, texte après texte, étendues à un nombre toujours plus important d’infractions.

Quelle lutte contre quelles ingérences ?

Le Gouvernement ne ferait-il pas mieux de s’inquiéter de certaines ingérences étrangères bien réelles, telles que la captation des données de santé des Français exploitées par les autorités étasuniennes dans le cadre du Health Data Hub, d’autres captations frauduleuses par les entreprises du numérique américaines  ou encore la vente de technologies de pointe par des société étrangères, notamment israéliennes, comme PEGASUS, permettant de surveiller des personnalités politiques françaises au plus haut niveau ?

Des outils terrifiants au service d’un pouvoir qui continue sa fuite en avant autoritaire

Les boîtes noires comme les autres techniques d’intrusion du renseignement offrent des possibilités terrifiantes, qu’elles soient prévues par la loi ou utilisées abusivement. Cette démultiplication des capacités de surveillance participe à l’actuelle dérive autoritaire d’un pouvoir qui se crispe face aux contestations pourtant légitimes de sa politique antisociale et climaticide et devrait toutes et tous nous inquiéter alors que les idées les plus réactionnaires et de contrôle des populations s’intensifient chaque jour un peu plus.

Espérer un retour à la raison

Espérant un retour à la raison et à la primauté des libertés publiques, passant par la fin de la dérive sécuritaire et de son terrible « effet cliquet » nous appelons   la Commission mixte paritaire qui aura à se prononcer sur ce texte puis les parlementaires à rejeter l’article 4 (élargissement du barème de peine et techniques spéciales d’enquête) et l’article 3 (élargissement des finalités des boites noires) de cette proposition de loi, et, a minima, à s’en tenir à une restriction d’utilisation de cette technique à des cas beaucoup plus précis et définis (par exemple au risque d’attentat causant des atteintes à la vie et les ingérences étrangères graves telles qu’envisagées aux articles 411-1 à -8 du Code pénal).

*Signataires : CECIL, CREIS-TERMINAL, GLOBENET, la Quadrature Du Net, la Ligue des Droits de l’Homme, le Syndicat des Avocats de France, le Syndicat de la Magistrature

Débat : Communs, Algorithmes et IA, à la recherche de l’éthique dans un climat tendu

Débat IMSIC et CREIS-TERMINAL le 17 janvier 2024 17h30-19h

Creis-Terminal (CT) et les Rendez-vous de l’IMSIC organisent un débat en ligne et en présentiel le  à l’IUT d’Aix (Site Gaston Berger), animé, par Anne Gagnebien, (MCF en sciences de l’information et de la communication et membre du conseil d’administration de Creis-Terminal), avec comme intervenant David Chavalarias, (Directeur de recherche au CNRS et de l’ISCPIF), Antoine Henry, (MCF en Science de l’information et de la communication à Lille et chercheur au laboratoire GERIICO) et Alexis Kaufmann, (Fondateur de l’association Framasoft ). Il y aura également quatre discutants dont trois de Creis Terminal, Dominique Carré (LabSic, CT), Cédric Gossart (LITEM, CT), Dominique Desbois (INRAE, CT),  plus Alexandra Salou (IMSIC) lors de ce débat.  

L’événement vise à explorer les défis éthiques liés à la convergence des communs, des algorithmes et de l’IA, offrant une opportunité pour mieux comprendre grâce aux intervenants comment concilier innovation technologique et valeurs éthiques dans un monde en constante évolution.

Les discussions aborderont des thèmes cruciaux tels que la propriété des ressources partagées, les biais algorithmiques, la transparence, la responsabilité, et la manière de garantir une utilisation éthique de l’IA. Ce débat en ligne se positionne comme une occasion pour les participants d’engager une réflexion collective sur la manière dont la société peut naviguer à travers les enjeux éthiques complexes découlant des avancées technologiques, tout en cherchant des solutions éthiques et équitables pour l’avenir du numérique.

Lien zoom : https://us06web.zoom.us/j/8381649351?pwd=MjJTMW94ajd0dU54RDNZMjBkY3BOZz0

Merci de bien vous nommer lors de votre arrivée.

Censure de la surveillance par mouchard : l’OLN ne crie pas victoire

Communiqué de l’Observatoire des libertés et du numérique (OLN), Paris, le 23 novembre 2023.

Le 16 novembre 2023, le Conseil constitutionnel a rendu sa décision sur la loi de programmation de la justice en censurant une disposition relative à l’activation à distance des objets électroniques. Pour les organisations de l’Observatoire des libertés et du numérique (OLN) qui s’étaient fortement opposées à cette mesure, cette décision est plus que bienvenue. Pour autant, elle ne saurait constituer une victoire criante.

Il faut se souvenir des récentes décisions de ce même Conseil constitutionnel faisant peu cas du respect des libertés : validation de la vidéosurveillance algorithmique dans la loi JOP 2024, légalisation des drones, blanc-seing à l’assouplissement de la procédure pénale dans la LOPMI au nom d’une « efficacité opérationnelle »… Si l’on peut saluer le sursaut de la décision de la semaine dernière, il est difficile d’y déceler une volonté de mettre fin à la fuite en avant sécuritaire, tant cette institution l’a accompagnée ces dernières années. Pour caractériser une atteinte au droit à la vie privée, le Conseil retient qu’il existe un risque pour les tierces personnes étant dans le champ d’une éventuelle captation déclenchée par cette activation à distance du micro ou de la caméra. Si nous saluons l’établissement d’une telle limite, qui pourra servir d’argument pour d’autres types de surveillance, nous regrettons que le Conseil ne prenne jamais en compte le changement de paradigme philosophique et politique qu’implique la possibilité de transformation de tout objet numérique en mouchard de la police.

Cette absence dans le raisonnement s’illustre par la validation pure et simple de l’activation à distance des fonctions de géolocalisation de téléphone et autres objets connectés (voiture, balises airtag, montre etc) qui repose exactement sur le même procédé technique que le dispositif censuré : la compromission d’un périphérique, en y accédant directement ou par l’intermédiaire d’un logiciel espion pour en prendre le contrôle à distance. Or, une telle possibilité soulève de graves problèmes en termes de vie privée, de sécurité et d’intégrité des preuves. On le comprend, le caractère intrusif de cette technique, pourtant au cœur des scandales Pegasus et Predator Files, n’intéresse pas le Conseil.

Pour justifier cette nouvelle forme de surveillance, le gouvernement et ses soutiens ont répété que les services de renseignement seraient déjà autorisés à activer à distance les micros ou caméras de terminaux. Pourtant, la lecture de l’article L. 853-2 du code de la sécurité intérieure montre précisément l’inverse : ne peuvent être mis en œuvre par les services de renseignement que des dispositifs qui permettent d’accéder à des données qui « s’affichent sur un écran », telles qu’une personne les « introduit par saisie de caractère » ou « telles qu’elles sont reçues et émises par des périphériques. » Autrement dit, le droit actuel ne permet aux services de renseignement que d’enregistrer l’activité d’une personne sur un téléphone ou un ordinateur, mais en aucun cas d’activer à son insu une fonctionnalité supplémentaire comme un micro ou une caméra. Cette pratique, pourtant avancée pour justifier le bien-fondé de la mesure, semble donc illégale et doit être sérieusement questionnée.

De façon générale, on assiste à un essor toujours plus important des technologies de surveillance et à une banalisation de leurs usages par les services de police et de renseignement alors que, souvent, elles ne répondent à aucun cadre. Ces pratiques illégales se généralisent aussi bien dans les ministères que sur le terrain, et la licéité de ces outils n’est jamais une préoccupation de ceux qui les utilisent. Qu’il s’agisse de logiciels illégaux de surveillance algorithmique et reconnaissance faciale, de fichage sauvage ou ou encore d’exploitation de téléphone en garde à vue, l’impunité se répand, l’illégalité se banalise. Dans ce contexte et avec ces tendances lourdes, la décision du Conseil constitutionnel est salutaire mais nous apparaît malheureusement trop peu engageante pour y voir un avertissement fort contre la surveillance.

Organisations signataires membres de l’OLN : Globenet, Creis-Terminal, la Ligue des droits de l’Homme (LDH), Le Syndicat des Avocats de France (SAF), le Syndicat de la Magistrature (SM), La Quadrature du Net (LQDN).