Hommage à Stefano Rodota

Stefano  RODOTA est décédé à Rome  le 23 juin 2017 à l’âge de 84 ans.

Professeur à l’Université de Rome « La Sapienza », il a été de 1997 à 2005 président de l’Autorité nationale italienne pour la protection des données personnelles et a assuré de 2000 à 2004, la présidence du Groupe européen de protection des données. Il a également participé à la rédaction de la Charte des droits fondamentaux de l’Union européenne.

CREIS-Terminal et le CECIL souhaitent saluer la mémoire d’un homme courageux et militant qui a participé à plusieurs de leurs colloques et journées d’études en les faisant bénéficier de son immense savoir de juriste et de l’expérience de son action.

HOMMAGE A STEFANO RODOTA (par André Vitalis)

Stefano Rodota, professeur à l’Université « La Sapienza » de Rome, a été de 1997 à 2005, président de l’Autorité italienne pour la protection des données personnelles (l’équivalent de notre Commission nationale de l’informatique et des libertés) et de 2000 à 2004, président du groupe européen chargé de cette même protection au niveau de l’Union.

Il a été un juriste qui a su franchir les frontières de sa discipline pour étudier des problèmes essentiels de notre présente société de l’information. C’est aussi un universitaire qui a constamment mêlé l’action à la réflexion. C’est enfin un Italien qui a eu le souci permanent de l’Europe.

L’œuvre du professeur Rodota, composée d’une vingtaine d’ouvrages traduits en plusieurs langues, est l’œuvre d’un juriste qui considère que le droit doit être constamment repenser en fonction de l’évolution du contexte social et de ses valeurs. A partir d’une approche interdisciplinaire où le droit est mis en relation avec la politique, l’économie et l’évolution technique, il a revisité des institutions-clé du droit des personnes comme la propriété, la responsabilité ou le contrat. Les deux revues qu’il a créées portent des titres significatifs : « Politique du droit » et « Revue critique du droit ». Dans un livre en son honneur qui vient d’être publié, les juristes et politologues italiens, souligne l’importance de cette contribution. A partir de la même approche interdisciplinaire, Rodota a abordé les problèmes posés par l’importance croissante des techniques dans nos sociétés modernes que le juriste et sociologue bordelais Jacques Ellul, qualifiait de techniciennes. Sa contribution majeure concerne les techniques d’information et de communication dont il montre l’ambivalence en identifiant d’une part, les dangers qu’elles comportent pour les libertés individuelles et d’autre part, les nouvelles formes démocratiques qu’elles peuvent faciliter.
A la fin des années 60, il étudie les bouleversements apportés par l’informatique et tout spécialement ses menaces liberticides. Dans un ouvrage publié en 1973, « Traitements électroniques et contrôle social », il propose des solutions politiques et juridiques afin d’éviter l’avènement d’une société de contrôle. Il montre l’importance fondamentale du droit à la vie privée dans une société qui a la possibilité de tout savoir et de tout stocker sur les individus. D’origine bourgeoise et élitiste, la vie privée prend une valeur particulière dans ce nouveau contexte. Elle intéresse désormais tous les individus dont les données doivent être protégées afin d’éviter les discriminations et les manipulations. Dans une société de l’information, être libre c’est avoir une maîtrise minimale sur ses données et n’être pas réduit à ce que les fichiers disent de nous. D’autres changements sont envisagés comme la marchandisation de l’information, l’automatisation de la décision, la transparence administrative ou la vulnérabilité des organisations.
Dans un livre publié en France en 1999, aux Editions Apogée, « La démocratie électronique. Nouveaux concepts et expériences politiques », il présente une évaluation des diverses expérimentations réalisées dans le monde, afin de mieux faire participer les individus aux décisions qui les concernent. Toutes les techniques d’information n’apportent pas une plus-value démocratique mais certaines peuvent faciliter des formes de participation encore inédites. Ce sont donc ces dernières, qu’il faut prioritairement choisir dans l’avenir.
La reconnaissance française de son œuvre devait être marquée par la remise en 2005, d’un Doctorat honoris causa par l’Université Michel de Montaigne de Bordeaux.

Parallèlement à sa carrière d’enseignant et de chercheur, Stefano Rodota a mené une carrière politique. Il a siégé de 1979 à 1994, à la Chambre des députés où il a présidé le groupe parlementaire de la Gauche indépendante. Il a été pendant 10 ans, membre de l’Assemblée parlementaire du Conseil de l’Europe et pendant 5 ans, député européen. Il a toujours fait preuve dans ces engagements politiques, d’une grande indépendance par rapport aux partis et défendu une conception ouverte et pluraliste du jeu politique. Ces responsabilités parlementaires lui ont permis d’exercer une influence au-delà des cercles académiques et de convertir ses idées en programmes d’action. Ainsi, en 1994 à Paris, il a été le maître d’œuvre d’une réunion de l’Assemblée parlementaire du Conseil de l’Europe consacrée à l’examen des potentialités démocratiques des nouvelles techniques d’information et de communication. Sa probité et son expertise juridique reconnue, l’ont amené à être nommé en 1997 président de l’autorité italienne de protection des données et en 2000, président du groupe européen. Dans un livre d’interview consacré à cette expérience qui s’étalera sur près de dix ans, il dit que le théoricien a beaucoup appris du praticien en observant comment la protection des données s’inscrit dans la vie quotidienne des gens et devient une dimension de la liberté ; comment également, elle touche l’ensemble des relations et l’identité même des personnes. Au cours de son expérience européenne, il a été confronté après le 11 septembre 2001, à la difficulté des arbitrages quand les raisons sécuritaires prennent le pas sur tout autre considération. En 2004, malgré l’avis défavorable du groupe européen qu’il présidait, les compagnies aériennes ont dû transmettre aux autorités américaines qui les réclamaient, les données des passagers se rendant aux Etats-Unis même si le niveau de protection offert était inférieur à celui dont elles bénéficient en Europe.
Après s’être retiré en 2005 de la vie politique italienne, il devait y faire un retour remarqué et éclatant en se présentant à l’élection présidentielle italienne du 18 avril 2013 qu’il perdit avec un nombre plus qu’honorable de voix.

Stefano Rodota a manifesté depuis toujours un intérêt pour l’Europe avant de prendre part à la construction d’une Europe des libertés et des droits de l’homme. Jeune assistant effectuant une recherche critique sur le droit de propriété à la fin des années 50, il passe ses étés à travailler à la Faculté de droit de Paris, à la Faculté internationale de droit comparé de Luxembourg et à l’Université de Fribourg en Allemagne. Devenu professeur, il est invité à l’Université d’Oxford et donne des cours et des séminaires dans la plupart des pays européens. Il a noué de nombreux contacts en France et participe depuis le début des années 90, aux travaux d’une association de chercheurs travaillant sur le thème informatique et société. Il ne néglige pas pour autant les études menées aux Etats-Unis où il a séjourné comme professeur-invité à l’Université de Stanford et l’on trouve toujours dans ses livres, de nombreuses références nord-américaines.
Son engagement en faveur de l’Europe n’a fait que croître au fil des ans comme participant à des groupes d’experts sur l’éthique de l’informatique puis de la science, comme parlementaire, comme responsable de la protection des données personnelles. Il jouera un rôle déterminant lors de la rédaction de la Charte des droits fondamentaux de l’Union européenne approuvée en décembre 2000. Malgré la crise qu’elle traverse aujourd’hui, il estime que l’Europe est la région du monde qui possède le modèle le plus avancé dans le domaine des droits, où la dimension individuelle et sociale sont les mieux articulées. Dans des domaines comme la protection des données personnelles, la bioéthique, le respect de la diversité culturelle, l’Europe doit peser de tout son poids dans une mondialisation qui ne doit pas être seulement économique mais qui doit être aussi une mondialisation du droit.

Le Professeur Rodota aura œuvré dans ce sens, tout au long de sa carrière en ayant su avec une rare efficacité croiser les savoirs et unir l’action à la réflexion. Il est particulièrement satisfaisant et réconfortant qu’ait été confié durant de nombreuses années la responsabilité de la protection des données personnelles en Italie et en Europe à un chercheur qui trente ans plus tôt avait été un des premiers à travailler sur la mutation informatique et ses dangers pour les libertés individuelles.

Mille gracie ancora, Professore.

Livre blanc : Les données personnelles à l’heure du big data

Les données personnelles à l’heure du big data

De l’intelligence artificielle au pouvoir des algorithmes

Livre blanc publié par CREIS-Terminal et CECIL

Le plan :
1. Historique et cadre contemporain
– Éléments d’une histoire du fichage et des libertés privées en France
– Des individus exposés et trop souvent consentants face à l’utilisation de leurs données
– Exploitation à des fins marketing et de propagande contre gratuité d’un service

2. Aspects juridiques et rapport à la connaissance
– Une différence culturelle fondamentale entre la France et les États-Unis
– De nécessaires droits à instaurer
– L’importance de la question de l’enseignement avant même la majorité numérique

3. L’exploitation de la quantité des données
– Explosion de la quantité de données avec le big data
– De nouveaux usages induits
– De nouveaux risques pour les données personnelles

4. Précautions et conduite à tenir pour faire face à la cybersurveillance à l’ère du numérique
– Une nécessaire hygiène numérique
– Un peu d’autodéfense numérique
– Au-delà de l’autodéfense, un engagement militant

5. Les 10 axes de CREIS-Terminal et du CECIL

Accéder au livre blanc

Vivre dans un monde sous algorithmes

Journée d’étude organisée par CREIS-Terminal

Vivre dans un monde sous algorithmes

24 novembre 2017 9h45-16h

Télécom ParisTech 46 rue Barrault 75634 Paris Cedex 13 Amphi Grenat

Intervenants
Programme
Inscription

Pourquoi les algorithmes sont-ils en ce moment la coqueluche des média ? Un algorithme, d’après Wikipédia, est une « suite finie et non ambiguë d’opérations ou d’instructions permettant de résoudre un problème ou d’obtenir un résultat ». Pour être exécutable par un ordinateur, il est traduit par une suite d’instructions d’un langage de programmation. Divers algorithmes deviennent complexes de par le volume de données qu’ils traitent pour arriver à un résultat attendu : quel temps fera-t-il demain ? comment évolue le climat ? quels sont les potentiels futurs terroristes ? comment capter l’opinion publique ? comment attirer et fidéliser le consommateur ? Comment piloter à distance une opération ? … La technique informatique accompagne ce mouvement de complexification en traitant de gros volumes d’information de nature diverse (big data), en introduisant de l’apprentissage dans les algorithmes (machine learning), en modélisant des mécanismes de l’intelligence humaine (intelligence artificielle). Mais il ne faut pas perdre de vue que derrière les algorithmes, il y a des humains avec leurs présupposés, leurs idéologies, leurs visions du monde… Un exemple rapporté par un article de Numerama :« Beauty.AI est le premier concours de beauté jugé par des algorithmes. Problème : la grande majorité des gagnants a la peau claire »1. Cet exemple met en évidence l’importance des données et exemples qui nourrissent le système. Mais d’autres exemples sont à relever :

Les lois françaises sur le renseignement et contre le terrorisme votées sous le gouvernement précédent donnent aux services de renseignement et de police des pouvoirs exorbitants notamment en matière de collecte des données sur les réseaux. Elles autorisent la surveillance de masse et visent à prédire, via des algorithmes embarqués dans des « boîtes noires » des comportements potentiellement dangereux. Il ne fera pas bon se trouver parmi les « faux positifs » à savoir des personnes repérées à tort.

Le ministère de la Justice a autorisé, à titre expérimental, l’utilisation d’un logiciel Predictis. Il s’appuie sur un algorithme qui permet d’évaluer les chances de réussite d’une procédure ou le montant des indemnités en analysant des décisions de justice qui doivent, depuis la loi Lemaire, être accessibles en ligne dans le cadre de l’ « open data ». Le terme « justice prédictive » a accompagné le lancement de cet algorithme.

Le modèle économique des GAFAM (Google, Amazon, Facebook, Apple, Microsoft) et de tous ceux qui se sont lancés à leur suite s’appuie en partie sur l’extraction et l’exploitation des données personnelles. Pour offrir recherches et services personnalisés, il faut connaître l’utilisateur, ses habitudes, ses « amis », sa localisation, ses horaires de travail, etc. Tout devient prétexte à collecter des données, à les traiter, à les fusionner et … à les vendre. Des algorithmes, souvent compliqués et opaques, traitent du « big data ». Profilé, le consommateur est aussi manipulé. Sa navigation, par exemple, va orienter les affichages des bandeaux publicitaires. Les suggestions faites par un moteur de recherche sont souvent faites à partir de scores. Agrégateurs de données, data brokers, travaillent non seulement pour le marketing mais aussi pour la propagande politique. Sont ici en jeu les capacités de choix de l’individu, voire son autonomie et son libre-arbitre, fondements de la démocratie

La multiplication des algorithmes s’appuyant sur le « big data », l’intelligence artificielle, le « machine learning » doit être interrogée quant à son impact sociétal : limites du traitement algorithmique, conséquences sur les libertés individuelles, tant économiques que culturelles et sociales, fondements du pacte démocratique, …

C’est à cette interrogation que CREIS-Terminal entend contribuer par cette journée d’étude où seront abordées les enjeux techniques, sociaux, juridiques, économiques… des algorithmes.

1 http://www.numerama.com/tech/193524-beauty-ai-algorithme-etre-raciste.html

Intervenants

Monsieur Adrien Basdevant Associé du cabinet d’avocats Lysias Partners

La géopolitique des algorithmes

Les données – et les algorithmes qui les traitent – renversent les logiques de pouvoir existantes. L’analyse des rapports de force en présence est indispensable pour saisir cette nouvelle donne. La géopolitique du numérique met en exergue une triple problématique de souveraineté. Tout d’abord, une course effrénée que mène chaque Etat-nation pour affirmer son influence dans le cyberespace. Ensuite, la nouvelle opposition entre ces Etats-nations traditionnels et les nouveaux acteurs du numérique, que sont les Etats-plateformes. Ces derniers entretiennent des relations subtiles et ambivalentes. Le numérique devient en effet un enjeu décisif de soft power permettant d’imposer subrepticement sa norme, son pouvoir. Dans cet affrontement de titans, les individus doivent se réunir pour trouver des modalités de représentation, afin de ne pas rester tributaires ni des Etats ni des Plateformes. Tels sont les enjeux de la géopolitique des algorithmes.


Monsieur Christophe Benavent Professeur Université Paris Ouest

Gouverner les conduites : le rôle des algorithmes

Qu’il s’agisse des moteurs de recommandation, des systèmes de prix dynamiques, des systèmes de réputation, des agents interactifs, ou de la reconnaissance d’images, les algorithmes jouent un rôle essentiel et croissant dans le gouvernement des conduites des consommateurs. Ils définissent un cadre d’action, et jouent un rôle évaluatif et incitatif, généralement ajusté aux profils des utilisateurs. Leur but vise autant à obtenir des résultats spécifiques lors des interactions individuelles, qu’à obtenir des comportements généraux des populations, ce rôle est exacerbé dans l’environnement des plateformes numériques : places de marchés, réseaux sociaux, sites collaboratifs. Ces systèmes orientés vers l’action plutôt que l’étude produisent des effets parfois inattendus et peu souhaitables ( par exemple : discrimination ou bulles de filtrage),  et leur paramétrage peut être contesté par des comportements adversiaux.  Ces phénomènes conduisent à faire de l' »accountability » des algorithmes une priorité dans leur gestion.

Diaporama de présentation

Monsieur Olivier Koch  enseignant chercheur en Sciences de l’information et de la communication à l’Université de Galatasaray (Istanbul)

Prédire l’insurrection

Dans les années 2000, Big data et traitements algorithmiques ont été utilisés dans la gestion sécuritaire des populations. Sous l’occupation de l’Irak (2003-2010), l’armée américaine et la coalition internationale ont expérimenté des technologies de détection automatisée d’insurrections. L’objectif tactique étant de distinguer les « insurgés » du reste de la population et de les neutraliser. A cette fin, à partir de 2006, le département de la Défense américain finance la mise en œuvre d’une ingénierie en modélisation computationnelle des comportements socioculturels. Ces modélisations ambitionnent de détecter le plus finement possible les « insurrections », mais aussi de les prédire. L’usage actuaire des sciences sociales computationnelles est ainsi mis au service de la « stabilisation » des zones d’occupation. Comment ces prédictions sont-elles produites et utilisées ? Comment, à partir du laboratoire de la contre-insurrection en Irak, a vu le jour une industrie de la prédiction automatisée d’instabilités internationales ? On répondra à ces questions à partir de l’étude de dispositifs prédictifs en zones de conflit et à travers l’analyse de l’émergence de la nouvelle ingénierie en modélisation des comportements socioculturels.

Schémas explicatifs

Monsieur François Pellegrini Professeur d’informatique Université de Bordeaux, membre de la CNIL

Biais et conformisme des traitements algorithmiques

La possibilité de traiter efficacement des masses considérables de données accroit la tentation de faire reposer la gestion des sociétés humaines sur une gouvernance algorithmique. Dans cette vision, les traitements de données et leurs résultats seraient considérés comme immunisés contre les errements de l’âme humaine, et donc assimilés à des vérités scientifiques qu’il serait absurde de contester. Or, les traitements de données, comme tout artefact, sont des objets socio-économico-culturels, pétris de biais humains et, qui plus est, intrinsèquement conformistes.

Diaporama de présentation


NB : présentation des propos par les auteurs

Programme

 

9h45 accueil
10h François Pellegrini « Biais et conformisme des traitements algorithmiques »
11h Adrien Basdevant « La géopolitique des algorithmes »
12h-14h temps libre
14h Christophe Benavent « Gouverner les conduites : le rôle des algorithmes »
15h Olivier Koch « Prédire l’insurrection »
Chaque intervention d’une vingtaine de minutes sera suivie d’un échange avec les participants

Participation gratuite mais inscription obligatoire.

Communiqué OLN : Le numérique assigné à l’état d’urgence permanent

Le 3 octobre 2017

Le numérique assigné à l’état d’urgence permanent

L’Assemblée nationale s’apprête à adopter, lors d’un vote solennel, le projet de loi renforçant la sécurité intérieure et la lutte contre le terrorisme.
Perquisitions administratives, mesures de surveillance, boites noires : les enjeux numériques du texte sont nombreux et cruciaux. L’Observatoire des libertés et du numérique (OLN) alerte les parlementaires, notamment celles et ceux qui composeront la future commission mixte paritaire qui examinera prochainement le texte.
La dangereuse captation de pouvoirs au profit de l’Exécutif, policiers, préfets et ministre de l’Intérieur à laquelle aboutira ce texte est en marche, par l’intégration dans le droit permanent de mesures tirées de l’état d’urgence. La logique de suspicion, le déséquilibre des pouvoirs, la restriction de libertés pour tous dans l’espace public sont autant de désastres qui nourrissent une contestation large contre ce texte.
C’est par touches que le numérique apparaît dans le texte, mais à chaque fois sur des enjeux cruciaux.
Les assignations à résidence, renommées « mesures de surveillance individuelles », sont désormais agrémentées d’une mesure inédite : l’obligation de révéler l’ensemble de ses identifiants électroniques. Présentée sans succès lors des multiples prorogations de l’état d’urgence, cette mesure est aujourd’hui portée par le gouvernement et l’Assemblée nationale. Contraire au droit de ne pas s’auto-incriminer, elle porte une atteinte d’autant plus disproportionnée à la protection de la vie privée que tout défaut de déclaration est passible de 3 années d’emprisonnement. L’obligation privera les personnes concernées – auxquelles aucune infraction pénale, même en préparation, n’est reprochée – de toute faculté de communication privée, leurs identifiants devenant la cible de mesures de renseignement particulièrement larges et intrusives.
Les perquisitions administratives – devenues, dans un redoutable effort de « novlangue », des « visites de lieux » – vaudront à ceux qui les subissent la saisie et l’exploitation de l’intégralité de leurs données informatiques, hors de la procédure pénale et ses garanties. L’ampleur de l’atteinte à la vie privée est sans commune mesure avec la faiblesse des exigences du texte : des critères flous (l’appartenance à l’entourage de personnes incitant au terrorisme, l’adhésion à des idées…) quant aux personnes visées, aggravés par un laxisme probatoire consistant à s’en remettre sans ciller aux notes blanches des services de renseignement, c’est à dire à des documents non sourcés, pouvant faire état de simples rumeurs, et non à des procédures d’enquête étayées.
Enfin, l’OLN s’alarme également des prolongations que ce projet offre à la loi renseignement. La captation de données de connexion de l’entourage d’une personne soupçonnée est de retour peu après avoir été censurée par le Conseil constitutionnel (dans un procès engagé par FDN, FFDN et La Quadrature du Net). Sans aucune discussion sur les enjeux de cette mesure ou les raisons de sa censure, la commission des lois puis l’Assemblée nationale se sont bornées à suivre une option suggérée par le Conseil constitutionnel, à savoir la limitation du nombre de personnes simultanément concernées par cette technique de surveillance. Or, cette limitation étant ici unilatéralement fixée par le gouvernement, elle ne saurait offrir aucune garantie contre l’abus par ce dernier de ses pouvoirs, faisant ainsi fi des principes de nécessité et de proportionnalité, rappelés notamment par la récente jurisprudence européenne qui n’a de cesse de prohiber l’accumulation massive de données par les États.
Quant aux boîtes noires – en bref, la surveillance d’Internet via des algorithmes, forme la plus scandaleuse de la surveillance de masse -, le projet entend y redonner un nouveau souffle : la fin de l’expérimentation de la mesure et le rapport parlementaire prévu pour 2018 sont reportés à 2020. On peut aisément craindre que cette prolongation ne soit pas la dernière : le prétexte invoqué, l’absence déclarée de mise en œuvre, ne devraient en aucun cas empêcher un débat essentiel sur l’incompatibilité absolue de ce type de mesures avec les droits fondamentaux protégés dans une démocratie.
Contre les avis les plus avisés d’organisations de défense des droits et du mouvement social, de juristes, mais aussi d’instances internationales – récemment de deux Rapporteurs spéciaux des Nations unies –, on intègre dans le droit commun des mesures inspirées de l’état d’urgence.
Le numérique se retrouve au croisement d’axes centraux de ce texte. Mobilisé pour la protection de la vie privée et la lutte contre les abus de la surveillance, l’Observatoire des libertés et du numérique appelle les parlementaires à refuser ces dispositifs lors de la commission mixte paritaire, en retirant purement et simplement ces dispositions du texte du loi.

Organisations signataires membres de l’OLN : Amnesty International France, Le CECIL, Creis-Terminal, La Ligue des Droits de l’Homme, La Quadrature du Net, Le Syndicat des Avocats de France, Le Syndicat de la Magistrature).