Entre critique
et modélisation,
pour une
« nouvelle posture critique » face à l’informatisation
Pascal Robert
MCF en sciences de l’information et de la communication à l’Université d’Aix-Marseille II, chercheur au LVIC de l’Université d’Aix-Marseille III
Notre vigilance envers l’informatisation exige aussi que nous restions vigilants avec notre propre appareil critique afin que celui-ci demeure performant et adapté. C’est pourquoi je propose ce retour critique sur la critique, qui permet 1/ d’une part d’interroger à nouveaux frais le paradigme critique classique de l’« écart », à travers ses trois figures de l’écart entre réalité et idéologie, de l’écart entre « bonne » et « mauvaise » informatique, et de l’écart entre formalisation technique et situation concrète ; 2/ de proposer une « boîte à outils » conceptuelle (qui avance les notions d’ « impensé informatique », de contrôle-coordination, de « formatage généralisé », de « gestionnarisation » de la société et de « glissement de la prérogative politique »), qui évolue dans un espace qui n’oppose pas, mais fait au contraire dialoguer critique et modélisation. Un dialogue susceptible de nous aider à adopter une « nouvelle posture critique » et d’inaugurer ainsi le projet d’une nouvelle « culture technique », non technicienne et critique, de l’informatique.
This paper proposes a
critical study of the traditional critical point of view over computerization
of society. 1/ On the one hand the classical critical paradigm of “gap” (the
gap between reality and ideology, “good” and “bad” informatics, technical
shaping and situation) is questioned. 2/ A set of concepts is proposed
(l’« impensé informatique », le « formatage généralisé »,
la « gestionnarisation » de la société et le « glissement de la
prérogative politique ») which evolved into a new framework which does not
separate the critical point of view and modelization. So we would like to
promote a “new critical posture” towards computerization of society.
Introduction
Sous prétexte qu’elle est critique, doit-on abandonner la critique à elle-même, sans autre forme d’inventaire ? Ou bien doit-on l’interroger à nouveaux frais, afin d’en comprendre les limites et de dégager ainsi les conditions de possibilité de ce qui pourrait peut-être devenir une « nouvelle posture critique » ? Nous pensons qu’il est sain que la critique puisse être soumise à la question, afin de l’extraire de cette sorte d’évidence dans laquelle l’habitude la jette et qui émousse son efficacité. C’est pourquoi je voudrais, ici, revenir sur trois positions critiques classiques, toutes ordonnées à ce que j’appelle volontiers le « paradigme de l’écart », écart entre le réel et l’idéologie (1), écart entre la « bonne » et la « mauvaise » informatique (2), écart entre la technique, sa formalisation et la situation (3). Je voudrais montrer leurs limites, voire leurs effets pervers. En regard il me semble indispensable d’émettre quelques propositions alternatives qui visent à ouvrir un espace de réflexion qui n’oppose plus critique et modélisation (4).
1. L’écart entre le réel et l’idéologie
1.1. Une première attitude critique consiste à mesurer l’écart qui sépare le réel de l’idéologie, la pratique et l’usage du discours technophile et promotionnel. Le sociologue montre ainsi, dans une sorte d’épreuve de réalité, le hiatus considérable qui s’ouvre entre les discours des thuriféraires d’une technique, d’une informatique baguette magique et l’usage concret qui en est fait au quotidien, les détournements et réappropriations dont sont capables les usagers dans leur braconnage de tous les jours.
La dénonciation est certes des plus légitimes et reste indispensable. Mais à bien y réfléchir elle emporte deux biais :
1.2. C’est exactement la question sur laquelle s’enracine d’abord la « nouvelle posture critique » en faveur de laquelle nous militons : comprendre quelle fonction remplit ce discours. On peut distinguer trois niveaux d’analyse.
1.2.1. Car en effet, le plus souvent ce discours ne nous apprend, à proprement parler rien sur l’informatique, ou plutôt rien d’autre qu’une énième variation sur la mise en scène de ses performances. Analyser les thématiques abordées permet donc d’actualiser le répertoire de ces performances, mais ne nous renseigne ni sur l’informatique ni sur la fonction de ce discours.
1.2.2. On peut, dans un deuxième temps, considérer qu’il travaille dans le sens d’une prophétie auto-réalisatrice : l’incantation de performance participera peut-être, si ce n’est à inscrire cette performance en tant que telle dans ce qui va devenir le réel, du moins à « formater » la société à l’idée de raisonner en termes de performance, c'est-à-dire de penser telle ou telle question ou tel problème à l’aune de cette catégorie. C’est déjà comprendre une fonction essentielle de ce discours, et qui le relie directement, nous aurons l’occasion de le voir, à l’efficace de l’informatique elle-même, à savoir participer à ce que j’appelle le « formatage généralisé » de la société. En effet, l’informatique peut d’autant mieux s’implanter dans cette société que celle-ci est préparée à son accueil, c'est-à-dire déjà pré-moulée à sa logique et par exemple, habituée à se penser de plus ne plus en terme de performance et de technique[1]. Si tel ou tel problème est construit d’emblée comme un problème technique qui exige une réponse technique et performante, alors la technique de la performance lui sera bien évidemment adaptée.
1.2.3. On peut enfin se demander si cette réduction à l’exhibition de la performance ne cache pas une fonction plus profonde qui aurait pour conséquence de retirer a priori l’informatique d’éventuelles épreuves de justification. Une telle position, si elle s’inspire des travaux de Boltanski et Thévenot[2], introduit également une interprétation différente de la relation de la technique à la question de la justification. En effet, dans leur théorie l’objet n’est qu’un point d’appui, une ressource convoquée par un acteur dans le cadre d’une épreuve de justification. Autrement dit, c’est l’acteur qui est amené à se justifier, jamais l’objet. Or, nous utilisons la notion de justification dans un renversement qui nous entraîne à nous interroger sur l’évidence même de la présence des objets, donc sur leur justification à l’existence. On peut donc aussi aborder le discours porté sur la technique comme un discours qui vise à offrir ou non une justification à la présence de l’objet.
Ainsi, à un premier niveau, faible, d’interprétation on peut considérer que l’informatique est justifiée justement par sa performance (c’est-à-dire le discours de la performance), puis, à un deuxième niveau on peut penser qu’elle est justifiée, de facto, par sa congruence avec les questions exprimées en termes techniques et de performance, donc en tant que réponse par définition pertinente ; enfin à un troisième niveau, on peut penser que le discours de la performance travaille surtout à occuper l’espace discursif au point d’empêcher l’émergence ou de marginaliser (en terme de volume et de contre-dépendance) tout discours susceptible de soumettre l’informatique à des épreuves de justification politique et éthique. Ce discours aurait donc pour vertu essentielle de soustraire l’informatique à la logique même de la justification en repliant en quelque sorte toute possibilité de mise à l’épreuve sur la seule épreuve technique et donc sur la seule réponse technicienne. On rabat la technique sur elle-même, qui en vient ainsi à s’auto-justifier en tant que technique et on interdit alors l’érection de cet espace du débat où pourraient se poser les questions politiques et éthiques. C’est exactement le processus qui sous-tend la production de ce que j’appelle l’« impensé informatique »[3]. Remarquons que ce cadre de l’impensé facilite grandement le travail de la prophétie auto-réalisatrice de mise en place d’une lecture a priori du monde en termes de technique et de performance.
Adopter une telle posture critique demande donc d’une part que l’on construise la notion de « formatage généralisé » -ce qui correspond à un premier geste de modélisation dont les trois points suivants offrent un peu plus de détail ; et d’autre part que l’on comprenne la « fonction », voire les fonctions remplies par le discours porté sur l’informatique, dont on voit ici qu’il participe pleinement à sa concrétisation et ne constitue en rien un simple discours d’accompagnement[4]. Critique et modélisation se révèlent donc toutes deux indispensables et entretiennent un véritable dialogue.
2. L’écart entre la « bonne » et la « mauvaise »
informatique
2.1. La critique de l’informatisation s’est également construire sur une dichotomie qui se cristallise déjà dans les années 70. Il y aurait ainsi une « bonne » informatique opposée à une « mauvaise » informatique. Il y a trente ans B. Lussato se faisait le chantre d’une informatique, qu’il présentera quelques années plus tard à travers la célèbre image des « petits chaudrons», entendons les « micro-ordinateurs » (il emploie déjà le mot en 1974), contre celle des « grands chaudrons », c’est-à-dire les grands systèmes[5]. On valorisait alors une informatique décentralisée contre une informatique centralisée. Et l’on repeignait aux couleurs des positions partisanes cette distinction, avec un J. Attali par exemple qui louait une informatique de gauche, susceptible de porter une autre manière de faire de l’informatique comme on supposait possible une autre manière de faire de la politique –et les deux étaient liés[6]. A l’informatique taylorienne, repliée sur les bastions de la direction informatique, opaque, on substituait une informatique légère et ouverte, rapprochant la décision des travailleurs, leur permettant de se réapproprier l’information et de construire une alternative politique. A l’informatique de l’état central, qui accumule et centralise une information confisquée au citoyen, qui risque de le ficher et de le surveiller systématiquement, concrétisant la figure de Big brother, on oppose une informatique qui est enfin restituée au citoyen, décentralisée, et qui, dans la supposée neutralité de l’outil permet d’obtenir une gestion politique elle-même supposée dénuée de toute relation de force ou de pouvoir.
Certes, cette informatique là n’est peut être pas pour demain, mais elle est pour bientôt, nous dit-on, c’est pourquoi, en attendant, il convient de se protéger contre les conséquences désastreuses de l’autre informatique, celle des grands systèmes, des multinationales et des états en poussant au vote de lois de protection du travailleur et du citoyen contre leur empiétement. Le mouvement « informatique et liberté », aboutit ainsi, à la suite d’une campagne de presse orchestrée notamment par le journal Le Monde[7], à la loi de 1978 et à la création de la CNIL.
2.2. L’opposition entre deux informatiques est reconduite quelques vingt-cinq ans plus tard autour d’une part du mouvement du logiciel libre et d’autre part d’un internet libertaire, dont les racines, nous explique-t-on viennent notamment des années 70 et de la contre-culture américaine. Le logiciel dit «libre » porte en son nom lui-même tout un travail d’auto-qualification qui vaut comme labellisation dans l’aptitude à libérer. Puisque le mouvement prône la liberté, il ne peut qu’emporter l’adhésion et…la liberté. Liberté face à des logiques économico-commerciales qui enferment systématiquement les logiciels dans des dispositifs propriétaires qui valent souvent effet de normalisation selon la loi –tendancielle- de la prime au premier servi. Il n’est certes pas inutile d’agiter une définition de la liberté qui ne se réduise pas à celle du commerce. Mais doit-on signer un chèque en blanc à ceux dont on peut se demander s’ils ne suivent pas eux aussi leurs intérêts ?
Car le mouvement du logiciel libre, qui critique la logique du tout propriétaire, dénonce ainsi un « effet de boite noire », qui présente le logiciel comme un objet fermé et non comme quelque chose qui serait voué à l’exploration. La liberté consiste alors à revendiquer la possibilité –technique et juridique- d’ouvrir la boite noire et de pouvoir la modifier, la transformer, la faire évoluer, sans craindre de lourdes représailles judiciaires ou policières[8]. Mais cette possibilité n’est elle-même acquise qu’à l’expresse condition de posséder soi-même un très haut niveau d’expertise. Autrement dit, cette liberté là ne peut être que celle d’une élite. Elle est peut-être essentielle pour tous, mais ne doit pas cacher son fondement profondément élitiste. Car on ne se « libère » des contraintes juridico-industrielles et commerciales, qu’à accepter pleinement et sans réticences les contraintes d’un long et difficile apprentissage technique qui ne passionne pas forcément tout le monde. Bref, et c’est aussi ce qui fait la force de M. Gates sans que l’on doive pour autant condamner l’usager de base pour trahison, cet usager a aussi besoin d’objets informatiques (relativement) fermés qui lui servent à faire quelque chose d’autre que de l’informatique. Et dans sa profonde naïveté un tel usager peut aussi considérer que cette possibilité vaut comme libération (par rapport à sa vieille machine à écrire par exemple ou son premier traitement de texte).
2.3. A ne considérer que l’opposition « bonne informatique » (vs) « mauvaise informatique », on suppose toujours que la première va nous sauver de la deuxième –à l’instar du droit qui est également censé nous en protéger. Ce qui emporte deux conséquences.
Bref, il nous semble plus intéressant non pas d’opposer les deux informatiques, mais de chercher à penser ce qu’elles partagent et ainsi de souligner que l’informatique, quelle qu’elle soit, ouvre toujours la possibilité d’un contrôle-coordination. Un couple contrôle-coordination, toujours liés, en ce sens que tout contrôle ouvre toujours sur un potentiel de coordination –qui n’est pas forcément actualisé- et que toute coordination ouvre toujours sur un potentiel de contrôle –qui n’est pas forcément actualisé. Dans une telle perspective la « bonne informatique » s’oppose moins à la « mauvaise » qu’elle n’offre d’autres moyens ou d’autres voies pour aboutir aux même résultats, à savoir un renforcement de ce que j’ai appelé plus haut le « formatage généralisé » d’une société encore plus profondément pliée à la logique informatique, à la fois en intensité (décentralisation) et en extension (réseau). Ce qui signifie également que son discours de valorisation est moins critique qu’il ne participe à sa manière à l’« impensé informatique ». Car à quoi bon soumettre une « bonne » informatique à des épreuves de justification ? Si elle est « bonne » ne se soustrait-elle pas d’emblée à un tel jeu ? Les choses semblaient simples, elles se compliquent singulièrement.
Là encore la posture critique ne peut se contenter de mesurer un écart et doit avoir recours à un minimum de « modélisation », à travers le couple contrôle-coordination, pour se construire.
3. L’écart de la technique à la situation et les limites de la
formalisation
La technique semble posséder aux yeux de certains critiques une propension à pêcher doublement : d’une part parce qu’elle est détachée de la situation ; d’autre part parce que sa formalisation est limitée.
3.1. On reproche volontiers à la technique son détachement par rapport à la situation concrète de son inscription. Il en va d’un écart, dénoncé par le critique comme une sorte de mépris de la technique envers la situation, la pratique, l’usage. D’où, inversement, le laborieux travail de requalification et de réhabilitation de la logique de l’usage entrepris par le sociologue. Car ce qui reconnecte la technique à la situation c’est justement l’usage. La technique est ainsi toujours débordée par la situation, par l’usage, qui la contourne, la détourne et s’en joue. Technique gauche donc, puisqu’emputée de l’usage, puisqu’inévitablement décalée, presque branlante, par rapport à la situation. L’éclairage est vif et dans sa pertinence semble peut-être oublier son ombre portée.
Car, en effet nos techniques actuelles sont détachées de la situation[9], ne s’y emboîtent jamais parfaitement et c’est justement ce qui en fait toute l’efficacité. On peut ne pas aimer la notion, ce n’est pas une raison pour ne pas chercher à la penser. Car le travail de nos technologies actuelles n’est justement pas un travail d’ajustement à la situation, mais bien un travail tendanciel d’ajustement de la situation à leur logique. Se focaliser sur le seul usager, cela permet de mieux comprendre l’usager, mais pas forcément l’informatisation, et moins encore l’informatique comme phénomène d’échelle sociétale (et non social)[10]. Se focaliser sur le seul usager c’est oublier tout le reste et peut être sans le savoir en faire le jeu. Car à ne voir que les réappropriations, qu’il ne s’agit bien évidemment pas de nier, n’oublie-t-on pas le lourd travail de terrassement porté par la logique du « formatage généralisé » ? Un travail qui repose justement sur ce décalage de la technique à la situation et qui œuvre non à le combler au bénéfice de l’usager, mais à reconstruire cet usager et la situation qui va avec de façon à ce qu’ils conviennent à la technique.
Ce qui engage dans un mouvement que j’appelle le « processus de gestionnarisation ». Un mouvement qui suscite une requalification de l’identification de tout problème en problème de technique de gestion et toute réponse en mode gestionnaire-informatique de résolution de problème. Un tel procès repose sur une opération fondamentale qui est celle de l’équivalence entre gestion et informatique en ce sens que tout problème de gestion peut toujours être exprimé comme un problème de gestion de l’information et ouvre ainsi sur son informatisation potentielle, et que toute informatisation ouvre sur la possibilité de lire et le problème et sa résolution comme un problème d’optimisation de la gestion de l’information et donc fondamentalement comme un problème de gestion. La mise en équivalence n’a rien d’obligatoire, mais sa possibilité est toujours ouverte. Le déploiement d’une véritable « logistique informationnelle »[11] fondée sur de lourds macro-systèmes techniques[12] finement reliés désormais au monde domestique, n’accroît-elle pas la probabilité qu’il se trouve au moins un acteur pour tenter de l’actualiser ? L’informatique conviviale et réseautique, en haussant considérablement le niveau technique moyen de la population, en l’habituant à « penser informatique » n’accroît-elle pas d’autant la probabilité qu’une telle actualisation puisse être effectivement mise en œuvre ?
3.2. On a pu critiquer les limites de la formalisation informatique, là encore en mesurant l’écart qui sépare cette formalisation de la réalité de l’activité de travail notamment. Où, assez paradoxalement, on semble regretter le manque de puissance en quelque sorte de cette formalisation, bien incapable de se saisir de toute la finesse du geste de l’homme au travail. Je dis « paradoxalement » car il est pour le moins étrange de baser cette critique sur le manque. Doit-on regretter que l’homme possède encore quelque chose d’inimitable ? Si non, où se situe la critique dans le constat de l’incapacité de l’informatique à le capter ? Sauf, encore une fois, à accorder crédit, beaucoup plus qu’il n’est nécessaire, à la rhétorique de la performance. Sauf, également, à ne pas vouloir comprendre qu’une formalisation est toujours par définition réductrice, et ne peut être qu’une maquette de la réalité, un modèle –ce qui en fait d’ailleurs tout l’intérêt cognitif.
La question n’est donc pas dans l’aptitude de l’informatique à prendre au piège de ses formalismes une activité exercée dans un milieu non informatisé et non encore soumis à la loi du « formatage généralisé ». En revanche, la question se pose véritablement, lorsque le milieu s’ordonne progressivement à ce « formatage généralisé », lorsqu’il est préparé/se prépare à entrer en compatibilité avec la logique informatique, lorsqu’il est/se reconstruit afin de faciliter sa représentation et sa manipulation comme ensemble d’informations structurées. Dès lors le milieu est prêt à accueillir l’informatisation. Ainsi, le geste de l’ouvrier est et demeurera peut être toujours inaccessible à l’informatique dans son irréductibilité à la situation, ce qui nous permet de comprendre l’ouvrier, mais pas l’informatique. Or, aujourd’hui ce sont aussi des robots informatisés qui fabriquent les voitures : non parce qu’ils peuvent remplacer les hommes dans leur singularité, mais parce que l’on a refondu le milieu associé, qui élimine ou marginalise les hommes, et dès lors produit une architecture globale de l’usine qui rend l’informatique totalement efficace –efficace parce que l’usine en question est la concrétisation d’un modèle, compatible donc avec l’informatique.
Autrement dit, comprendre ce que l’informatique ne saura peut être jamais faire, à savoir le travail d’un homme tel qu’un homme de métier l’exerce, ne nous permet pas de comprendre le mouvement global qui dépasse cette irréductibilité, qu’elle se traduise par la singularité de l’homme et/ou l’échec de l’ordinateur à le singer tel quel. Car l’informatique procède par ce détour global, qu’une focalisation sur son usage plus ou moins taylorien nous voile, du « formatage généralisé » et de la « gestionnarisation ».
Que l’on me permette ici une conclusion à ce troisième point sous forme d’apologue sociologique. Le philosophe était venu voir l’ouvrier et l’avait assuré que son geste n’était pas informatisable. Pourtant quelques mois plus tard l’ouvrier est au chômage. Le philosophe n’avait cependant pas menti, le geste de l’ouvrier n’a pas été, en tant que tel, informatisé. En revanche le milieu de son intervention, lui, a été entièrement bouleversé, réarchitecuré au bénéfice de l’informatique, expulsant ainsi l’ouvrier. Un peu plus loin le sociologue de l’usage a affirmé à l’ouvrier que cette informatique taylorienne qui prolongeait artificiellement d’anciennes logiques était vouée à l’échec. Il n’avait pas menti, puisque quelques mois ou quelques années plus tard l’entreprise a fermé ses portes…mais sans avoir réhabilité pour autant le savoir-faire ouvrier. Là encore, focalisé sur le local, le sociologue n’avait pas vu la dimension globale de l’informatisation, ni envisagé que le « formatage généralisé » et la « gestionnarisation » étaient en train de considérablement transformer les procès de travail d’autres entreprises, souvent dans une logique systémique qui les lient entre elles. Autrement dit, le milieu, l’éco-système a changé. L’ouvrier, pris dans le maëlstrom de la logistique technico-économique de la mondialisation, est toujours au chômage…son geste est pourtant loin d’être informatisé. Un de ses camarades, magasinier, a peut-être pu goûter aux joies de la réappropriation que lui promettaient les essais critiques de sociologie…mais il est bien seul dans la grande usine robotisée !
4. Pour une « nouvelle posture critique », entre critique et
modélisation
Il est temps de reprendre de manière synthétique les différentes notions présentées ci-dessus comme susceptibles de constituer l’armature de ce que j’ai appelé une « nouvelle posture critique » avant d’en introduire une dernière dans laquelle elle culmine, à savoir le « glissement de la prérogative politique » (GPP)[13].
4.1. A la base il y a donc la notion d’«impensé informatique». Elle signifie qu’il existe un cadre global d’appréhension de l’informatique dans notre société qui vise moins à la comprendre qu’à la protéger d’éventuelles épreuves de justification. Une analyse serrée de quelques corpus de presse[14] montre ainsi que le discours porté sur l’informatique relève dans ses différentes thématiques (l’informatique et la police, et le sport, et les handicapés etc.) d’une logique de la performance qui ne nous apprend pas grand-chose à son sujet. Ce discours est donc là pour autre chose. Il convient donc de comprendre sa fonction. Notre hypothèse est que ce discours travaille de fait à poser l’informatique dans une évidence qui lui évite d’avoir à se justifier. Il fonctionne donc comme un outil de retrait de l’informatique d’éventuelles épreuves de justification politique et éthique. Il permet de ne pas construire l’arène dans laquelle l’informatique devrait répondre au questionnement politique et éthique. Même les postures assumées par certains acteurs comme supposément critiques –et qui, à l’instar des critiques « informatique et libertés » des années 70, le sont véritablement à leur époque- restent néanmoins totalement contre-dépendantes du discours dominant et de sa fonction : d’où la nécessité de constamment se présenter comme non-technophobe, la tendance à parler de la nécessité d’ouvrir un débat à propos de l’informatique plutôt que d’en ouvrir véritablement un, de le cantonner lorsqu’il s’esquisse à l’opposition entre la « bonne » et la « mauvaise » informatique, voire de se satisfaire de la réponse juridique (Loi/CNIL) comme barrière supposée efficace contre les éventuels débordements de l’informatique. Ce discours s’offre comme un cadre global de saisie a priori de l’informatique dans notre société. Je le nomme « macro-techno-discours » pour montrer à la fois sa capacité à cadrer l’informatique au niveau de la société en son entier et à habiter le moindre et le plus marginal des articles des corpus que j’ai analysés[15].
4.2. En retirant l’informatique des épreuves de justification, cet impensé ouvre sur un certain nombre de possibles et en élève considérablement la probabilité d’occurrence (je ne dis pas qu’il en est la cause). Ainsi en va-t-il des deux processus du « formatage généralisé » et de la « gestionnarisation » de la société. Le formatage généralisé fonctionne sur le mode du syndrome de Lagardère, car à l’instar de la devise de ce dernier, « si tu ne vas pas à l’informatique, l’informatique ira à toi ! ». Elle vient à nous d’autant plus que nous ne la soumettons pas ou si peu à la question. Ce qui permet de créer un mécanisme de confiance par défaut en quelque sorte[16]. Elle vient à nous, mais indirectement, moins dans cette occurrence locale (qui peut toujours réussir ou non) qu’en terrassant le milieu global de son inscription. Un terrassement, un formatage qui repose sur l’habitude de penser toute situation en terme d’informations structurées-structurantes. Elle vient à nous d’autant plus indirectement qu’elle n’est plus seulement équipée des grosses bottes de sept lieues des grands systèmes (qui sont toutefois loin d’être abandonnées), pour se parer des atours d’une informatique conviviale, graphique et réseautique. Or, celle-ci ne signifie pas moins d’informatique, mais bien beaucoup plus d’informatique, beaucoup plus et mieux disséminée sur l’ensemble du tissu social qu’elle recouvre beaucoup plus finement et avec une puissance de traitement local incomparable de plus ne plus souvent amplifiée par la réticulation. Croire qu’il va en sortir moins de contrôle et plus de coordination, c’est oublier que les deux marchent ensemble, irrévocablement.
4.3. D’où le développement d’un processus de « gestionnarisation » de la société dont la logique s’élève sur une équivalence entre gestion et informatique qui favorise leurs échanges et leur renforcement mutuel. Car il n’est pas aberrant de penser que tout problème de gestion peut s’exprimer sous la forme d’un problème de gestion de l’information (acquisition/traitement/circulation de l’information) ; ce qui ouvre sur la possibilité de le traiter en recourrant pour tout ou partie aux machines de traitement/mémorisation/circulation automatisée de l’information, ce que l’on appelle plus communément l’informatique. Une informatique qui, donc, ouvre toujours sur la possibilité d’appréhender tout problème comme un ensemble de variables (donc d’informations) et son optimisation sous contraintes, c’est-à-dire comme un problème de gestion. Ce qui signifie qu’il est toujours possible d’utiliser l’informatique comme un outil pertinent (plus ou moins « efficace »), parmi d’autres, de résolution des problèmes étiquetés « de gestion » ; et qu’il est toujours possible de qualifier de « gestion » tout problème de société abordé à travers la logique informatique. Si je souligne que la relation est d’ouverture c’est bien pour signifier qu’il n’en va pas d’une causalité ou d’une obligation –ne pas actualiser ce potentiel reste toujours possible, mais forcément d’autant moins probable que croit la logique du « formatage généralisé » sous l’orbe de l’ « impensé ». Bref, la « gestionnarisation » correspond à cette tendance de notre société à étiqueter « de gestion » des problèmes qui lui échappaient totalement il y a peu, et à proposer comme évidente une solution technique, et singulièrement informatique.
4.4. L’impensé, le formatage généralisé et le mouvement de gestionnarisation ne sont bien évidemment pas neutres politiquement. C’est pourquoi ils ouvrent sur la possibilité du développement d’une logique singulière que je nomme « le glissement de la prérogative politique » (GPP). L’informatique, et plus généralement les TIC, favoriseraient ainsi un mouvement qu’elles n’ont pas initié, mais qu’elles participent à consolider en lui offrant une base matérielle, technique, efficace. Ce mouvement, qui trouve ses points d’appuis dans la déréglementation et le processus de mondialisation, permet à des acteurs privés de remplir des fonctions traditionnellement dévolues au politique, sans avoir à payer le prix d’acquisition d’une légitimité démocratique. Si je ne parle pas de « libéralisation » c’est bien parce que je pense qu’il faut s’affranchir d’un vocabulaire pour le moins tendancieux qui, à défaut d’être neutre, est de fait « neutralisant ». Parler de « glissement de la prérogative politique » signifie ainsi qu’il faut voir le processus de libéralisation-privatisation non comme un processus de sortie du politique, mais bien de maquillage de l’exercice de fonctions qui restent politiques en activités supposées économiques susceptibles d’être remplies par des acteurs privés. Ce « maquillage » est très largement sinon suscité, du moins favorisé par le développement des TIC. Nous en donnerons deux exemples, d’abord à propos de la guerre, puis à propos de la frontière, deux « objets » politiques s’il en est.
4.4.1. Les doctrines stratégiques américaines des années 90-2000 ont vanté certaines des propriétés fonctionnelles des TIC telles que le guidage, le ciblage, le traçage, le changement d’échelle, l’accompagnement logistique etc. Or, à bien y regarder ces propriétés sont déjà à l’œuvre au sein même de l’utilisation civile des TIC. Deux interprétations sont dès lors possibles, qui illustrent deux versants du GPP :
4.4.2. Deuxième exemple, la question de la frontière. On a pu prétendre que les TIC signaient la fin des frontières. Or, j’ai montré que c’est confondre fin des frontières politiques héritées et fin de la fonction-frontière[18]. Que les premières tombent en obsolescence sous le coup des TIC, c’est possible (quoique discutable), mais que ce soit aussi le cas pour la deuxième relève de la conclusion pour le moins hâtive. Car la fonction-frontière a toujours exigé l’exercice d’un traitement de l’information –et singulièrement d‘un jeu d’écriture qui indique sur le laisser-passer qui passe, pour aller où et quelle autorité garantit le passage, ou permet à un passant d’attester de son identité, voire sur la carte trace la ligne ou la zone de front. Il en va donc d’une véritable compatibilité réciproque entre fonction-frontière et technologies du traitement de l’information, de l’écriture à nos TIC. Aujourd’hui la pratique même du douanier mobilise un large éventail de technologies informatique et de télécommunication. On peut, là aussi, dégager deux conclusions :
Conclusion
Nous n’avons pu bien évidemment qu’esquisser les fondements théoriques et critiques du geste d’élaboration d’une « nouvelle posture critique » susceptible d’affronter les enjeux de l’informatisation. Nous avons souligné combien elle exigeait que l’on ne sépare plus la critique de la modélisation. Car nous ne pouvons plus assumer une critique qui se contente de faire face à l’informatique, c’est-à-dire d’être véritablement en face d’elle, sans jamais s’en approcher, qui l’évite même, se réduisant à la reconnaissance et à la mesure de l’écart, à moins qu’elle n’en survalorise l’option « bonne informatique », s’abandonnant ainsi comme geste critique au bénéfice d’une véritable ingénierie sociologique. Il convient d’aller plus loin et de s’interroger sur les propriétés et fonctions de l’informatique en société. Propriétés et fonctions qui ne sont pas celles qu’une informatique informaticienne peut être susceptible de dégager –ainsi des propriétés de ciblage et de traçage ou les fonctions de contrôle-coordination rapidement présentées plus haut. La « nouvelle posture critique » en faveur de laquelle nous militons construit et s’exprime au sein d’un espace de tension entre critique et modélisation. C’est, pensons-nous, l’une des conditions essentielles à l’avènement d’une indispensable « culture technique » de l’informatique, qui ne se rabatte sur aucun des deux frères ennemis de la culture technicienne de la technique et de la critique de l’écart, mais s’astreigne à une compréhension vigilante des enjeux politiques de l’informatique.
Bibliographie
ATTALI, Jacques, et de ROSNAY, Joel, 1978, « Energie et information au cœur de la crise du capitalisme », Le Monde des 17 et 18 janvier.
AURAY, Nicolas, 2000, Politique de l’informatique et de l’information, thèse, EHESS.
BOLTANSKI, Luc, et THEVENOT, Laurent, 1991, De la justification, Gallimard.
BOUCHER, Philippe, 1974, « Safari ou la chasse aux français », Le Monde du 21 mars.
LABELLE, Sarah, 2001, « La société de l’information, à décrypter », Communication & Langages, n°128.
LUSSATO, Bruno, 1974, « Plaidoyer pour les micro-ordinateurs », Le Monde du 17 septembre.
JEANNERET, Yves, 2001, « Autre chose qu’un discours, davantage qu’un accompagnement, mieux qu’une résistance », Terminal n°85.
JEANNERET, Yves et SOUCHIER Emmanuël, 2002, « La communication médiatisée est-elle un usage ? », Communication & Langages, n°132.
JOUET, Josiane, 2000, « Retour critique sur la sociologie des usages », Réseaux n°100.
ROBERT, Pascal, 1994, L’impensé informatique, au miroir du quotidien Le Monde (1972-1980), Thèse en sociologie des techniques, sous la direction de P. Breton, Université Paris-I-Panthéon-Sorbonne.
http://www.enssib.fr/bibliothèque/documents/thèses/robert.
ROBERT, Pascal, 2004, « La typologie des MST au miroir des TIC », Flux n°55.
ROBERT, Pascal, Hiver 2001-2002, « Confiance, technique et justification, le rôle du macro-techno-discours informatique dans l'établissement d'un « climat de confiance » », Quaderni, n°46.
ROBERT, Pascal, 2000, « Le bogue de l’an 2000, un antidote à l’impensé informatique ?, confiance, risque et technique », Terminal n°82.
ROBERT, Pascal, 1999, « Vers une déstabilisation des macro-systèmes-techniques ? », le travail des technologies de l’information et de la communication, Flux n°36-37.
ROBERT, Pascal, 1998a, « La logistique informationnelle, réseaux, information, valeur et pouvoir », Médiaspouvoirs, nouvelle série, n°3.
ROBERT, Pascal, 1998b, « Les technologies de l’information et de la communication au miroir de la stratégie, les fonctions sociétales des TIC révélées par les doctrines stratégiques américaines des années 1980-1990 ? », Médiaspouvoirs, nouvelle série, n°2.
ROBERT, Pascal, 1998c, « L’impensé informatique, au miroir de la presse quotidienne nationale (1972-1994), Colloque du CREIS, Strasbourg.
ROBERT, Pascal, 1996a, « Technologies de l’information sans frontières ?, la fonction-frontière à l’épreuve des technologies de l’information et de la communication », TIS, Vol.8, n°3.
ROBERT, Pascal, 1996b, « Les autoroutes de l’information au miroir de la problématique des macro-systèmes-techniques », Terminal, n°71-72.
ROBERT, Pascal, 1995, « La carte d’identité informatisée au miroir de la presse quotidienne nationale -1980-1994 », Communication et Langages, n°106.
SIMONDON, Gilbert, 1958, Du mode d’existence des objets techniques, Aubier.
[1] Remarquons ici le rôle des « étiquettes » dans le processus global du formatage généralisé. Car nommer, par exemple, la société dans laquelle nous vivons « société de l’information », c’est déjà nous habituer à la penser à travers cette notion d’information de manière privilégiée et c’est aussi nous habituer à penser les problèmes qu’elle rencontre en terme d’information, et les réponses potentiellement pertinentes en terme de technologies de l’information. Sur la notion de « société de l’information », Cf. Labelle (2001).
[2] Cf. Boltanski et Thévenot (1991).
[3] Cf. Robert (1994), Robert (1998c) et Robert (Hiver 2001-2002).
[4] Cette idée d’un « discours d’accompagnement » a d’ailleurs été justement critiquée par Y. Jeanneret, Cf. Jeanneret (2001).
[5] Cf. Lussato (1974). Soulignons que si Lussato valorisait la micro, il se défiait des réseaux car, disait-il, « il suffit d’une panne volontaire ou non à l’endroit vital d’un réseau pour paralyser l’organisation toute entière ».
[6] Cf. Attali (1978). Face à un « capitalisme d’auto-surveillance », J. Attali aspire à « penser la technologie autrement pour l’inscrire dans un projet de société productrice de liberté, de décentralisation et d’autonomie », c’est pourquoi il milite en faveur d’une « informatisation légère », susceptible de « désinformatiser l’informatique, [de] la rendre non agressante, c’est-à-dire familière (…) ». Ma thèse offre une mise en perspective critique des positions adoptées lors des années 70 par B. Lussato, J. Attali et beaucoup d’autres malheureusement oubliés depuis ; Cf. Robert (1994).
[7] Grâce à un article de P. Boucher au titre provocateur : « Safari, ou la chasse aux français », Cf. Boucher (1974).
[8] Sur ces questions, mais dans une approche non critique, on consultera Auray (2000).
[9] C’est bien parce que la
technique repose sur un détachement par rapport à la situation qu’elle soutient
également un mouvement de décontextualisation. Ce détachement ne constitue pas
qu’une aberration à dénoncer, mais fonde une des propriétés clés de la
technique : sa décontextualisation systémique partielle. Systémique parce
que l’on sait qu’on ne peut décontextualiser un seul élément, une machine, sans
emporter une large portion de ses conditions techno-sociales de
fonctionnement ; mais partielle parce que l’on peut plus facilement
découper aujourd’hui au sein d’une technique beaucoup plus
« concrète » au sens de Simondon (1958), un sous-système autonome,
une usine par exemple, qui reliée à la logistique mondiale peut fonctionner,
approvisionnée de l’extérieur en machines, pièces détachées, encadrement etc.
Dès lors à l’ouvrier occidental peu qualifié mais bien adapté à la technique,
peut se substituer un ouvrier d’un pays tiers, à peine moins qualifié et tout
aussi adaptable à la technique. C’est parce que la technique reste relativement
stable que le différentiel repose quasiment sur le seul coût salarial.
[10] Pour une première approche critique de la notion d’usage, Cf. Jouet (2000) et Jeanneret et Souchier (2002). Par « sociétale » j’entends rendre compte d’un phénomène qui renvoie à la société en son entier et pas seulement au « social » comme catégorie du traditionnel triptyque « politique, économique et social ».
[11] Cf. Robert (1998a).
[12] Cf. Robert (1996b), Robert (1999) et Robert (2004).
[13] Avant d’entrer quelque peu
dans les détails, je voudrais souligner que je n’expose ici qu’une partie d’un
travail de conceptualisation qui prend la forme, d’une part d’un ouvrage (à
paraître, aux Presses Universitaires de Bordeaux en 2005) qui porte
spécifiquement sur cette notion de GPP et d’autre part d’une HDR, qui
réarticule plus complètement ces différentes notions à un processus de
modélisation que j’appelle le « modèle CRITIC », soutenue à l’été
2004 à Paris IV sous la direction d’Y. Jeanneret.
[14] Cf. Robert (1994), Robert (1995), Robert (2000), Robert (Hiver 2001-2002).
[15] Un tel cadre ne peut pas, par définition, être mis en évidence par une sociologie de l’usage, qui non seulement n‘est pas équipée pour cela, mais se fonde sur le postulat de son impossibilité d’existence.
[16] Cf. Robert (Hiver 2001-2002).
[17] Cf. Robert (1998b).
[18] Cf. Robert (1996a).