Inscription à la newsletter

    La confusion des sens

    télescopages numériques

    Dans les années 90, les recherches menées par l’équipe du Cetcopra au moment de l’introduction des technologies numériques dans les avions de nouvelle génération (en particulier l’A.320), mais également dans les centres de contrôle aérien ou la maintenance des systèmes de sécurité aérienne, mettaient en évidence un certain nombre de phénomènes nouveaux (Gras & al. 1995). Nous avions notamment observé que l’informatisation des cockpits modifiait le mode de présence des pilotes à bord, leur représentation du vol, la définition même de leur métier et, de façon plus générale, les rapports au corps et aux sens. Je voudrais, à l’aune des développements les plus récents de ces technologies, revenir sur certains de ces questionnements. D’une part pour en montrer l’actualité, et ce malgré la banalisation du numérique et son extension à toutes les sphères de la société, d’autre part pour interroger cette persistance et tenter de lui donner un sens.

    Numérique : retour sur image
    Au sens littéral, le passage de l’analogique (mécanique) au numérique (et de l’échelle décimale à l’échelle binaire) se caractérise par la transformation d’un message en un code préétabli qui ne lui ressemble en rien et que seuls sont capables de déchiffrer les machines et ceux qui les programment (Triclot 2008, Mercier & al.1984). Ce seul fait représente une discontinuité majeure avec la phase analogique antérieure dans laquelle, par le biais des sensations et des retours d’effort, l’opérateur se trouvait de plain-pied par son corps dans la réalité qu’il avait à interpréter (Gras & Poirot-Delpech 1989).

    À la fin des années soixante, Jean Baudrillard fut peut-être l’un des premiers à avoir anticipé le bouleversement introduit par ce nouveau rapport aux objets et au monde. En remplaçant l’adresse par l’action à distance (la télécommande) — que Baudrillard désignait après Pierre Naville (Naville 1963) par “gestuel de contrôle” — les nouveaux objets tendraient selon lui à instituer un type de naturalité inédit, à la fois englobant et abstrait. À la préhension des objets qui intéressait tout le corps — écrivait-il alors — se sont substitués le contact (main ou pied) et le contrôle (regard, parfois ouïe) (…) Tous les objets modernes se veulent d’abord maniables. Mais quelle est cette main en fonction de laquelle leurs formes se profilent ? Ce n’est plus du tout l’organe de préhension où aboutit l’effort, ce n’est plus que le signe abstrait de leur maniabilité (…) Le corps humain ne délègue plus que les signes de sa présence aux objets dont le fonctionnement est par ailleurs autonome. Il délègue ses extrémités. (…) L’outil, l’objet traditionnel n’épousait pas du tout les formes de l’homme : il en épousait l’effort et le geste. ( …) Aujourd’hui le corps de l’homme ne semble plus être là que comme raison abstraite de la forme accomplie de l’objet fonctionnel (1).

    Ce découplage entre sens et connaissance, sens et signification est justement ce qui est apparu comme une difficulté majeure aux premiers usagers de ces technologies. Revenir aux questionnements de cette époque, ce n’est pas porter un regard nostalgique sur le passé, mais trouver dans ce passé des réponses aux difficultés présentes. Car même métabolisés, ou non verbalisés à l’intérieur d’un discours cohérent, les problèmes demeurent. L’attitude qui consiste, face à ces problèmes, à dénoncer la force de l’habitude, la résistance au changement, ou à invoquer l’argument de l’inévitable transition générationnelle (théorie des “Digital Natives” prétendument adaptés aux nouveaux environnements numériques) ressemble à un déni au service d’une fuite en avant technologique. Elle repose surtout sur une curieuse croyance; celle qui consiste à considérer que les êtres humains sont toujours en retard sur les progrès de la technologie, donc à accorder une forme d’extra-territorialité ou de transcendance à la technique.

    Interprète ou surveillant ? Le cas de l’informatisation des cockpits
    Pour illustrer le trouble occasionné par la rupture numérique, le terrain aéronautique, fer de lance et laboratoire vivant des technologies avancées, se présente ainsi comme un témoin privilégié. Tout l’intérêt des phases de transition — telle que celle qu’il nous a été donné d’observer — est de laisser apparaître, pendant un temps très court, les lignes de faille de mondes encore en gestation. Le cas de l’Airbus 320 mis en service à la fin des années 80 nous servira ici d’entrée. Parmi les innovations les plus marquantes de ces avions figurait le FMS (Flight Management System). Le FMS gère un grand nombre de paramètres à partir d’informations qu’il reçoit du sol (les contrôleurs, les balises électromagnétiques) ou de l’espace (données satellites). Il améliore la gestion de la trajectoire par un pointage permanent, est capable de corriger les dérives ainsi que les configurations de l’avion (pour avoir le moins de résistance au vent par exemple ou la meilleure assiette), gère la consommation de carburant de façon optimale…

    Celui-ci fut d’abord présenté comme le prolongement du Pilote Automatique (PA), qui existait depuis l’entre-deux-guerres. Mais à la différence de l’automate classique, qui fonctionnait suivant une boucle de rétroaction simple, le nouvel automate n’exécutait pas seulement les directives du pilote (les données entrées par celui-ci avant chaque vol), il les interprétait sur la base d’algorithmes conçus par d’autres (Scardigli 2001). Au moment de son introduction, les pilotes en parlèrent ainsi comme du “troisième homme à bord” (désignant par là le groupe des ingénieurs). Mais un homme qui avançait pour ainsi dire masqué, les écrans n’affichant que les informations que la communauté des ingénieurs, selon des critères propres à leur culture de métier et aux paramétrages des vols d’essai, avait jugé utile de montrer aux opérateurs de première ligne. L’opacité des ordinateurs et des algorithmes, requalifiés à cette occasion de “boîtes noires”, ne résistait pas seulement à l’usage (Akrich 1990), elle redéfinissait subrepticement celui-ci selon des modalités qui échappaient aux usagers eux-mêmes et allaient peu à peu devenir la norme.

    La difficulté des opérateurs de première ligne à coopérer avec de telles machines se manifesta d’abord par un nombre significatif de situations de communication conflictuelles et d’incompréhension. Dès la fin des années 80, et dans les années 90, les experts en sciences humaines furent ainsi invités à se pencher sur des phénomènes récurrents de baisse de vigilance, de perte ou de dispersion de l’attention, de fatigue (dans l’aéronautique, on évoqua le phénomène de perte de conscience de la situation avant de lancer plusieurs campagnes de sensibilisation sur ce thème). Travaillant à la même époque sur les nouveaux outils de supervision des centrales nucléaires, le sociologue Francis Chateauraynaud eut recours à la notion de “déprise” pour qualifier le sentiment exprimé par les opérateurs d’avoir perdu prise sur leur environnement (Chateauraynaud 1997, 2006).

    Michel Freyssenet mettait de son côté l’accent sur la nouvelle division du travail en train de se mettre en place dans le cadre des nouveaux processus d’automatisation aboutissant, selon lui, à l’érosion de l’intelligence pratique. La juxtaposition de connaissances partielles, si elle pouvait superficiellement être assimilée à un processus de requalification, préfigurait en réalité l’impossibilité d’acquérir une vision et une connaissance globales des systèmes et des installations (Freyssenet 1992). On pourrait résumer cette situation par la remarque pleine d’ironie adressée par le physicien Victor Weisskopf à ses étudiants du MIT devant leur goût prononcé pour les expérimentations informatisées : Quand vous me soumettez le résultat, l’ordinateur comprend la réponse, mais vous, je ne crois pas que vous la compreniez (Sennett 2010, 60) (2).

    Dans ces avions, l’engagement du corps continue, certes, d’être nécessaire à la conduite du vol. Mais cette forme d’engagement se trouve pour ainsi dire reléguée par des innovations qui rendent l’avion à la fois plus autonome, plus confortable et plus sûr. Il n’y a, à proprement parler, plus de bons ou de mauvais pilotes, mais des “gestionnaires de systèmes”, comme les pilotes se désignent eux-mêmes, qui veillent au bon déroulement des process, dialoguent avec les ordinateurs, entrent des données et sélectionnent des modes. Ce qui veut dire que l’environnement immédiat du cockpit, avec ses écrans, ses modalités d’affichage de l’information, concentre désormais l’essentiel de l’attention des pilotes. L’espace perceptif s’est réduit d’autant. C’est sur ce “rétrécissement” de l’expérience corporelle qu’il convient ici d’insister comme cadre d’une refonte du rapport aux autres et au monde qui ne cesse pas d’être problématique.

    Ambiguïtés des environnements numériques : persistances et métamorphoses. Le cas du Rafale
    L’une des particularités des technologies numériques tient peut-être au fait qu’elles ne se stabilisent jamais complètement, et par conséquent, que les problématiques qui les concernent ne vieillissent pas non plus. Tout processus d’innovation entraîne des reconfigurations multiples, qui cessent une fois l’objet stabilisé. Mais dans le cas des technologies numériques, il semble que le stade de l’innovation, avec ses caractéristiques propres, ne doive jamais cesser. Les questions posées par les premiers usagers du Rafale (lorsque nous nous sommes entretenus avec eux au moment de la prise en main de l’avion) sont par exemple analogues à celles que soulevaient les pilotes de ligne lors de l’entrée en service des glass cockpits (Dubey & Moricot, 2003).

    C’est ce qu’illustre le cas de la liaison automatique de données du Rafale (dite liaison 16). Pour certains pilotes, l’intégration systémique — matérialisée dans le cockpit par la possibilité de voir dans un rayon de 360° autour de l’avion — représente l’occasion de placer le pilote au centre du théâtre d’opérations, en situation de tout voir (les pilotes désignent cette situation par l’expression “God’s eyes view”). Elle réaliserait ainsi un vieux rêve du pilote. Mais à tout voir, ne risque-t-on pas de ne plus rien voir de particulier ? L’information qui circule dans les “tuyaux”, et s’affiche sur les écrans, est en effet une information filtrée qui correspond à des choix effectués en amont. Elle est donc déjà chargée de sens, mais d’un sens construit dans une autre temporalité (et dans une autre représentation de l’espace) que celle dans laquelle se trouvent les pilotes lors de la mission. C’est ce que pointent les pilotes les plus expérimentés. Un Awacs émet ses détections et centralise celles des avions sous son contrôle. Il les redistribue à tout le monde. Il y a un canal où il diffuse tout (piste de surveillance) et un autre où ne figurent que les pistes que le contrôleur de l’Awacs a sélectionnées (piste de contrôle). Dans l’avion, on peut donc tout voir, ou seulement l’info filtrée. On a le choix. Cependant l’avion filtre quand même lui aussi techniquement une certaine partie. Il applique une liste de priorités et on n’a pas la main sur cette liste de priorités figées au développement (pilote de Rafale) (3).

    Cette construction a beau faire intervenir de nombreux acteurs (dont l’ingénieur concepteur de logiciel dans son bureau d’étude), donc être sociale, elle n’est pas partagée ou commune pour autant. C’est ce que traduit très clairement la référence à “la main”, dans “on n’a pas la main”. Certaines priorités (qui sont toujours fondées à terme sur une hiérarchie de sens) ont été figées en amont, et échappent ainsi à un contrôle direct, au lien que le corps (la main) maintient avec le monde extérieur, et qui reste le garant d’un engagement. Délocalisée et disjointe de la situation, la production de l’information est chargée d’ambiguïtés qui ne font que refléter la difficile coexistence d’espace-temps hétérogène. Tout le problème devient, dès lors, celui de la construction d’une information qui ait le même sens, au même instant, pour tous les acteurs du système, c’est-à-dire d’une réalité commune.

    Capture du corps et perte de distance
    Cela m’amène au dernier point que je voudrais aborder, celui vis-à-vis duquel nous avons le moins de recul. Je veux parler des effets de l’intégration de plus en plus poussée du corps et des sens au dispositif technique. D’une certaine façon, les nouvelles interfaces ont pris acte des limites du paradigme informationnel ou computationnel (modèle qui dominait encore la première phase d’informatisation) en prenant davantage en compte certaines caractéristiques du mode d’être incarné des êtres humains. C’est l’une des raisons pour lesquelles l’on insiste beaucoup aujourd’hui sur l’importance du design en conception, ou sur l’écologie des systèmes, c’est-à-dire sur la manière dont la réalité produite par les ordinateurs peut nous toucher directement par les sens. Je n’ai pas la place d’exposer ici les théories de l’action située, ou de l’écologie perceptive de Gibson, au fondement de cette nouvelle approche. Mais c’est ce qu’illustrent de façon concrète les interfaces de l’avion de chasse Rafale qui prennent acte de l’économie que représente pour l’opérateur humain les actions non réfléchies, directement guidées et informées par l’environnement physique de travail. Ce changement de paradigme se manifeste par la façon dont les pilotes désignent cet avion en le qualifiant de “naturel” : Il y a beaucoup d’informations sur cet avion, mais c’est un avion relativement naturel, tu comprends vite où tout se trouve. Tout tombe sous la main (pilote de Rafale).

    Mais cette “reconnaissance” du rôle joué par le corps constitue-t-elle une réelle rupture par rapport aux phases de développement antérieures ? Rien n’est moins sûr. Il faut ici distinguer le confort d’usage de ces nouveaux environnements, dans lesquels, comme on vient de le voir, le corps se sent immédiatement à l’aise, de l’apprentissage des sens tel qu’il se pratiquait jusqu’à présent. Traditionnellement, les pilotes apprennent très tôt à se défier de leurs sensations, et dans une certaine mesure, à ne se fier qu’à la lecture de leurs instruments. Mais cette manière de se protéger des illusions sensorielles, inhérentes au mouvement dans un espace sans repères (la troisième dimension), en apprenant à les reconnaître, est encore un savoir corporel acquis pas à pas tout au long de la formation. Le risque est désormais tout autre. C’est celui d’une fausse présence, ou d’une présence pour ainsi dire sans distance ou sans conscience.

    C’est le scénario que j’appellerai “Matrix” dans la mesure où il suppose une forme d’adhérence à la réalité produite par les ordinateurs et les systèmes. Devant ce type de reconfiguration, on insiste généralement sur les phénomènes de sur-confiance (délégation aux automatismes) qui peuvent en découler, ou encore sur la difficulté pour les opérateurs humains de revenir dans la boucle en cas de défaillance du système. Mais le principal danger que j’aperçois réside plutôt, me semble-t-il, dans le développement de phénomènes que je qualifierai d’anomiques au sens où l’engagement (y compris corporel et sensoriel) dans une situation n’offre plus de garantie quant à sa signification réelle, mais aussi morale. En l’absence d’extériorité, d’un point d’où il serait permis de prendre des distances, la situation comme le réel lui-même, deviennent d’une certaine manière des “choses” auxquelles il est demandé de croire sans paroles. S’ensuivent des situations marquées, comme je l’ai dit, par l’ambiguïté, mais surtout par un retard de plus en plus important de la conscience sur les décisions qui sont prises. La réalité produite par le système technique ne fait pas qu’introduire un niveau de réalité supplémentaire qui viendrait s’ajouter, s’additionner aux réalités précédentes et plus coutumières (comme dans le discours sur la réalité augmentée), elle modifie les cadres de l’expérience, c’est-à-dire les modalités au travers desquelles nous nous rapportons au monde et aux autres.

    Y être sans y être vraiment : l’expérience morcelée
    L’avertissement d’un risque de “désensibilisation”, ou de “déshumanisation” est ainsi signalé par un glissement sémantique. La Liaison 16 — dit ce jeune pilote — ça restait de la science-fiction. Maintenant, je sais ce que ça veut dire et c’est phénoménal. Pouvoir tirer sur un mec sans contact. Son info à lui va être suffisante pour lui tirer dessus. Votre équipier vous lance une info et vous tirez sur cette info. C’est ça la Liaison 16 (pilote de Rafale). “Tirer sur une info”, n’a évidemment pas la même signification que “tirer sur quelqu’un”, un autre soi-même, fut-il un combattant ennemi. La figure de l’ennemi finit d’ailleurs elle-même par devenir floue, presque irréelle, jusqu’à se transformer en avatar. Bien entendu, “tirer sur l’info” peut être interprété comme la forme actualisée d’une représentation du réel commune aux pilotes d’hier et d’aujourd’hui, un pilote de chasse ne faisant jamais que viser un point, une coordonnée, une cible à travers un collimateur.

    Mais, outre le mode d’affichage de la cible, le changement ici repose sur la possibilité de tirer depuis la vision d’un “autre”, ou pour être précis, sur l’information transmise par des capteurs déportés (radar des autres avions, Awacs, satellite, système optique d’un drone), c’est-à-dire depuis une réalité presque entièrement automatisée (où les décisions humaines apparaissent de moins en moins). Ce qui se dévoile ici en filigrane, c’est aussi un tout autre rapport d’exposition à la mort. Le point capital n’est pas que les gestionnaires de systèmes, rivés à leurs écrans de contrôle, aient perdu les valeurs de courage et de sacrifice (par la mise en danger de sa propre vie et le principe de réciprocité dans la mort) chères à l’éthique militaire. Il serait aisé de montrer que ces valeurs continuent de susciter l’adhésion, et dans une large mesure, de structurer encore l’identité du combattant. Le point important est qu’un type d’expérience du réel se met en place qui altère non seulement l’idée de communauté de destin, mais peut-être, de manière plus essentielle, l’idée de commune humanité, y compris sous la figure de l’ennemi. Ce ne sont donc plus seulement les “autres” qui meurent, c’est la notion même d’altérité. L’information n’est pas un autre soi-même, ni même un ennemi.

    Nous revenons à notre point de départ, le principe à la base des technologies numériques d’une dissociation entre l’expérience sensible et les supports de la connaissance, c’est-à-dire les modalités à partir desquelles nous entrons en relation avec le monde, sommes présents à lui. Dans l’expérience qui vient d’être évoquée (celle de la Liaison 16) ce n’est pas seulement la communication ou l’action à distance, qui bouleverse les cadres de l’expérience, c’est le fait nouveau que les technologies immersives parviennent à simuler la coprésence en annulant la distance. Le pilote éprouve le sentiment d’être au centre du monde, du théâtre d’opérations, alors qu’il en est plus radicalement coupé qu’auparavant. C’est donc moins la distance physique, la mise à distance d’autrui, qui caractériserait l’époque actuelle, que l’absence de distance, de formes et de médiations symboliques capables d’aménager un terrain favorable aux relations. Le changement de nature de l’expérience sensible dans les environnements numériques nous avertit alors du risque d’un rétrécissement de la capacité à imaginer, au-delà de l’image, un autre soi-même, une extériorité et plus simplement une autre situation que celle qui est donnée à voir sur les écrans. Et c’est à la disjonction aussi bien qu’au télescopage des niveaux d’expériences, des espaces et des temps, comme des êtres entre eux, que nous enjoignent de réfléchir l’unité et l’immédiation factices des univers numériques (Dubey & Moricot, 2008).

    Ce phénomène est encore amplifié dans le cas des opérateurs de drones qui exécutent des actions de guerre depuis un monde en paix, déposent leurs enfants à l’école le matin et viennent les rechercher le soir en ayant entre-temps commis des actes de guerre. La relation entre l’expérience de la présence et le lieu de l’action est ici complètement abolie. L’expérience que les opérateurs ont de la situation est à la fois augmentée (par les capteurs infra-rouge par exemple) et diminuée au sens où elle est réduite à quelques canaux d’informations filtrées. De nouveaux problèmes émergent, exacerbés par la nature même de l’activité, et sans doute spécifiques aux situations de guerre. Ainsi, un opérateur de drone n’est plus, à proprement parler, un combattant puisqu’il ne met en jeu que la vie des autres. La valeur associée au courage est congédiée, le fait de tuer devient moralement et socialement injustifiable et s’apparente de plus en plus à un meurtre (Gros 2006, Chamayou 2003).

    Mais ces phénomènes nous informent aussi sur ce qui est implicitement en train de se jouer derrière les environnements numériques, sur la manière dont ils affectent nos modes de présence au monde. Le malaise suscité par la situation des opérateurs de drones ne fait pas que révéler les limites de cette manière de faire la guerre (sans la faire, avec la mauvaise conscience qui va avec), mais d’une attitude plus générale face à la vie. Il y a un impensé des technologies numériques, qui constitue un de leurs soubassements idéels, et que la pratique vient mettre à l’épreuve : à savoir qu’une vie qui aurait ni à s’exposer, ni à échanger, ni à s’altérer (au sens propre, d’être en relation avec ce qui est autre) pourrait, sur la base de ce refus, indéfiniment se conserver. Bien entendu, l’inconfort éprouvé par les opérateurs de drones (qui n’a rien à voir avec le syndrome post-traumatique des combattants auquel on l’a parfois comparé) témoigne du contraire et, au moins par défaut, du fait que la vie n’a de sens que transportée hors d’elle-même, comme relation, confiance et pari sur autrui.

    Gérard Dubey
    publié dans MCD #73, “La numérisation du monde”, janv.-avril 2014

     

    Gérard Dubey est professeur à Télécom École de Management et chercheur au Cetcopra (Centre d’Études des Techniques, des Connaissances et des Pratiques), Université Paris 1 / Panthéon-Sorbonne.

    (1) Baudrillard, J. 1968. Le système des objets. p. 74-75.

    (2) Reprenant l’exemple des usages de la CAO (Conception Assistée par Ordinateur) en architecture, Richard Sennet précise, dans un ouvrage récent consacré aux savoirs de la main : Des applications sophistiquées de la CAO modélisent les effets sur la construction du jeu changeant de la lumière, du vent ou des variations de températures saisonnières. (Mais) si fastidieux que ce soit, dessiner des briques à la main oblige le dessinateur à réfléchir à leur matérialité, à s’interroger sur leur solidité (…) Ce qu’on voit à l’écran est d’une cohérence impossible, l’image est structurée et unifiée comme on ne le verra jamais dans la réalité. (…) La simulation est (…) un piètre substitut de l’expérience tactile. (…)Le difficile et l’incomplet devraient être des évènements positifs de notre intelligence ; ils devraient nous stimuler comme ne sauraient le faire la simulation et la manipulation d’objets complets. Le problème (de l’informatisation) ne se réduit pas à l’opposition main/machine (…) le problème (…) est que les gens peuvent laisser faire cet apprentissage, la personne n’étant plus qu’un témoin passif doublé d’un consommateur de cette compétence croissante au lieu d’y participer. » (Sennett, R. Ce que sait la main, Paris, Albin Michel, 2010, pp.58-59-61-62-63)

    (3) Il y a des choses représentées qui sont fausses. Tout cela a été filtré. D’autres infos manquent. En fait, il y a des domaines où l’information présenté est partiellement fausse ou totalement. Le système présente par exemple toutes les pannes. Il interprète une fausse alarme pour une vraie. Nous on parvient à dire que ce n’est pas cohérent alors que la machine n’en est pas capable… (Pilote de Rafale).

    Articles similaires