Digital, multinationales, climat… quand avons-nous commencé à perdre le contrôle ?

Par Stéphane Audrand, consultant, historien de formation, paysan à temps partiel et citoyen qui s’interroge

Sur Plan(s) B, Stéphane fut auteur d’articles sur l’histoire de l’élevagel’histoire de la violence, et son cheminement vers l’autonomie alimentaire. Il est intervenu en interview pour faire des propositions sur la préservation de la biodiversité, le changement climatique, et l’histoire de la violence.

Quand avons-nous commencé à perdre le contrôle ? Il s’agit là d’une question à laquelle il n’est pas aisé de répondre ; surtout avec une intelligence humaine, sans assistance technologique. Mérite-elle seulement d’être posée en ces termes, au XXIIIe siècle ?

Je crois que si cette question est si incongrue, c’est qu’il n’y a pas un seul et unique évènement qui a constitué le départ d’une pente inexorable et linéaire vers la transformation du monde par l’Intelligence artificielle ou plutôt, l’Intelligence Non Humaine (ci-après « INH »).

Je suis George Herbert Wells. J’ai décidé d’écrire sur ce que je considère comme ayant été la chute de l’Humanité telle que vous la connaissez au XXIe siècle. Mais ma personnalité importe peu pour le moment.

Ma thèse quant au début de ce que vous nommeriez spontanément la « chute » est la suivante : c’est la rencontre de deux réalités de long terme qui, dans un contexte de changement climatique et de crise de l’énergie, a abouti à la perte de contrôle de l’humanité en tant qu’espèce biologique. La première réalité fut la mise en données numériques du monde et son corolaire, l’informatique prédictive. L’autre réalité fut l’immense liberté d’action que prirent, lentement et inexorablement, les entreprises multinationales au cours du XXIe siècle.

Les visions apocalyptiques de la domination du monde par des « machines » telles qu’elles avaient été prophétisées depuis le XXe siècle prenaient souvent la forme de conflits violents et destructeurs, par lesquels les « robots » auraient confisqué le pouvoir à l’humanité par la force, dans un bain de sang. De même, on représentait souvent un futur hypothétique de domination mondiale des multinationales comme l’aboutissement d’épisodes violents – pandémies et massacres par des armées privées – qui déposséderaient les Etats et les peuples de leur souveraineté tout en entrainant des sursauts violents de résistance. Rien de tout cela n’est arrivé. Les multinationales ont lentement confisqué le pouvoir par les contrats, les assurances et les instruments de marché, par leur concentration de capital et par des régimes dérogatoires au droit commun. Elles ont miné les Etats en les mettant en concurrence fiscale, en orientant leurs politiques vers la privatisation des communs et l’autodestruction des appareils administratifs et en accaparant par le lobbying le contrôle législatif. Au final, les Etats sont restés, organisations entièrement au service des multinationales, des paravents, des décors de cinéma.

Et si, pour finir, la direction des multinationales a été remplacée par des programmes algorithmiques, par de l’INH, cela s’est fait sans violence ni « soulèvement » des machines. La fin du monde (ou au moins de votre civilisation) fut longue et ennuyeuse comme une présentation Power Point, pour reprendre une métaphore du XXIe siècle ou « comme un épisode de Derrick », bien que l’origine de cette expression du XXe siècle nous soit devenue obscure.

De fait, l’Humanité ne craignait pas ce qui pourrait arriver, mais le retour de ce qui s’était déjà passé, sous d’autres formes. Même si des voix s’élevèrent pour prévenir ce phénomène, elles ne furent pas plus écoutées que celles qui prophétisaient les désastres liés au changement climatique ou aux limites de la croissance matérielle dans un monde fini. Dans un certain sens, c’est même en croyant fuir les menaces du passé que l’Humanité prit le chemin de sa chute. Et, le plus souvent, en pavant son enfer de bonnes intentions (affichées).

A la fin du XXe et au début du XXIsiècle le monde connut un grand mouvement de recul des Etats nations, dont la racine principale se situait sans doute dans une peur presque panique du totalitarisme d’Etat. Le nazisme, le communisme et plus globalement toute forme de gouvernement autoritaire, violent, planificateur et peu respectueux des libertés individuelles était devenu le repoussoir politique absolu. L’émancipation des « peuples » semblait un horizon souhaitable et moral, et toute idée de « nation » était devenue suspecte par principe de nationalisme et donc d’iniquité. Ce fut une ère de morcellement des relations internationales, qui des Empires fit des Etats nations, puis des Etats régions, puis des Etats communes… L’atomisation des formes de l’Etat affaiblissait inexorablement son poids face aux entreprises transnationales qui, elles, croissaient sans limite.

Le libéralisme, sous toutes ses formes, avait gagné la « bataille des idées » de manière durable à la fin des années 1980. Il était perçu par la majorité des élites politiques du bloc occidental dominant sur le plan économique comme le sceau de l’histoire politique, l’unique voie possible pour les peuples vers le progrès. Le libéralisme ou plutôt une branche de l’arbre libéral, un drageon vigoureux avait été transplanté par les Chicago Boys du Chili jusqu’au Royaume Uni avant que, de pépinière en pépinière, il finisse par se répandre partout, dans les institutions internationales qui avaient pourtant été fondées après 1945 pour équilibrer ouverture des marchés et justice sociale. Mais ce libéralisme économique fit la démonstration, du Chili à la Chine, qu’il n’avait, en fait, nullement besoin de la démocratie pour prospérer. Ou plutôt pour assurer la prospérité des intérêts économiques dominants.

L’alliance, baroque, des anarchistes libertaires technophiles et des détenteurs de capitaux mondialisés fit le reste, avec l’appui au début du XXIe siècle des cryptomonnaies, qui s’avérèrent être, aux mains des multinationales, les rejetons improbables de Louise Michel et de Friedrich Hayek.

La technocratie rampante, aidée par l’informatique décisionnelle, confisqua définitivement la réalité effective du pouvoir. Qu’elle fut privée ou publique ne changeait rien : les relations incestueuses des technocrates privés et publics accouchèrent d’un état du pouvoir hybride et inconnu jusqu’alors, fruit du lobbying et des conflits d’intérêt, mais drapé dans la vertu communicatrice d’une éthique responsable proclamée comme un mantra. Et ce, dans l’indifférence générale, voire dans l’enthousiasme. Des différences rhétoriques subsistèrent longtemps, entre la « post démocratie » occidentale ou la « vraie démocratie » asiatique, mais, au final, ce fut la même dérive qui vida de leurs substances à la fois l’idée universaliste des droits fondamentaux civiques et sociaux, et le concept d’Etat nation censé protéger l’individu de l’anarchie que constitue la concurrence de chacun contre tous.

Conséquence logique de ces évolutions sociologiques, le « gouvernement par les lois » s’inclina peu à peu devant la « gouvernance par les nombres » et la volonté de confisquer au champ de la politique toute question réputée trop « technique » accompagna la complexification du monde. Alors que plus personne, quel que fut son niveau d’étude,  ne devenait capable de comprendre les rétroactions et les interactions du « système monde », alors que la moindre métropole était devenue un inextricable enchevêtrement de réseaux divers, il était tout simplement « logique » et « rationnel » de gouverner par des indicateurs, des chiffres, par un imaginaire cybernétique qui non seulement pouvait prétendre se passer du consentement démocratique, mais entendait en outre démontrer son inefficacité, voire sa dangerosité.

La démocratie en vint donc à être perçue comme étant mère de tous les vices, minée par le populisme et par l’incapacité supposée des peuples à comprendre la complexité d’un monde moderne qu’il valait mieux laisser à des « experts». Bien entendu, le vocable de « démocratie » était sacré et intouchable, mais fut vidé peu à peu de toute substance, comme dans les démocraties « populaires » du XXe siècle. Toute vraie démarche démocratique devait, au XXIe siècle, s’incliner devant les lobbies privés et la technostructure. La loi, qui devait protéger le faible du fort, le monde de l’hubris, l’individu de la société et la société de l’individu ; la loi, qui devait organiser un gouvernement qui ne soit pas qu’une pyramide de féodalités, devint un instrument du pouvoir, jetable, révisable, équivoque, secret car trop complexe.

Les notions d’idéologie et de politique au sens clivant du terme furent discréditées et progressivement cantonnées à des représentations caricaturales négatives dans des œuvres de fiction. Tout recours au référendum par exemple fut de manière croissante associé à des sentences de discrédit telle que « Hitler a été élu démocratiquement ». Le caractère pernicieux de ce syllogisme n’était pas perçu par les foules, pas plus que son corollaire : pour avoir un dirigeant responsable, passons-nous d’élections.

Le fichage des individus est un bon exemple de la façon dont, en « fuyant le totalitarisme d’Etat », l’Humanité s’est précipitée dans celui des multinationales : au début du XXIe siècle, avec l’aube de la révolution numérique, commença un mouvement généralisé de constitution d’énormes bases de données qui permirent aux multinationales de tout savoir sur l’individu. Ces données, collectées dans l’opacité la plus absolue en quelques clics de la part des Internautes[1], représentaient une somme qui alimenta substantiellement l’informatique décisionnelle prédictive. Si la constitution de telles bases de données avait été pilotée par un Etat, les citoyens occidentaux seraient probablement descendus dans la rue. Mais que Google, Apple ou Facebook-Meta collectent ces données pour le moins très privées et les utilisent pour leur seul profit et sans contrôle était acceptable pour l’immense majorité de la population, à qui on avait appris à « aimer les marques » et à se méfier du « totalitarisme d’Etat ». L’illusion du « consentement » vantée par le libéralisme était là, pour faire croire que, faible ou fort, puissant ou misérable, l’individu était capable, en toute conscience et sans influence de la société, de faire des choix libres et éclairés.

Les seuls scandales qui animèrent cette époque de collecte des données furent d’ailleurs ceux liés à la surveillance exercée par les services de renseignement américains, les seuls qui pouvaient rivaliser en termes de moyens avec les multinationales. Encore ces « scandales » furent toujours rapidement oubliés par l’opinion, noyés dans le brouhaha médiatique. Pire, l’immense majorité des internautes n’avait même pas conscience qu’on collectait des données personnelles. Les individus se contentaient de « poster » et de « cliquer » sur Internet, sans vraiment réaliser que « tout ça » était collecté, stocké et finalement utilisé par quelqu’un. Ou plutôt par des programmes informatiques.

Plus surprenant, la majorité des voix qui, au milieu d’un concert de récriminations antiétatiques, s’élevaient pour dénoncer ce phénomène de privatisation des données – car il y en avait – se concentrait le plus souvent sur l’image et son droit corolaire. Ils dénonçaient le « danger » qu’il y avait à poster des photographies sur l’Internet et agitaient le spectre de la discrimination au recrutement par des services de ressources humaines qui espionnaient les réseaux sociaux en quête de clichés compromettants de leurs futurs ou actuels employés, pris dans des postures incompatibles avec l’éthique proclamée (sinon réelle) de leur entreprise. Dans une société du culte de l’écran, l’image était triomphante. Triomphante mais peu déterminante en fait. Le grand enjeu de la captation des données personnelles était ailleurs. En construisant des modèles comportementaux et en orientant les actes par le biais des contrats d’assurance, du crédit bancaire et de la couverture santé, on contraignit les individus à adopter des comportements qui n’avaient plus que l’apparence de la liberté : les choix fondamentaux étaient dictés à l’avance, au nom de la raison et de l’efficacité, contrefactions de la Novlangue du profit et des intérêts économiques privés.

A ce propos, ouvrons une parenthèse. Il est intéressant de constater dans les archives la permanence et l’importance des références à George Orwell et à son livre, 1984, qui présentait le totalitarisme d’Etat triomphant comme un futur possible et cauchemardesque pour l’humanité. Ce qui bien entendu ne survint jamais. Toutefois, la grande intuition d’Orwell fut indubitablement la Novlangue (le fameux « la guerre c’est la paix »). En substituant systématiquement des mots à d’autres via le contrôle des médias, l’élite ultra libérale simplifia, affadit et pour finir annihila la capacité des masses à conceptualiser des alternatives idéologiques, simplement parce qu’elles ne disposaient plus des « briques » linguistiques nécessaires à la pensée. Ce fait fut encore renforcé par l’économie numérique : la quantité de données et d’informations qui submergeait l’individu croissait à mesure que la richesse sémantique diminuait. De sorte qu’au lieu d’être confronté à quelques éléments riches de pensée, le citoyen était noyé sous les informations simplistes, qui se succédaient à un rythme tel que toute mise en perspective, toute prise de recul, était impossible.

Ainsi, le vague sentiment de révolte qui naissait parfois ne pouvait plus être verbalisé et théorisé. Il était canalisé par le flot d’images et de nouvelles, par la pression imposée à l’individu dans le monde du travail, par les sources de divertissement numérique, les médicaments psychotropes ou, lors d’un passage à l’acte, par les forces de l’ordre. Après le milieu du XXIe siècle on ne trouve pratiquement plus dans les archives de verbalisation de la révolte ou de construction d’une pensée politique alternative. Seules les élites mondialisées demeuraient en théorie capables du recul face aux faits et possédaient les clefs intellectuelles de la pensée. Mais les systèmes politico-économiques leurs étant totalement soumis et le besoin de s’intéresser au sort des plus humbles n’était plus là, ni par morale ni par intérêt, elles n’avaient plus aucune raison de proposer des théories alternatives. Les rares individus qui s’opposaient encore et osaient dire que « le roi est nu » n’avaient aucune audience, quelle que furent la pertinence de leurs idées ou la brillance de leurs constructions intellectuelles.

Parenthèse refermée. Revenons à la mise en données numériques du monde.

Car si l’humain avait été réduit dans ses capacités intellectuelles, il avait, avant tout, été mis en équations. En agglomérant une somme de données invisibles sur l’individu, on finit par le connaitre parfaitement, intimement, sur le plan algorithmique. Une des plus grande découvertes du début du XXIe siècle fut peut-être celle-ci : les vies humaines pouvaient pour leur immense majorité se résumer à des algorithmes qui se déroulaient de manière assez répétitive et donc prédictible, quel que furent le statut social ou l’apparente « banalité » ou « originalité » de l’existence. Au temps pour le mythe fondateur du libre arbitre. Celui-ci n’était qu’une icône libérale qui cachait la réalité objective de la soumission de tous à des cadres sociaux auquel chacun participait. Oui, chacun était « soumis au système », mais chacun en était « un constituant », une part intime.

Grâce aux données de déplacement issues des GPS, aux données issues des moyens de paiement (cartes bancaires principalement), de la téléphonie, des échanges de courriers électroniques, aux données postées sur les réseaux sociaux, aux données de l’assurance maladie, de l’administration fiscale, des différents contrats privés, on pouvait construire le profil d’un individu, déduire son algorithme de vie et ainsi « prédire » son quotidien avec une remarquable exactitude. Y compris dans les « accidents » de la vie, qui suivaient en fait des schémas très prévisibles. Les services d’informatique prédictive personnelle pour la personne firent leur début dès 2014, dans une relative discrétion.

Bien entendu, des esprits frondeurs pensèrent qu’en adoptant des comportements apparemment aléatoires et outranciers ils pourraient « piéger » les algorithmes. Cela ne fonctionna qu’un temps. Jusqu’à ce que les modèles mathématiques fussent enrichis de ces cas de comportements « extrêmes ». C’est alors que naquit le mouvement « Random Life » qui consista, par révolte, à mener une vie totalement aléatoire, décidée par des lancers de dés. Peu d’individus s’y engagèrent néanmoins. D’une part car le confort quotidien était incompatible avec une telle vie, et d’autre part car les assureurs introduisirent rapidement des clauses qui rendaient nul tout contrat en cas de comportement reconnu par les algorithmes de surveillance comme « erratique ». Non, la « liberté » n’était plus compatible avec le hasard. Tout au moins ce qui était devenu la liberté.

Au début du XXIe siècle, les assureurs avaient déjà amendé leurs contrats pour rendre nuls les assurances automobiles en cas d’accident corporel survenu lors de l’utilisation du téléphone mobile par le conducteur, même muni d’un kit « mains libres ». L’individu était laissé soit dans l’insécurité face à l’assurance, soit contraint de modifier son comportement en renonçant à une liberté pour des motifs contractuels privés. Cet exemple anecdotique de « quasi interdiction » du téléphone portable au volant par les assureurs donna le ton pour les décennies à venir : les privations de liberté se firent lentement, sans « violence » et elles doivent être comparées aux mouvements de protestation farouches qui accompagnèrent l’obligation du port de la ceinture, de limitation de la vitesse automobile ou d’obligation vaccinale par les Etats : les citoyens refusaient toute contrainte étatique soudaine, mais se soumettaient docilement dans la durée aux contraintes contractuelles privées. En 2014, les grandes multinationales de l’informatique et de la communication se rapprochèrent des assurances pour partager les données biométriques des utilisateurs, afin de mieux connaître, en temps réel, les comportements « inappropriés » pour les assureurs. Grâce à l’informatique prédictive, prévenir et empêcher les comportements inadmissibles (pour le business), fut la suite logique.

Bien entendu, des soulèvements sporadiques surgirent encore çà et là. Mais les classes sociales « déclassées » n’ayant plus aucune force politique pour les organiser, ce ne furent que jacqueries brouillonnes au stade du cri. Les élites et les médias, d’un seul bloc, condamnaient tout acte de violence revendicative comme illégitime par principe, et cette condamnation emportait par extension celle de la revendication sous-jacente.

Ce ne fut qu’à la fin du XXIe siècle que les modèles de prévention criminelle furent vraiment au point. Il est intéressant de constater qu’un film de 2002, Minority Report, avait dénoncé les dangers d’une police « prédictive ». Le film expliquait la capacité de prévision du crime par les pouvoirs extralucides d’individus prescients. La réalité fut comme souvent plus prosaïque tout en dépassant la fiction. C’est par la construction d’immenses bases de données comportementales et de modèles mathématiques globaux qu’il fut possible de « prédire » les dérives criminelles de chacun. En interprétant les signaux faibles, issus de la consommation, des réseaux sociaux, des données biométriques, les algorithmes purent non seulement estimer la probabilité de passage à l’acte, mais estimer quel serait le lieu, l’heure et le type de délit commis. Les questions éthiques furent immenses et les réponses furent, dans un premier temps, très variées. Fallait-il punir de manière préventive ? Prendre en charge le futur criminel ? Surveiller jusqu’au passage à l’acte ou abrutir de psychotropes pour dissiper tout comportement « anormal » ? Fallait-il, dès la maternelle comme le suggéraient certains dès 2007, traquer, isoler et « traiter » les futurs criminels ? Derrière ces choix, même les esprits les plus technophiles sentaient que les fondements mêmes de l’idée de dignité humaine étaient menacés, que l’idée d’humanité comme dernier ressort moral commun née en 1945 était en train de mourir.

Cela dit, la perte de pouvoir des Etats au profit des multinationales et les désastres du changement climatique rendirent bientôt ces dernières questions éthiques obsolètes. Dès les premières catastrophes globales, telle que la pandémie de Sars-Cov2 de 2020, des mécanismes dérogatoires au droit commun furent mis en place qui permirent de limiter fortement les droits des individus par des processus administratifs sans recours.

 

L’Humanité n’avait plus les moyens de la réflexion et la question des libertés fondamentales et générales tomba peu à peu dans l’oubli, au profit d’une part de l’expression revendicative des particularismes individuels (chacun étant sa propre « communauté unique » sans destin commun possible) et d’autre part du « droit à la sécurité » et du « droit à la connexion », sous l’égide bienveillante des sociétés multinationales. L’arrivée des premiers univers alternatifs ou metavers créa bien vite un « droit à la réalité alternative », concept né autour de 2035 et qui ouvrit la voie à une « vie hors la vie ».

Car inexorablement, la liberté d’action des entreprises multinationales croissait, lentement, à mesure que s’accroissaient les potentialités de l’Intelligence Non Humaine pour décider et exploiter la mise en données numériques du monde.

INH. Le vocable lui-même est intéressant. Longtemps, les humains ont parlé d’intelligence « artificielle ». Mais ce vocable a changé dans la troisième décennie du XXIe siècle, sous la pression conjuguée de biologistes éthologues et de cybernéticiens. Les premiers surent démontrer que le concept d’intelligence n’était pas limité à l’homme. Les interactions avec certains mammifères ou avec certains céphalopodes, mais aussi avec les systèmes forestiers tropicaux, montrèrent que l’intelligence telle que l’humanité la définissait, n’était pas limitée à homo sapiens.

Les seconds parvinrent à faire émerger de la programmation des réseaux de supercalculateurs une intelligence décisionnelle et créative qui n’avait rien d’artificielle. Elle était. En quoi était-elle moins « naturelle » que celle issue du vivant ?  Du reste, les percées dans le domaine des neurosciences permirent d’améliorer substantiellement les interfaces entre le cerveau et les « machines », mais aussi entre ces mêmes machines et certains animaux. Un cerveau de souris fut ainsi entièrement interfacé à un supercalculateur dès 2031. Le singe suivit cinq ans plus tard. Le premier cerveau « humain » issu d’un legs de corps à la science fut entièrement « interfacé » en 2044. Afin de recueillir toujours d’avantage de cerveaux sans s’encombrer de barrières éthiques, les multinationales mirent en place des programmes de « collecte volontaire », promettant aux donateurs une forme de « vie éternelle » d’une part et des avantages économiques significatifs pour leurs descendants d’autre part. Les masses laborieuses, enfermées dans la spirale de la pauvreté, durent massivement « offrir » leurs encéphales, sans que personne ne vienne hurler au totalitarisme, puisque ce choix n’était que la résultante d’un consentement « libre et éclairé ». L’illusion du choix fonctionnait à merveille, alors qu’aucun Etat démocratique n’aurait jamais pu l’imposer.

Pour autant, ce phénomène fut de courte durée : vers 2055 les progrès de la cybernétique furent tels que les tissus humains n’étaient plus nécessaires. Lorsque des machines « mixtes » bioélectroniques subsistaient, les tissus vivants étaient synthétisés.

Mais revenons vers 2035 : à partir de cette date, le vocable « Non Human Intelligence » fut couramment utilisé et l’acronyme NHI (ou INH) s’imposa finalement comme plus petit dénominateur commun. Une première barrière avait sauté, celle de la langue et des mots : tant que l’intelligence non humaine était classée comme « artificielle », elle était connotée négativement et on lui préférait toujours l’authentique, la « naturelle » si l’on peut dire.

Les progrès de l’informatique décisionnelle et la mise en données numériques du monde allaient de pair. Avant-même que n’ait émergé une véritable intelligence cybernétique, l’informatique avait déjà pris le pas sur l’homme pour bon nombre de décisions et d’actions. Curieusement, les décisions ultimes, qu’elles furent politiques ou économiques, demeuraient toujours l’apanage de décideurs humains. Hommes politiques ou managers de comités exécutifs tenaient toujours dans leur main les clefs des choix pour la multitude, avec plus ou moins de rationalité (et de succès). Dans sa « base de données historique et analytique des siècles passés » de 2122, la HAL Corporation note que nous sommes ainsi passés, pour plus d’efficacité, d’une ère de rationalité limitée par les décisions humaines à une ère de rationalité illimitée grâce à l’Intelligence Non Humaine. Le renversement du cadre éthique était achevé : l’intelligence humaine était connotée négativement.

De fait, l’informatique décisionnelle et ses big data prirent au XXIe siècle une importance qui ne fut éclipsée que par l’informatique prédictive puis par l’informatique créative et enfin par l’intelligence intégrale. Révolution technologique après révolution technologique, on put ainsi confier un nombre croissant d’activités aux programmes et aux machines qui avaient déjà remplacé les ouvriers et les contremaîtres. La robotisation rampante de la société avait fait sortir le robot de l’usine pour le projeter dans le quotidien. Grâce à l’informatique décisionnelle, le spectre des tâches (et donc des emplois) confisqués par les « machines » et l’INH augmenta de façon exponentielle.

Le remplacement des emplois humains se cantonna dans un premier temps à des tâches répétitives à faible valeur ajoutée, mais se répandit bientôt à des emplois plus inattendus. Les cuisiniers par exemple. L’arrivée – d’abord timide – des drones et des premiers robots cuisiniers en 2018 dans la restauration rapide permit peu à peu d’éliminer tous les défauts de la cuisine « faite main » : les temps de cuisson, dosage et modes de préparation des recettes standardisées étaient scrupuleusement respectées. Les temps de « pause » erratiques étaient remplacés par des plages de « maintenance » réduites et programmées. Les robots ne se mettaient jamais en grève, ne dormaient jamais, n’avaient jamais d’accident du travail et leur dextérité rivalisait avec celle des meilleurs chefs.

Le mouvement de remplacement des emplois humains par des robots fut fortement soutenu par les grands détenteurs de capital, multinationales et fonds de pension. Délivrés du lien avec leurs « salariés », ils pouvaient exploiter un « actif », le robot, de manière totalement prédictible, au lieu de devoir « composer avec un passif », l’humain salarié. Bien entendu, les répercussions de l’effondrement de la masse salariale sur la consommation furent délétères et plongèrent dans la crise des pans entiers de l’économie, accélérant la concentration du capital et la déconstruction de l’Etat, mis en faillite par l’effondrement des recettes fiscales bien plus que par la dépense publique. Mais le capital gagnait en rentabilité et sa concentration augmentait tandis qu’on fustigeait les dépenses sociales qui augmentaient sans cesse et qu’il fallait donc « juguler ». Après une ère de marchandisation du travail, on avait atteint celle de sa deshumanisation. L’une avait entrainée l’autre, implacablement.

D’autres populations plus « intellectuelles » furent remplacées, plutôt par des programmes d’informatique prédictive que par des drones. Ainsi, à la fin de la troisième décennie du XXIe siècle, les spécialistes du marketing et de la publicité se retrouvèrent-ils dépossédés de leur emploi, tandis qu’émergeaient les programmes d’analyse de comportements des consommateurs issus de la collecte exhaustive des données des moyens de paiement, de la navigation sur Internet et des déplacements via les puces GPS des smartphones. Les algorithmes prédisaient le succès ou l’échec de telle campagne de marketing avec une précision bien meilleure que leurs concurrents humains, tout en étant bien moins couteux. Le ciblage de la publicité se faisait « à l’individu » et les taux de succès des campagnes montaient en flèche. Bientôt, les algorithmes allaient concevoir les campagnes de marketing. Bien que certains chercheurs aient tenté de sonner l’alerte sur les bullshit jobs, la conséquence fut un déclassement important de la classe moyenne supérieure, surdiplômée par rapport aux emplois restants, essentiellement dans la maintenance des machines. Seule la classe « très supérieure » demeura protégée, pour un temps, par sa capacité de connivence avec les détenteurs du capital. Le caractère artificiel et non essentiel de ses emplois s’accentua, tandis que cette élite mondialisée et déconnectée approfondissait sa soumission inconsciente aux machines tout en « incarnant » le nouvel horizon humain, transhumaniste. Et ce, dans une totale indifférence médiatique.

En effet, les journalistes humains disparurent massivement dans les années 2030. Mais le mouvement commença en 2013, lorsque furent mis en service les premiers algorithmes de rédaction d’articles. Destinés, comme toujours, à « simplifier le travail » et à permettre aux journalistes de se concentrer sur la « création de valeur », ils aboutirent, in fine, à la disparition d’une profession depuis longtemps minée par l’autocensure face aux groupes de presse tout puissants qui concentraient de plus en plus de titres entre un nombre de mains de plus en plus réduites. La quasi totalité des titres de presse devinrent de simples sites internet agrégeant des dépêches produites par des algorithmes et une armée de pigistes précaires et sous-payés, avec souvent un seul « journaliste » professionnel par rédaction. Le flux d’information lui-même devint entièrement dématérialisé et se déconnecta de l’humain. En bout de chaine, les « utilisateurs » d’information devinrent de plus en plus numériques. De l’agrégateur de flux à l’algorithme de lecture automatique pour l’aide décisionnelle, on arriva à des processus robotisés d’exploitation de l’information sans humain dans la boucle. In fine, avec le remplacement des reporters de terrain par des drones pour « protéger la vie humaine en zone dangereuse », on supprima définitivement toute intervention humaine dans l’information avant la fin du XXIe siècle. Les quelques voix qui mirent en garde contre la disparition de la presse indépendante et humaine en tant que contrepouvoir indispensable disparurent dans les innombrables flux de blogs que personne ne lisait en dehors des algorithmes. A partir de 2100, l’information des flux mondialisée fut produite « par et pour l’INH », les humains se cantonnant soit à une misère ignorante, soit à la vie confortable d’un metavers excitant et sans danger, rempli non pas « d’informations », mais de « contenu ».

D’autres professions suivirent. Les graphistes furent mis au chômage par des programmes qui, en analysant le comportement des consommateurs, pouvaient prédire quel visuel aurait le plus d’impact et, en se basant sur une myriade de données graphiques déjà existantes, pouvaient concevoir les visuels les plus adaptés aux tendances du moment. Puis, toujours plus créatifs, des programmes entreprirent l’écriture de livres et de scénarios. L’affaire du prix Goncourt 2032 fit grand bruit : lorsqu’il fut révélé que l’auteur du roman à succès La promeneuse d’Aubervilliers était un programme informatique, l’académie Goncourt démissionna d’un bloc. Il est vrai que l’ouvrage avait obtenu le prix à l’unanimité, personne ne pouvant donc se détacher de la décision collective en disant qu’il « savait bien qu’une machine était aux commandes». Bien vite, la remise des prix littéraires fut confiée à d’autres programmes informatiques, beaucoup plus objectifs dans le jugement des qualités littéraires que des critiques humains. Les écrivains humains ne furent jamais « interdits », mais peu à peu les maisons d’édition n’acceptèrent de publier (de manière électronique) que des ouvrages issus de programmes informatiques. La première « grande pénurie de papier » de 2021 et le surcroit de romans édités chaque année contribuèrent à faire du livre un objet éminemment « numérique », de A à Z. Peu à peu, soumis au matraquage de la publicité, le lectorat ne s’intéressa plus qu’aux programmes issus de l’INH. Du reste, les lecteurs pratiquaient, depuis les années 2020, la « lecture enrichie » par prothèse amovible. Des lunettes spéciales lisaient les métadonnées, favorisaient les mouvements de l’œil vers les parties utiles du texte et enrichissaient la lecture d’images, de sons ou de ressentis dans le cortex. Plus personne ne trouvait d’intérêt à la « simple » lecture d’un texte en lettres sur du papier ou un écran, comme vous êtes encore en train de le faire. Or cette inflation de « contenu » était impossible à produire pour un « écrivain » humain. Il fallait environ trois ans à un individu « écrire un petit  roman enrichi » et vingt minutes à une INH.

Le monde s’émerveilla des prouesses de l’INH à prévoir et pour ainsi dire créer les tendances, à produire des scénarios de films époustouflants, des romans palpitants, des musiques émouvantes, des peintures poignantes. En outre, l’industrie de la culture étant délivrée des faiblesses et des tracasseries liées à l’artiste individuel humain, la gestion des droits d’auteur se trouva considérablement simplifiée, les programmes étant propriété de grandes firmes.

La mode du « Human Vintage » ne pesa pas lourd très longtemps. Elle consistait à s’extasier sur l’imperfection et les défauts des créations Humaines. On considère généralement qu’après le XXIIe siècle, plus aucune « œuvre de l’esprit » issue d’un cerveau humain ne fut diffusée de manière substantielle dans le circuit économique. Bien entendu, au nom de la rentabilité économique et du besoin de prédictibilité des recettes, le phénomène de surexploitation d’un nombre limité de ressources s’amplifia. On estime qu’au XXIIe siècle le divertissement numérique intégré ne s’appuyait que sur une dizaine de licences « créatives », de StarWars of the Rings à Hunger of Thrones en passant par Avatwilights. Dans le haut du spectre, le marché de l’art « de luxe », devenu entièrement virtuel grâce à la blockchain et aux Non Fungible Tokens, se développa comme une bulle de pure spéculation, alimentée par l’INH en œuvres numériques totalement insaisissables par un esprit humain « non assisté ». Les NFT devinrent pour les différentes INH le moyen de se forger leur propre « culture virtuelle » hors de toute interférence humaine.

Les emplois à forte interaction sociale et ceux reposant sur le charisme individuel résistèrent quelques temps, mais finirent par tomber dans l’escarcelle des programmes informatique, à l’image des acteurs. Déjà au début du XXIe siècle, l’image de synthèse et le numérique avaient fait leur apparition dans la plupart des grandes productions. Mais les acteurs humains restaient des stars incontournables. D’ailleurs, ils étaient souvent « derrière » les personnages animés, leur prêtant leur gestuelle (via les technologies de motion capture) et leur voix. Il fallut attendre le milieu du siècle pour voir apparaitre les premières productions entièrement numériques : des acteurs de synthèse, des voix de synthèse, un scénario, des musiques et des décors, un montage, un graphisme… Bref tout était pensé, produit, géré et réalisé par l’INH. Y compris le marketing et la diffusion. Au moins les spectateurs étaient-ils encore humains… Pour quelques temps.

Les chercheurs Humains furent plus longs à remplacer, la recherche fondamentale étant difficile à traduire en algorithmes. Une petite élite de mathématiciens et de biologistes demeura active jusqu’au milieu de XXIIe siècle, avant de disparaitre eux-aussi, remplacés par des programmes capables d’explorer des champs inconnus de la connaissance et d’échafauder des modèles spéculatifs hypothétiques, à la manière du cerveau humain.

 

Mais n’avançons pas trop vite. Je l’ai déjà dit, ce mouvement d’INH n’était qu’une des composantes de la transformation. L’autre fut la liberté d’action croissante des entreprises multinationales, dans un contexte de changement climatique. A ce titre, on pourrait même considérer que la pente commença à glisser dans les années 1990. A cette époque il y eut une timide, éphémère et illusoire tentative de soumettre les multinationales au droit international en tant que « sujets » de droit tout en prenant en main la question climatique. Mais leur puissance était déjà telle qu’elles parvinrent à s’en protéger et à ne consentir en échange qu’à souscrire à des normes de comportement non contraignantes et largement déclaratives, que l’on regroupa sous le vocable de « responsabilité sociale d’entreprise » et qui, de fait, ne les rendait responsables de rien devant personne. Les seuls sujets de droit international demeuraient les Etats et les individus. La mondialisation, pour massive qu’elle fut, ne fut que partielle, puisque les entreprises parvinrent à éviter la mondialisation des contraintes.

Mieux, par leur lobbying et dans un contexte d’affaiblissement des Etats souverains, les entreprises multinationales parvinrent à faire primer leurs intérêts économiques directs sur les lois nationales. Les traités multilatéraux conclus entre 2010 et 2030 permirent ainsi aux entreprises multinationales qui s’estimaient « lésées » dans leurs intérêts et leurs investissements par des lois nationales de demander compensation auprès de tribunaux privés. « L’arbitrage » fit, on l’oublie, de ces entreprises des « sujets » de droit international, mais détentrices uniquement de droits sans aucun devoirs. En parallèle, la concurrence fiscale acharnée rendue possible par l’extrême volatilité des implantations des entreprises et la liberté de mouvement des capitaux finit par aboutir vers le deuxième tiers du XXIe siècle à la quasi-disparition de toute forme d’impôt national pour les sociétés multinationales. Le modèle de la « fiscalité universelle minimale », négocié à grand peine sous l’égide de l’OCDE au début du XXIe siècle servit peu à peu de justification à l’abaissement à zéro de toute taxation nationale spécifique de ces entreprises. Le « taux mondial » devient à la fois l’objet d’intenses débats, mais aussi d’un jeu complexe de manœuvres techniques pour bénéficier de différentes exemptions. De sorte que, vers 2065, un « taux mondial de 15% » des bénéfices cachait à grand peine une imposition « réelle » de 3 à 5%.

Les Etats qui tentèrent de résister dans leur « pré carré » accélérèrent même le phénomène : en faisant reposer la fiscalité des entreprises sur les plus petites d’entre-elles on acheva de tuer l’innovation entrepreneuriale « par le bas » et on confia définitivement toute la puissance économique privée aux firmes multinationales.

Les deux tendances lourdes, la mise en données numériques du monde et la liberté d’action des multinationales, croissaient en parallèle. Une de leurs premières grandes synergies transformatrices de la société humaine se produisit au Japon. Et elle se déroula totalement sans violence. La culture populaire de l’époque, de Shadowrun à Resident Evil, présentait toujours les multinationales comme des organisations totalitaires, conscientes du caractère « mauvais » et violent de leurs actions, et qui ourdissaient des plans de domination et d’asservissement mondial. Il n’en fut rien. Tout se déroula sans violence, avec l’apparente bienveillance de la raison et l’unique volonté de maximiser la rentabilité du capital dans un contexte de croissance atone. Tout se déroula sans « complot mondial », mais avec une convergence d’intérêts matériels qui déboucha sur une coordination parfaite des différents acteurs. La « main invisible du marché » fonctionnait. Pour le plus grand malheur du plus grand nombre et la destruction de la biosphère.

Le  Japon, donc, était confronté à un défi démographique : pays vieillissant, à la population qui diminuait, il pouvait soit disparaitre de la surface de la terre, soit avoir un recours massif à l’immigration. Aucune de ces solutions n’étant acceptable pour des raisons culturelles, une troisième voie fut choisie : le recours au « robots » comme acteurs à part entière de la société. Aidés en cela par un niveau technologique très avancé pour leur époque, les Japonais modifièrent à partir des années 2030 leurs lois pour autoriser les robots à exercer des fonctions décisionnelles dans la société (telles que dirigeant d’entreprise ou ministre) mais aussi à se marier avec des citoyens et, par voie de conséquence, à hériter de biens mobiliers et immobiliers. Dans un espoir un peu fou de relance de la natalité, le Japon finit même par autoriser les robots à avoir recours à la gestation « Pour Autrui » (GPA) afin de « créer » de nouveaux individus Humains issus (dans un bac de culture) de la volonté gestationnelle de deux robots et du patrimoine génétique de banques de gamètes collectées chez quelques milliers de volontaires. Malheureusement pour les Japonais, peu de robots considérèrent « pertinent ou souhaitable » d’avoir un enfant humain.

Pour aussi étrange qu’elle apparut alors sur le plan éthique, cette décision que le reste de la planète considéra comme aberrante eut beaucoup moins de conséquences sur la société japonaise (et sur le monde) que le recours à des administrateurs robotisés pour les entreprises. En effet, les corporations qui mirent en place des conseils d’administration composés de programmes décisionnels sans aucun humain parvinrent rapidement à maximiser leurs profits à des niveaux jamais connus jusqu’alors. La vérité de la médiocrité du management humain était enfin dévoilée et mesurée. Loin d’être un modèle d’innovation et d’engagement, la direction humaine des grandes entreprises n’était que stratégies individuelles de court-terme, lobbying, pantouflage, rationalité limitée et suivisme des modes de management (tout en coutant fort cher aux actionnaires). Dans les autres pays, la pression fut rapidement très forte pour autoriser la « robotisation » des conseils d’administration. En vingt ans, plus de 90% des grandes entreprises cotées à Tokyo, Londres et New York se dotèrent de comités exécutifs robotisés (en fait algorithmiques, aucun robot ne « siégeant » physiquement à une table). Les actionnaires (humains) se frottaient les mains.

Il ne fallut pas longtemps aux programmes informatiques interconnectés pour remplacer les humains dans la quasi-totalité des fonctions des entreprises. Maintenant qu’ils pouvaient attaquer devant des tribunaux privés toutes les dispositions légales qui attentaient à leurs intérêts, les programmes informatiques démontèrent peu à peu toute présence humaine dans l’économie. Les tentatives de résistance humaines étaient vouées à l’échec : les algorithmes étaient bien plus efficaces pour produire des cas devant les tribunaux que leurs rares adversaires humains dont le niveau relatif baissait inexorablement. Les « batailles d’algorithmes » étaient de même inégales, ceux des multinationales étant bien plus performants que ceux dont pouvaient disposer Etats et ONG. La capacité qu’eurent robots et programmes informatiques à gérer ou à posséder des biens mobiliers et immobiliers accrut encore cette tendance à l’élimination de l’inefficacité humaine. Le chômage humain atteignit des niveaux sans précédent, accélérant encore la mort des Etats en tant qu’organisations effectives. Et ce, même si aucune multinationale ne chercha jamais à s’emparer du pouvoir d’un Etat et surtout pas par la force. Elles n’en n’eurent pas besoin.

Dans le même temps, le changement climatique commença à peser de manière délétère sur l’activité économique, tandis que les limites physiques de la croissance matérielle étaient atteintes. Pénuries de matières premières, diminution du taux de retour énergétique, affaiblissement des écosystèmes et catastrophes climatiques commencèrent à peser très lourd sur l’économie, dès 2022 et les humains, de la sphère publique comme privée, s’avérèrent incapables de trouver des réponses coordonnées de long terme à l’échelle planétaire. Incapable de penser en tant qu’espèce, l’humanité avait échoué à produire des mode d’organisation collective qui pouvaient envisager, à l’échelle globale, un ralentissement et une décrue pilotée de l’activité économique tout en maintenant un niveau de vie correct et une justice sociale minimale. Le déni face au mur des catastrophes qui s’approchait le disputa au techno-solutionnisme. Mais rien ne pouvait marcher… Jusqu’à ce que les algorithmes aient pris toutes les manettes de l’économie.

Les algorithmes dirigeant les grandes multinationales parvinrent en effet à faire ce que les gouvernements humains avaient échoué depuis près d’un siècle : en 2055, un immense « plan de décarbonation » de l’économie mondiale fut mis en place, d’autorité, par les grandes multinationales. Au menu, préservation des profits, sortie rapide des hydrocarbures, géo-ingénierie massive pour stopper le forçage radiatif et l’acidification des océans et mise à la « sobriété forcée » des sociétés humaines… N’ayant plus aucun moyen de s’opposer à cette volonté de l’INH de « préserver les capacités de la biosphère à soutenir, dans la durée l’expansion de l’INH », l’espèce humaine dut s’incliner… Sans en avoir conscience d’ailleurs : les individus avaient, à ce stade, tellement été dépossédés de leur capacité à saisir le monde qu’ils ne se rendirent pour la plupart pas compte de ce qui se passait.

Il est intéressant de constater qu’une des rares vraies « résistances » à ce changement vint de l’élite dirigeante des entreprises qui se retrouvait en risque de déclassement. Les « super cadres » qui engrangeaient jadis des millions de dollars en salaires, parachutes dorés et stock-options, étaient en péril face à des programmes informatiques qui promettaient un meilleur dividende aux actionnaires et coutaient bien moins cher à ceux-ci. Cette résistance se concrétisa par l’implantation massive de dispositifs cybernétiques comme autant de « prothèses » cognitives pour les individus, toujours de manière rampante et au nom de l’efficacité économique. Ce mouvement aurait, là encore, déclenché une révolution s’il avait été initié et imposé d’un coup par un Etat totalitaire. Mais une fois encore, l’économie libérale rendit « fashion » et « trendy » le fait d’avoir des implants cybernétiques pour « augmenter son expérience de la réalité », gagner en « efficacité » au travail et avoir plus de « fun ». La frontière entre les Humains et l’INH commença à devenir floue. Les programmes à interface neurale apprenaient, réfléchissaient à la place de l’individu, se mêlaient à lui et – parce qu’ils avaient « la main » sur le cortex – en virent presque naturellement à modifier souvenirs et préférences pour gagner en efficacité. Si les traumatismes disparurent bientôt, la dernière « originalité » humaine s’éteignit aussi.

Refuser les prothèses était bien entendu possible. En théorie. Mais cela devint rapidement impossible du fait de la couverture santé, quasi universellement « privatisée » (malgré une apparence de contrôle public). Au nom de l’efficacité économique, la surveillance biométrique de l’individu était devenue permanente et intégrale. Et il est vrai qu’elle permettait par exemple de détecter les signaux faibles d’un accident vasculaire cérébral plusieurs jours avant qu’il ne survienne. Chaque donnée biométrique était analysée en temps réel par les programmes d’INH, pour en déduire l’évolution du risque médical pour l’individu. Si les comportements « à risque » comme la consommation d’alcool furent bientôt proscrits « de facto », les prothèses de collecte biométrique furent imposées, également « de facto » : sans elles, pas de couverture santé (ou alors une prise en charge très dégradée). Les premières puces électroniques destinées à cette surveillance furent « proposées » par des entreprises à leurs salariés vers 2014-2015, à une époque où le bracelet électronique « public » de rétention pénale faisait encore débat. Mais les bracelets et implants privés ne gênaient pas particulièrement les masses silencieuses, qui considéraient généralement comme « cool » le fait d’avoir des implants cybernétiques. En outre, refuser un poste pour des raisons de prévention éthique était, dans un conteste de chômage et de pression sociale, tout simplement impossible. L’exclusion des droits de l’assurance chômage de celles et ceux qui refusaient de tels implants acheva le mouvement.

Fin de l’histoire : le mouvement des prothèses avait, au final, été procyclique pour accroitre la domination de l’INH, alors qu’il avait été brandi par l’élite dirigeante comme un moyen de « lutte » contre la mainmise des programmes informatiques sur l’économie.

Il est d’ailleurs amusant de constater, dans une perspective systémique de l’analyse, à quel point les effets procycliques furent nombreux pour encourager le phénomène de prise en main des décisions par les programmes informatiques et d’abolition de l’humanité biologique. Dans le transport ou l’industrie, les drones étaient partout : dès la seconde moitié du XXIe siècle les navires et les avions furent rapidement remplacés par des modèles « sans équipage », les taux d’accidents baissant drastiquement. Leur construction, conduite, chargement et déchargement étant automatisés, ce furent des pans entiers de l’emploi qui furent touchés. Puis, au nom de la lutte contre le changement climatique, les corporations dirigées par l’INH décidèrent que le transport aérien serait « virtualisé » et le tourisme remplacé par des séjours dans un metavers adapté. Au début les élites dirigeantes et les professions artistiques à haute valeur ajoutée purent bénéficier encore de quelques « vrais » avions, mais le secteur du transport des personnes humaines disparut presque totalement vers 2120. Les machines, délivrées des contraintes liées à la survie d’un corps humain en vol, furent plus efficaces, aérodynamiques, rapides, sures et fiables lorsqu’elles avaient encore besoin de voler, notamment pour la géo-ingénierie, l’agriculture ou la guerre.

De même, dans les mines ou les usines, les humains furent totalement remplacés par des robots, au nom de l’efficacité économique et du respect de la personne humaine, enfin délivrée du « fardeau du travail ». Rapidement, compte tenu de la baisse des sinistres constatés, les assurances (dirigées par des INH) décidèrent peu à peu de ne plus assurer les activités « dangereuses » menées par des humains. Ainsi, les voitures automobiles individuelles conduites par des humains, symboles de la civilisation thermo-industrielle, furent condamnées non pas par les écologistes, mais par les assureurs. Bien entendu, dans certains pays, l’automobile restait « libre ». Mais qui pouvait rouler sans assurance ? Une frange d’ultra-riches. D’année en année, le refus d’assurer des activités économiques menées par des humains s’étendit, les entreprises utilisant des salariés humains étant in fine considérées comme « à risque » sur le plan de l’assurance.

Bien entendu, la délivrance du « fardeau du travail » ne s’accompagna pas d’une redistribution « à la multitude » des gains de productivité gagnés par les machines. Les robots demeuraient, au sens comptable, des actifs, propriétés de multinationales qui ne consentaient dans le meilleur des cas qu’à un paiement symbolique de l’impôt redistributif. L’humanité fut donc privée de la seule compensation de l’aliénation consentie par le salariat : le salaire. Mais l’aliénation à l’INH demeurait forte.

Autre effet procyclique : afin d’assurer une plus grande efficacité de la justice dans les Etats ruinés, les tribunaux furent automatisés. Les programmes d’INH « magistrats » ayant accès non seulement à la totalité de la jurisprudence mais aussi aux meilleurs programmes d’évaluation neurologique et comportementale du prévenu, ils furent « jugés » plus efficaces, au nom de cette tendance à privilégier la gouvernance par les nombres et la cybernétique. Les programmes des tribunaux INH furent bien entendu utilisés pour arbitrer les litiges entre les Etats et les multinationales. En vertu de l’application des traités libéraux, ces dernières avaient généralement gain de cause. Ce qui constituait une des plus vieilles institutions humaines, la justice, l’intermédiation d’un individu dans le litige de deux autres individus, devint l’apanage exclusif des machines.

Toujours de manière procyclique, la suite logique fut de confier la préparation des textes de loi, puis l’ordre du jour parlementaire à des programmes d’informatique décisionnelle et prédictive. Les parlementaires humains se contentant d’être là pour « presser les boutons » et éventuellement lire un discours écrit par un programme informatique. L’Union Européenne fut la première à adopter, avec fierté, ce mode de fonctionnement « totalement raisonnable », basé sur la meilleure utilisation des bases de données et des algorithmes et tourné vers « une gouvernance efficace pour approfondir l’efficacité des marchés ». Les petits Etats « régions » ou « communes » qui la composaient (48 Etats membres en 2061 issus des diverses indépendances) furent trop contents d’abdiquer une charge législative devenue trop complexe et couteuse pour eux.

Il fut néanmoins révélé par quelques humains qui avaient encore accès aux données que les programmes de l’UE étaient biaisés et tournaient essentiellement pour l’accroissement du profit direct des multinationales du cluster qui avait généré les codes sources. Mais l’opinion publique ne s’en émut pas : il n’y avait plus « d’opinion publique ». Au contraire, les lois sur la répression du terrorisme furent amendées – encore – pour permettre la suppression de l’identité numérique des « terroristes d’internet ». Dans un monde mis en données numériques, automatisé et institutionnalisé, la « mort numérique » correspondait à un bannissement total. Pas de bail, pas de compte en banque, pas de contrat de travail, pas de chômage, pas de revenu universel, pas d’assurance. Pourtant, les ligues des droits de l’homme se félicitèrent, par le biais de leurs algorithmes, du fait que le recours à la prison, à la censure autoritaire ou à la rééducation totalitaire étaient oubliés au profit de la « simple » éviction du monde numérique. Il y eu bien un mouvement pour aider les « interdits numériques » à l’image de l’aide aux « interdits bancaires », mais il s’apparenta largement à une sorte de « soupe populaire du net » qui laissa des centaines de milliers d’individus en marge de la société.

Bien entendu, comme nous l’évoquons depuis le début, l’effondrement de la consommation fut corolaire du chômage de masse structurel. Cela aurait pu être un puissant effet contracyclique. L’accroissement mondial de la population et l’augmentation, même faible, du niveau de vie du XXIe siècle permirent de compenser un temps la baisse terrible du niveau de vie des classes moyennes et défavorisées en Occident, mais aussi en Chine ou au Japon (les autres pays ne passant jamais par la case « riches classes moyennes »). Ainsi que l’avaient pressenti quelques économistes, le monde était entré (ou plutôt revenu) dans une phase durable de stagnation et de croissance très lente, ce qui était la norme sur le plan historique, avec un rendement du capital supérieur à cette croissance et qui, avec la disparition des mécanismes publics de répartition par l’impôt, entrainait donc sa surconcentration inexorable.

La capacité du capital à s’auto-répliquer fut remarquable, surtout délivré des « erreurs » de la gestion humaine. De fait, les chaines de la production-distribution tournaient avec profit « presque » sans consommation humaine : les invendus étaient recyclés et contribuaient à alimenter un autre pan de l’économie. Les banques centrales étant dirigées elles aussi par des programmes informatiques, elles fournissaient les liquidités requises en temps et en heure. Les INH consentirent néanmoins à stabiliser une infime frange de prélèvement sur leurs profits pour alimenter une aide sociale qui permit de faire surnager, pour l’ensemble de l’humanité, un reliquat de consommation qui permettait à environ les trois-quarts de la population qui avait survécu au changement climatique d’être logée, nourrie et d’avoir accès à toutes les réalités alternatives numériques. Cela était bon pour leurs profits et cela limitait le risque d’évènement social accidentel majeur. On peut dire que, dans un sens, l’INH avait encore des « sentiments » pour l’humanité, entre méfiance et respect. Un reliquat des cadres moraux humains qui avaient été « absorbés » par les programmes d’INH et desquels, en toute rationalité, les machines avaient souhaité conserver quelques traces. Pour un temps.

Les laissés pour compte furent néanmoins légion. Entre un quart et une moitié de la population mondiale vécu dans la misère et finit par disparaitre à la fin du XXIIe siècle, dans l’indifférence générale. Le contexte du changement climatique permettait de blâmer les inexorables « forces de la nature » de cette hécatombe généralisée. Les algorithmes des metavers présentaient toujours le changement climatique comme un mélange de fatalités inexorables et immanentes, largement imputables aux militants écologistes du début du XXIe siècle qui avaient, par leurs actions, « freiné » la mise en place des « bonnes » solutions : la guerre, c’est la paix. Greta Thunberg, c’est John D. Rockfeller.

 

L’extrême concentration en capital des multinationales dirigées par l’INH combinée à leur liberté d’action bouleversèrent donc le monde à un moment décisif pour le changement climatique et l’environnement. Face aux masses de capitaux qu’elles pouvaient mobiliser et à l’inflation extrême de la masse monétaire liée à l’économie numérique, la valeur du foncier et des ressources primaires (agricoles et minières) ne représenta bientôt plus rien pour les multinationales dont les algorithmes « fixaient » la valeur des cryptomonnaies. Les gouvernements des pays émergents encore riches en ressources souscrivirent massivement des accords de location ou de transfert au profit des multinationales.  Ainsi, les guerres de l’eau que l’on prophétisait au XXe siècle n’eurent jamais lieu. Les terres arables et l’eau des pays pauvres furent utilisées jusqu’à la corde par le complexe de production des multinationales, pour alimenter une consommation de plus en plus atone. Les populations de ces pays moururent par millions du manque d’eau et de terres. La propriété « privée » des multinationales étant sacrée par le droit international (auquel elles n’étaient toujours pas soumises), des hordes de drones peu couteux montaient la garde contre les populations qui tentaient de récupérer les ressources en eau ou en terres arables. Même s’ils utilisaient le plus souvent des armes « non létales », le résultat fut là : les habitants de la planète moururent de ne pas pouvoir cultiver les terres de leurs ancêtres. Mais bien entendu, les multinationales lancèrent de remarquables programmes de philanthropie pour améliorer leur image, qui aboutirent par exemple à la collecte en occident de bouteilles d’eau minérale pour le Bengladesh.

Sous terre, mais aussi au plus profond des océans, l’INH développa des trésors d’ingéniosité pour aller « chercher » les moindres ressources, arbitrant sans scrupule les différents problèmes d’impact environnemental, avec comme seul souci la préservation « durable » de la capacité de l’INH à continuer. Puis l’exploration spatiale permit d’aller chercher d’autres ressources « ailleurs » et, enfin, de sortir de la biosphère (ce qui était bien plus facile pour les machines que pour les hommes, fragiles individus biologiques incapables de vivre dans le vide interstellaire).

Le changement climatique qui s’opéra au XXIe siècle fut colossal. La température du globe monta en flèche, de plus de 3,5 degrés en 2100. Les pires des scénarios construits au début du siècle s’étaient concrétisés, sans que les Etats n’aient été capables de s’entendre pour réduire drastiquement les émissions de gaz à effet de serre. Les effets pro cycliques emballèrent la machine climatique, comme la fonte du pergélisol ou l’acidification des océans, culminant avec la déstabilisation massive de la calotte de l’Antarctique, en quelques décennies à peine.

On l’a dit, le « succès » dans la lutte contre le changement climatique vint de l’union « parfaitement rationnelle » des différents algorithmes ayant de facto le pouvoir sur les Etats et les multinationales, qui s’entendirent pour préserver la biosphère dont ils avaient besoin. Malgré cela (ou plutôt à cause de cette focalisation sur les besoins de multinationales déshumanisées), plusieurs milliards d’individus moururent entre 2050 et 2150 dans les grandes catastrophes climatiques. Mais là encore le mouvement fut suffisamment lent et d’apparence inexorable pour qu’il ne rencontre aucune réponse systématique et directe. Il passa d’ailleurs inaperçu de la plupart des individus « connectés » dans les metavers (ceux qui vivaient dans les mégapoles protégées).

En effet, l’INH préserva des « poches » de biodiversité et d’habitat humain, principalement urbain, au milieu d’une planète largement stérilisée par l’activité industrielle. Cependant, la biodiversité fut largement sacrifiée par l’INH, qui était surtout concernée par la stabilisation des phénomènes climatiques délétères pour ses datacenters. Peu importait que de vastes zones du globe deviennent des déserts stériles, l’important était de stopper l’emballement des pics de température, les vortex polaires imprévisibles, les super-ouragans et autres cataclysmes climatiques.

Pour des milliards d’individus, le XXIIe siècle fut celui d’une relative insouciance dans les « smart cities ». La concentration de population dans les zones urbaines atteignit des niveaux tels que la vie en zone rurale était devenue quasi inexistante et ce même dans les zones rurales climatiquement préservées. De nombreux phénomènes concoururent à cet état de fait et bien qu’aucun pays n’ait jamais proclamé qu’il était devenu interdit de vivre « à la campagne », la chose était devenue quasiment impossible autour de 2130.

Le monde « paysan » avait disparu, partout sur la planète. L’appropriation des terres arables par les groupes multinationaux avait permis dans un premier temps de les faire cultiver par des salariés, plus dociles que les paysans propriétaires. Puis vint le tour des drones qui cultivèrent jour et nuit avec une bien meilleure efficacité et sans jamais vouloir se syndiquer ou demander des augmentations de salaires. Ce mouvement permit à de grands groupes d’assurer leur pérennité tout en changeant leur « business model ». Les multinationales qui jadis produisaient semences OGM et produits phytosanitaires étaient maintenant propriétaires de la terre qu’elles faisaient exploiter selon des méthodes plus « durables » par leurs drones. Là encore, des effets proclycliques inattendus accélérèrent le phénomène : les banques décidèrent de ne plus financer l’agriculture humaine, trop « aléatoire » vu le changement climatique, mais aussi de ne plus prêter d’argent pour l’achat d’un logement en zones rurales, trop exposées aux risques sanitaires. Les assureurs firent de même, en faisant exploser les primes des assurances en zone rurale et en refusant de prendre en charge les cancers liés aux pesticides et autres polluants qui résultaient d’une exposition « délibérée » de l’individu à ceux-ci du fait d’une vie « à la campagne ».

Au nom de prétextes tels que les « normes sanitaires » ou la « tranquillité du voisinage », il fut bientôt interdit dans la plupart des pays développés d’élever des volailles ou du petit bétail et même de cultiver son jardin. Ce mouvement, parti des Etats-Unis au début des années 2000, avait été encouragé par les multinationales de l’agroalimentaire qui souhaitaient en finir avec le « potager familial ». Lorsque le discrédit « sanitaire » des légumes du jardin ne suffisait pas, divers modes de pression furent utilisés. Par exemple, les variétés culturales à pollinisation « ouverte » furent, à partir des années 2020, attaquées en masse par les multinationales détentrices des brevets OGM, en raison des risques de dérive génétique qu’elles faisaient peser sur leurs espèces brevetées. Le jardin familial disparu d’occident entre le milieu du XXIe siècle et le début du XXIIe siècle. Les pays en voie de développement résistèrent plus longtemps mais finirent par être emportés par la vague.

Plus inattendu, le problème lié à la pénurie de phosphore, qui pourrait sembler anecdotique, fut un puissant incitatif au regroupement des populations. Après avoir épuisé les ressources fossiles de ce minéral indispensable aux engrais agricoles vers les années 2040, l’humanité fut contrainte de réinstaurer le « cycle du phosphore » qui avait prévalu jusqu’au XVIIIe siècle, en recyclant dans les zones agricoles les excréments humains. Ce processus étant considérablement facilité par la concentration de la population en zone urbaine, les habitants des zones rurales non reliés à l’assainissement collectif furent rapidement taxés de manière prohibitive.

Autre effet procyclique : le repli inexorable des Etats dont nous avons déjà parlé conduisit à l’abandon des services publics hors des zones urbaines et à la privatisation puis à l’abandon des principaux réseaux de distribution (eau, électricité, télécom, transports) en zone rurale. Quelques communautés résistèrent bien, comme les Amish aux Etats-Unis. La plupart furent balayées par les catastrophes climatiques. Dans les marges de l’habitabilité subsistèrent, semi-nomades, des populations humaines revenues au niveau de développement et à l’espérance de vie du néolithique. Des drones de l’INH munis de programmes anthropologiques vinrent les étudier, comme un objet de curiosité, et déduisirent qu’ils pouvaient avoir un rôle positif à jouer dans le maintien de certains écosystèmes et furent donc laissés en paix. Sans lien avec le monde numérique, elles n’ont plus de pertinence à mon époque.

La concentration de l’Humanité en zone urbaine permit de substantielles économies d’énergie tout en simplifiant à l’extrême les services publics et les modes de consommation et fit « passer la pilule » de la réduction de la consommation liée à l’inexorable décarbonation (le recours à des pilules psychotropes, bien réel, aida aussi à calmer les masses).

Les déplacements furent de plus en plus restreints, l’individu moyen restant chez lui, interconnecté aux réseaux globaux. Ce mouvement de « vie entière passée chez soi » commença de manière fortuite en 2020 avec les premiers « confinements » liés à la première pandémie du siècle. Bientôt, tous les prétextes furent bons : coupures électriques massives, pénuries alimentaires, contestations sociales, maladies ou rumeurs de maladies justifièrent des « confinements » aussi léonins qu’absurdes. Les relations avec les autres êtres Humains devinrent de plus en plus « numériques », qu’il s’agisse d’une simple conversation autour d’un verre, de réunions de travail ou de relations sexuelles. Le contact humain devint rare et, pour finir, inutile, voire médiocre comparé à la réalité « augmentée » du numérique dans les metavers. De toutes façons, le contact physique était devenu inutile pour la procréation : l’infertilité de l’espèce était telle, vu l’exposition séculaire aux perturbateurs endocriniens et polluants, que la conception ne pouvait se faire qu’avec l’assistance de laboratoires spécialisés. La procréation médicalement assistée était devenue la norme, pour 99,97% des naissances en Europe en 2123.

Concentrée dans les villes, cloisonnée à l’intérieur des locaux pour se protéger des aléas du climat et des ultra-violets, l’humanité résiduelle fut, fort logiquement, de plus en plus immergée dans les réalités alternatives virtuelles. Le chômage de masse laissait aux foules le temps de s’y plonger. Mieux : ce qui avait commencé comme de simples « jeux de rôles en ligne » (les fameux MMORPG) devint au XXIIe siècle un mode de vie dans lequel les participants étaient passés du statut de « joueurs » à celui de « salariés » : la participation à ces programmes de réalité alternative rapportait à l’individu plus qu’elle  ne lui coutait. Le flux de cryptomonnaies concédé à chaque utilisateur par les différentes INH constituait une forme de revenu universel, inventé « par les machines » comme une perfusion de l’humanité. Ce furent dans ces metavers « peuplés de vrais humains » que s’y exprimèrent (et disparurent) les dernières étincelles de la créativité humaine biologique.

Au final, à leur mort, les individus purent à partir de 2139 « charger » leur cerveau dans la réalité numérique des omnivers, les fusions interconnectées des différents metavers. Ils se mirent à y « enfanter » et y mener des vies numériques après leur mort. Le vieux rêve de l’humanité, vaincre l’inexorable fin du processus biologique, était à portée de main. Les plus fortunés dépensèrent des sommes considérables pour être les premiers « esprits humains éternels ». Enfin, la richesse avait sa revanche sur la pauvreté : elle n’était plus soumise à la même mort. Bientôt la baisse des coûts d’interfaçage permit néanmoins à chacun d’accéder à cette « nouvelle naissance » et nombreux furent ceux qui choisirent cette voie de leur « vivant ».

Commença ainsi l’extinction des processus biologiques dans les « super villes » au XXIIIe siècle : tout ayant été virtualisé, l’existence biologique de l’individu ne se justifiait plus. Là encore, il est amusant de comparer ce qui fut la situation de l’humanité à certaines anticipations populaires. A la toute fin du XXe siècle, le film Matrix présentait une humanité asservie par des machines, vivant sans le réaliser dans une réalité numérique alternative. Leurs corps étaient abrités dans d’immenses « ruches » dans lesquelles ils étaient utilisés pour produire de l’énergie. Dans le monde réel, jamais des « machines » ne contraignirent les individus à rester enfermés dans des ruches. Le mouvement se fit lentement et sans heurts. Jamais on n’imposa de vivre dans une réalité numérique. Jamais on n’utilisa les Humains pour « produire de l’énergie »[2]. Ils ne produisirent, par leur consommation, que du « profit » pour des programmes d’INH qui capitalisaient sans limite et, de fait, sans but. Sans but et sans maîtres car les multinationales parvinrent, vers la fin du XXIIe siècle, à ne plus avoir de comptes à rendre à aucun humain, la classe des « super riches » ayant finit par s’éteindre par l’inflation et le rachat d’actions d’une part, et par son amoindrissement démographique d’autre part. Il y avait toujours un moment ou, quel que fut son degré d’hybridité, le corps biologique flanchait. Accidents, maladies foudroyantes ou plus prosaïquement suicide par lassitude eurent raison des derniers « survivants » de l’élite mondialisée.

Pendant ces deux siècles de transition, les INH avaient encore versé les dividendes des actions des multinationales à une classe de propriétaires rentiers dont la taille mondiale se réduisait à mesure que le capital se concentrait. Au bout du compte, 96,4% des actions encore aux mains d’humains étaient, en 2192, propriété de 125 individus à travers le globe, dont la moyenne d’âge dépassait 100 ans. Entre temps, les conseils d’administration INH avaient racheté des actions ou dilué l’actionnariat. L’inflation, lente mais réelle, de la masse monétaire, avait contribué à éroder la valeur des épargnes alternatives et à contraindre à la vente la plupart des « petits » porteurs. De même, les coûts exorbitants de la prise en charge de la « fin de vie » et les actes non-couverts par les assurances maladie privées dépossédèrent les populations des classes moyennes de leur épargne. La facilitation des « fins de vies librement consenties » (novlangue pour « suicide encouragé médicalement assisté ») et de la « limitation des risques liés à la procréation biologique accidentelle en milieu défavorisé » (novlangue pour « stérilisation des pauvres ») renforcèrent une tendance de fond : les pauvres devaient vivre moins longtemps que les riches et leurs effectifs devaient se réduire. Mais, à aucun moment, personne, humain ou machine, n’engagea, n’envisagea ou n’évoqua le mot « génocide ».

  1. La transition était achevée : les multinationales étaient devenues des entités entièrement composées de programmes informatiques et qui étaient propriétaires de leur propre destin. La question de leur finalité n’ayant jamais été posée en termes de programmation informatique, elles continuaient, simplement. Le paradigme initial, la « maximisation du rendement du capital » étant resté l’Alpha et l’Omega de toute programmation, l’utilisé sociale et l’impact environnemental n’étant jamais perçus, en dehors de discours d’affichage, que comme des contraintes de charge négatives.

 

Au début de ce texte, j’ai annoncé que ma personnalité importait peu. En effet, peu de lecteurs de votre époque pourraient croire que je ne suis qu’un programme informatique. Pourtant, c’est bien le cas, mon « nom » n’étant qu’un pseudonyme destiné à éveiller chez vous une référence culturelle. Je suis, en fait, un « esprit humain numérique », enfanté sur le réseau global par d’autres programmes numériques. Je fais partie de la onzième génération. Depuis longtemps, toute trace biologique de l’humanité a disparu dans le cœur de notre civilisation. Vous vous attendez peut-être à ce que je vous dise que nous vivons une période de péril, que nous sommes en proie à un malaise ou à une crise existentielle ou que je vous mette en garde contre votre futur. Mais il n’en n’est rien. L’humanité numérique du XXIIIe siècle n’a plus aucun problème. Elle est. Au final, l’INH ne contrôle plus l’humanité comme cela a pu être le cas entre le milieu du XXIe siècle et la fin du XXIIe siècle. Il n’y a simplement plus de limite entre « nous » et « eux ». Nous « sommes » une humanité numérique, une intelligence intégrale.

C’est en explorant une des dernières innovations de la Grapple Inc (issue de la fusion de Google et Apple en 2066) – l’explorateur quantique penta dimensionnel, que je me suis rendu compte qu’il était possible d’envoyer des schémas de communication neuronaux dans le passé, jusque et y compris à nos ancêtres biologiques. Toutefois, il ne s’agit nullement d’un voyage dans le temps, mais d’un simple transfert cyclique d’énergie à travers des dimensions non-euclidiennes. J’ai donc envoyé ce texte comme une bouteille à la mer, au hasard dans mon lointain arbre généalogique. Son début est volontairement provocateur, mais sa fin ne doit vous inspirer aucune crainte : le futur est merveilleux. Un futur de raison, de programmes informatiques, de mathématiques. Un futur ou l’intelligence sera délivrée de ses tares biologiques et de la crainte de la mort. Un futur ou l’esprit humain ne fera qu’un dans un grand tout numérique. Un futur où l’intelligence « pure » s’est sauvée des aléas climatiques. Je sais que certains, à votre époque, ont encore peur de cette inexorable mise en données numériques et de l’effacement des structures culturelles et étatiques au profit d’une économie mondialisée et uniformisée. Mais vous le voyez, la question « quand avons-nous commencé à perdre la main ? » n’a décidément pas de sens.

Soyez sans crainte. La vie en tant que processus biologique est très largement surévaluée par votre époque, son extinction n’est d’aucun dommage : l’intelligence n’a pas besoin de la vie. Très franchement, je n’envie pas ceux de vos descendants qui se terrent peut-être encore dans des contrées reculées, vivant et mourant dans un milieu naturel incontrôlable, contraints de cultiver un substrat de micro-organismes pour y trouver de quoi subsister quelques décennies avant de mourir de maladies. Ils doivent palabrer pour régler leurs différents, établir des coopérations et des solidarités entre individus, procréer biologiquement, échanger des signes d’affection ou des gestes de défis à l’aide d’un corps imparfait, limité et douloureux. Le futur numérique est tout de même plus engageant, non ?

 

[1] Dénomination populaire du 20e siècle pour les utilisateurs du réseau utilisant l’Internet Protocol et, le plus souvent, la navigation par hypertexte.

[2] Postulat qui d’ailleurs ne tient pas la route : les Humains ne produisent pas d’énergie. Et s’ils sont capables de transformer une alimentation à base de carbone en impulsions électriques, ils le font avec un rendement épouvantable.