Deux milliards de personnes sont aujourd’hui connectées à internet. D’ici quelques années, la majeure partie de l’humanité vivra enveloppée dans un flux constant d’informations. Les différents éléments de notre quotidien sont en train de devenir smart (les voitures, les frigos, les compteurs électriques, les lunettes, les montres, etc.), et nos organes ne tarderont pas à être eux aussi branchés uns à uns sur le réseau global.
Ce monde numérique, où nous construisons une part croissante de notre existence, est façonné par à peine plus d’un millier de scientifiques et d’ingénieurs en informatique, dont la plupart œuvrent dans la Silicon Valley. Ils sont à l’origine, entre autres, du langage HTML, de l’ordinateur personnel, du iPhone, des principaux logiciels que nous utilisons chaque jour et des sites internet les plus visités au monde.
Depuis trente-cinq ans, Jaron Lanier est l’un d’entre eux, même s’il ne leur ressemble pas. D’un côté, il est le père du concept de « réalité virtuelle », il a été le colocataire du fondateur du mouvement pour le logiciel libre, Richard Stallman, et il est membre du très influent Global Business Network. D’un autre côté, il n’est partisan ni de l’open source, ni de la gratuité de l’information, ni du web 2.0 ; il n’est pas en admiration devant les progrès de l’intelligence artificielle ; il ne lit pas avidement boingboing.net ou le magazine Wired (bien qu’il lui arrive d’écrire dans le second) ; et surtout, il exècre la doxa qui anime cette petite communauté et qui est en train de devenir, à ses yeux, le sens commun des sociétés numériques.
Cette idéologie repose tout entière sur un axiome : la vie est un système d’information. Selon cette perspective, une galaxie, l’océan, un être humain, une pensée ou une émotion sont des assemblages d’informations, des sortes de bases de données qu’un algorithme doit pouvoir rendre intelligibles et manipulables. Par un étrange retournement, en même temps que les ingénieurs qu’égratigne Lanier réduisent les individus à un rôle d’émetteurs d’informations et de calculateurs, ils font des informations de véritables personnes douées de vie et de conscience. La liberté dont ils parlent sans cesse s’applique à ces informations, et non aux individus dont elles maillent les existences. Tel est le cœur de la critique que Lanier adresse à la Silicon Valley.
Pour lui, internet est devenu le principal instrument de réduction de l’humain à des bits mesurables et organisables. Alors qu’il offrait il y a vingt ans le spectacle d’une grande anarchie extrovertie, le web est aujourd’hui constitué de troupeaux anonymes et standardisés conduits par de grands groupes commerciaux, tels que Facebook, Google, Yahoo et Amazon (Lanier oublie généralement de citer son employeur actuel, Microsoft), ainsi qu’une poignée d’associations comme Wikimedia et Mozilla.
Cette transformation du web en une série d’oligopoles produit, selon lui, quatre effets regrettables : la standardisation des contenus numériques et des comportements, laquelle s’accompagne d’un considérable appauvrissement culturel ; l’éloge des masses anonymes au détriment des individus singuliers ; le rabougrissement de l’économie et l’érosion des classes moyennes occidentales ; l’appauvrissement de notre conception même de l’humanité.
La standardisation des outils numériques et de leurs utilisateurs
Comme toute technique, l’informatique réifie des idées générales dans des dispositifs rigides et résilients. Chaque nouveau logiciel et chaque nouvel ordinateur ou périphérique ne peut ainsi fonctionner que s’il est ajusté à un écosystème informatique qui évolue relativement lentement. C’est la raison pour laquelle, selon Lanier, la singularité technologique est une faribole [1].
Les capacités computationnelles des machines (hardware) peuvent bien doubler à peu près tous les deux ans (loi de Moore), les logiciels et les algorithmes (softwares) ne suivent pas – sans parler des institutions et des habitudes culturelles, dont Lanier ne parle malheureusement pas [2]. Loin de représenter des merveilles de technologie et d’intelligence, la plupart des logiciels, des sites internet et des applications numériques sont à ses yeux des bricolages mal assurés. Au lieu d’accélérer au rythme des améliorations du hardware, le développement des softwares tendrait même à ralentir, car qui dit puissance de calcul démultipliée dit davantage de risques d’erreurs, la moindre imperfection étant amplifiée exponentiellement (il n’en parle pas, mais on peut penser aux flash crashes [3]).
Les ordinateurs les plus puissants du monde ont beau réaliser plusieurs millions de milliards de calculs par seconde, ils ne sont pas plus « intelligents » que leurs géniteurs, et restent encore beaucoup moins imaginatifs. Lanier rappelle à cet égard que Garry Kasparov n’a pas été vaincu par une machine mais par une équipe de scientifiques capables, au terme de douze années de travail acharné, de traduire en langage algorithmique les éléments les plus objectifs de la pratique des échecs. Comme le résume le joueur d’échec russe, « Deep Blue n’était intelligent qu’au sens où votre réveil électronique est intelligent [4] ».
En nous demandant de traiter les programmes avec lesquels nous interagissons comme des individus, leurs architectes somment en réalité les individus de se comporter comme des programmes. Un moyen très sûr de résoudre le test de Turing – qui consiste à deviner entre deux interlocuteurs cachés lequel est un ordinateur et lequel est un humain –, c’est d’abaisser l’humain au niveau de l’ordinateur, au lieu d’essayer d’élever l’ordinateur au niveau de l’humain. Et pourtant, nous met en garde Lanier, une machine n’est pas une personne, pas plus qu’une personne n’est une machine. Si les machines remplacent le travail qualifié, ce n’est pas parce qu’elles deviennent aussi intelligentes et sensibles que des humains. C’est simplement qu’on estime que ce qu’elles perdent en humanité, elles le gagnent en efficacité. Autrement dit, si nous pouvons assimiler une machine intelligente à un être humain, ce n’est qu’au prix d’un appauvrissement de notre conception de l’humanité.
Pour Lanier, nos activités numériques sont de plus en plus dirigées vers des algorithmes plutôt que vers des humains. Il est probable que des algorithmes prennent en charge la fabrication d’une part croissante des contenus numériques. Les internautes sont ainsi chaque jour davantage incités à se conformer à la logique des ordinateurs. L’expression de soi et la communication avec autrui dépendent de plus en plus de l’adhérence à des standards déterminés par des logiciels. Typiquement, Facebook offre à ses usagers d’exprimer leur individualité en remplissant des formulaires standardisés. Et tant pis pour tout ce qui ne rentre pas dans les cases ou reste intraduisible en termes numériques.
Une telle standardisation des contenus entraîne, selon Lanier, un considérable appauvrissement culturel. À ses yeux, la culture actuelle est en panne, comme condamnée au remixage sans fin des musiques, des émissions de télé et des films des années 1970-1990. On peut certes lui accorder qu’Internet, en rendant facilement accessible des montagnes de films et de musiques, a grandement favorisé la culture du remix et du mash up. Mais Lanier fait preuve d’une certaine mauvaise foi. Internet reposant sur la numérisation du réel, quoi de plus normal que la culture numérique fasse de la culture non numérique sa principale matière première, au moins dans un premier temps ? Il pourrait en revanche s’intéresser à la manière dont l’immense influence de la Silicon Valley sur le web favorise encore davantage l’hégémonie mondiale de la culture américaine.
La sagesse aveugle des foules
Le principe des sites web 2.0, comme Wikipedia, Twitter ou Facebook, c’est que leurs contenus sont produits par leurs usagers. Pour Lanier, le problème du web 2.0, c’est que l’individu y disparaît derrière la foule, et l’auteur derrière une masse informe de contributeurs anonymes. Wikipédia est à ses yeux exemplaire de cette fusion des points de vue singuliers en une vulgate impersonnelle qui se veut d’autant plus vraie qu’elle paraît moins subjective. Le web 2.0 promouvrait ainsi non pas l’intelligence individuelle et l’émancipation personnelle mais l’instinct grégaire, la mentalité de clan et le rejet des opinions contradictoires.
Il est clair, pour Lanier, que la célébration de la sagesse des foules cache en vérité l’apologie de la puissance des machines et du big data, cet ensemble de données si vaste qu’il requiert des méthodes inédites de stockage, d’organisation et de traitement. La foule représente aux yeux des ingénieurs du web 2.0 l’information libérée de ses émetteurs individuels. La masse aux effets si bénéfiques qu’ils révèrent, c’est celle des données. Pour Lanier, au contraire, l’information n’est qu’un produit. Elle n’émane pas des machines qui la moulinent et la distribuent en pièces détachées. Elle a un producteur, et celui-ci est encore souvent un être humain.
Il note à cet égard la conception paradoxale des foules défendues par les grandes entreprises numériques. D’un côté, la foule représente cette force émancipatrice qu’il faut laisser absolument libre. De l’autre, elle se réduit à une collection d’individus dont il faut modeler les moindres conduites au moyen d’incitations permanentes. Alors que les principaux sites internet se vantent d’une totale neutralité auprès de leurs usagers, ils font valoir à leurs véritables clients (les grands groupes leur achetant des données et des espaces de publicité) qu’ils connaissent et manipulent leurs usagers mieux que quiconque.
Lanier aurait pu ajouter à cet égard que les algorithmes utilisés par les principaux sites internet ne se contentent pas de classer leurs usagers selon des régularités statistiques, mais qu’ils influent sur ces usagers de manière à confirmer ces régularités. Ce faisant, ils tendent à créer une réalité qui correspond à leurs standards, quand bien même ces standards ne reposent que sur des réalités quantifiables. Par exemple, plus l’algorithme utilisé par un site de rencontre favorise la formation de certains types de couples et plus ces types de couples ont de probabilité de se multiplier. L’algorithme crée ainsi une réalité conforme à ses présupposés et à ses catégories statistiques (ou plutôt, aux présupposés de ses concepteurs et aux catégories statistiques utilisées par le site).
En somme, au lieu de créer de la nouveauté, les sites internet qui agrègent la majorité des internautes de la planète génèrent des conformités à la chaîne. Et ces conformités se renforcent à mesure qu’elles suscitent l’adhésion, par la simple force du nombre. C’est sans doute quand la logique des foules rejoint ainsi la standardisation performative que ses effets sur le réel sont les plus manifestes – et les plus dommageables. Lanier ne fait, hélas, qu’effleurer cette idée.
Le progrès technologique contre la croissance économique
Quand les économistes parlent du marché du travail, ils tendent soit à sous-estimer le progrès technologique [5], soit à voir dans les technologies numériques une nouvelle révolution industrielle génératrice de nouveaux emplois [6].
Au contraire, souligne Lanier, « Internet a détruit plus d’emplois qu’il en a créés. [7] » Certes, les activités de collecte, de stockage, de traitement et de distribution de l’information ne visent plus seulement à faciliter l’échange de biens et de services, mais deviennent elles-mêmes des services de première importance représentant un secteur économique à part entière. Cela ne compense pas pour autant les effets délétères du web sur le marché du travail.
Son dernier ouvrage, presque entièrement consacré à cette question, montre que la numérisation est en train de créer un monde où ce ne sont pas seulement les musiciens, les journalistes et les photographes qui seront au chômage, mais les conducteurs de taxis et de camions, les ouvriers, les employés de bureau, les traducteurs, les juristes, les vendeurs ou encore les enseignants et les médecins [8]. « Une fois que les voitures et les camions seront conduits par des logiciels et non par des humains, que des imprimantes 3D fabriqueront comme par magie des biens hier manufacturés en usine, que de lourds équipements automatiques rechercheront et collecteront les ressources naturelles, et que des robots-infirmières prendront en charge les aspects matériels du soin des personnes âgées [9] », c’est toute la classe moyenne qui se trouvera prolétarisée, tandis que les grands fournisseurs d’accès, les possesseurs des principaux serveurs et les fabricants de robots ou d’imprimantes 3D accumuleront une part croissante des richesses restantes.
Cet avenir funeste est en germe dans quatre phénomènes que Lanier tend à entremêler : la napsterisation de l’économie, l’automatisation, l’auto-entrepreneuriat, et le travail en ligne non rémunéré.
En tant que musicien professionnel, Lanier a assisté à la destruction de l’industrie musicale par Napster : une fois devenue consommable gratuitement et reproductible à l’identique à l’infini, la musique a perdu de sa valeur. Et c’est toute la production de musique qui a été démonétisée, mettant en chômage la plus grande part d’une classe moyenne de producteurs de musique, de musiciens et de vendeurs. La crainte de Lanier, c’est que les autres secteurs d’activités où l’on peut encore espérer échanger un bien ou un service contre de l’argent soient ainsi « napsterisés » et que la taille de l’économie s’en trouve toujours davantage réduite.
L’automatisation est, aux yeux de Lanier, la seconde menace qui pèse sur l’emploi. Des économistes comme Keynes et Leontief ont observé que la mécanisation de la production tendait à y réduire la part du travail humain. Mais jusqu’à récemment, la plupart des entreprises qui faisaient des profits et qui investissaient dans des équipements avaient tendance à embaucher. C’est de moins en moins le cas. Les machines ne sont plus seulement de gros calculateurs supplémentés de gros bras. Elles maîtrisent de plus en plus la locomotion, la dextérité, la coordination, le langage articulé, la réflexion et la perception. Ces nouvelles capacités leur ouvrent le champ de l’économie des services et des professions libérales. Ce qui est numérisé pouvant être pris en charge par une machine intelligente, il est à prévoir qu’un monde de plus en plus numérisé soit de plus en plus administré par de telles machines.
La diffusion de l’auto-entrepreneuriat peut également conduire à l’augmentation du chômage. Il s’agit là d’un phénomène distinct de la napsterisation. Par exemple, même si elle est in fine génératrice de licenciements dans le secteur de l’hôtellerie, l’entreprise Airbnb ne démonétise pas le service sur lequel elle repose. Les hôtels sont de moins en moins remplis, mais les personnes en voyage ou en déplacement ne continuent pas moins de payer pour avoir un endroit où dormir. Ils paient simplement de plus en plus des particuliers, au détriment des hôteliers.
Par ailleurs, Lanier oublie que la réduction de la part du travail humain dans les services ne date pas d’internet. Elle peut être facilitée par l’essor des technologies numériques, mais elle obéit à une multitude d’autres facteurs, au premier rang desquels la délégation aux consommateurs de toujours davantage de tâches de production, d’organisation et de contrôle autrefois confiées à des salariés [10].
Il aurait également pu ajouter que la diffusion de l’auto-entrepreneuriat entraîne indubitablement l’affaiblissement du salariat. L’auto-entrepreneur est en effet soumis à un contrat de fourniture de prestation relevant du marché commercial et n’est plus, dans ce cadre, protégé par le droit du travail.
L’économie numérique repose enfin sur la concentration et l’exploitation de données personnelles (personal data economy). Les serveurs géants que sont Facebook, Google et Amazon sont devenus des sortes de raffineries transformant des flots gigantesques de données en profils individuels, en schémas de comportement et en incitations ciblées. Les profits de ces grands groupes cachent un gigantesque vide comptable. Ce qui fait la valeur des sites qu’ils possèdent, c’est le nombre et le dynamisme de leurs usagers, davantage que les technologies sur lesquelles ils reposent, le travail de leurs salariés ou leur capacité à générer des bénéfices. Et pourtant, de même que nous estimons pouvoir consommer toujours plus de contenus numériques sans avoir à les payer, nous ne nous attendons pas à être rémunérés pour les informations que nous générons quand nous commentons des vidéos, quand nous tweetons, quand nous achetons en ligne ou quand nous postons des messages sur Facebook. Voilà selon Lanier le cœur du problème : les producteurs bénévoles de contenus numériques sont exploités et heureux de l’être [11].
La solution qu’il propose, c’est de rémunérer les émetteurs d’information et pas uniquement les grands serveurs qui la distribuent. En d’autres termes, il faudrait monétiser les échanges d’information en ligne et rétribuer les internautes à proportion des contenus qu’ils génèrent. Pour ce faire, il imagine une nouvelle comptabilité des activités en ligne qui attribue chaque contenu à un auteur et le protège par copyright, chaque internaute devant payer pour y accéder. Le moindre clic donnerait ainsi lieu à un ou plusieurs « nanopaiements ». Il envisage également que chaque serveur rétribue ses usagers pour les informations qu’il récolte sur eux. Nous sommes en train de tout digitaliser, tout mesurer, tout comptabiliser et tout contrôler, résume Lanier. Il nous faudrait aussi tout rétribuer. Traduire chaque bit et chaque clic en coûts et en bénéfices. Après avoir avalé la télévision, le téléphone, les livres, la musique et les journaux, le web devrait donc avaler le capitalisme.
Le problème, oublie-t-il, c’est que la plupart des internautes produisent des contenus sur des sites qui ne leur appartiennent pas et principalement sous la forme de commentaires. Autrement dit, ils consomment souvent davantage qu’ils ne produisent, et ce qu’ils produisent a généralement moins de valeur que ce qu’ils consomment. Si l’on ajoute à cela le fait que les contenus générés par des algorithmes possédés par les grands serveurs vont se multiplier chaque jour davantage, il est très probable que les internautes, dans leur très grande majorité, gagneront peu et dépenseront plus qu’ils ne gagnent.
Par ailleurs, n’oublions pas que les principaux espaces d’expression numérique sont contrôlés par quelques grandes entreprises. À chaque fois qu’une transaction aura lieu entre deux individus, ces intermédiaires prélèveront leur écot. L’effet de masse jouera ici contre les individus isolés et en faveur des sites qui agrègent la plupart des contenus en ligne. Ce système risque fort de générer des revenus négligeables pour les premiers et colossaux pour les seconds – et il sera de toute façon difficile de convaincre les mastodontes du web sans leur promettre ce genre de bénéfices.
La solution proposée par Lanier pose bien d’autres problèmes et ignore des paramètres aussi fondamentaux que les écarts de richesse d’un pays à l’autre et l’institution de régulateurs indépendants chargés de la bonne marche du système. Mais Lanier a un mérite non négligeable : il met le problème sur la table et propose une ébauche de solution.
Réinstituer l’humain ?
Pour Lanier, « la question la plus importante en matière de technologies de l’information est la suivante : “Dans quelle mesure affectent-elles notre définition de ce qu’est une personne ?” [12] » En l’occurrence, la technologie numérique semble nous transformer en profondeur à mesure qu’une partie croissante de notre culture et de notre environnement se trouve numérisée, que notre survie dépend toujours davantage de notre capacité à manipuler des informations par le biais de machines interconnectées, et que l’art, le droit, l’économie ou encore la politique sont reformulés selon les normes propres à la technologie. Qu’en sera-t-il demain, lorsqu’il deviendra difficile de ne pas accueillir des puces en tous genres dans son organisme ?
La diffusion croissante des technologies numériques, sous couvert de démultiplier nos capacités et nos champs d’action, tend à restreindre de plus en plus notre faculté de décision et notre domaine de responsabilité. Des logiciels nous conseillent ainsi quelles musiques écouter, quels films regarder, quoi manger et où, quoi porter et comment, etc. Seulement, comme nous l’avons vu, ces décisions sont essentiellement basées sur les aspects numérisés et quantifiables de nos existences. En passant l’expérience humaine au tamis de la numérisation, nous en excluons le non-codable, et de ce fait l’appauvrissons gravement. Tel est le dernier reproche que Lanier adresse au web tel qu’il a pris forme depuis une quinzaine d’années.
La technologie n’est qu’un outil au service de l’humain, rappelle-t-il à raison dans son premier ouvrage (de loin le meilleur des deux). Et gare à ceux de plus en plus nombreux qui glorifient les outils numériques comme s’ils constituaient des fins en eux-mêmes. Contrairement à une vue très répandue – entre autres par l’ancien directeur de Google Eric Schmidt [13] –, la technologie n’est ni vertueuse ni corruptrice en elle-même [14]. Elle ne rend ni meilleur ni pire moralement, culturellement ou intellectuellement. Elle tend simplement à rendre nos activités plus efficaces, que l’on gère un camp de réfugiés, que l’on cherche l’adresse d’une pizzeria ou que l’on prépare un attentat.
L’intronisation du principe d’efficacité en valeur cardinale des sociétés occidentales, en lieu et place des principes de justice, de dignité, d’égalité et de solidarité, est l’un des effets les plus saillants et les plus dommageables de ce fétichisme de la technique. Il est regrettable que Lanier ne prenne pas en compte cet aspect des transformations culturelles induites par le développement croissant des technologies numériques, car c’est là aussi que se joue l’avenir de l’humanité. Que faire des êtres humains qui coûtent plus qu’ils ne rapportent ? Si c’est une question de justice, de dignité, d’égalité et de solidarité, la réponse est évidente. Si c’est une simple question d’efficacité, la réponse est tout aussi évidente, mais ce n’est pas la même.
Lanier voit bien que l’ubiquité croissante des technologies numériques au sein des sociétés occidentales peut provoquer leur appauvrissement moral. Au sein des grandes entreprises du web, écrit-il ironiquement, « on trouve des salles remplies de docteurs en ingénierie diplômés du MIT. Ils ne sont pas en train de chercher des remèdes au cancer ou des sources d’eau potable dans les pays sous-développés. Non, ils développent des systèmes qui permettent à des adultes de s’échanger de petites images d’oursons et de dragons sur les réseaux sociaux. [15] ». Ce n’est certes pas grandiose, mais c’est toujours mieux, aurait pu préciser Lanier, que de développer l’arsenal militaire américain – tâche à laquelle ces ingénieurs auraient probablement consacré leur intelligence s’ils étaient nés cinquante ans plus tôt.
À cette situation, Lanier propose trois remèdes : rester critique, se méfier de l’hyperspécialisation et garder l’humain au centre du problème.
On peut légitimement trouver cela un peu court. Ainsi, n’est-ce pas la vie dans son ensemble qu’il faudrait sans cesse garder au centre du problème ? Ne faudrait-il pas mettre aussi au jour les agents et les intérêts terriblement puissants qui façonnent l’évolution technologique de l’humain, évolution qu’il est trop commode, et très inexact, d’expliquer uniquement par le jeu en apparence neutre de facteurs impersonnels et de règles objectives ?
On peut également répondre à Lanier que plus notre environnement est garni de technologies et plus il est humain, au sens où la part de ce qui n’a pas été pensé et créé ou modifié par des êtres humains s’y réduit toujours davantage. À mesure que les technologies sont développées et diffusées, le monde n’est donc pas de plus en plus déshumanisé, mais au contraire de plus en plus hominisé. Loin de représenter une grande rupture historique, Internet n’est en un sens qu’un outil de plus dans la panoplie que l’être humain se constitue depuis toujours pour contrôler son environnement.