Retour à l'accueil

 

Culture Numérique

Auteur : Dominique Cardon

 

Introduction

 

Al²ors que l’irruption du numérique dans nos sociétés est souvent comparée avec les grandes inventions du début de la Révolution industrielle, pour l’auteur, c’est l’imprimerie qui constitue un point de départ pertinent. Les deux ruptures présentent des caractéristiques similaires, tant par leur nature (nouvelles modalités de production et de partage des connaissances) que par les effets très diffus qu’elles produisent sur la société. Cardon nous invite à ne pas céder aux postures simplistes qui confèrent à la technique un prétendu déterminisme. Pour lui, la transformation des sociétés numérisées s’articule autour de trois « lignes de force » : l’augmentation du pouvoir des individus, l’apparition de nouvelles formes collectives et la redistribution du pouvoir et de la valeur.

 

1. Généalogie d’Internet

 

La culture numérique repose sur une conviction fondamentale : l’idée que des programmes informatiques peuvent améliorer la société. Pour comprendre cette conviction, un détour par la généalogie d’Internet est indispensable.

 

L’ARPA et le réseau décentralisé

 

Internet est trop souvent confondu avec le web. Internet est un protocole de communication appelé TCP/IP qui permet de relier des ordinateurs entre eux via différents réseaux (câbles télé, téléphone, satellites). Le web (protocole HTTP), plus récent, est une des nombreuses couches de services qui dépend d’Internet, aux côtés du mail (SMTP), du chat (IRC), du partage de fichiers (FTP) etc.

 

Dans les années 1960, des chercheurs à l’ARPA (agence de R&D du ministère de la Défense américain) proposent de créer un réseau distribué d’ordinateurs. La différence fondamentale avec le réseau de télécommunications centralisé (téléphonique) existant, c’est que toutes les machines (« nœuds » du réseau) sont reliées entre elles. Alors que les réseaux classiques sont « _intelligents au centre et idiots à la périphérie_ »,  c’est exactement l’inverse que propose de faire l’ARPA. 

 

Coopération et hackers

 

« Internet est un outil coopératif qui a été inventé de façon coopérative » : c’est la raison pour laquelle il n’a pas d’inventeur en particulier. Il est né d’une coopération entre militaires, chercheurs, ingénieurs, hippies et amateurs qui ont permis d’assembler pas à pas l’ensemble des briques techniques nécessaires à son existence. Entre 1969 et 1983, le protocole TCP/IP est développé par une communauté internationale de pairs, suivant un processus de publications et de décision par consentement très similaire à celui appliqué par les chercheurs universitaires en sciences dures.

 

Ce principe de coopération ouverte aura deux conséquences :

 

- L’émergence de la culture hacker au MIT à la fin des années 1970, qui défend le logiciel libre comme une nécessité absolue et qui se caractérise par la fameuse « éthique du hacker » : curiosité, liberté de l’information, refus de l’autorité centralisée, savoir-faire comme seul critère de jugement, et esthétique.

- L’émergence de collectifs de gouvernance auto-organisés pour développer Internet : l’IETF (pour l’infrastructure et le réseau), l’ICANN (pour la gestion des noms de domaine), le W3C (pour les spécifications du web).

 

Les origines hippies de la culture numérique

 

Dans la Silicon Valley des années 1960-1980, une figure clé revient sans cesse. Il s’agit de Stewart Brand, proche de l’ARPA et fondateur du Whole Earth Catalog, publication mythique de la contre-culture des communautés hippies de l’époque dans laquelle naîtra l’idée des ordinateurs personnels (et qui influencera grandement les fondateurs d’Apple). Les hippies voyaient en effet dans l’ordinateur un moyen d’émancipation individuelle.

 

Les premières communautés en ligne

 

En 1985, les informaticiens amateurs de la contre-culture constituent, aux côtés de l’armée et des chercheurs universitaires, une des premières communautés virtuelles de l’histoire humaine : une version électronique du Whole Earth Catalog, sorte de proto-forum en ligne où se rassemblent « journalistes, développeurs, militants, artistes, freaks de toutes espèces ». Le WELL deviendra ainsi « le refuge des espérances déçues » des communautés hippies des années 1970 : dans leur esprit, c’est dans les communautés virtuelles que les idéaux de la contre-culture pourront se réaliser.

 

La leçon politique des pionniers d’Internet

 

Cardon situe la fin de cette ère des pionniers en 1996, lorsque le web prend son essor. Pionniers qui nous lèguent à la fois une vision utopique d’Internet (promesse d’émancipation individuelle, communauté choisie, transformation sociale décentralisée, méfiance vis-à-vis de l’État mais confiance dans le marché, pouvoir thaumaturgique de la technique) et une culture numérique pétrie de contradictions : « créative mais marchande, communautaire mais globalisée, intensément expressive mais un peu frime, ouverte mais inégalitaire ».

 

2. Le Web, un bien commun

 

Tout comme le protocole TCP/IP permet de comprendre l’infrastructure décentralisée d’Internet, le système du lien hypertexte, pierre angulaire du web, a permis d’organiser les informations sur la toile de manière décentralisée (contrairement au système de classement par catégories très centralisé bien connu des bibliothécaires et des documentalistes).

 

Tim Berners-Lee et l’invention du lien hypertexte

 

C’est d’ailleurs pour cette raison que Tim Berners-Lee invente le système du lien hypertexte, au CERN, en 1989. Au-delà de la simplification de l’organisation et de l’accès à l’information, le lien hypertexte, en assignant une adresse textuelle à des documents partagés sur Internet, rend la connexion aux réseaux beaucoup plus abordable pour les non-initiés. À partir de 1993, plusieurs évènements clés vont permettre une diffusion très large et rapide de l’usage du web : la consolidation de ses normes (HTTP/HTML), l’apparition des premiers navigateurs (Mosaic, Netscape) et la décision du CERN de renoncer à ses droits d’auteurs et de mettre les logiciels du world wide web dans le domaine public.

 

La bulle de la nouvelle économie

 

La période 1995-2000 voit le nombre de connexions Internet à domicile exploser. En parallèle, les États-Unis décident de confier à des opérateurs privés la gestion du réseau (jusqu’alors prise en charge par l’État fédéral). C’est l’époque où naîtront les premières sociétés commerciales du web, dont certains noms sont bien connus en 2021 : Amazon, Netflix, Google, Alibaba, Ebay… Malgré leur petite taille et leur absence de bénéfices, la cotation en bourse de ces sociétés explose sous l’effet conjugué de la dérégulation, de l’abondance de capitaux et de décisions politiques très favorables à l’émergence de la « nouvelle économie », jusqu’à ce que la bulle éclate à la fin des années 1990.

 

Innovations ascendantes

 

Les principales innovations du web ne sont pas venues de laboratoires ou de grandes entreprises. IMDb est créé par un étudiant passionné de cinéma, Craigslist par un entrepreneur individuel, Wikipedia démarre comme un hobby, le hashtag est proposé par un utilisateur de Twitter. Yahoo!, Google, Facebook sont créés par des étudiants. Le point commun de tous ces inventeurs : ce sont des « utilisateurs avancés » du web. Un modèle d’innovation ascendant qui brise tous les cadres conceptuels et qui s’articule en cinq étapes : une idée émerge d’abord comme envie personnelle, des innovateurs y répondent avec une solution « do it yourself » (hacking), l’innovation est partagée pour se diffuser rapidement, la diffusion devient virale, et le marché reprend (ou non) l’innovation. La dernière étape se caractérise par une lutte parfois impitoyable pour rafler la mise ; les spécificités de l’écosystème local dans lequel évoluent les innovateurs est un facteur clé de leur succès ou de leur échec (Dailymotion a inventé l’hébergement de vidéo amateurs, mais ce sont les fondateurs de Youtube qui ont écrasé le marché grâce à leur proximité avec Google).

 

« L’information veut être libre » : logiciels libres et communs

 

« Le commun n’est ni un bien privé, c’est-à-dire la propriété exclusive d’un ou plusieurs détenteurs, ni un bien public gouverné par la puissance publique au nom de l’intérêt général », mais un bien géré par une communauté d’utilisateurs-contributeurs. Une définition qui s’applique aussi bien au lien hypertexte, aux logiciels libres et à l’open source. Jusque dans les années 1970, tous les logiciels étaient déjà libres au sens où on l’entend aujourd’hui (4 libertés fondamentales : liberté d’utilisation, d’étude, de modification et de distribution). En 1976, Bill Gates initie le mouvement du logiciel propriétaire avec MS-DOS. Dans les années 1980, la communauté hacker réagit à la privatisation du système Unix en créant GNU (futur GNU/Linux), un système d’exploitation édité sous licence « copyleft » (permettant de protéger juridiquement les 4 libertés en contrant le copyright). Marginal dans les années 1980, le logiciel libre connaîtra un succès phénoménal (tous les grands calculateurs et la quasi totalité des serveurs web les utilisent aujourd’hui). Il permettra l’émergence d’une nouvelle forme d’organisation du travail dans laquelle les tâches sont très finement distribuées sans autorité centrale… au sein d’une « aristocratie de méritants » (les contributeurs les plus actifs). Face au renforcement systématique du domaine de la propriété intellectuelle qui  démarre dans les années 1980 (brevetabilité du vivant, allongement de la durée des droits d’auteurs), le juriste Lawrence Lessig, proche de la mouvance hacker, invente la licence Creative Commons, qui reprend le système de _copyleft_ en l’appliquant aux contenus publiés sur le web.

 

Wikipedia et l’auto-organisation

 

Pour l’auteur, Wikipedia, projet auto-organisé pharaonique, relève du « miracle sociologique ». Principale leçon à en tirer : « la compétence n’est pas consubstantielle à un statut ou à un diplôme ; c’est une qualité que l’on démontre par la pratique ». Le secret du succès et de la fiabilité (démontrée depuis 2005) de Wikipedia : la dynamique de ré-écriture et de relecture critique entre pairs. Comme le dit Elinor Ostrom : « plus grande est la liberté laissée à l’utilisateur, plus sont nécessaires les règles d’auto-gouvernance de la communauté et plus il importe que chacun participe à la modification de ces règles. » Règles qui permettent de gérer les conflits entre contributeurs.

 

Le Web, entre le marché et les communs

 

Dualité des mondes numériques : fièvre marchande de la nouvelle économie et production de biens communs. « Cette dualité est, dès l’origine, consubstantielle à la culture numérique. Elle s’enracine dans une même réalité : le web est une infrastructure d’échanges décentralisés rendant possible toutes sortes d’agencements collectifs qui peuvent aussi bien prendre la forme de marchés que de communautés »

 

Propriété essentielle du web : « elle favorise des phénomènes d’_intelligence collective_ », d’une part parce que l’information numérique est un bien non rival (la consommation des uns ne diminue pas le stock pour les autres) ; d’autre part parce que le développement du web agit comme un multiplicateur d’externalités positives (créer des liens hypertextes engendre une intelligence collective canalisée par l’algorithme PageRank de Google).

 

Question : comment se distribue la valeur produites par ces externalités positives ? Cardon parle de dispositif d’intelligence collective génératif si cette valeur est « rendue aux internautes » pour leur donner du « pouvoir d’agir » (Wikipedia, Openstreetmap). A contrario, on parlera de dispositif extractif si la valeur créée par l’intelligence collective est captée par la plateforme (GAFAM). En permettant l’échange d’informations à grande échelle, le web encourage deux modèles de production que l’on retrouve dans la culture numérique : d’un côté, la coopération et les communs ; de l’autre, l’extraction et la marchandisation.

 

3. Culture participative et réseaux sociaux

 

L’émergence du web marque une transformation radicale de l’espace public. D’abord parce que tout le monde peut désormais prendre la parole (locuteur) dans un espace public autrefois réservé aux institutions et aux experts. Ensuite, parce que les modalités de prise de parole (les sujets) se diversifient.

 

Dans le schéma ci-dessus, l’espace public traditionnel (presse, radio, télé) correspond à la colonne de gauche, d’abord avec la sphère publique restreinte qui naît au XVIIIe (Habermas), puis s’étend à l’ensemble des citoyens avec la montée en puissance de la presse au XIXe. Journalistes, experts et institutions y jouent le rôle de « gardiens du seuil » pour décider de ce qui relève de la sphère publique ou privée.

 

La transformation numérique de l’espace public

 

La colonne de droite correspond aux nouvelles modalités de l’espace public. D’abord avec le web participatif, qui permet à n’importe quelle personne de prendre la parole sur les personnalités de l’espace public traditionnel. Dans cette nouvelle configuration, les « gatekeepers » sont les algorithmes, qui décident (à partir des liens hypertextes) du peu de contenu qui mérite d’être vu – puisque, comme le rappelle l’auteur, pour l’essentiel, « le web est un cimetière de contenu ».

 

Enfin, avec l’émergence des réseaux sociaux apparaît le « web en clair-obscur », dans lequel « des quidams parlent de quidams à des quidams » : c’est là qu’est « la grande nouveauté sociologique ».

 

Typologie des réseaux sociaux en ligne

 

Deux variables, représentées dans le graphique ci-contre : à l’horizontale, les facettes des « identités multiples » que nous projetons sur les réseaux (identité reçue/produite) ; à la verticale, la « dynamique de simulation de soi » (identité réelle/actuelle ou projetée/potentielle).

 

Chaque réseau social nous invite à mettre en avant des traits spécifiques à chacun de ces quatre quadrants, dessinant ainsi quatre familles de réseaux sociaux. Ils sont donc bien « des espaces de visibilité paramétrables qui encouragent les internautes à créer des représentations de leur identité adaptées aux différents publics que les plateformes leur permettent de rassembler autour de leurs comptes. Les formats de visibilité variés offerts par les plateformes invitent les participants à mobiliser des facettes identitaires multiples, à s’engager dans des interactions qui ne sont pas de même nature, à se lier à des réseaux sociaux composés selon des principes très différents » : se cacher pour voir (paravent), se montrer tout en se cachant (clair-obscur), tout montrer et tout voir (phare), se voir, mais caché (mondes virtuels).

 

Caractéristiques des réseaux sociaux du web

 

Il y a trois enseignements à tirer de cette transformation de l’espace public.

 

« Le premier porte sur l’architecture des médiations informationnelles qui façonnent ce nouvel espace » / « Réfutant l’idée de la foule tumultueuse, grégaire et mimétique érigée par Gustave Le Bon en nouvelle entité politique, Tarde soutient qu’il existe une forme de rationalité des publics et qu’ils se construisent selon deux processus orthogonaux » (vertical / horizontal) / avec « les réseaux sociaux numériques, les deux circuits s’entremêlent »

 

« Le deuxième enseignement de l’essor des réseaux sociaux a trait à l’articulation entre la vie dite réelle, ou hors ligne, et la vie dite virtuelle, ou en ligne » (voir tableau ci-dessus).

 

« Le troisième enseignement à tirer de l’essor des réseaux sociaux porte sur la manière d’accéder à l’information », qui dépend de la forme des réseaux relationnels. « Les réseaux sociaux numériques ne modifient guère la structure des liens les plus forts : la famille proche et les rares meilleurs amis » ; « en revanche, comme le montrent les travaux de Barry Wellman et de Charles Steinfeld, les réseaux sociaux numériques contribuent à augmenter légèrement la densité des liens faibles »

 

Identité en ligne

 

« Les individus obéissent à une nouvelle norme, de plus en plus forte dans nos sociétés : celle d’avoir une existence en ligne. Et cette norme n’est pas sans conséquences », notamment sur le rapport que les individus entretiennent à eux-mêmes. La fabrication de la personnalité en ligne passe par de nouvelles formes de réflexivité (ex. pratique du selfie), et induit un paradoxe : en affichant leur singularité, les individus participent à des processus d’uniformisation mimétiques. En outre, la frontière entre vie publique et vie privée s’individualise : la vie privée, à l’origine pensée comme un droit de protection, est de plus en plus conçue comme une liberté. Second paradoxe : si beaucoup considèrent ce processus d’individualisation comme un facteur d’émancipation, les stratégies de captation et d’extraction des grandes plateformes n’ont, elles, pas grand-chose d’émancipateur.

 

Pratiques créatives en ligne

 

Le développement des réseaux sociaux s’accompagne d’ « une augmentation générale des loisirs créatifs et [du] désir des individus de s’approprier les connaissances, les œuvres ou l’information de façon plus active. » Ainsi, « support de la sociabilité numérique, la photographie est devenue une technique conversationnelle, comme l’ont bien compris Snapchat et Instagram. » Mais « l’accès aux outils de production personnelle n’explique pas tout. Le phénomène tient aussi à un bouleversement des aspirations et des modes de vie. »

 

Les communautés de fan participent à l’émergence de nouvelles pratiques créatives en ligne. « La formation de ces communautés en ligne de passionnés peut s’expliquer à l’aide de la notion sociologique de force des coopérations faibles. Dans les groupes traditionnels (le club, l’église, le syndicat ou le parti), les collectifs se ferment sur eux-mêmes afin de maintenir entre eux des liens forts : pour commencer, les individus partagent les mêmes valeurs, puis ils coopérèrent à des réalisations communes qu’ils rendent ensuite visibles aux autres. De façon quelque peu caricaturale, on peut dire que la fabrication des collectifs en ligne que nous appelons communautés obéit au processus inverse : des internautes dispersés commencent par rendre public ce qu’ils font, ce qui les intéresse et ce qui les passionne. Ensuite, découvrant mutuellement leurs réalisations, ils s’agrègent en s’abonnant à une liste, à un groupe, à une page, à un service, afin de pouvoir interagir et partager. Alors, et alors seulement, il est possible que certains des participants aient le sentiment de partager les valeurs communes du groupe auquel ils se sont affiliés. […] Ce qui fait la force de ces coopérations faibles, c’est qu’elles ne requièrent pas de tous les participants qu’ils aient des valeurs communes ou qu’ils s’engagent avec la même intensité. Les collectifs sur le web tolèrent très bien une grande diversité de niveau d’engagement. »

 

Mais, dit Cardon, « gardons-nous d’une vision euphorique de cette nouvelle filière de la créativité » : l’économie des talents en ligne reste très fortement inégalitaire et de plus en plus captée par les filières industrielles.

 

Enjeux de régulation

 

« Pour les quatre configurations de prise de parole que nous avons identifiées, le législateur français a créé différents types de compromis » entre le droit qui régule la liberté d’expression et celui qui régule la vie privée. La dynamique  qui se met progressivement en place pour réguler la prise de parole dans l’espace public et le web participatif se caractérise par l’extra-judiciarisation : c’est aux plateformes (édition et hébergement) que l’on attribue la responsabilité juridique des contenus publiés.

 

4. L’espace public numérique

 

Comment ce nouvel environnement numérique impacte-t-il le « haut de l’espace public » (institutions, politique, médias) ? Sans tomber dans la vision naïve « d’une entrée triomphale dans une sorte de post-démocratie horizontale » ni céder à la tentation de considérer les mondes numériques comme un gigantesque « capharnaüm », Cardon s’intéresse ici aux nouvelles manières de faire de la politique qui émergent dans une société numérisée.

 

La démocratie et le numérique : un cadre d’analyse

 

Une des forces du concept de démocratie est son acception très large, qui permet d’envisager plusieurs modèles de démocratie : le modèle représentatif domine largement nos imaginaires depuis plus d’un siècle ; le modèle participatif émerge péniblement depuis une trentaine d’années. Cardon rapproche un troisième modèle, dit de « démocratie Internet » du concept de société civile, ou de société connectée. Les technologies numériques jouent un rôle transformateur dans chacune de ces sphères de la démocratie : « limité » dans le cas de la démocratie représentative, « incertain » dans le cadre de la démocratie participative et « perturbant » dans la démocratie Internet.

 

La forme politique d’Internet

 

Le web a accompagné l’émergence de nouveaux mouvements sociaux depuis plus de 30 ans : zapatistes, altermondialistes, hacktivistes, indignés… Mouvements que réunissent trois caractéristiques : une forte attention portée à la singularité des individus, une délégitimation systématique des figures de leaders, et un fort attachement aux procédures de décision démocratique (doublé d’une absence de projet commun préalable à la mobilisation). Ces mouvements peinent cependant à s’inscrire dans la durée et à obtenir des résultats politiques. Mais, s’interroge Cardon, « demander aux mobilisations de la démocratie internet d’avoir des effets sur la démocratie représentative, n’est-ce pas, encore et toujours, chercher à ramener vers le centre des mobilisations qui ont le pouvoir de transformer leurs participants, alors même que ces derniers ne cherchent pas nécessairement à prendre le pouvoir ? »

 

Démocratie représentative et participative

 

« L’horizontalité des échanges numériques n’est pas facilement compatible avec la centralité du pouvoir représentatif ».  La politique représentative s’approprie ainsi les technologies numériques plutôt pour devenir une « industrie de précision » (en ciblant les indécis) plutôt que pour créer plus de dialogue avec sa base électorale. Ces technologies ont deux impacts, plutôt limités, sur la démocratie représentative : elles facilitent l’émergence de nouveaux partis (Cinq Etoiles, Podemos) et la critique du pouvoir en place (ex. mobilisation des Gilets Jaunes).

 

La démocratie participative, elle, tente depuis plusieurs années de s’approprier le web comme un nouvel espace de débat public. Mais les dispositifs de participation numérique mis en place par les institutions rencontrent souvent un succès très mitigé. Pourtant, les internautes « ne cessent de produire une participation spontanée dans les différents espaces du web : opinions, critiques, remarques, indignations, propositions, moqueries, soutiens, détournements, etc. » (cf. les hashtags #jesuischarlie, #metoo, etc.)… participation que peine à capter la démocratie participative.

 

Les médias face à la révolution numérique

 

Au début des années 2000, le web promettait l’avènement d’une information gratuite et d’une ère « tous journalistes ». Ce ne sera pas le journalisme participatif qui asphyxiera les médias traditionnels, mais la perte de leurs revenus publicitaires (conséquence d’une demande réelle d’informations gratuites en ligne). Après que les grandes plateformes web aient capté l’essentiel de la valeur d’un nouveau marché publicitaire à la fois massif et personnalisé, deux nouveaux modèles d’affaires ont émergé : un modèle qui repose sur la production massive d’informations de faible qualité (permettant d’agréger des revenus publicitaires atomisés), et un modèle de paywall ou d’abonnement s’appuyant sur le retour d’un travail journalistique et éditorial de qualité. Un paradoxe cruel de cette transformation : les médias traditionnels restent -et de loin- les producteurs de sources d’information les plus consultées. La seconde stratégie de modèle d’affaires (« par le haut ») s’accompagne de deux grandes innovations de fonds : le datajournalisme et les _leaks_, qui introduisent une tension supplémentaire dans la définition même de la nature du journalisme.

 

Fake news panic : les nouveaux circuits de l’information

 

Cardon défend la thèse de Lazarsfeld, selon qui les médias produisent des effets « faibles » sur leur public : c’est-à-dire que l’interaction entre un média et son public n’est pas une boucle fermée, mais que le contenu diffusé par les médias est réapproprié et réinterprété via un schéma de relations sociales horizontales. Pour l’auteur, il faut apprendre à relativiser les chiffres venus du numérique (une fake news peut être partagée des millions de fois tout en ne représentant qu’une goutte d’eau dans l’océan du web). Ensuite, personne ne sait mesurer l’effet direct d’un message vu sur le comportement des individus. Troisièmement : être exposé à une fausse information ne signifie pas qu’on y croit. Enfin, « les internautes les plus exposés aux fake news sont des personnes très politisées et déjà convaincues »

 

« La théorie des effets d’agenda », cadre d’analyse propice à la compréhension des dynamiques d’opinions politiques, « soutient que si les individus ne sont pas influencés par des informations unitaires, ils sont sensibles à la manière dont les grands enjeux sont fixés pendant une campagne électorale. » C’est ce cadre qui permet d’observer une forte polarisation du paysage médiatique  américain autour des fake news en 2016.  Trois enseignements peuvent être tirés d’une comparaison franco-américaine des élections de 2016 et 2017. Un : le comportement des acteurs à haute visibilité décide de la visibilité accordée aux acteurs du bas. Deux : les sites de fact-checking ont un rôle important à jouer (mais pas chez les personnes déjà convaincues par les fake news). Trois : les mouvements de contagion en ligne se déroulent dans des discussions de groupe fermées.

 

Civic tech : démocratiser la démocratie

 

La civic tech comprend plusieurs courants traversés par une même « énergie militante [qui]  témoigne du déplacement du centre de gravité de la démocratie, de l’institution politique vers la périphérie des individus connectés ». Chaque courant poursuit des objectifs différents :

 

- Renforcer les mécanismes de la démocratie représentative (vox, accropolis, nosdeputes.fr)

- Équiper la démocratie représentative d’outils participatifs (ex. DémocratieOS)

- Transformer les procédures de la démocratie représentative (laprimaire.org, mavoix.info)

- Mettre en œuvre des projets politiques locaux (on parle alors plutôt de _social tech_)

 

Ces courants sont traversés par des tensions (militants/investisseurs, procédures/projets, CSP+/milieux populaires) et peinent à prendre en charge les rapports de forces et dissensus inhérents à la politique.

 

5. L’économie des plateformes

 

La transition numérique est aussi une profonde réorganisation des marchés et de l’économie : en 2006, seul Microsoft appartenait au club des 10 premières capitalisations boursières. Dix ans plus tard, la moitié du même club est composée d’acteurs du numérique (GAFA + Microsoft).

 

Le pouvoir des GAFA

 

Paradoxe : les GAFA totalisent une capitalisation boursière supérieure à la valeur du CAC40, des bénéfices colossaux (78Mds$ en 2016)… et très peu d’employés, puisque leurs 530 000 employés ne représentent qu’un quart de l’effectif d’une entreprise comme Walmart. Comment donc expliquer leur puissance ?

 

Trois lois de l’économie numérique apportent la réponse : la loi des rendements croissants (augmentation de la production > augmentation des facteurs de production), la loi des effets de réseau (augmentation du nombre d’utilisateurs ⇒ augmentation de l’utilité du service) décuplée par une forte réduction des coûts de transaction associée au numérique (accès direct et instantané à l’information). Cette combinaison de facteurs génère des modèles économiques à tendance monopolistique : c’est la troisième loi, celle du « _winner takes all_ ».

 

Économie du partage, économie des plateformes

 

« La frontière entre plateformes aux effets génératifs (qui redistribuent la valeur accumulée) et plateformes aux effets extractifs (qui accaparent la valeur produite) n’est pas facile à tracer. » D’un côté, l’économie du partage (ensemble de services apparu à la fin des années 2000 favorisant les échanges entre internautes : Couchsurfing, Blablacar etc.) repose sur un principe de réciprocité et se caractérise par l’ambivalence des attentes qui la sous-tendent (recherche de lien social et d’utilité individuelle). De l’autre côté, l’économie des plateformes (intermédiation marchande), a apporté deux transformations majeures aux marchés dits « bifaces » (ex. lecteurs/annonceurs) : d’abord, l’apparition d’acteurs comme Uber dont le rôle est purement celui d’intermédiaire (contrairement aux chaînes de télé traditionnelles, qui produisent du contenu) ; ensuite, l’utilisation intensive de données (qui permet aux plateformes d’« adopter une tarification originale, de manière à faire basculer le coût de leurs services d’un côté plutôt que de l’autre » du marché biface.

 

La publicité en ligne

 

Le financement par la publicité reste le modèle principal de l’économie numérique, avec deux grandes variantes : celui de Facebook, relativement similaire au marché de la publicité classique (ciblage des annonceurs selon les caractéristiques sociodémographiques des utilisateurs), et celui de Google, qui a révolutionné le marché. Le système, bien plus efficace, de Google Ads repose sur un principe d’enchère automatisée de mots clés dans le moteur de recherche. Le ciblage du public s’effectue en fonction de données de navigation récoltées via des technologies comme les Cookies Tiers, qui permettent de tracer les internautes. Le RGPD a permis de mettre en place un début de régulation pour ces technologies imposées « en catimini », mais cela n’empêche pas, pour l’auteur que constater que « la publicité a gangrené le web. Elle est à l’origine de la collecte sans mesure ni raison des données personnelles que les plateformes ont mise en place. Sans doute est-il urgent que les régulateurs édictent des règles encore plus strictes et requièrent un consentement vraiment éclairé des internautes. »

 

La notation et l’économie de la confiance

 

« Pourquoi cette numérotation de 0 à 5, accompagnée de ses petites étoiles, est-elle devenue le décor omniprésent des plateformes ? » Cardon explique la nécessité du phénomène par la disparition de la confiance entre vendeur et acheteur induite par les transactions en ligne. L’observation des notations en ligne permet de faire trois constats. Un : les notations sont hautes par défaut (les internautes attribuent une note basse pour alerter sur un vrai problème). Deux : les notations sont inégalement distribuées (20 % des consommateurs rendent +50 % des avis). Trois : le poids du système dans les décisions d’achat a ouvert la voie à un nouveau marché, celui des faux avis. Au-delà du système de notation, d’autres dispositifs viennent transformer la relation commerciale en ligne : les communautés de passionnés, les influenceurs, les forums de conseils jouent aussi un rôle central dans la création de la confiance vis-à-vis d’un vendeur.

 

Paradoxe : on assiste à la fois à une « démocratisation » des marchés et à une prise de pouvoir des grandes plateformes qui imposent unilatéralement leurs règles du jeu pour réorganiser les filières.

 

Open data et État plateforme

 

En dépit d’une tradition politique (France, US) favorable à la transparence des administrations publiques, ces dernières sont longtemps restées « fermées et secrètes » (des établissements comme l’IGN, l’INSEE, Météo France continuent de vendre des données publiques). Mais en quelques années a émergé un mouvement pour l’ouverture des données publiques, porté par des militants, des entreprises et les administrations. Elle donne lieu à la création de la mission Etalab, puis du site data.gouv.fr en 2011.

 

Bilan de l’ouverture des données publiques : les espoirs des militants n’ont pas vraiment été satisfaits, puisque les données publiques n’intéressent que très peu les citoyens et les journalistes. Les entreprises, appâtées par la manne économique que représentaient les données publiques (la CE valorisait le marché à 200md€), ont découvert que les données brutes sont très complexes à interpréter.

 

Digital labor

 

Le concept du digital labor s’oppose à la thèse de Toni Negri, selon qui la « multitude » connectée produit une grande valeur qui échappe largement au processus de marchandisation. Au contraire, pour les tenants du digital labor comme Antonio Casilli, « toutes les activités numériques sont une mise au travail généralisée des internautes par les plateformes » (Amazon Mechanical Turk étant l’exemple emblématique de la tâcheronisation des internautes). Peu de statistiques sont disponibles, mais l’expansion du micro-travail concerne avant tout des pays en voie de développement (Vietnam, Philippines, Bangladesh). En France, le débat porte sur les nouveaux métiers faisant appel à l’auto-entrepreneuriat (chauffeurs, livreurs). Un phénomène qui reste marginal (90 % de l’emploi est salarié), mais qui fait tout de même émerger de larges bassins d’emploi particulièrement précaire. D’où l’émergence de nouvelles organisations (coopératives, syndicats) qui réunissent ces nouveaux travailleurs, et qui contestent la « neutralité » revendiquée par les plateformes.

 

6. Big data & algorithmes

 

S’orienter dans le bazar du web

 

« Le volume gigantesque de données numériques auquel nous accédons a perdu toute signification. Chaque seconde, 29 000 gigaoctets sont publiés dans le monde, soit 2,5 exaoctets par jour. Exa, c’est 10 puissance 18, un milliard de milliards, soit un trillion. Comment se retrouver dans ce déluge de données ? [...] Les algorithmes sont devenus indispensables pour classer les informations (sur un moteur de recherche), personnaliser les affichages publicitaires (avec le ciblage comportemental), recommander les produits culturels qui correspondent à nos goûts ou nous guider vers la meilleure route possible (avec le GPS). » Or, il se trouve que les algorithmes sont loin d’être neutres : ils sont des choix sociotechniques qui pré-orientent le champ des possibles dans chaque domaine où ils jouent le rôle de « gatekeepers » (réseaux sociaux, moteurs de recherche etc.). Pour nous aider à comprendre, Cardon propose 4 familles d’algorithmes, en fonction de leur position relative aux données utilisées (schéma ci-contre) : à côté, au-dessus, à l’intérieur ou au-dessous.

 

Popularité et autorité

 

Cardon décrypte d’abord les deux premières familles d’algorithmes, en prenant l’exemple des moteurs de recherche. La première consiste à classer l’information en suivant un principe de popularité, comme le faisaient les moteurs de recherche avant Google : en comptant le nombre d’occurrences du mot clé sur les pages web indexées. Avec son algorithme PageRank, Google propose une logique fondée sur l’autorité : plus l’adresse d’une page web est citée dans d’autres pages web, plus son autorité dans le réseau est grande, et meilleur sera son classement.

 

Deux reproches au classement méritocratique à la Google « ont conduit à une évolution vers une troisième famille de classements numériques. Premier reproche, l’agrégation du jugement des pairs produit de puissants effets d’exclusion et de centralisation de l’autorité. […] Deuxième reproche, les mesures d’autorité ont un effet censitaire : ne participent au classement de l’information que ceux qui publient des documents comportant des liens hypertexte, comme les détenteurs de sites et les blogueurs ; les autres sont ignorés. » L’émergence des réseaux sociaux a en effet inauguré une ère de forte participation en ligne (likes, retweet, mentions...) sans l’utilisation de liens hypertextes.

 

Réputation et prédiction

 

Dans les algorithmes fondés sur la réputation et la prédiction, « le classement varie pour chaque utilisateur. [...] L’évolution vers la personnalisation est à la fois une conséquence de l’abondance des informations disponibles et la réponse à une attente de nos sociétés où les choix et centres d’intérêt s’individualisent. En ce sens, les nouveaux algorithmes du web épousent la dynamique sociale et culturelle qui a conduit les internautes à s’émanciper de l’autorité des médias traditionnels pour décider eux-mêmes des informations qui les intéressent plutôt que de subir une information qu’ils jugent ennuyeuse, moyenne, reflétant les goûts communs et les produits standards. »

 

Les algorithmes fondés sur la réputation partagent 3 caractéristiques. Un : les utilisateurs choisissent les informations auxquelles ils sont exposés en fonction de choix affinitaires. Deux : « les informations circulent entre les niches selon un mécanisme d’influence virale. » Trois : ces algorithmes créent des métriques de réputation (des « gloriomètres » : retweets, likes, etc.) que les utilisateurs s’approprient en développant des stratégies pour améliorer leur réputation.

 

« Si la réputation calcule les informations pour le cercle des amis et des followers, la prédiction personnalisée calcule quant à elle l’information destinée à un individu. [...] La méthode statistique particulière qu’elles utilisent, l’apprentissage automatique (machine learning), a longtemps produit des résultats intéressants mais peu spectaculaires. Or, les progrès récents des machines à prédire bouleversent la manière dont elles pénètrent nos sociétés. De façon surprenante, ces techniques sont aujourd’hui appelées ‘intelligence artificielle’ ».

 

Intelligence artificielle

 

« Si l’on voulait être rigoureux, il serait préférable de parler d’apprentissage automatique (machine learning) pour désigner la percée technologique que nous connaissons aujourd’hui et qui est en grande partie une conséquence de l’augmentation des capacités de calcul des ordinateurs (permises par les nouvelles cartes graphiques) et de l’accès à de très grands volumes de données numériques. Parmi les différentes techniques d’apprentissage, l’une d’elle, l’apprentissage profond (deep learning) à base de réseaux de neurones est, en réalité, le principal vecteur de la réapparition du terme d’« intelligence artificielle » dans le vocabulaire contemporain. »

 

Contrairement aux projets d’intelligence artificielle dominants jusque dans les années 1980, aujourd’hui « la machine apprend directement un modèle des données, d’où le nom d’apprentissage artificiel (machine learning) donné à ces méthodes. » L’apprentissage profond marche « en s’inspirant de la biologie : la méthode reproduit informatiquement le fonctionnement des neurones et des synapses du cerveau. Les données sont décomposées en entrées de la façon la plus élémentaire possible. Par exemple, pour les images, le signal en pixels est décomposé à l’aide des chiffres des trois valeurs RVB (rouge, vert, bleu) qui les caractérisent. » « On ajoute un nombre plus ou moins important de couches cachées pour arriver à un résultat final, car au bout des couches de neurones, il y a un objectif à satisfaire. On parle alors d’apprentissage supervisé »

 

À noter que « les techniques d’apprentissage actuelles sont supervisées – on donne aux machines un objectif (« Ceci est un chat »), pour qu’elle puisse apprendre leur modèle –, mais personne ne sait encore concevoir une intelligence artificielle non supervisée »

 

Auditer les algorithmes

 

« Comment et par qui voulons-nous être calculés ? Quel degré de maîtrise et de contrôle voulons-nous avoir sur les décisions que prennent les algorithmes ? Qu’est-ce que nous ne voulons pas les laisser calculer ? Certaines de ces questions sont éthiques, politiques, prospectives, philosophiques et concernent nos choix de vie les plus fondamentaux. D’autres sont concrètes, juridiques et urgentes. [...] Les algorithmes prennent déjà beaucoup de décisions pour nous : ils sélectionnent, classent et recommandent. [...] Mais l’exigence de transparence paraît de moins en moins suffisante pour assurer une surveillance efficace des algorithmes »

 

Pour l’auteur, l’enjeu de la régulation des algorithmes est plutôt de « savoir, d’une part, si l’effet de l’algorithme résulte des intentions explicites des concepteurs de la plateforme, d’autre part, si cet effet est observable ou non par les utilisateurs du service » (voir tableau ci-contre).

 

« Dans certaines situations, la pédagogie et l’éducation sont essentiels, dans d’autres c’est la vigilance des médias et des ONG qui est cruciale. Les informaticiens doivent pouvoir faire, de façon indépendante, des audits des calculs à l’aide de la rétro-ingénierie. Enfin, la surveillance doit parfois s’exercer moins sur les algorithmes eux-mêmes que sur les données à partir desquelles ils apprennent leurs modèles. Ces questions très nouvelles n’ont pas encore trouvé de véritables réponses, mais une discussion collective sur la manière dont nous sommes calculés et sur les limites que nous souhaitons fixer aux calculateurs devient urgente »

 

Surveillance numérique

 

« La grande réussite de l’architecture panoptique, explique Michel Foucault, est de faire disparaître le gardien de la tour. […] Dans un texte fameux, Gilles Deleuze a décliné ce thème comme celui du passage d’une société de surveillance à une société de contrôle. La surveillance n’est plus un pouvoir extérieur qui nous contraint, elle devient un mécanisme d’auto-contrôle par lequel les individus s’observant mutuellement inhibent leur comportement pour se caler sur les normes de la société. […] Si la question est aujourd’hui brûlante, c’est parce que trois surveillances différentes, celle du marché, celle des autres individus et celle de l’État [cf. stratégie de collecte massive de données par la NSA reproduite notamment en France], s’exercent ensemble sur nos données personnelles. »

 

« Pour aborder différemment le sujet de la surveillance, il paraît nécessaire de cesser de penser individuellement la vie privée, de cesser de la considérer comme un arbitrage que chacun serait amené à faire. Nous devons plutôt y réfléchir comme à un droit collectif par lequel, même si nous n’avons rien à cacher, il est aussi dans l’intérêt de tous de vivre dans une société où certains – journalistes, militants, ONG – puissent avoir des choses à cacher »

 

Conclusion

 

« Ce livre s’est ouvert sur un ton euphorique avec les pionniers du numérique. Il semble s’achever dans le cauchemar d’une société de surveillance. […] La culture numérique a perdu ce qui faisait son exceptionnalité, son caractère quelque peu aristocratique et inoffensif lorsqu’elle était un espace de jeu réservé à quelques-uns. Elle est devenue ordinaire et commune. En perdant son exceptionnalité, elle a été investie par des forces, des intérêts et des projets, ceux-là mêmes qui traversent nos sociétés. […] Plus que jamais, il appartient aux chercheurs, aux communautés, aux pouvoirs publics et surtout aux internautes de préserver la dynamique réflexive, polyphonique et peu contrôlable amorcée par les pionniers du web. »