L'écoumène numérique/Une révolution culturelle au cœur de l'écoumène numérique

Une page de Wikiversité, la communauté pédagogique libre.
Aller à la navigation Aller à la recherche
Début de la boite de navigation du chapitre
Une révolution culturelle au cœur de l'écoumène numérique
Icône de la faculté
Chapitre no 6
Leçon : L'écoumène numérique
Chap. préc. :La métaphore de la cité numérique
Chap. suiv. :La poursuite de l'appropriation au sein de l'écoumène numérique
fin de la boite de navigation du chapitre
Icon falscher Titel.svg
En raison de limitations techniques, la typographie souhaitable du titre, « L'écoumène numérique : Une révolution culturelle au cœur de l'écoumène numérique
L'écoumène numérique/Une révolution culturelle au cœur de l'écoumène numérique
 », n'a pu être restituée correctement ci-dessus.

Le développement de l'écoumène numérique peut apparaitre comme une histoire passionnante. L'un des premiers épisodes remarquables de ce récit se déroula en septembre 1983, lorsqu'un programmeur du Massachsetts Institute of Technology (MIT) appelé Richard Stallman, déposa un message original dans la newsletter net.unix-wizards destinée aux utilisateurs du système d'exploitation Unix. C'était un appel à soutien pour la création d'un nouveau système d'exploitation intitulé GNU qui consistait à produire une suite de programmes que tout utilisateur pourrait installer librement et gratuitement sur un ordinateur[1]. Dans son message transmis via ARPANET, le premier réseau informatique de longue distance qui précéda Internet, Stallman fait référence à la règle d'or pour décrire sa motivation[2]. Il s'exprime en ces termes :

Je considère comme une règle d'or que si j'apprécie un programme je dois le partager avec d'autres personnes qui l'apprécient. Je ne peux pas en bonne conscience signer un accord de non-divulgation ni un accord de licence de logiciel. Afin de pouvoir continuer à utiliser les ordinateurs sans violer mes principes, j'ai décidé de rassembler une quantité suffisante de logiciels libres, de manière à pouvoir m'en tirer sans aucun logiciel qui ne soit pas libre.

Le projet de Stallman, qui reçut rapidement le soutien nécessaire à son accomplissement, était en fait une réaction à l'arrivée des logiciels propriétaires qui, selon le projet GNU[3], ne respectaient pas les quatre libertés fondamentales de leurs utilisateurs :

- La liberté d'exécuter le programme, pour tous les usages (liberté 0).

- La liberté d'étudier le fonctionnement du programme, et de l'adapter à vos besoins (liberté 1). Pour ceci l'accès au code source est une condition requise.

- La liberté de redistribuer des copies, donc d'aider votre voisin, (liberté 2).

- La liberté d'améliorer le programme, et de publier vos améliorations, pour en faire profiter toute la communauté (liberté 3). Pour ceci l'accès au code source est une condition requise.

Il faut en effet savoir qu'à cette époque, le marché de l'informatique était en pleine mutation, et que le partage habituel des programmes et codes informatiques entre les rares étudiants ou chercheurs qui bénéficiaient d'un accès à un ordinateur était en train de disparaitre. Cette disparition était liée à la commercialisation croissante des logiciels informatiques couplée à l'apparition de nouveaux brevets, copyright et autres moyens techniques et juridiques destinés à privatiser leurs codes sources. Les clauses de non-divulgation firent alors leurs apparitions dans les contrats des employés des firmes commerciales et eurent pour effet de remplacer le climat de solidarité et d'entraide qui existait précédemment dans le monde de la recherche en informatique, par une nouvelle ambiance basée sur la concurrence et de compétitivité.

Commodore 64 avec disquette et lecteur
Fig. 6.1. Commodore 64 avec disquette et lecteur (Source : https://w.wiki/377 g)

Cette mutation était sans aucun doute liée à l'émergence d'un nouveau marché, suscité par l'arrivée des premiers ordinateurs domestiques. La production d'ordinateurs de tailles réduites répondait en effet au besoin d'embarquer du matériel informatique à l'intérieur des engins de l'industrie aérospatiale. Hors, la mise au point de ces ordinateurs transportables ne fut possible qu'après l'arrivée des premiers circuits intégrés financièrement inaccessibles pour un usage privé. Sauf que tout au long des années 70, leurs coût ne cessa de diminuer jusqu'à finalement permettre, en début d'année 80, la fabrication d'ordinateurs domestiques à des prix abordables.

En 1982, le commodore 64 entrait ainsi dans livre Guiness des records, et resta jusqu'à ce jour l'ordinateur le plus vendu au monde avec plus de 17 millions d'exemplaires[4]. Juste avant cela, en 1981, l'IBM Personal computer avait déjà fait son apparition et offrait une architecture ouverte qui servit par la suite de modèle pour toute cette gamme d'ordinateurs que l'on nomme encore de nos jours « PC ». Et il se fait que ces ordinateurs furent équipé d'un système d'exploitation livré par une société répondant au nom de Microsoft et qui avait été créée en 1975 dans une logique commerciale diamétralement opposée à celle du projet GNU et des logiciels libres. De ce simple contrat commercial, tout à fait anodin à l'époque, entre une firme productrice de matériel informatique et une autre productrice de logiciels, allait naitre le monopole de Microsoft dans la vente de programmes informatiques qualifiée de « hold-up planétaire » dans un ouvrage produit par un maître de conférences en informatique et une journaliste.par la journaliste.

Au moment de la rédaction de ce livre, en 1998, Roberto Di Cosmo explique à Dominique Nora que « 41 % des bénéfices des dix premiers mondiaux du logiciel » étaient réalisés par Microsoft et que les systèmes d'exploitation produit par cette société équipaient « plus de 85 % des micro-ordinateurs de la planète »[5]. Ceci alors que plus de 20 ans plus tard, en octobre 2022 et selon des analyses de la fréquentation du Web, cette situation de quasi-monopole reste toujours d'actualité avec plus de 70 % des ordinateurs de bureau fonctionnant sur Windows[6]. Ceci alors qu'en octobre de l'année précédente, 73.8 % des ordinateurs fonctionnaient avec un système d'exploitation fourni par Microsoft en 2021[7].

Ce monopole fut ainsi rendu possible par la signature d'un contrat entre IBM et Microsoft pour fournir le système d'exploitation nécessaire au fonctionnement des premiers PC. Ce programme en question provenait du Q-DOS, un acronyme humoristique de « Quick and Dirty Operating System »[8] préalablement fourni à Microsoft par la PME Seattle Computer Products, pour la somme de 50 000 dollars. Cette incroyable opération commerciale fit cependant l'objet d'un litige basé sur le fait que Microsoft avait intentionnellement oublié d'informer la PME que la commande était destinée à servir la société IBM. Sauf que celui-ci fut rapidement enteriné suite au versement d'un million de dollars supplémentaire. Comme l'explique Di Cosmo, tout en gardant les droits de propriété et de vente, le système d'exploitation produit par la PME fut ainsi rebaptisé MS-DOS par Microsoft afin d'honorer le contrat avec IBM qui allait rapidement regretter de n'avoir pas produit elle même son propre système :

IBM n'a jamais pris cette affaire de PC au sérieux : le mammouth n'a pas pris la peine d'acheter MS-DOS, ni même de s'en assurer l'exclusivité. Résultat : Microsoft a ensuite pu vendre MS-DOS – puis son successeur Windows – à tous les concurrents de « Big Blue », comme on surnommait alors IBM. À l'époque, les constructeurs de machines dominaient l'industrie. Personne ne se doutait qu'avec la standardisation autour des produits Intel et Microsoft et l'apparition des cloneurs asiatiques, tous les profits – et le pouvoir – de la micro-informatique se concentreraient dans les puces et les systèmes d'exploitation.

En parlant de puces, Di Cosmo fait ici allusion à un autre monopole beaucoup moins connu qui apparu sur le marché des circuits intégrés. Il s'agit de celui de la société Intel Corporation le premier fabricant mondial de semi-conducteurs destinés à la production de matériel informatique (microprocesseurs, mémoires flash, etc.). À titre indicatif, cette entreprise a atteint en 2015, un record de 96.6 % sur le marché des serveurs informatiques[9]. Tout comme celui de Microsoft, ce monopole fera l'objet de plusieurs contentieux portant sur des pratiques anticoncurrentielles. Une situation face à laquelle Intel n'hésitera pas, en 2009, à verser 1.25 milliard de dollars à la société Advenced Micro Devices (AMD) pour qu'elle abandonne ses poursuites[10].

Mascotte du projet GNU à gauche et du projet Linux à droite.
Fig. 6.2. À gauche la mascotte du projet GNU ; à droite celle du projet Linux, appelée Tux (source : https://w.wiki/377i)

Mais, pendant que Microsoft et Intel développaient leurs monopoles économiques, un nouvel évènement majeur allait marquer l'histoire du logiciel libre. Son déclenchement fut à nouveau un appel à contribution, qui fut posté cette fois le 25 août 1991 par Linus Torvalds, un jeune étudiant en informatique de 21 ans. Le message fut envoyé par le système de messagerie Usenet et via la liste de diffusion du système d'exploitation MInix, une sorte de UNIX qui fut simplifiée par Andrew Tanenbaum dans un but didactique. Loin d'imaginer que cela ferait de lui une nouvelle célébrité dans le monde du Libre[11], Torvalds avait posté un modeste message qui commençait par le paragraphe suivant[12] :

Je fais un système d'exploitation (gratuit) (juste un hobby, ne sera pas grand et professionnel comme gnu) pour les clones 386(486) AT. Ce projet est en cours depuis avril et commence à se préparer. J'aimerais avoir un retour sur ce que les gens aiment ou n'aiment pas dans minix, car mon système d'exploitation lui ressemble un peu (même disposition physique du système de fichiers (pour des raisons pratiques) entre autres choses).[13]

Fig. 6.3. Graphique de répartition de la diversité des distributions basées sur Debian en fonction du temps et des distributions intermédiaires.

Bien qu'il fût présenté comme un passe-temps, le projet qui répondait au nom de « Linux », fut rapidement soutenu par des milliers de programmeurs de par le monde, pour devenir bientôt la pièce manquante du projet GNU. Car le système d'exploitation développé par Richard Stallman n'avait effectivement pas encore terminé la mise au point de Hurd, son noyau de système d'exploitation, bien que cette partie du code informatique soit responsable de la communication entre les logiciels et le matériel informatique. La fusion des codes produits par du projet GNU et Linux permit donc de mettre au point un système d'exploitation complet, stable et entièrement libre intitulé GNU/Linux.

À partir de cette union, la communauté des développeurs aura ensuite vite fait de personnaliser les choses en créant de nombreuses variantes au système d'exploitation original qui sont appelées communément distributions. L'une de toutes celle-ci intitulée Debian est remarquable par le fait qu'elle est la seule qui soit à la fois gratuite et non produite par une entité commerciale[14]. Raison pour laquelle sans aucun doute, qu'elle est utilisée sur les serveurs de nombreuses organisations à but non lucratif dont ceux de la fondation Wikimédia chargée de l'hébergement de tous les projets Wikimédia[15]. Ceci tout en sachant que la distribution Debian sert aussi de base à plus de 150 distributions dérivées, dont Ubuntu l'une des plus connues du grand publique (figure 2.6 ci-dessous).

À ce premier aspect révolutionnaire que l'on peut retrouver dans l'histoire du logiciel libre s'en ajoute ensuite une innovation méthodologique dans la production du logiciel informatique, que l'on découvre en lisant un article intitulé « La Cathédrale et le bazar »[16]. Dans cet écrit, Éric S. Raymond parle de « cathédrale » en référence à ce qui se passe au niveau des logiciels propriétaire et utilise la mot « bazar » pour qualifier le fonctionnement du logiciel libre. D'un côté il décrit une organisation pyramidale, rigide et statutairement hiérarchisée, comme on la voit souvent apparaître dans les entreprises. Alors que de l'autre il parle d'une organisation horizontale, flexible et peu hiérarchisée statutairement, que Raymond avait lui-même expérimentée dans le développement d'un logiciel libre. Une expérience durant laquelle il prétendit s'être rallié au « style de développement de Linus Torvalds – distribuez vite et souvent, déléguez tout ce que vous pouvez déléguer, soyez ouvert jusqu'à la promiscuité »[17].

Comme autre épisode passionnant de la création de l'écoumène numérique, il y a ensuite la naissance du réseau Internet que l'on peut au départ d'une perspective purement technique, considérer comme un réseau créé sur base d'une suite des protocoles (TCP/IP) mis au point par Bob Kahn et Winton Cerf et dont la première mise en pratique fut réalisée en 1977[18]. Ceci en sachant qu'une présentation du projet eu déjà lieu en 1973, lors de la conférence sur les communications informatiques de l'International Network Working Group.

Il faut ensuite savoir que contrairement à certaines idées reçues, le réseau Internet ne fut pas produit par les forces armées américaines, même s'il est vrai que celles-ci ont participé au financement de la Defense Advanced Research Projects Agency (DARPA)[18] qui fut à l'origine du réseau ⁣ARPANET, considèré aujourd'hui comme l’ancêtre d'Internet.

Ce réseau pionnier fonctionnait en fait avec le Network Control Protocol (NCP), un protocole différent de celui utilisé pour Internet et qui fut élaboré en 1970 par un groupe d'universitaire intitulé le Network Working Group[19]. En soulignant que les participants avec mis au point une procédure très horizontale de gestion des décisions intitulée Request For Comments (RFC) que l'on peut traduire en français pas « appels à commentaires ». Et il est intéressant de constater que cette méthode décisionnelle est toujours utilisée aujourd'hui comme dans le site Meta du mouvement Wikimédia. Il s'agit donc là, d'un héritage important puisque les RFC représentent « incontestablement l’un des symboles forts de la "culture technique" de l’Internet, marquée par l’égalitarisme, l’autogestion et la recherche collective de l’efficience. »[19]

Ainsi, pendant que ces universitaires développaient leur propre réseau selon leur propre façon de faire, l'armée américaine préférat développer dans son coin son propre réseau appelé MILNET, en le séparant du réseau ARPANET qui lui restera un « réseau pour la recherche et le développement »[20]. Cette séparation s'effectua en 1983, précisément l'année où Richard Stallman postait sa demande d'aide pour le projet GNU à une époque ou ARPANET comprenait moins de 600 machines connectées[21].

C'est donc bien plus tard et au courant des années 90, qu'Internet se sera développé jusqu'à produire ce vaste réseau mondial que l'on connaît aujourd'hui. Une tâche qui aura été accomplie en partie par l'Internet Society, une ONG créée en 1992, dans le but d'assurer l'entretien technique des réseaux informatiques et du respect des valeurs fondamentales du réseau[22].

Au vu de l'histoire d'Internet, le logiciel libre est donc apparu avant la naissance de ce réseau mondial. Tandis que pour passer des quelques centaines d'ordinateurs interconnectés via ARPANET aux milliards de devises informatiques connectés à Internet à ce jour, il fallut attendre l'installation à la fin des années 80, les premières Dorsales Internets transnationales. Celles-ci permirent notamment de franchir les océans pendant que le protocole TCP/IP finissait d'être adopté dans le monde entier. Michel Elie, pionnier de l'informatique et responsable de l'Observatoire des Usages de l'Internet, témoigne de cette époque dans un article intitulé « Quarante ans après : mais qui donc créa l'internet ? »[23] en écrivant ceci :

Le succès de l'internet, nous le devons aux bons choix initiaux et à la dynamique qui en est résultée : la collaboration de dizaine de milliers d'étudiants, ou de bénévoles apportant leur expertise, tels par exemple ces centaines de personnes qui enrichissent continuellement des encyclopédies en ligne telles que Wikipédia.

Nuage filandreux de lignes multicolores
Fig. 6.4. Carte partielle d'Internet, créée sur base des données d’opte.org en date du 15 juin 2005 (source : %E1 %B5 %89 https://w.wiki/377ᵉ)

Cette comparaison entre Internet et le projet Wikipédia est bien sûr très interpellante. Elle invite à interroger la manière dont la culture du logiciel libre et des développeurs d'Internet ont influencé le mouvement Wikimédia comme bien d'autres organisation pour y faire ressurgir, sous une nouvelle forme, la contre-culture des années 60. Un mouvement social apparu aux États-Unis dans le contexte de la guerre du Viêt Nam, qui fut défini par Théodore Roszak dans son ouvrage[24] titré : « Vers une contre-culture : Réflexions sur la société technocratique et l'opposition de la jeunesse »[25] selon ces propos :

Le projet essentiel de notre contre-culture : proclamer un nouveau ciel et une nouvelle terre, si vastes, si merveilleux que les prétentions démesurées de la technique soient réduites à n'occuper dans la vie humaine qu'une place inférieure et marginale. Créer et répandre une telle conception de la vie n'implique rien de moins que l'acceptation de nous ouvrir à l'imagination visionnaire. Nous devons être prêts à soutenir ce qu'affirment des personnes telles que Blake, à savoir que certains yeux ne voient pas le monde comme le voient le regard banal ou l'œil scientifique, mais le voient transformer, dans une lumière éclatante et, ce faisant, le voient tel qu'il est vraiment.

À la lecture de ce texte publié en 1970, il semble complètement paradoxal qu'une contre-culture qui voit dans la technique une chose « inférieure et marginale » et qui porte sur la science un regard « banal », puisse avoir un quelconque lien avec la création d'Internet. Cependant, cette énigme fut résolue suite à la publication l'ouvrage intitulé :« Aux sources de l'utopie numérique : De la contre-culture à la cyberculture, Stewart Brand, un homme d'influence »[26].

Dans ce livre qui retrace la vie de Steward Brand, on y découvre comment ce designer compréhensif observe les technologies qui se voient développées et converties en outils dédiés au bonheur humain[27]. Car en réalité, le mouvement Hippie « utilisera tout ce qui était à sa disposition à l’époque pour parvenir à ses fins : LSD, spiritualités alternatives, mais également objets technologiques les plus en pointe grâce à l’influent Steward Brand, génial créateur d’un catalogue interactif, ancêtre analogique des groupes de discussions numérique qui émergeront des années plus tard. »[28]

En complément de cet ouvrage, on peut aussi se référer aux propos de David D. Clark qui, à mon sens, illustrent parfaitement la présence des schèmes de la contre-culture dans les pensées de ceux qui furent les précurseurs d'Internet. Lors d'une plénière de la 24ᵉ réunion du groupe de travail sur l'ingénierie Internet, David Clark prononça effectivement cette phase, qui restera inscrite dans les valeurs techniques et politiques des ingénieurs à qui il s'adressait[29] : « Nous récusons rois, présidents et votes. Nous croyons au consensus et aux programmes qui tournent »[30]. De ces deux phrases, on peut donc supposer que le mépris de la contre-culture des années 60 envers la technique et la science, se sera transformé en un refus d'autorité.

Photo de Tim Berners-Lee en 2014 (source : https://w.wiki/4LKE)
Fig. 2.7. Photo de Tim Berners-Lee en 2014 (source : https://w.wiki/4LKE)

Le réseau Internet une fois mis en place, de nombreuses applications ont pu s'y développer dont la plus connue est certainement le World Wide Web que l'on désigne souvent par l'expression « Web » ou « toile » en français. Ce fut Tim Berners-Lee qui en fut l'inventeur. Actif au Conseil Européen pour la Recherche Nucléaire (CERN), ce chercheur eut la bonne idée de créer un espace d'échange public par l'intermédiaire du réseau Internet. Pour cela, il mit au point un logiciel intitulé « WorldWideWeb » capable de produire et de transmettre des espaces numériques intitulés sites Web composés d'un ensemble de documents intitulés pages Web. Le tout étant hébergé sur des ordinateurs reliés entre eux grâce au réseau mondial. Son programme fut rebaptisé Nexus par la suite, pour éviter la confusion avec l'expression World Wide Web[31].

Sur le Web et grâce à un système intitulé hypertexte, les pages Web peuvent alors indexer des informations présentes dans une même page, sur un même site, mais également sur des pages et des sites présent sur d'autres ordinateurs connectés. Pour permettre ce référencement d'information d'un ordinateur à l'autre, Berners-Lee mit au point un protocole appelé Hypertext Transfer Protocol ou HTTP. Ce principe relativement simple en soi mais techniquement difficile à mettre en œuvre, permit ainsi la création de l'espace Web. Soit un espace global et numérique formé par l'ensemble de pages et sites Web interconnectés via le réseau Internet et localisés sur de multiples ordinateurs répartis dans le monde.

Pour veiller au bon usage de l'espace web et au respect des règles et des protocoles de standardisation qui lui furent dédiés, Berners-Lee fonda l'association Internet Society. Celle-ci poursuivit son rôle de consortium international sous le sigle W3C avec pour devise : « un seul Web partout et pour tous »[32].

Si ce slogan semble bien naturel à ce jour, il s'en est pas moins fallu de peu pour que le premier éditeur de site WorldWideWeb et par conséquent, l'idée même du World Wide Web, ne devienne un produit commercial. À partir du 30 avril 1993, ce risque était effectivement très élevé, car le logiciel WorldWideWeb avait été placé dans le domaine public par Robert Cailliau, un autre chercheur qui assistait Berners-Lee dans la promotion de son projet. Pour expliquer cet épisode critique de la naissance du Web, voici un extrait d'un ouvrage intitulé Alexandria qui y fait référence[33] :

Pour François, la philanthropie de Robert, c'est très sympa, mais ça expose le Web à d'horribles dangers. Une entreprise pourrait s'emparer du code source, corriger un minuscule bug, s'approprier le « nouveau » logiciel et enfin faire payer une licence à ses utilisateurs. L'ogre Microsoft, par exemple, serait du genre à flairer le bon plan pour écraser son ennemi Macintosh. Les détenteurs d'un PC devraient alors débourser un certain montant pour profiter des fonctionnalités du Web copyrighté Microsoft. Les détenteurs d'un Macintosh, eux, navigueraient sur un Web de plus en plus éloigné de celui vendu par Bill Gates, d'abord gratuit peut-être, avant d'être soumis lui aussi à une licence. […] En plus de devenir un territoire privé, le Web se balkaniserait entre les géants du secteur. […] Mais le jeune Bill Gates ne croit pas encore à la portée commerciale de ce système. […] Ce dédain provisoire est une bénédiction pour Tim et Robert, car la stratégie de Microsoft, au début des années 1990, obéit à la loi du "embrace, extend and stay at the top"[34]

Heureusement, en octobre 1994, François Flückiger eut la présence d'esprit de se rendre à l'Institut fédéral de la propriété intellectuelle suisse pour retirer du domaine public le code de l'éditeur HTML et le placer sous licence libre. Il le fit après avoir repris les responsabilités de Tim Berners-Lee qui avait quitté le CERN[35] pour présider le W3C. La licence libre eut ainsi pour effet d'apposer la propriété intellectuelle du CERN et d'interdire de placer sous brevet ou copyright toutes formes dérivées de l'invention de Berners-Lee par des acteurs désireux d'en tirer un profit commercial. De manière récursive et anticipative, ce dépôt sous licence libre du code source aura donc permis à l'espace Web d'éviter de devenir un champ de bataille commerciale tel qu'on a pu l'observer par la suite au niveau des navigateurs.

L'offre sur le marché des navigateurs web s'est en effet développée avec l'apparition de plusieurs logiciels aux performances diverses. Au départ du code et des fichiers disponibles sur les serveurs informatiques, les navigateurs doivent effectivement restituer les pages web dans leur interface graphique, et ils ne le font pas tous de la même manière, ni avec les mêmes ressources. Ces différences auront donc pour conséquence de créer une compétition entre les producteurs de navigateurs, établie sur la rapidité, la légèreté et la fiabilité de leur produit. Quant aux consommateurs, ils seront toujours à la recherche d'un navigateur capable d'afficher sur l'écran de leurs ordinateurs une page Web la plus fidèle aux vœux de son créateur et administrateur de site, et ce, aux moindres frais possibles.

Fig. 6.5. Graphique illustrant l'évolution de la popularité d'usage des navigateurs Web de 2009 à 2020 avec en vert le navigateur Chrome, Bleue Microsoft et brune Firefox (source : https://w.wiki/377c)

Pour situer le succès des différents navigateurs, le site 3WSchools chargé de l'étude de ce marché fournit un classement par pourcentage du nombre d'utilisateurs. Dans celui-ci logiciel Chrome de Google est en première position avec 80.4 %, Firefox de Mozilla en deuxième avec 7.1 %, edge/Internet explorer de Microsoft en troisième avec 5.2 %, Safari de Apple en quatrième avec 3.7 % et Opera de Opera Software en cinquième et dernière position avec 2.1 %[36]. Ceci alors que dans le courant du même mois, le site StatCounter[37] attribuait pour sa part les pourcentages suivants : 66.12 % à Chrome, 17.24 % à Safari, 3.98 % à Firefox, 3.18 % à Samsung Internet, 2.85 % à Edge et finalement 2.08 % à Opera[38].

Au regard de ces deux classements, le navigateur Chrome, malgré les reproches qui peuvent lui être attribués[39], apparaît donc finalement comme le logiciel préféré des utilisateurs depuis 2012 (figure 6.5). Ceci alors qu'avant 2010, le marché des navigateurs connu une véritable « bataille commerciale »[40] qui opposait l'entreprise Netscape Comunications à la firme Microsoft. Sans entrer dans des détails concernant l'évolution de l'usage des navigateurs Web[41], nous retiendrons ici qu'il ne fut pas difficile pour la société Microsoft de conquérir la presque totalité du marché en à peine cinq ans (figure 6.6).

Le processus fut amorcé dès le moment ou Microsoft prit tardivement conscience de l'enjeu commercial que représentait l'espace Web. La position de monopole de la firme au niveau des systèmes d'exploitation lui donna évidemment une puissance inégalable tant pour distribuer son navigateur que pour financer son développement. Ce fut d'ailleurs la raison pour laquelle Microsoft fit l'objet d'un verdict de première instance validant le fait qu'elle avait abusé de sa position dominante au niveau des systèmes d'exploitation. Juste un petit obstacle à franchir, pourrions-nous dire, puisque cela n'empêcha pas l'entreprise d'atteindre la barre des 90 % de parts de marché, ni de se voir blanchir de toute accusation à la suite d'un recours en appel[42].

Fig. 6.6. Graphique illustrant l'évolution de la popularité d'usage des navigateurs Web de 1996 à 2009 (sources : https://w.wiki/377b)

Entre-temps et pendant l'année 1998, la société Netscape Communication qui reconnaissait sa défaite, avait déposé le code source de son navigateur sous licence libre, ce qui permit la naissance d'un nouveau navigateur intitulé Firefox[43]. Soutenu par la communauté libre dans son développement, ce nouveau logiciel reprit petit à petit des parts de marché sur Internet explorer. Ceci jusqu'à ce que l'arrivée de Google Chrome, un autre logiciel libre non plus développé sous la tutelle d'une fondation, mais par la société commerciale Google, qui déclencha le déclin de l'usage du navigateur Microsoft (figure 6.6).

Cet épisode du développement de l'écoumène numérique permet donc de comprendre à quel point le logiciel libre peut être vu comme une alternative capable de concurrencer les plus grands acteurs commerciaux. Avec pour plus bel exemple le projet Wikipédia dont aucun projet concurrent, peut importe qu'il fut financé par un des géants tels que Microsoft ou Google ne réussit à perdurer.

L'histoire des navigateurs web permet ensuite de comprendre qu'un projet initialement commercial peut toujours se convertir en projet libre alors qu’inversement, une grande entreprise commerciale telle que Google, peut très bien tirer profit des logiciels libres. Il suffisait pour cela d'abandonner l'idée de vendre des licences d'utilisation pour se concentrer uniquement sur le marché de la publicité et de la vente d'informations récoltées chez les utilisateurs. En dernier ressort, l'histoire du Web aura aussi prouvé que l'utilisation des licences libres peut apparaître comme un élément décisif sur le marché de l'informatique, en empêchant quiconque de récupérer le travail d'autrui dans le but de le mettre sous copyright et d'en tirer les bénéfices.

Au finale, c'est donc sans doute la naissance des licences qui apparait comme l'épisode le plus révolutionnaire de l'histoire de l'écoumène numérique. D'ailleurs, dans l'autobiographie autorisée de Sam Williams intitulée :« Richard Stallman et la révolution du logiciel libre. »[44], cet auteur n'hésitera par à écrire que :

« La GPL [la première licence libre] apparaît comme l'un des meilleurs hacks de Stallman. Elle a créé un système de propriété collective à l'intérieur même des habituels murs du copyright. Surtout, elle a mis en lumière la possibilité de traiter de façon similaire « code » juridique et code logiciel. »[44]

Car de fait, c'est Richard Stallman qui donna naissance à cette première licence en 1985, avec les conseils du juriste Mark Fischer. Le fondateur du projet GNU avait effectivement eu l'idée de protéger son programme d'éditeur de texte intitulé Emacs, en le publiant sous la première version d'une licence libre intitulée Général Public Licence (GPL). Par la suite et durant l'année 1989, la firme Microsoft mit en tout œuvre pour contrer cette licence mais sans y parvenir. Tout au contraire, grâce à la participation de personnalités philanthropes comme John Gilmore et d'une grande communauté d'activistes hackers épaulé par des certains juristes tels que Jerry Cohen et Eben Moglen, la licence libre du logiciel Emacs finit par s'appliquer à tout type de logiciel.

Classification des licences d'exploitation des œuvres de l'esprit.
Fig. 6.7. Classification des licences d'exploitation des œuvres de l'esprit. (source : https://w.wiki/377Y).

Il faut ensuite souligner le fait que la composante la plus révolutionnaire de la licence libre fut sa clause de reproductibilité. Celle-ci exige en effet que tout produit dérivé d'un logiciel libre doit être soumis à la même licence que le code source du travail d'origine. Une idée qui aurait été transmise à Richard Stallman par Don Hopkins lors d'échanges de courriers[45].

Cette clause qualifiée de virale ou récursive fut par la suite baptisée par le terme « copyleft », que l'on peut traduire en français par l'expression humoristique de « gauche d'auteur » et qui s'illustre graphiquement par l'usage d'un © inversé (ɔ). À l'image de l'épisode du « sauvetage » du Web, la clause du copyleft apparaît donc aujourd'hui, comme un des événements majeurs qui permit aux logiciels libres et la culture libre que ceux-ci firent apparaitre de perpétuer leurs existences.

Selon le vœu de Stallman, le copyleft est donc la clause des licences libres qui se rapporte le plus aux questions éthiques et de libertés des utilisateurs[46]. Et c'est aussi une clause qui n'est pas mis en évidence par le concept d'open source popularisé par Éric Raymond et dont la vision porte davantage sur des questions techniques et de transparence du code au travers une approche plus pragmatique et entrepreneuriale[47]. Malheureusement, aujourd'hui cette différence cruciale entre le free software de Stallman et l'open source de Raymond est devenue d'autant plus floue que l'expression générique, Free/Libre Open Source Software (FLOSS) fit son apparition. Une situation regrettable qui détourne l'attention du concept de copyleft alors qui celui-ci reste la seul moyen efficace de lutter contre la privatisation d'un produit libre à des fins lucratives.

Mais toujours est-il qu'au niveau des termes spécifiques attribués à une licence sous copyright, le copyleft se traduit par l'expression « Share alike », que l'on traduit en français par : « partage à l'identique ». Une façon synthétique de dire que toute reproduction d'une œuvre ou tout travail construit en partie au départ d'une œuvre couverte par cette clause copyleft devra être soumise à la même clause et licence d'origine. Toute licence libre comprenant la clause du copyleft reste donc bel et bien un moyen efficace d'offrir son travail à la communauté d'utilisateurs, tout en le protégeant d'un détournement vers un copyright propriétaire et privateur. Car comme déjà dit précédemment, en absence de cette clause, une œuvre peut effectivement être récupérée, puis modifiée, même de façon mineure, pour être ensuite soumise à un nouveau copyright qui fera mention de « tous droits réservés »[48]. Ceci de telle sorte à en restreindre l'usage aux seules personnes qui auront payé des droits d'utilisation.

Classement des différentes licences, de la plus ouverte à la moins ouverte.
Fig. 6.8. Classement des différentes licences, de la plus ouverte à la moins ouverte (source : https://w.wiki/377T).

Suite à la création des premières licences libres destinées à protéger le code source des logiciels informatique, une organisation internationale sans but lucratif intitulée Creative Commons, vit le jour le 15 janvier 2001, afin de rendre les licences libres accessibles et utilisables par tous. Pour le dire de manière plus précise, le but de cette association est d'œuvrer en faveur du « partage et la réutilisation de la créativité et des connaissances grâce à la fourniture d'outils juridiques gratuits »[49]. Et pour ce faire, Creative Commons entreprit alors de distinguer toutes les différentes clauses pouvant être reprises par les licences libres, pour en produire un assortiment varié de licence qui permettent aux auteurs de protéger leurs œuvres selon leurs souhaits (figure 2.11).

Contrairement aux licences fournies par la Free Software Foundation, qui sont plus adaptées pour protéger du code informatique, les licences Creative Commons ont plutôt pour objectif de protéger du texte, des photos, vidéos, musiques, base de données et autres productions de l'esprit apparentées[50]. À titre d'exemple, le mouvement Wikimédia a choisi d'appliquer la licence CC.BY.SA sur tous ses projets, à la seule exception du contenu de Wikidata, soumis dès le lancement du projet à la licence CC.0 et des descriptions apportées aux fichiers téléchargés sur le Wikimédia commons qui sert de médiathèque centrale à tous les projets Wikimédia.

Au sein de l'écoumène numérique cependant, le code informatique restera toujours la chose à laquelle il faut apporter le plus d'importance. Lawrence Lessig, le président et l'un des fondateurs de Creative Commons, considérait d'ailleurs dans son livre[51] et dans un célèbre article intitulé :« Code is law »[52] que :

Ce code, ou cette architecture, définit la manière dont nous vivons le cyberespace [que l'on peut traduire ici par l'expression écoumène numérique]. Il détermine s'il est facile ou non de protéger sa vie privée, ou de censurer la parole. Il détermine si l'accès à l'information est global ou sectorisé. Il a un impact sur qui peut voir quoi, ou sur ce qui est surveillé. Lorsqu'on commence à comprendre la nature de ce code, on se rend compte que, d'une myriade de manières, le code du cyberespace régule.[53]

La protection du code informatique par les licences libres, et son accès en open access afin d'en permettre sa lecture, son contrôle, sa correction ou son amélioration, apparaissent donc comme deux composantes fondamentales d'une révolution qui pris cours au sein de l'écoumène numérique, mais sans finalement réussir à changer les choses au delà du fait de proposer certaines alternatives. Pourtant, c'est grâce à ces alternatives qu'il est possible aujourd'hui d'utiliser des logiciels qui ne trahissent pas les intérêts des utilisateurs au bénéfice de grandes entreprises privées[54].

Chacun étant libre de choisir entre l'adoption de solutions libres et l'usage de produits commerciaux privés, il apparait ainsi un premier un paradoxe selon lequel le choix majoritaire reste au profit des programmes informatiques les moins respectueux des utilisateurs. Un autre paradoxe apparait ensuite lorsque l'on observe que des logiciels libres sont produits et financés par des firmes commerciales dans le but de générer des gains au travers la récolte de données chez les utilisateurs. L'appropriation du pouvoir et de la richesse au travers la vente de logiciels soumis au copyright fait donc place à une nouvelle forme de capitalisme de la surveillance[55] [56].


  1. Richard M Stallman et Sam Williams, Richard Stallman et la révolution du logiciel libre - Une biographie autorisée, Eyrolles, 2013 (OCLC 708380925) [lire en ligne] 
  2. Richard Stallman, « Système d'exploitation GNU – Annonce initiale », sur GNU,
  3. Karl Pradène, « Qu'est-ce que le logiciel libre ? », sur GNU,
  4. Brandon Griggs, « The Commodore 64, that '80 s computer icon, lives again », sur CNN,
  5. Roberto Di Cosmo et Dominique Nora, Le hold-up planétaire : la face cachée de Microsoft, France Loisirs, 1998 (ISBN 9782744121760) [lire en ligne], p. 15 & 27 (par ordre de citation) 
  6. W3schools, « OS Statistics »
  7. Tristan Gaudiaut, « Les systèmes d'exploitation les plus utilisés sur PC », sur Statista,
  8. Un système d'opération sale et vite fait
  9. Ridha Loukil, « Les géants d'internet déterminés à briser le monopole d'Intel dans les serveurs », sur Usine Digitale,
  10. Agence Reuters, « Intel verse 1,25 milliard de dollar à AMD contre l'abandon des poursuites », sur Le Monde,
  11. Linus Torvalds, David Diamond et Olivier Engler, Il était une fois Linux, Osman Eyrolles Multimédia, 2001 (ISBN 978-2-7464-0321-5) (OCLC 48059105) 
  12. Linus Torvalds et David Diamond, Just for fun : the story of an accidental revolutionary, HarperBusiness, 2002 (ISBN 978-0-06-662073-2) (OCLC 1049937833) 
  13. I'm doing a (free) operating system (just a hobby, won't be big and professional like gnu) for 386(486) AT clones. This has been brewing since april, and is starting to get ready. I'd like any feedback on things people like/dislike in minix, as my OS resembles it somewhat (same physical layout of the file-system (due to practical reasons)among other things).
  14. Christophe Lazaro, La liberte logicielle, Academia Bruylant, coll. « Anthropologie Prospective », 2012, 56 p. (ISBN 978-2-87209-861-3) (OCLC 1104281978) 
  15. Meta-Wiki, « Wikimedia servers »
  16. Eric Steven Raymond, Cathedral and the bazaar, SnowBall Publishing, 2010 (ISBN 978-1-60796-228-1) (OCLC 833142152) 
  17. Eric S. Raymond (trad. Sébastien Blondeel), « La cathédrale et le bazar », sur Linux France,
  18. 18,0 et 18,1 Djilali Benamrane, Biens publics à l'échelle mondiale et Coopération solidarité développement aux PTT, Les télécommunications, entre bien public et marchandise, Une histoire d'Internet, ECLM (Charles Leopold Mayer), 2005 (ISBN 978-2-84377-111-8) (OCLC 833154536), p. 73 & 63 (par ordre de citation) 
  19. 19,0 et 19,1 Alexandre Serres, Christian Le Moënne et Jean-Max Noyer, « Aux sources d'internet : l'émergence d'Arpanet : exploration du processus d'émergence d'une infrastructure informationnelle : description des trajectoires des acteurs et actants, des filières et des réseaux constitutifs de la naissance d'Arpanet : problèmes critiques et épistémologiques posés par l'histoire des innovations », Thèse de doctorat, Université Rennes 2, 2000, p. 481 & 488 (par ordre de citation) [texte intégral]
  20. Stephen Denneti, ARPANET Information Brochure, Defense Communications Agency, 1978, 46 p. (OCLC 476024876) [lire en ligne], p. 4 
  21. Solange Ghernaouti-Hélie et Arnaud Dufour, Internet, Presses universitaires de France, 2012 (ISBN 978-2-13-058548-0) (OCLC 795497443) 
  22. Étienne Combier, « Les leçons de l’Internet Society pour sauver la Toile », sur Les Echos,
  23. Michel Elie, « Quarante ans après : mais qui donc créa l'internet ? », sur Vecam,
  24. Theodore Roszak et Claude Elsen, Vers une contre-culture. Réflexions sur la société technocratique et l'opposition de la jeunesse, Paris, Stock, 1970, 318 p. (ISBN 978-2-234-01282-0) (OCLC 36236326), p. 266-267 
  25. The Making of a Counter Culture : Reflections on the Technocratic Society and Its Youthful Opposition
  26. From Counterculture to Cyberculture : Stewart Brand, the Whole Earth Network, and the Rise of Digital Utopianism
  27. Fred Turner, Aux sources de l'utopie numérique : de la contre-culture à la cyberculture : Stewart Brand, un homme d'influence, C & F, 2013 (ISBN 978-2-915825-10-7) (OCLC 891585534) 
  28. Guillaume de Lamérie, « Aux sources de l’utopie numérique, de la contre-culture à la cyberculture », sur Association française pour l’Information Scientifique,
  29. Andrew L. Russell, « 'Rough Consensus and Running Code' and the Internet-OSI Standards War », IEEE Annals Hist. Comput. IEEE Annals of the History of Computing, vol. 28, no  3, 2006, p. 48–61 (ISSN 1058-6180)
  30. We reject kings, presidents and voting. We believe in rough consensus and running code
  31. W3C, « Tim Berners-Lee : WorldWideWeb, the first Web client »
  32. W3C, « La mission du W3C »
  33. Quentin Jardon, Alexandria : les pionniers oubliés du web : récit, Paris, Gallimard, 2019 (ISBN 978-2-07-285287-9) (OCLC 1107518440), p. 154 
  34. En français : embrasser, étendre et rester au sommet.
  35. James Gillies et Robert Cailliau, How the web was born : the story of the world wide web, Oxford University Press, 2007, 283 p. (ISBN 978-0-19-286207-5) (OCLC 603986579) 
  36. 3Wschools, « Browser Statistics »
  37. StatCounter, « StatCounter Global Stats - Browser, OS, Search Engine including Mobile Usage Share »
  38. Cette comparaison m'aura permis de réaliser à quel point les statistiques au sujet de l'espace Web sont à prendre avec beaucoup de recul.
  39. Revoltenum, « Pourquoi vous ne devriez pas utiliser Google Chrome », sur Révolte Numérique,
  40. Le Monde, « La bataille des navigateurs Web », sur Le Monde,
  41. Wikipédia, %89volution_de_l%27usage_des_navigateurs_web « Évolution de l'usage des navigateurs web »
  42. La rédaction, « Affaire Microsoft : plus de dix ans de procédures aux États-Unis et en Europe », sur ZDNet,
  43. Arnaud Devillard, « Le navigateur Netscape tire sa révérence », sur 01net,
  44. 44,0 et 44,1 Sam Williams, Richard M Stallman et Christophe Masutti, Richard Stallman et la révolution du logiciel libre : une biographie autorisée, Livio éditions, 2020 (ISBN 978-2-35455-034-9) (OCLC 1163855816), p. 180 
  45. Richard Stallman, « Le projet GNU », sur GNU,
  46. Richard Stallman, « Pourquoi l'« open source » passe à côté du problème que soulève le logiciel libre », sur GNU,
  47. Steven J. Vaughan-Nichols, « L’Open Source a 20 ans : comment cette philosophie a-t-elle révolutionné la programmation ? », sur ZDNet,
  48. Andrew M St. Laurent, Understanding open source & free software licensing [guide to navigating licensing issues in existing & new software, Sebastopol, Ca : O'Reilly Media Inc., 2004 (ISBN 978-0-596-00581-8) (OCLC 314704943) 
  49. Creative Commons, « Foire Aux Questions - À propos de CC »
  50. Creative commons, « Foire aux questions »
  51. Lawrence Lessig, Code, Basic Books, 2008 (ISBN 978-0-7867-2196-2) (OCLC 792688532) 
  52. Lawrence Lessig, « Code Is Law - On Liberty in Cyberspace », sur Harvard Magazine,
  53. Lawrence Lessig (trad. Alexis Kauffmann), « Code is Law – Traduction française du célèbre article de Lawrence Lessig », sur Framablog,
  54. Rana Foroohar, Rachel Fulginiti et Inc Books on Tape, Don't be evil : how big tech betrayed its founding principles--and all of us, Books on Tape, 2019 (ISBN 978-0-593-14979-9) (OCLC 1124988649) 
  55. Christophe Masutti, Affaires privées : Aux sources du capitalisme de surveillance, C & F Éditions, 2020-10-22 (ISBN 978-2-37662-006-8) 
  56. Shoshana Zuboff, L'Âge du capitalisme de surveillance, Zulma, 2020-10-15 (ISBN 978-2-84304-989-7)