Pratiques de l'édition numérique

D'Internet au web

D’internet au web

Alain Mille

Alain Mille, « D’internet au web », dans Michael E. Sinatra, Marcello Vitali-Rosati (dir.), Pratiques de l’édition numérique (édition augmentée), Presses de l’Université de Montréal, Montréal, 2014, isbn : 978-2-7606-3592-0, https://www.parcoursnumeriques-pum.ca/1-pratiques/chapitre2.html.
version 1, 01/03/2014
Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)

La naissance d’Internet, puis du web, a sans doute été le phénomène ayant déterminé le plus fort changement dans les modèles de production et de circulation des contenus. Ce ne sont pas tant les « nouvelles technologies » en général, mais le réseau en lui-même qui a bouleversé notre rapport à la connaissance. À ce propos, il est bon de rappeler qu’Internet et web ne sont pas synonymes – et ne sont par ailleurs pas nés au même moment. Internet est le réseau physique qui permet l’échange des données entre plusieurs ordinateurs et le web, l’ensemble des documents formatés en HTML accessibles avec un navigateur via le protocole HTTP. Ce chapitre raconte l’histoire allant des premières idées de réseau dans les années 1950 à la création d’Internet dans les années 1970, jusqu’à l’apparition du web et à son impressionnant développement à partir de la moitié des années 1990. Connaître cette histoire et ces étapes est fondamental pour comprendre les raisons des changements majeurs qui touchent aujourd’hui le monde de l’édition.

1950-1965 : faux départ

Les militaires américains réalisent dans les années 1950-1960, au plus fort de la guerre froide, que le système de communication de leurs forces armées, très hiérarchique par nature, est particulièrement fragile dans le cas d’un conflit nucléairePour en savoir plus sur le conflit nucléaire.↩︎. La notion de réseau maillé avec des nœuds d’interconnexion naît à cette époque pour fournir la robustesse nécessaire au système de communication qui serait utilisé en cas de déflagration nucléaire. Paul Baran de RAND Corporation, sorte de think tank de l’époque, pose les principes d’un réseau centrifuge parsemé de nœuds d’interconnexion, avec des messages transitant sans avoir de route définitivement attribuée, mais seulement des indications du from et du to dans les champs du message. La route peut alors être redéfinie dynamiquement à chaque nœud si la route optimale précédemment calculée n’est plus disponible, de manière à chercher par tous les moyens à router le message vers un autre nœud à même de le faire progresser vers sa destination : routage dit de la « patate chaudeLe routage dit de la « patate chaude », concept introduit par Baran, consiste à router un paquet destiné à un réseau externe vers l’interconnexion la plus proche, évitant ainsi la traversée de sa propre dorsale. En savoir plus.↩︎ ». Ce système, même avec des composantes bon marché à chaque nœud, est particulièrement simple et robuste, ce qui va être démontré formellement par un doctorant du Massachusetts Institute of Technology (MIT)Le Massachusetts Institute of Technology (MIT) est une institution de recherche et une université américaine, spécialisée dans les domaines de la science et de la technologie.↩︎, Leonard Kleinrock. Donald Davies le met en œuvre en 1965 au National Physics LaboratoryÉtabli à Teddington depuis 1900, le National Physics Laboratory effectue des recherches sur les mesures, la physique et la science des matériaux.↩︎.

Malgré l’intérêt porté par les militaires, et les démonstrations faites, la multinationale américaine de télécommunications AT&TBasé à Dallas, AT&T est le plus grand fournisseur de services téléphoniques locaux et longue distance, de services sans fil et de xDSL des États-Unis..↩︎ refuse de développer le réseau tel qu’il est décrit. En effet, ses dirigeants le considèrent comme une sorte d’auto-concurrence fatale pour leur business. Le projet de Baran est évalué à 60 millions de dollars de l’époque, alors que le système qu’il peut remplacer coûte 2 milliards de dollars par an. En 1966, le projet est remisé sur les étagères.

1962-1968 : ARPAnet

Une autre structure va être au centre du développement d’Internet : l’ARPA (Advanced Research Projects Agency)À l’origine du développement d’un grand nombre de technologies qui ont eu des conséquences importantes dans le monde informatique, l’ARPA (Advanced Research Projects Agency) est une agence du département de la Défense des États-Unis qui est en charge de la recherche pour développer de nouvelles technologies destinées principalement à un usage militaire.↩︎. En 1962, J.C.R. Licklider y est embauché pour s’intéresser d’une part au contrôle-commande et d’autre part aux sciences du comportement (Licklider 1960). À partir de cette impulsion, l’orientation vers des systèmes informatiques interactifs, collaboratifs, ne cesse de se développer au sein de l’ARPA : Ivan Sutherland, après le développement du SketchPadPrécurseur de la modélisation 3D, de la simulation visuelle et de l’interface graphique, Ivan Sutherland écrit, en 1963, dans le cadre de sa thèse de doctorat au MIT, le tout premier programme (SketchPad) qui offre une interface graphique utilisant un moniteur et un crayon optique.↩︎ au MIT, Robert Taylor issu de la NASA (time sharing), puis Lawrence Roberts qui, pour mettre en relation les chercheurs et partager non seulement les processeurs mais aussi tous leurs résultats, développe le premier réseau de communication numérique. En octobre 1965, l’ordinateur Lincoln Labs TX-2/ANS/Q-32 communique avec le SDC’s Q32 de Thomas Marill qui a développé le réseau. C’est ce réseau qui, plus tard, en 1968, prendra le nom d’ARPAnetLancé en 1969 et développé par l’ARPA (Advanced Research Projects Agency), ARPAnet est le premier réseau à transfert de paquets, qui deviendra la base du transfert de données sur Internet.↩︎. Le réseau développé à l’ARPA est dans sa technologie et ses principes très proche de ce qui a été proposé par Baran à la RAND Corporation, et mis au placard par AT&T. Lawrence Roberts aurait toutefois indiqué qu’il n’était pas au courant des travaux de Baran jusqu’à octobre 1967En savoir plus.↩︎.

C’est une petite société, BBN (Bolt, Beranek and Newman)Pionnière dans l’histoire de l’informatique (on lui doit notamment la mise en place du réseau ARPAnet, BBN (Bolt, Beranek and Newman) est une société américaine créée en 1948 au Massachusetts Institute of Technology (MIT).↩︎, qui gagne le concours lancé par l’ARPA pour réaliser un réseau informatique de partage de ressources (resource sharing computer network). Le chef de projet, Frank Heart, a choisi son équipe et sa méthode de travail : « Get the very, very best people and in small numbers, so they can all know what they’re all doing. » IBMNée en 1911, IBM (International Business Machines Corporation) est une société américaine présente dans les domaines du matériel informatique, du logiciel et des services informatiques.↩︎, dans le même temps, déclare qu’un tel système ne peut pas être développé sans un très gros budget. En 1969, le réseau fonctionne et deux machines communiquent ; en 1971, il y a 15 nœuds. En 1972, le réseau est lancé à la conférence ICCC (International Computer Communication Conference)Organisée par la société américaine BBN (Bolt, Beranek and Newman) en 1972, la conférence ICCC (International Computer Communication Conference) est l’une des premières démonstrations publiques de la technologie de réseau informatique et du projet ARPAnet.↩︎ à Washington, et les 60 terminaux connectés permettent aux conférenciers de réaliser que ce type de réseau fonctionne réellement.

1969-1978 : Internet

Mais si le réseau ARPAnet est bien une réalité, il manque une pièce logicielle maîtresse pour que l’on puisse considérer qu’Internet est né. Il faut décrire les protocoles de communication, ce qui est fait en 1969 par un groupe d’étudiants relativement informel. Peu sûrs de leur légitimité et cherchant à discuter leurs idées pour édicter les protocoles, ils proposent des Request For Comments (RFC)Les Request For Comments (RFC) sont une série numérotée de documents officiels décrivant les aspects techniques d’Internet, ou de différents matériels informatiques (routeurs, serveur DHCP).↩︎. Il s’agit pour Steve Crocker et ses amis de laisser ouvertes au maximum les possibilités de participation des pairs pour améliorer le protocole. Cette ouverture fait une grande partie du succès de la dynamique extraordinaire qui s’ensuit. Le premier résultat concret de ce travail est la création du NCP (Network Control Protocol)En informatique, NCP (Network Control Protocol est un protocole réseau intégré à Point-to-Point Protocol (PPP) qui est utilisé pour établir un lien direct entre deux nœuds de réseau.↩︎, mais pas encore d’Internet. C’est par l’interconnexion d’un réseau filaire classique ARPAnet et d’un autre réseau hertzien de même nature (paquets) que la première communication par interconnexion de réseau est réalisée par le Stanford Research InstituteLe Stanford Research Institute est une entreprise américaine qui mène des recherches dans différents domaines scientifiques et technologiques. On lui doit notamment l’environnement graphique et la souris.↩︎. La nécessité d’interconnecter ARPAnet avec les réseaux hertziens (PRNET) et les réseaux satellites (SATNET) pousse dans le sens d’Internet. Il est à noter que les travaux des chercheurs impliqués en France dans le projet CycladesCréé en 1971 mais abandonné en 1978, Cyclades était un projet expérimental français qui avait pour but de créer un réseau global de télécommunication utilisant la commutation de paquets.↩︎ ont inspiré l’ensemble de ces travaux. En effet, Cyclades propose déjà à l’époque trois couches réseau : la couche transmission, la couche transport et la couche application. En mai 1974, Vint Cerf et Robert Kahn publient ce qui devient le protocole TCP (Transport Control Protocol). C’est après plusieurs révisions de TCP que le protocole IP (Internetworking Protocol)Protocole de communication dans le réseau informatique, l’IP (Internet Protocol) permet un service d’adressage unique pour l’ensemble des terminaux connectés. Voir aussi « Les protocoles d’Internet et du web » par Jean-Philippe Magué.↩︎ est proposé par Vint Cerf, Jon Postel et Danny Cohen en janvier 1978.

Le protocole TCP par Vint Cerf et Bob Kahn

Crédits : National Science and Media Museum

Source

Proposé par auteur le 2014-03-01

Fin des années 1970 et début des années 1980 : démocratisation des ordinateurs personnels

Il est donc démontré que ce type de réseau peut couvrir le monde, car il permet d’interconnecter les réseaux filaires, hertziens et satellites de manière robuste et économique. Cela peut s’appliquer au téléphone, naturellement, mais, encore une fois, l’industrie téléphonique se lance dans une version centripète (protocole X.25Le protocole X.25 est un protocole de communication normalisé par commutation de paquets en mode PPP (Point-to-Point Protocol). Il intègre les trois couches du modèle OSI, la couche physique, la couche de liaison et la couche réseau.↩︎) de la transmission de paquets, issue des travaux du CCITT (Consultative Committee on International Telegraphy and Telephony)En savoir plus sur le CCITT (Consultative Committee on International Telegraphy and Telephony).↩︎ pour lesquels les choses doivent être contrôlées de bout en bout, sans reprendre à leur compte les notions de distribution et de diversité des réseaux. Le protocole X.25 garantit un fonctionnement de haute qualité quelle que soit la configuration, mais c’est une propriété finalement assez rarement nécessaire et le caractère centralisé et fermé de l’approche bloque le développement de cette technologie.

Ce choix des opérateurs de téléphonie n’est abandonné qu’en 2011 mais, malgré le faible soutien des professionnels des réseaux, Internet se développe de manière tout à fait impressionnante.

Qu’est-ce qui explique ce développement ? De la même façon que l’idée du réseau distribué s’est imposée à l’ARPA pour la mise en connexion des utilisateurs, c’est le surgissement soudain des ordinateurs personnels qui fait sortir l’usage d’Internet des universités et centres de recherche pour l’ouvrir à tous les secteurs d’activité de la société. Après quelques réalisations visionnaires, mais avec un succès limité, il faut attendre Ken Olsen et Harlan Anderson qui créent la Digital Equipment Corporation (DEC)Fondée en 1957, la Digital Equipment Corporation (DEC) fut l’une des entreprises pionnières dans l’industrie informatique aux États-Unis.↩︎ avec le PDP1Construit en 1959, le PDP-1 est le premier ordinateur de l’entreprise Digital Equipment Corporation (DEC). Il est aujourd’hui célèbre, car c’est sur lui que les étudiants du Massachusetts Institute of Technology ont programmé un des premiers jeux vidéo : Spacewar.↩︎, sans doute le premier ordinateur interactif jamais conçu. Suivi du PDP8Lancée en mars 1965, le PDP-8 a été le premier mini-ordinateur de l’entreprise Digital Equipment Corporation (DEC).↩︎ et d’autres mini-ordinateurs, il scelle la fin du traitement par lot. Si les interfaces sont textuelles, on assiste très vite au développement d’interfaces graphiques, intuitives et, dès 1968, Engelbart peut faire sa célèbre démonstrationEn savoir plus sur la démonstration de l’usage de la souris d’Engelbart.↩︎ sur l’usage de la souris. Si les idées et même certaines réalisations sont déjà là, il s’agit de systèmes confidentiels qui ne peuvent pas facilement se décliner en masse. L’apparition des microprocesseurs va changer la donne avec l’application de l’invention des circuits intégrés à la réalisation de calculateurs sur une surface très réduite. L’Intel 4004Mis au point en 1959, le 4004 d’Intel est le premier microprocesseur qui a été commercialisé.↩︎ est d’abord considéré comme un simple circuit logique peu évolué par les sociétés informatiques. Mais, en janvier 1975, la revue Popular ElectronicsPubliée dès octobre 1954 pour les amateurs et les expérimentateurs électroniques, la revue Popular Electronics fut la plus vendue des revues sur l’électronique au monde.↩︎ annonce le Altair 8800L’Altair 8800 est l’un des premiers micro-ordinateurs vendu aux particuliers en 1975. Il était basé sur le microprocesseur Intel 8080 et vendu en kit électronique.↩︎, conçu autour du Intel 4004 : « The era of personal computing in every home… has arrived. » Le succès dépasse largement les attentes des concepteurs, même si l’usage de ces ordinateurs portables est difficile et laborieux. Les microprocesseurs se succèdent (Motorola, Texas Instrument, Intel, etc.) avec des capacités de calcul et de mémoire qui augmentent significativement, créant les conditions nécessaires d’une offre massive d’ordinateurs personnels, mais pas encore les conditions suffisantes à l’émergence d’un phénomène mondial. Un club nommé le Homebrew Computer ClubLe Homebrew Computer Club, club d’informatique de la Silicon Valley, réunissait, entre 1975 et 1986, des passionnés d’informatique dont, entre autres, Steve Jobs.↩︎ rassemble dans les années 1970 un mélange étonnant de militants de l’informatique de Berkeley et d’amateurs d’électronique. Les groupes hippies considèrent l’ordinateur comme un outil de réalisation personnelle et appellent dès 1972 à créer la Compagnie informatique du peuple (People’s Computer CompanyBulletin d’information au début des années 70, People’s Computer Company fut l’une des premières organisations à reconnaître le potentiel de Tiny BASIC dans le domaine naissant de l’informatique personnelle.↩︎. C’est dans cet état d’esprit que Steve Wozniak introduit le premier Apple IConçu par Steve Wozniak, Steve Jobs et Ronald Wayne, l’Apple I fut l’un des tout premiers micro-ordinateurs individuels.↩︎ au Homebrew Computer Club, et c’est avec l’Apple IIConçu par Steve Wozniak et commercialisé en juin 1977 par Apple, l’Apple II, successeur de l’Apple I, est l’un des premiers ordinateurs personnels au monde fabriqué à grande échelle.
Voir aussi « Les potentialités du texte numérique » par Stefan Sinclair et Geoffrey Rockwell.↩︎
, en 1977, que la notion d’ordinateur personnel, installé par la personne à partir d’éléments très simples à assembler, s’impose. Ce qui explique ce succès, c’est qu’Apple met à disposition un manuel de référencePour voir le manuel de référence.↩︎ qui détaille l’ensemble du code source et les schémas électriques et électroniques. Chacun peut alors développer librement de nouveaux logiciels et de nouveaux périphériques. VisicalcDéveloppé par la compagnie Software Arts, puis distribué par Personal Software Inc. en 1979, Visicalc est le premier logiciel tableur pour ordinateur individuel.↩︎ (1979) marque un tournant en fournissant à l’utilisateur non informaticien la possibilité de concevoir des traitements, de réaliser des calculs : la feuille de calcul est née. Cette fois, le marché s’impose vraiment et même IBM s’en aperçoit. En août 1981, IBM vend son premier PC, appelé le 5150Pour en savoir plus sur le PC appelé le 5150.↩︎. L’entrée d’IBM sur le marché se fait dans la précipitation, ce qui entraîne l’abandon du processus standard de développement au profit d’un développement par une petite équipe, et l’ensemble logiciel et matériel est ouvert, à l’image de ce qui a été fait par Apple. IBM conclut un accord avec une petite société, MicrosoftFondée dans les années 70 par Bill Gates et Paul Allen, Microsoft est une entreprise d’informatique et de micro-informatique spécialisée dans le développement et la vente de systèmes d’exploitation et de logiciels.↩︎, qui est chargée de fournir un système d’exploitation au PC, avec la possibilité de vendre son système aux concurrents d’IBM. L’idée d’IBM est de permettre à ses utilisateurs d’installer facilement ce qui est développé par d’autres sur ses propres machines, mais c’est aussi la possibilité pour d’autres de cloner rapidement et efficacement sa propre machine avec des logiciels attractifs. Le phénomène des ordinateurs personnels, intégrant ensuite un nombre étonnant d’innovations, d’interactions, de design, de logiciels, etc. fournit les conditions alors suffisantes pour qu’Internet devienne le support d’interconnexion d’un nombre toujours plus grand d’utilisateurs d’ordinateurs personnels.

1975 : The Well, le premier réseau social

Les conditions de la massification de l’usage de l’informatique se renforcent, mais encore faut-il que les utilisateurs puissent accéder à Internet depuis leur domicile, par leur liaison téléphonique.

Les conditions d’utilisation du téléphone sont particulièrement réglementées, au point qu’il n’est pas autorisé de modifier une quelconque partie d’un récepteur téléphonique aussi bien aux États-Unis qu’en Europe. Ce n’est qu’à partir de 1975 qu’il est autorisé de mettre sur la ligne téléphonique d’autres terminaux que ceux livrés par l’opérateur. Ward Christensen (Bulletin Board SystemsLe Bulletin Board Systems est un serveur équipé d’un logiciel offrant les services d’échange de messages, de stockage et d’échange de fichiers, de jeux via un ou plusieurs modems reliés à des lignes téléphoniques.↩︎) invente la notion de modem et propose le xmodemDéveloppé par Ward Christensen, co-fondateur du CBBS (Computerized Bulletin Board System), Xmodem est un protocole de transfert de fichier et fut le plus populaire pour le réseau téléphonique commuté.↩︎ pour les PC en 1977. Un hacker (terme qui faisait alors référence à des amateurs experts), Tom Jennings, développe FidonetFondé en 1984 aux États-Unis par Tom Jennings, Fidonet est un réseau d’échange de messages à l’échelle mondiale.↩︎ permettant avec un modem très simple de mettre en communication des ordinateurs personnels entre eux (courriel et listes de discussions).

The WellPour en savoir plus sur The Well.↩︎ utilise alors ces outils pour rassembler une communauté très dynamique autour d’une liste de diffusion. Il s’agit là du tout premier réseau social.

ARPAnet et la DARPA (Defense Advanced Research Projects Agency)Pour en savoir plus sur la DARPA (Defense Advanced Research Projects Agency).↩︎ connaissent ces développements, mais restent concentrés sur l’interconnexion d’ordinateurs puissants de leurs réseaux. D’autres réseaux de spécialistes se développent d’ailleurs sur ce protocole (MILNET, DECNET, MEFENET, CSNET, BITNETEn savoir plus sur les protocoles DECNETT, CSNET, BITNET.↩︎, alors que la téléphonie tolère les modems, mais ne s’intéresse toujours pas à la commutation de paquets.

1984 : le réseau des réseaux

Quand la NSF (National Science Foundation)La National Science Foundation (NSF) est une agence indépendante du gouvernement des États-Unis qui soutient financièrement la recherche scientifique fondamentale.↩︎ décide d’interconnecter ses principaux réseaux régionaux par une dorsale (backboneUne dorsale (backbone) est un réseau informatique faisant partie des réseaux longue distance de plus haut débit d’Internet. La dorsale originale d’Internet était ARPANET.↩︎) commune, en 1984, c’est véritablement Internet qui est élevé au niveau des grands réseaux scientifiques, diffusant TCP/IP sur les grosses machines comme sur les ordinateurs personnels connectés à ces réseaux. NFSNETPour en savoir plus sur le NFSNET.↩︎ se développe très rapidement avec plus de 160000 machines connectées en 1989. En février 1990, ARPAnet est délié de ses liens avec les militaires et les connexions d’ordinateurs à NFSNET se mettent à croître de manière exponentielle : 500000 en 1991, 1 million en octobre 1992, 2 millions en octobre 1993, etc. Dans le même temps, les nouvelles applications de recherche d’information comme Gopher, Veronica et ArchiePour en savoir plus sur les applications Gopher, Veronica, Archie.↩︎ sont déployées et génèrent un trafic plus important que le courriel, ce qui préfigure le développement massif du web.

1979-2009 : une histoire des structures de gestion de l’Internet

Le développement de ce réseau de réseaux s’accompagne d’une mise en place originale de méthodes de gestion d’une structure toujours marquée par ses racines ouvertes et, d’un certain point de vue, libertaires. Vint Cerf avait créé l’Internet Configuration Control Board (ICCB)Pour en savoir plus sur l’Internet Configuration Control Board (ICCB).↩︎ en 1979, transformé par Barry Leiner en Internet Activities Board (IAB)Pour en savoir plus sur l’Internet Activities Board (IAB).↩︎ en 1983, réorganisé en 1989 entre l’Internet Engineering Task Force (IETF)En savoir plus sur l’Internet Engineering Task Force (IETF).↩︎ et l’Internet Research Task Force (IRTF)En savoir plus l’Internet Research Task Force (IRTF).↩︎. En 1992, l’Internet Society (IS)En savoir plus sur l’Internet Society (IS).↩︎ est créée pour chapeauter l’IAC et l’IETF. Malgré la complexité des structures, le principe initial des Requests For Comments est gardé, avec cette idée du chantier sans fin. La question de l’attribution des noms de domaine (Domain Name System - DNS)Voir aussi « Les protocoles d’Internet et du web » par Jean-Philippe Magué.↩︎ a une histoire à rebondissements : dès 1983, une Internet Assigned Numbers Authority (IANA)En savoir plus.↩︎ est créée ad hoc, alors que le principe d’un système de nommage de domaine est imaginé la même année. En 1992, anticipant l’ouverture d’Internet, la NSF sélectionne la compagnie Network SolutionsPour en savoir plus sur la compagnie Network Solutions.↩︎ pour mettre à disposition les services d’assignation des noms de domaine et des adresses IP associées, en relation étroite avec l’IANA. Cette société a le monopole durant toute la durée de son contrat avec la NSF, jusqu’en 1998. Dès 1996, toutefois, l’International Ad Hoc Committee (IAHC)En savoir plus sur l’International Ad Hoc Committee (IAHC).↩︎ propose une nouvelle approche pour d’une part réserver des domaines de haut niveau aux gouvernements et d’autre part mettre en place des règles d’arbitrage pour éviter les conflits de nom. L’IAHC est agréée par les comités publics compétents, et ses conclusions reprises pour créer une société à but non lucratif, l’Internet Corporation for Assigned Names and Numbers (ICANN)En savoir plus sur l’Internet Corporation for Assigned Names and Numbers (ICANN).↩︎ : « it shall operate for the benefit of the Internet community as a whole ». En 2009, après plusieurs controverses mondiales, l’ICANN cesse d’être uniquement contrôlé par les États-Unis, mais est piloté par une gestion intergouvernementale (Governmental Advisory CommitteeEn savoir plus sur la gestion intergouvernementale (Governmental Advisory Committe).↩︎).

1990 : le web

C’est au CERN (Organisation européenne pour la recherche nucléaire)Situé en Suisse, le CERN (l’Organisation européenne pour la recherche nucléaire) est l’un des plus grands centre de physique des particules du monde.
Voir aussi « Les enjeux du web sémantique » par Yannick Maignien.↩︎
que se conçoit une sorte de « clé de voûte » parachevant l’environnement numérique qui est en train de s’étendre sur l’ensemble du globe par l’interconnexion des réseaux et par la mise en relation d’ordinateurs personnels de plus en plus nombreux. Les utilisateurs avides de pouvoir les utiliser comme dispositifs d’écriture-lecture collectifs et collaboratifs avec l’information circulante comme principe restent des amateurs surpassant les difficultés techniques pour y parvenir.

Dans les années 1980-1990, le CERN possède de très nombreux ordinateurs incompatibles entre eux, exploités par des chercheurs du monde entier. Tim Berners-Lee y développe d’abord, dans les années 1980 un logiciel, EnquirePour en savoir plus sur le logiciel Enquire.↩︎, ressemblant à une sorte de wiki (documents reliés par des hyperliens bidirectionnels) permettant d’expliciter les relations entre les personnes, les programmes et les systèmes qui se croisent au CERN. Cette idée rappelle naturellement celle de Vannevar Bush (1945) qui avait imaginé un mécanisme d’hypercartes (MemexVoir aussi « Histoire des humanités numériques » par Marcello Vitali-Rosati et Michael E. Sinatra.↩︎), et Tim Berners-Lee s’appuie explicitement sur les contributions de Ted Nelson et Douglas Engelbart. Ted Nelson est en effet l’inventeur de la notion d’hypertexte (1965). Toutefois, Enquire ne permet de mettre en relation des documents par liens bidirectionnels qu’entre des documents appartenant à un même espace de gestion de fichiers, et souvent en pratique sur le même ordinateur. Pour aller au-delà, et mettre en relation des composantes (pas seulement documentaires) de différents environnements hétérogènes, il faut disposer d’un système de nommage universel des composantes à mettre en relation, à tisser ensemble sur la même toile. Tim Berners-Lee propose le principe d’une identification universelle : URI (Universal Resource Identifier)Un URI (Universal Resource Identifier) permet d’identifier une ressource sur un réseau.
Voir aussi « Les enjeux du web sémantique » par Yannick Maignien.↩︎
. L’idée du World Wide WebLe World Wide Web (WWW), « toile (d’araignée) mondiale », est un système hypertexte public fonctionnant sur Internet.↩︎ est née. Dès octobre 1990, d’après cette idée, Tim Berners-Lee crée le langage HTML (HyperText Markup Language)Voir aussi « Les formats » par Viviane Boulétreau et Benoît Habert.↩︎ basé sur le langage documentaire SGML (Standard Generalized Markup Language)Voir « L’organisation des métadonnées » par Grégory Fabre et Sophie Marcotte.↩︎ existant et, en décembre 1990, il propose un premier navigateur pour voir les documents produits sur le web. Ce travail ne reçoit pas tout de suite de validation formelle par la hiérarchie du CERN et se développe lentement jusqu’à ce que Robert Cailliau rejoigne l’équipe de Tim Berners-Lee pour développer un navigateur rudimentaire qui peut fonctionner sur n’importe quel système (et pas seulement sur NEXTFondée en 1985 par Steve Jobs, NEXT était une entreprise d’informatique qui a développé et produit une série d’ordinateurs destinés principalement à l’enseignement supérieur et aux entreprises.↩︎, la machine de développement de Tim Berners-Lee, y compris sur les vieux télétypesPour en savoir plus sur les vieux télétypes.↩︎. Le web devient visible sur toutes les machines connectées du CERN. Tim Berners-Lee et RobertCailliau persuadent les autorités du CERN de mettre le répertoire téléphonique du CERN sur le web, attirant ainsi les 10000 personnes associées au CERN.

Les années 1990 : l’emballement

Rapidement, et parce que tout est ouvert et documenté, d’autres navigateurs sont développés avec, cette fois, des possibilités d’interaction de plus en plus sophistiquées et en particulier la possibilité du clic de souris : Perry Pei Wei (1992) développe le navigateur wwwEn savoir plus.↩︎ pour UnixPour en savoir plus sur Unix.↩︎ (déterminant pour la communauté scientifique), puis ErwisePour en savoir plus sur Erwise.↩︎, Midas (Unix), Samba (Mac), etc. apparaissent, sans jamais vraiment encore s’imposer. Marc Andreessen et Eric Bina du National Centre for Supercomputing Applications (NCSA)Situé sur le campus de l’Université de l’Illinois à Urbana-Champaign, le National Centre for Supercomputing Applications (NCSA) est un centre de recherche et d’exploitation des superordinateurs.↩︎ développent un nouveau navigateur en adoptant un mode coopératif de développement, bien dans l’esprit du chantier sans fin : MosaicDéveloppé en 1992 au centre de recherches NCSA (National Center for Supercomputing Applications), NCSA Mosaic est le navigateur web qui a rendu le World Wide Web populaire.↩︎ est disponible en février 1993. En 1994, Marc Andreessen quitte le NCSA pour créer NetscapePour en savoir plus sur Netscape.↩︎ avec James Clark. En août 1995, Netscape entre en Bourse avec un gros succès. Cette entrée en Bourse sonne le début d’un mouvement d’intérêt très important par le secteur économique. Le web devient le support d’innombrables initiatives pour proposer des services, en particulier dans le domaine du e-commerce. Les « .com » deviennent vite la coqueluche des investisseurs. Le Nasdaq voit passer son index de 1291 en 1996 à 4000 en décembre 1999, avec des valeurs parfois multipliées par 100 ou 200 en une seule journée après leur introduction. En 2000, la bulle InternetEn savoir plus sur le phénomène de la bulle Internet.↩︎ éclate, entraînant des faillites en chaîne, mais aussi de sévères restructurations dans les grands groupes qui ont surinvesti dans le domaine et, pour l’essentiel, les entreprises du secteur des télécommunications.

Depuis 1994 : l’histoire en construction

De la même façon que les structures de gestion d’Internet se sont constituées de manière informelle et en dehors des structures de normalisation internationales, Tim Berners-Lee propose de monter un consortium ouvert pour gérer l’évolution du chantier sans fin du web : le World Wide Web Consortium (W3CVingt ans après, en 2014, le W3C poursuit ses objectifs et sa mission : « Web for all, web on everything » (« Web pour tous et partout »).↩︎) naît en 1994 et assure toujours la promotion de l’interopérabilité et la standardisation des technologies web.

Chaque année, depuis 1994, la conférence mondiale du webPour en savoir plus sur la conférence mondiale du web.↩︎ rassemble plus de 1000 acteurs internationaux pour partager et faire avancer ce chantier.

L’histoire de l’open sourceL’open source offre la possibilité aux utilisateurs d’accéder au code source et de créer des nouveaux travaux dérivés. L’expression open source a été suggérée par Christine Peterson du Foresight Institute afin de lever l’ambiguïté de l’expression free software. En savoir plus.↩︎ se tisse dans la même trame que celle de l’histoire du web. Ce principe d’ouverture est à l’évidence la clé de la réussite et du formidable développement d’Internet puis du web qui en est le service principal et dominant depuis 1995.

Les terminaux du web se multiplient et se diversifient avec des opérateurs téléphoniques qui cette fois investissent massivement le domaine avec une offre systématique de l’accès web, le téléphone devenant parfois une fonction accessoire du terminal. L’effet est immédiat sur le taux de connexion des usagers du monde entier, y compris dans les pays très peu pourvus technologiquement et pour lesquels le téléphone mobile est un équipement essentiel dans leurs activités.

Les chiffres clés d’InternetVoir les chiffres clés d’Internet.↩︎ sont disponibles en permanence sur le web et, en 2013, ce sont 32 % des habitants du monde qui sont aussi des internautes. Internet et le web, son principal service, deviennent des biens communs à l’échelle mondiale.

Si le web 1.0Le web 1.0 était un stade prématuré de l’évolution conceptuelle du World Wide Web. Il était surtout centré autour d’une approche top-down, c’est-à-dire que les utilisateurs pouvaient accéder aux pages web, mais ils ne pouvaient pas contribuer au contenu.
Voir aussi « Les enjeux du web sémantique » par Yannick Maignien.↩︎
, celui des documents, a été et est toujours un immense succès, il ne correspond toutefois pas à la vision qu’était celle de Tim Berners-Lee à la création du web. Tim Berners-Lee a d’emblée tenté de persuader les développeurs de navigateurs qu’il était important que ces navigateurs ne soient pas seulement des lecteurs d’information, mais aussi des éditeurs d’information. Les notions de lecture-écriture sont indissociables pour assurer la circulation de l’information bilatérale, mettant en évidence l’importance de l’interaction dans le développement de l’environnement numérique partagé que constitue le web.

Ce n’est qu’à partir de 2003 que ces notions deviennent majeures et que Dale Dougherty propose de nommer web 2.0Le Web 2.0 fait référence à l’ensemble des techniques, des fonctionnalités et des usages du World Wide Web. Il est l’évolution du web originelle en une forme plus simple qui ne nécessite aucune connaissances techniques ni informatiques pour les utilisateurs.
Voir aussi « Les enjeux du web sémantique » par Yannick Maignien.↩︎
cette nouvelle phase. L’information et l’activité tendent à se fondre dans le chantier sans fin du web, ce qui pose naturellement la question du statut du document numérique à l’ère du web.

Les utilisateurs s’emparent en effet du web pour y écrire autant que pour y lire. Les réseaux sociaux se développent à l’échelle mondiale (YouTube et Facebook dépassent le milliard d’utilisateurs actifs) et les écrits des utilisateurs deviennent des données pour les logiciels du web et rentrent dans la liste des Big DataL’expression Big Data est utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information.↩︎ convoitées par un marché qui y voit une activité économique potentielle croissante.

Les écritures collaboratives émergent et démontrent des propriétés de confiance et de qualité qui confirment bien les principes d’ouverture qui ont toujours présidé au succès du développement de l’Internet et du web. Par exemple, Wikipédia en français compte 1571551 contributeurs, dont 5000 très actifsEn savoir plus sur les statistiques de Wikipédia.↩︎. Plus de 2,4 millions d’articles Wikipédia en français sont consultés chaque jour.

Progressivement, les espaces d’activités collectives se développent sur le web, s’ouvrant à des publics de plus en plus variés et offrant des fonctionnements privés, semi-privés ou publics. Ils rassemblent dans le navigateur des services complémentaires pour la gestion de l’activité collective privée ou professionnelle. Si ces services ne relèvent pas du web, ils s’y expriment et leurs usages y constituent autant d’écritures collectives et individuelles. Parmi ces espaces d’activités collectives, il faut noter l’importance des jeux comme World of WarcraftJeu vidéo de type MMORPG développé en 2004 par la société Blizzard Entertainment, World of Warcraft détient le Guinness World Record pour la plus grande popularité par un MMORPG. En 2012, Blizzard annonce le nombre de 9,6 millions d’abonnés à travers le monde, puis 7,7 millions en 2013.↩︎, qui compte 8 millions de joueurs, avec une tendance à intégrer de manière de plus en plus importante les joueurs dans la conception et le renouvellement des jeux. Toutes les activités exploitent de manière plus ou moins directe les possibilités ouvertes par un accès web sur Internet, depuis les activités culturelles (avec un énorme développement dans le domaine de la musique, de la vidéo en particulier), de services, industrielles, touristiques, agricoles, éducatives, sociales, artistiques, militantes, politiques, sécuritaires, etc.

C’est toutefois la possibilité de trouver l’information qui déclenche l’immense succès du web comme conteneur d’information mondial. Dès 1995, Sergueï Brin et Larry Page proposent une autre méthode que l’indexation traditionnelle (AltavistaMis en ligne en 1995, Altavista fut le plus important moteur de recherche en ligne utilisé avant d’être détrôné par Google.↩︎, Yahoo!Créé en 1994, Yahoo! est une société américaine qui offre de nombreux services (gratuits et payants), dont un moteur de recherche et des boîtes à courrier électronique.↩︎, etc.) thématisée et hiérarchisée, mais s’intéressent à l’indexation inverse, en partant des références aux pages et des termes des contenus comme autant d’index potentiels. GoogleSociété fondée en 1998, Google est principalement connue pour son moteur de recherche mais également par quelques-uns de ses logiciels emblématiques, tels que Google Earth et Google Maps. En savoir plus.↩︎ était né. C’est donc une spirale de réussite qui se met en place entre les fournisseurs de contenus accessibles désormais sans effort et les fournisseurs de moteurs de recherche d’information. Les métiers des uns et des autres se rejoignent.

Au-delà de l’écriture explicite (texte) par les utilisateurs, ce sont donc toutes leurs interactions qui deviennent autant d’écritures rejoignant les données utilisables par les logiciels du web. Ces écritures sont le plus souvent nommées traces (Mille 2013) dans la littérature, car elles posent la question de leur observation (enregistrement des actions des utilisateurs) et celle de leur interprétation pour des actions diverses (recommandation, personnalisation, sécurité, identification, etc.). La question du statut de ces traces est posée du point de vue de la vie privée, de leur propriété, de l’éthique de leur utilisation, de leur diffusion, de leur pérennité, de leur gestion, etc.

Le web reste par essence un chantier sans fin dont les dynamiques actuelles s’articulent autour de l’introduction d’écritures possédant une sémantique formelle, c’est-à-dire permettant des calculs interprétatifs explicites plutôt que des calculs implicites encapsulés dans les logiciels traitant les données issues des écritures des utilisateurs. Cette idée d’un web sémantiqueMouvement mené par le W3C (Consortium World Wide Web, le web sémantique, expression inventée par Tim Berners-Lee, vise à favoriser des méthodes communes pour échanger des données en liant et structurant l’information sur Internet par le biais des linked data.↩︎ – auquel seront dédiés les chapitres 4 et 8 de ce manuel – est activement développée par une communauté de chercheursVoir le site du Semantic Web Science Association (SWSA).↩︎ et d’entreprises innovantes.

Dans le même esprit, sur une initiative du W3C et avec l’esprit initial du web, le web des données, ou données liées (linked dataInitiative du W3C (Consortium World Wide Web), le linked data (Web des données en français) vise à favoriser la publication de données structurées sur le Web en les reliant entre elles pour former un réseau global d’informations.
Voir aussi « Les enjeux du web sémantique » par Yannick Maignien.↩︎
, se propose d’écrire dans le web l’information issue de données produites par ailleurs, avec un processus éditorial semi-automatisé. Les données des institutions, les données du monde deviennent, à leur tour, des lieux de lecture-écriture en s’inscrivant dans le web.

Documents, données, connaissances, activités sont tissés pour créer un environnement numérique évoluant maintenant de manière contributive et ouverte. Ce caractère contributif et ouvert a été et reste manifestement la condition sine qua non du développement de ce chantier sans fin.

Références
H. Nelson, Theodor. 1965. « Complex information processing: a file structure for the complex, the changing and the indeterminate ». In Proceedings of the 1965 20th national conference, AMC, 84‑100. New York. http://manovich.net/vis242_winter_2006/New%20Media%20Reader%20all/11-nelson65-03.pdf.
Licklider, J. C. R. 1960. « Man-Computer Symbiosis ». IRE Transactions on Human Factors in Electronics HFE-1 (mars): 4‑11. http://groups.csail.mit.edu/medg/people/psz/Licklider.html.
Mille, Alain. 2013. « De la trace à la connaissance à l’ère du Web ». Intellectica, nᵒ 59 (janvier). http://intellectica.org/numero-59/.

Contenus additionnels

Alain Mille se présente pour la collection Parcours Numériques

Crédits : Parcours Numériques

Source

Proposé par éditeur le 2014-06-30

L’histoire d’Internet au web : un chantier sans fin ! par Alain Mille

Crédits : Parcours Numériques

Source

Proposé par éditeur le 2014-06-30

Alain Mille lit un extrait de son texte D’Internet au web

Crédits : Parcours Numériques

Source

Proposé par éditeur le 2014-06-30

L’histoire d’Internet par ses créateurs - National Media Museum

Crédits : National Media Museum

Source

Proposé par éditeur le 2014-03-01

Une contre-histoire des Internets : un webdocumentaire d’Arte

Crédits : Arte

Source

Proposé par éditeur le 2014-03-01

Evolution Web 1.0, Web 2.0 to Web 3.0

Crédits : EPN Foundation

Source

Proposé par éditeur le 2014-03-01

Alain Mille

Professeur en Informatique à l’Université Claude Bernard Lyon 1.