Le Libre Accès et la « Grande Conversation » scientifique
Jean-Claude Guédon, « Le Libre Accès et la « Grande Conversation » scientifique », dans Michael E. Sinatra, Marcello Vitali-Rosati (dir.), Pratiques de l’édition numérique (édition augmentée), Presses de l’Université de Montréal, Montréal, 2014, isbn : 978-2-7606-3592-0, https://www.parcoursnumeriques-pum.ca/1-pratiques/chapitre7.html.
version 1, 01/03/2014
Creative Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
La facilité de circulation des contenus garantie par le web et la baisse prodigieuse des prix de production donnent lieu à de nouvelles possibilités et à de nouveaux modèles de publication. Nous considérons que le libre accès est bien plus qu’un des modèles possibles pour la publication des contenus scientifiques. Nous pensons qu’il est la caractéristique principale des documents numériques. C’est ce qui sera expliqué dans ce chapitre.
Libre accès et sustainability
La problématique du libre accès repose sur deux conditions préalables : en premier lieu, elle ne touche la sphère de la publication que dans le contexte précis de la production de connaissances ; de plus, le libre accès n’est viable qu’en présence de la numérisation en réseau. Dans le premier cas, cette affirmation revient à dire que le caractère marchand – et ses conséquences –, attaché aux documents scientifiques depuis l’imprimerie, est remis fondamentalement en question. Le libre accès, en effet, ne relève nullement d’une perspective mollement idéologique sur les relations qui pourraient exister ou non entre le libre, le gratuit et l’Internet ; il s’appuie plutôt sur une analyse serrée de la nature même de la communication scientifique et/ou savante, bref de la « Grande ConversationReportage vidéo avec Jean-Claude Guédon sur le thème de Petite histoire du mouvement vers l’accès libre - La science est une grande conversation. Voir le reportage.↩︎ » qui, à travers le temps et l’espace, noue et structure le territoire mondial de la recherche. Dans ce contexte particulier, qui n’a rien à voir avec les livres de jardinage ou les romans, les documents offrant des résultats validés de recherche sont mis à la disposition des autres chercheurs pour leur permettre d’avancer dans leurs propres travaux. Cette mise à disposition comporte évidemment un coût qui doit être pris en charge d’une manière ou d’une autre, mais cette prise en charge financière n’est nullement synonyme de commerce. Que le commerce se soit immiscé dans la communication scientifique et/ou savante ne peut être nié, mais partir de cette constatation pour en déduire que le format «marchandise» est nécessaire aux publications savantes constitue un saut dont l’illogisme est évident.
La recherche, sans exposition à l’examen critique des pairs et même du public, ne veut rien dire. En d’autres mots, la recherche n’existe pas sans publication (c’est-à-dire mise à la disposition du public) et, symétriquement, la publication correspond à une phase essentielle de la recherche, au même titre que l’heuristique, l’expérimentation, l’observation, l’interprétation, etc. Banale en apparence, cette remarque conduit pourtant à des conséquences importantes ; en effet, la recherche scientifique (distinguée ici du « développement » qui lui est souvent associé dans le raccourci classique de Recherche et Développement) est largement soutenue par de l’argent public ou provenant de fondations sans but lucratif. Cela revient à dire que la recherche scientifique n’est pas sustainable au sens anglais du terme : en effet, la sustainability, souvent traduite par « durabilité », incorpore une dimension de pérennité fondée sur des ressources engendrées en interne. La subvention, de ce fait, n’entre pas dans le cadre du sustainable ; en revanche, le modèle commercial apparaît acceptable parce qu’il engendre en principe des profits. Émerge alors un petit paradoxe : depuis la Révolution scientifiqueNotion centrale en épistémologie, la Révolution scientifique est généralement considérée comme une discontinuité d’une pensée scientifique à une époque donnée.↩︎ (au moins), la recherche scientifique se déploie et croît sans jamais avoir été sustainable… Il en va de même pour les publications scientifiques qui l’accompagnent.
Pourquoi les gouvernements subventionnent-ils la recherche scientifique ? La réponse la plus simple revient à dire qu’il s’agit en fait d’une infrastructure économique et militaire, au même titre que les routes, par exemple. Les routes, en effet, ne sont pas non plus sustainable, mais leur pérennité et leur durabilité ne soulèvent aucun doute.
Le libre accès ne peut réellement exister sans numérisation ni réticulation. Bien sûr, un désir de libre accès se manifeste dès l’imprimé, et l’importance croissante des bibliothèques en constitue l’un des signes ; de la même manière, les tirés à part que les revues offraient de façon routinière à leurs auteurs jusque dans les années 1980 alimentaient un commerce intellectuel sans préoccupation commerciale. Mais la numérisation permet d’obtenir deux résultats essentiels pour le libre accès : on peut produire des copies parfaites à un coût marginal proche de zéro, et la présence des réseaux ouvre la possibilité d’une dissémination à un coût marginal à peu près nul. De plus, les outils de publication permettent d’abaisser considérablement les coûts associés à la production de documents de bonne facture visuelle. Tout cela explique les explorations diverses menées par divers chercheurs dans le monde à partir de la fin des années 1980. Par exemple, au Québec, la revue SurfacesSurfaces est une revue savante électronique publiée par Les Presses de l’Université de Montréal qui offre des textes en quatre formats numérisés (HTML, SGML (ISO12083), Word et ASCII.↩︎ (dont j’ai été l’un des fondateurs) a commencé à publier à la fin de 1991, se situant alors parmi la première douzaine de revues savantes électroniques – d’ailleurs en accès libre – dans le monde.
Un peu d’histoire
Ce serait succomber à une forme simpliste de déterminisme technologique que de présenter le libre accès comme la conséquence de la numérisation et d’Internet. La « Grande Conversation » scientifique n’avait pas attendu ces innovations, pourtant majeures, pour subir des transformations au total peu comprises de l’extérieur, mais qui ont abouti à rien de moins qu’une contre-révolution silencieuse dans le domaine. De marginales dans le système de communication scientifique, les grandes maisons d’édition ont commencé à devenir dominantes après la Deuxième Guerre mondiale. Jouant sur le succès de la troncature de l’édition scientifique mondiale qu’a réussi à imposer, dès les années 1970, le Science Citation IndexLancé officiellement en 1964 par Thomson Reuters Corporation, le Science Citation Index est une base de données bibliographiques en ligne. En savoir plus.↩︎, les éditeurs ont réussi à créer un marché inélastique de revues scientifiques. Une fois définie comme membre des revues centrales (core journals), une revue devient incontournable, en particulier aux yeux des bibliothécaires, et peut alors voir son prix augmenter fortement sans que la demande puisse diminuer. Les chercheurs sont en fait des lecteurs subventionnés ; mais, ne payant pas la note, ils ignorent souvent la structure économique soutenant une importante section des publications savantes.
Les bibliothécaires, en revanche, financent les achats de livres et d’abonnements ; il n’est donc pas surprenant, dès les années 1970, de les voir sonner l’alarme en documentant ce qu’il est convenu d’appeler la Serial Pricing Crisis. Ensuite, avec la numérisation des revues qui débute au milieu des années 1990, les bibliothèques ont dû réagir à une situation transactionnelle entièrement nouvelle : l’acquisition et la possession effective d’objets imprimés, en particulier de livres et de numéros de revues, a été remplacée par des licences d’accès à des bases de données d’articles.
Les protestations des bibliothèques à l’égard des coûts d’abonnement, puis des licences d’accès, furent finalement entendues par des chercheurs dans les domaines biomédicaux : au début de 2001, une pétition fut lancée sous le nom de Public Library of Science (PLOS)Fonctionnant sur la base de licences libres, la Public Library of Science (PLOS) est un projet de publication scientifique anglophone à accès ouvert.↩︎. Cette pétition, en apparence, fut un échec simplement parce que, naïvement, elle avait incorporé des menaces inapplicables. Pour autant, elle contribua à rendre visible la situation de plus en plus insupportable dans laquelle la communication scientifique en général, et les bibliothèques en particulier, se débattaient. Diverses fondations, alertées par la pétition PLOS, commencèrent à s’intéresser à cette question. En particulier, l’Information ProgramL’Information Program a pour mission d’encourager l’accès au savoir et de préserver les libertés individuelles dans le monde numérique. En savoir plus.↩︎ des Open Society Foundations (OSF)Créé en 1993 par le milliardaire américain George Soros, l’Open Society Foundations (OSF) est un réseau de fondations qui a pour but de promouvoir la gouvernance démocratique, les droits de l’homme et des réformes économiques, sociales et légales.↩︎ de George Soros a organisé une rencontre à Budapest à la fin de 2001. Cette réunion conduisit à la publication de la Budapest Open Access Initiative (BOAI)La Budapest Open Access Initiative (BOAI) diffuse en accès libre et en version électronique la littérature scientifique. En savoir plus.↩︎, le 14 février 2002, qui catalysa un mouvement mondial en faveur du libre accès. Une dotation de plusieurs millions de dollars des OSF, annoncée en 2002, permit de mettre en route un certain nombre d’activités, de réunions, d’organisations qui ont joué un rôle essentiel dans l’émergence, puis le déploiement du libre accès.
Sans surprise, les bibliothèques commencèrent presque immédiatement à s’organiser pour appuyer le mouvement naissant. Elles le firent en se dotant de dépôts institutionnels dont l’objectif était de récupérer les publications locales de leur institution, de leur donner une exposition nouvelle et de mieux saisir les résultats de la recherche locale. Ce faisant, elles contribuaient à appliquer concrètement l’une des deux solutions proposées par la BOAI dès 2002, en l’occurrence la voie que Stevan Harnad, l’un des grands pionniers de l’accès libre, baptisera « voie verte » (2007), et qui consiste à reposer sur l’auto-archivage des publications des chercheurs. Cette solution a graduellement été renforcée par divers moyens, tels des répertoires mondiaux de ces dépôts.On peut notamment mentionner le site Open Doart, The Directory of Open Access Repositories et le site ROAR, Registry of Open Access Repositories.↩︎ Des standards de métadonnées tel l’Open Archives Initiative Protocol for Meta-Data Harvesting (OAI-PMH)Voir « L’organisation des métadonnées » par Grégory Fabre et Sophie Marcotte.↩︎, standards conçus par Carl Lagoze et Herbert Van de Sompel, ont également vu le jour. Il ne faut pas oublier non plus le modèle qu’offrait, en physique des hautes énergies, la base de données ArXivLa base de données ArXiv est une archive de prépublications électroniques d’articles scientifiques.↩︎ de pre-prints que Paul Ginsparg animait, depuis 1991, au laboratoire national de Los Alamos aux États-UnisEn savoir plus sur le laboratoire national de Los Alamos aux États-Unis.↩︎. Ce type de dépôt disciplinaire s’est ensuite étendu à d’autres disciplines, par exemple en économie (RePEc)RePEc (Research Papers in Economics) est un projet destiné à permettre la plus large diffusion de la recherche en économie.↩︎, avec des variations dans le détail des opérations.
En parallèle, et de façon plus prévisible, l’effort pour créer des revues en accès libre s’est évidemment intensifié (« voie d’or »Les revues en accès libre qui sont sans barrières financières, légales ou techniques pour le lecteur sont parfois surnommées la « voie d’or ». En savoir plus.↩︎, toujours selon la terminologie de Stevan Harnad. D’ailleurs, avant même la BOAI, Vitek Tracz avait créé en 2000 un ensemble de revues en libre accès, ensemble connu sous le nom de Biomed CentralBasé au Royaume-Uni, le Biomed Central est une revue scientifique en accès libre.↩︎. Tracz et le premier directeur de Biomed Central, Jan Velterop, ont essentiellement inventé la notion d’auteur-payeur dans le domaine des publications libres. Selon cette formule, que l’on assimile trop souvent à la voie d’or, les frais de publication sont reportés en amont et payés par l’auteur ou une institution se substituant à celui-ci, par exemple l’institution d’appartenance, ou un organisme de subvention de la recherche. Le modèle financier de Biomed Central, tout à fait acceptable dans la perspective de la sustainability, fut repris par un PLOS nouveau genre, descendant de la pétition de 2001. Le nouveau PLOS est en fait un éditeur de publications scientifiques en accès libre qui fut initialement soutenu par une dotation de 9 millions de dollars de la Gordon and Betty Moore FoundationFondation américaine, la Gordon and Betty Moore Foundation vise à développer des projets axés sur les résultats qui permettront d’améliorer la qualité de vie des générations futures.↩︎.
À côté des revues financées selon le modèle auteur-payeur, il existe un nombre encore plus grand de revues qui utilisent d’autres moyens, en particulier des subventions de diverses sources, pour alimenter des revues dans toutes les disciplines. Le Directory of Open Access JournalsLe Directory of Open Access Journals (DOAJ) est une base de données bibliographiques qui recense les périodiques scientifiques en ligne.↩︎, au moment où ces lignes sont écrites en mai 2013, compte en effet 9191 revues savantes, toutes en libre accès, dont 268 provenant du Canada. Notons pour l’Université de MontréalL’Université de Montréal (UdeM) est l’un des quatre établissements d’enseignement supérieur de Montréal.↩︎, par exemple, la revue AltéritésPubliée en ligne, Altérités est une revue scientifique qui traite de sujets en lien avec des enjeux traversant les sciences sociales.↩︎ gérée par les doctorants du Département d’anthropologie et la revue Bioéthique OnlineBioéthique Online est une revue en accès libre ayant pour but de diffuser des recherches théoriques, conceptuelles et empiriques sur une diversité de sujets qui a trait à la bioéthique.↩︎ qui a démarré en 2012, en collaboration avec l’Université McGillL’Université McGill est l’un des quatre établissements d’enseignement supérieur de Montréal.↩︎.
Avec près de 10000 revues en libre accès recensées, au-delà de 2000 dépôts en tous genres dans le monde, et des manifestations annuelles régulières, telle la Open Access WeekÉvénement annuel, la Open Access Week est marqué par l’organisation de multiples conférences, séminaires ou annonces sur le thème du Libre accès et sur le futur de la recherche académique.↩︎ chaque automne, le mouvement du libre accès ne peut plus être ignoré et, effectivement, il ne l’est plus. La prochaine section va le démontrer en esquissant quelques-unes des lignes de front qui se sont dessinées au cours des dernières années et qui révèlent clairement la nature des forces en faveur et contre le libre accès.
Quelques lignes de front autour de l’accès libre
En dix ans, le libre accès a vécu la trajectoire classique des mouvements contestataires que décrit fort bien ce petit adage de la sagesse populaire : d’abord, ils vous ignorent ; puis ils rient de vous ; et enfin ils vous combattent. Le libre accès, actuellement, et ce, depuis plusieurs années, n’est plus ignoré et les rires se sont tus. Restent les combats…
Ces combats prennent évidemment plusieurs formes. Prenons le cas des dépôts, qu’ils soient institutionnels, thématiques ou nationaux. Après avoir transféré ses droits à une maison d’édition, un auteur ne peut déposer ses propres travaux dans un dépôt public qu’avec l’assentiment de la maison d’édition. Pour ne pas aliéner frontalement les chercheurs, bon nombre de maisons d’édition consentent donc à ce dépôt, mais en l’assortissant de conditions chaque fois particulières. En résulte un paysage flou d’une lisibilité limitée. Par exemple, un chercheur peut se demander quelle version de son texte il peut déposer, mais ces questions juridiques ne sont pas dans ses priorités. Aussi, le manque de réponse claire à la question précédente tend à inhiber le processus de dépôt. En effet, un chercheur publie en pensant surtout à son dossier personnel. Sa visibilité lui importe aussi, mais les avantages que confère l’accès libre à cet égard demeurent flous, en partie parce que les évaluations institutionnelles, primordiales pour la carrière, fonctionnent sur la base d’une forme de réputation dictée davantage par l’évaluation des revues que par celle des articles.
La variété fluctuante des politiques de dépôts effectivement concédées par les maisons d’édition conduit à démobiliser les chercheurs. L’entretien passif d’une zone de confusion par les maisons d’édition est clair : les auteurs autoarchivent peu, autour de 10-20% du total possible.
De plus en plus d’institutions, conscientes des limites inhérentes au dépôt volontaire, exigent le dépôt des travaux de recherche de leurs chercheurs. La première université à s’engager dans cette voie fut celle de Minho, au PortugalFondée en 1973, l’Université du Minho est une université publique portugaise située dans la région du Minho.↩︎, dès décembre 2004. Sous le leadership d’Eloy Rodrigues, le directeur des services de documentation de l’Université de Minho, une politique de dépôt obligatoireIl s’agit ici du Dépôt Institutionnel de l’Université de Minho, RepositóriUM.↩︎ fut promulguée il y a près de dix ans, ce qui entraîna immédiatement une croissance forte du dépôt institutionnel local. Plus tard, l’Université de LiègeFondée en 1817, l’Université de Liège est une université publique et pluraliste belge située à Liège.↩︎ instaura, sous la houlette de son recteur, Bernard Rentier, une procédure d’évaluation des professeurs qui repose exclusivement sur les documents confiés au dépôt institutionnel localVoir le site de l’Open Repository and Bibliography (ORBi).↩︎. Là aussi, le taux de dépôt des articles publiés par les chercheurs de Liège a augmenté très vite.
Actuellement, des politiques diverses d’obligation de dépôt existent dans environ 170 institutions, plus un certain nombre de facultés et de départementsVoir la ROARMAP (Registry of Open Access Repositories Mandatory Archiving Policies).↩︎. Dans certains cas, comme à la Faculté des arts et des sciences de HarvardEn savoir plus sur le Digital Access to Scholarship at Harvard (DASH).↩︎, au Massachusetts Institute of TechnologyEn savoir plus sur le DSpace@MIT.↩︎, l’obligation de dépôt a été votée par les chercheurs eux-mêmes, ce qui assure à la politique en force une plus grande légitimité.
L’intensité des combats autour du libre accès s’est accentuée lorsque le Wellcome TrustLe Wellcome Trust est la seconde plus riche fondation mondiale de charité en médecine, après la Fondation Bill-et-Melinda-Gates.↩︎, puissante charity anglaise soutenant la recherche biomédicale, entreprit de placer en accès libre les publications résultant de ses programmes de soutien à la recherche. Sous l’impulsion de son directeur, Sir Mark Walport, la fondation britannique décida en 2005 d’énoncer une politique exigeant des chercheurs financés par le Wellcome Trust le dépôt en accès libre des articles publiés six mois (ou moins) auparavant. Cette décision se révéla extrêmement importante ; elle conduisit en 2008 à une loi analogue aux États-UnisDivision G, Title II, Section 218 de PL 110-161 (Consolidated Appropriations Act, 2008).↩︎, qui s’appliqua dès lors aux milliers de publications issues des 18 milliards de dollars de recherche provenant des National Institutes of Health (NIH)Les National Institutes of Health (NIH) sont des institutions gouvernementales des États-Unis qui s’occupent de la recherche médicale et biomédicale.↩︎. Au Canada, le Canadian Institutes of Health Research (CIHR)Le Canadian Institutes of Health Research (CIHR) est un organisme fédéral responsable du financement de la recherche en santé au Canada.↩︎ s’est aligné sur les normes des États-Unis, et de plus en plus d’agences de financement de la recherche, un peu partout dans le monde, suivent ces modèles.
Cette attitude nouvelle des organismes subventionnaires a évidemment inquiété les maisons d’édition. Leurs réactions ont pris une variété de formes, allant de la volonté d’être nécessairement impliquées dans le processus de dépôt des articles contre rétribution, tactique perverse mais intelligente pour inventer de nouvelles sources de revenus, jusqu’à la tentative de renverser la loi américaine de 2008 sur le dépôt obligatoire.
Elsevier, pour sa part, a résolument opté pour cette dernière solution : cette compagnie a tenté de faire annuler la loi exigeant le dépôt en libre accès des articles publiés avec des fonds du NIH. Ce projet de loi, connu sous le nom de H.R.3699 ou Research Works ActLe H.R.3699, ou Research Works Act, est un projet de loi américain dont certaines clauses visent à interdire le libre accès aux publications scientifiques qui sont financées par l’État.↩︎, fut introduit en novembre 2011 à la Chambre des représentants du Congrès des États-Unis. Une réaction directe des chercheurs en forme de pétition, organisée sous le nom de The Cost of KnowledgeThe Cost of Knowledge est une protestation faite par des universitaires contre les pratiques commerciales de l’éditeur de la revue académique Elsevier.↩︎, engendra un débat suffisamment intense dans la presse pour convaincre Elsevier d’abandonner son soutien pour le Research Works Act en février 2012. Le projet de loi fut alors retiré.
Autour du libre accès, une autre ligne de front est également en train d’apparaître dans divers pays émergents. Longtemps exclues des périmètres définissant les core journals, un très grand nombre de revues savantes, par exemple en Amérique latine, ont végété dans l’ombre des revues européennes et américaines, condamnées à la marginalité et à l’invisibilité pour des raisons qui ne sont pas toujours liées au manque de qualité. Pour contrer ce phénomène de « science perdue », pour reprendre l’expression de W.W. Gibbs (1995), des chercheurs brésiliens ont décidé de construire une plateforme imposante de revues, intitulée SciELOFondée au Brésil, SciELO est une base de données bibliographique de revues en accès libre et un modèle pour l’édition électronique coopératives dans les pays en développement.↩︎, qui couvre maintenant plus d’une douzaine de pays, et environ 900 revues. L’effort de SciELO s’est porté sur plusieurs fronts : d’abord, professionnaliser la production de revues savantes dans la région, mais aussi construire des métriques de citations incluant les citations contenues dans le réseau SciELO. Le résultat de ces efforts a été de produire un ensemble de revues de plus en plus visibles, même dans les pays de l’Organisation de coopération et de développement économiques (OCDE)L’Organisation de coopération et de développement économiques (OCDE) est une organisation internationale d’études économiques.↩︎. Malheureusement, SciELO se heurte à deux types de problèmes : les organismes subventionnaires d’Amérique latine, de manière peut-être encore plus rigide et mécanique que les gestionnaires de la recherche dans les pays riches, se fient aux facteurs d’impact tirés du Science Citation Index. De fait, les métriques de SciELO ne se sont pas encore imposées en Amérique latine. Mais, ironie peut-être prévisible, ces mêmes métriques sont prises au sérieux par certaines maisons d’édition comme Elsevier. Des rumeurs circulent au sujet d’ambassadeurs de ces compagnies qui iraient rencontrer les équipes éditoriales des revues les plus prometteuses sur le plan financier pour tenter de les attirer dans les écuries de ces maisons d’édition. Si tel est le cas, l’idée, bien évidemment, est d’écrémer les revues prometteuses sur le plan lucratif. SciELO se trouverait alors pris dans le rôle peu enviable d’antichambre d’Elsevier et autres maisons d’édition, ce qui, bien évidemment, n’est pas le but de ce consortium.
Les quelques lignes de bataille esquissées ici sont loin d’épuiser le sujet. En fait, une guerre sourde se joue actuellement dans les organismes officiels, les parlements, les associations professionnelles. De temps en temps, un événement plus éclatant vient donner un coup de projecteur sur un paysage où dominent les guerres d’influence, les perfidies et les traîtrises propres au monde du lobbying. Cela dit, chaque fois qu’une de ces affaires atteint la presse et le grand public, il y a défaite partielle des maisons d’édition : celles-ci, en effet, cherchent généralement à maintenir une apparence de sérénité, de coopération et de bonne volonté, preuve s’il en est que tout va pour le mieux dans le meilleur des mondes…
Les combats autour du libre accès, on peut le prédire avec assurance, vont se poursuivre et se multiplier pendant encore bien des années, en fait jusqu’à ce que la communication scientifique trouve enfin un nouveau point d’équilibre. Il ne s’agit pas moins, en effet, que de vivre la transition de l’imprimé au numérique. Actuellement, pour reprendre la belle expression de Gregory Crane, nous vivons simplement la phase des « incunables numériques » (2006) et, dans le cas des publications scientifiques, le libre accès constitue en fait une façon de dépasser cette phase. Le libre accès, il ne faut jamais l’oublier, constitue aussi un symptôme indéniable de la transition en cours vers le numérique.
Un peu de prospective
Pendant que les premiers combats autour du libre accès se déroulaient de façon plus ou moins visible, le monde numérique ainsi que le libre accès n’ont cessé d’évoluer. S’il fallait ne mentionner qu’un élément de ces transformations, il faudrait tout de suite souligner que, en quinze ans, le numérique a révélé que tout document bénéficie désormais de deux types de lecteurs : les lecteurs humains et les lecteurs-machines. Google illustre cette deuxième catégorie de manière éclatante, mais des expériences telles que l’executable papersFournissant une solution qui améliore la reproductibilité des travaux informatiques, l’executable papers donne la possibilité aux auteurs d’incorporer des morceaux de code exécutable et des données au sein de leurs livres.↩︎ d’Elsevier montrent bien que le document numérique assume des rôles totalement hors de portée de l’imprimé. Notons en particulier le lien entre articles de recherche et données sous-jacentes, avec les algorithmes permettant de traiter ceux-ci à travers ceux-là.
La mise en œuvre de dépôts en tous genres et de larges collections de revues a également révélé l’importance de la plateforme par rapport aux formes classiques de rassemblement d’articles que sont les revues. De manière presque prévisible, ces constats ont conduit à la création de méga-revues dont le premier modèle vient du monde du libre accès : PLOS OneÉditée par la Public Library of Science et diffusée exclusivement en ligne, PLOS ONE est une revue scientifique qui couvre tous les domaines de la biologie et de la médecine.↩︎. Ces méga-revues qui publient plusieurs milliers d’articles par mois non seulement transforment le paysage de l’édition savante, mais en modifient aussi subtilement le sens : dans une méga-revue, la sélection se fait sur la base de la qualité de l’article soumis, sans référence aucune à quelque orientation éditoriale que ce soit. Cela veut dire que toute question, si exotique puisse-t-elle paraître, sera acceptée si l’évaluation par les pairs établit la qualité du travail. Ainsi, une recherche bien conduite sur une maladie négligée sera acceptée. En d’autres mots, les contraintes qui se sont souvent exercées sur le champ des questions intéressantes et possibles viennent de s’amoindrir de manière extrêmement significative.
Autour du libre accès, on commence aussi à discuter des questions d’évaluation. Ces questions, dominées depuis une génération par les métriques issues du Science Citation Index, sont de plus en plus contestées. Dans les pays émergents, on cherche à revaloriser les questions d’intérêt local (ce qui n’exclut d’ailleurs pas des solutions de valeur universelle) ; ailleurs, on s’inquiète des distorsions de valeurs qu’engendrent les formes exacerbées d’une concurrence gérée au moyen de ces métriques. Or l’accès libre se prête bien à des formes d’évaluation plus justes, que les publications fermées ne permettent pas aussi facilement. Pensons, par exemple, aux enjeux associés à la volonté de fonder l’évaluation sur les articles, et non les revues.
Plus avant dans la réflexion, on commence aussi à entrevoir comment l’ouverture des vecteurs de la « Grande Conversation » permettront de donner des réponses innovantes à des questions de collaboration scientifique internationale ou de structuration d’espaces de recherche (comme c’est le cas en Europe avec la European Research AreaLa European Research Area est un concept créé par l’Union Européenne pour décrire sa politique en matière de recherche et d’innovation.↩︎). On commence aussi à comprendre qu’un régime généralisé de données ouvertes va transformer les pratiques de la recherche de fond en comble. La Research Data Alliance, actuellement en voie de constitution avec les États-Unis et l’Europe en son cœur, en constitue un signe évident. L’Australie y adhère déjà, mais quid du Canada, pourtant sollicité ?
Conclusion
Ce texte, on l’aura vu, positionne le libre accès comme une facette fondamentale, indispensable, incontournable en fait, d’un passage réussi au numérique, du moins dans les domaines associés à la recherche. En effet, en recherche, ce qui prime, ce ne sont ni les vecteurs, ni les dispositifs, et encore moins les institutions sur lesquelles s’appuyaient autrefois les centres d’où partaient les imprimés scientifiques ou savants, mais bien plutôt les processus au travers desquels se constitue cette « Grande Conversation » qui forme le pivot de l’argument de ce texte. Le libre accès découle directement et nécessairement des besoins de la « Grande Conversation », et l’évolution des dix dernières années démontre en fait que, petit à petit, sa logique se renforce et s’impose. Parfois, cela se passe en bousculant des ordres établis : ainsi, les métiers regroupés dans une maison d’édition traditionnelle sont en train de se redistribuer différemment au sein d’entités beaucoup plus proches des milieux de la recherche. Les nouvelles alliances entre presses universitaires et bibliothèques, par exemple à l’Université du Michigan, en témoignent. Ainsi, des formes de contrôle sur les questions admissibles ou intéressantes en recherche se voient contournées ou transformées par l’invention de nouvelles formes de vecteurs, ou par la prise en charge de certaines formes de traitement de documents par des algorithmes. Cela dit, il faut toujours dépasser tout réflexe nous confinant aux « incunables numériques » pour garder les yeux fixés sur le bon compas, celui qui pointe vers les promesses d’une intelligence humaine réellement et universellement distribuée. Utopie ? Sans doute ! Mais la communauté des chercheurs s’est constituée sur la base d’une utopie sociale qu’a bien décrite le sociologue R.K. Merton. Et le fil allant de la « Nouvelle Atlantide » (1995) de F. Bacon aux structures de la Société royale de LondresPour en savoir plus sur la Société royale de Londres.↩︎ demeure visible.
Références
Contenus additionnels
Le Libre Accès ou le retour de la Grande Conversation
Proposé par éditeur le 2010-09-22
Petite histoire du mouvement vers l’accès libre par Jean-Claude Guédon
Proposé par éditeur le AAAA-MM-JJ
Intervention de Jean-Claude Guédon à l’Open Access Monographs in Humanities and Social Sciences Conference
Crédits : OAbooks
Proposé par éditeur le 2013-07-05
La grande conversation scientifique
Crédits : érudit
Proposé par éditeur le 2016-02-01
Jean-Claude Guédon
Jean-Claude Guédon est professeur titulaire au département de littérature comparée de l’Université de Montréal (UdeM). Fondateur de la revue électronique Surfaces, il s’intéresse à la numérisation de la culture (rapports entre texte et technologie, cyberculture, publication électronique et bibliothèques numériques) et aux conséquences culturelles, légales, linguistiques et sociales d’Internet. Il est également très impliqué dans les problématiques autour du libre accès et des logiciels à code source ouvert. Il est l’auteur de La planète cyber. L’Internet et le cyberespace publié dans la collection « Découvertes » chez Gallimard (Paris, 1996), réédité sous le titre Internet. Le monde en réseau (2000).