L’édition électronique de manuscrits modernes
Fatiha Idmhand, Claire Riffard, Richard Walter, « L’édition
électronique de manuscrits
modernes », Étienne Cavalié, Frédéric Clavert, Olivier Legendre, Dana Martin (dir.), Expérimenter
les humanités numériques (édition augmentée), Presses de
l’Université de
Montréal, Montréal, 2017, isbn : 978-2-7606-3837-2, https://www.parcoursnumeriques-pum.ca/9-experimenter/chapitre8.html.
version 0, 01/09/2017
Creative
Commons Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
Dans les années 1970, la critique génétique a bouleversé le champ des études littéraires en introduisant les manuscrits et les brouillons des écrivains dans l’interprétation critique de l’œuvre. Après que la « nouvelle critique » a révolutionné l’analyse des textes littéraires en leur appliquant les procédés de la linguistique structurale et que Roland Barthes a théorisé ces méthodologies dans des écrits de référenceRoland Barthes, 1970 et 1972.↩︎, l’approche dite « génétique » a proposé de dépasser cette forme d’analyse du texte relativement fermée en prospectant du côté de sa genèse. Si la génétique a hérité des avancées du structuralisme, elle s’est, toutefois, immédiatement située à contre-courant du modèle en vogue en remettant la figure de l’auteur au cœur de l’analyse et en décloisonnant l’étude critique du texte qu’elle situe dans un processus d’écriture. L’introduction de concepts novateurs comme ceux d’« avant-texte » (Bellemin-Noël 1971) et de « dossier génétique », mais aussi la publication d’écrits et d’ouvrages de référence (Hay 2002 ; Grésillon 1994 ; Biasi 2013), ont permis aux généticiens de développer et d’asseoir une méthodologie aujourd’hui reconnue et diffusée dans le monde entier. À l’instar de la variantistica italienne (Fiormonte et Pusceddu 2006), la génétique a une approche multidimensionnelle de l’écrit : elle tient compte de la chronologie des événements qui ont donné naissance à l’œuvre, du contexte dans lequel celle-ci a émergé et des moyens mis en œuvre par l’auteur pour exécuter son projet. L’étude génétique vise surtout à mettre en évidence ce processus de fabrication de l’œuvre. La singularité de cette approche constitue l’un de ses obstacles, depuis des années, lorsque cette science se propose de publier les sources de sa recherche. Une édition rigoureuse de ce matériau, accompagné des interprétations scientifiques du chercheur, suppose la publication d’une masse documentaire très importante, bien supérieure au texte final et signifie la mise en place d’un protocole éditorial modulable selon l’écrivain, selon le corpus et l’hétérogénéité du dossier de genèse. Aussi, à moins de centrer la publication sur une unité réduite (un poème, un chapitre, un croquis), les contraintes de l’édition sur papier n’ont jamais permis la réalisation de telles publications : il semblerait donc que seules les technologies numériques soient en mesure de résoudre ce problème éditorial. Un tel changement de paradigme ne soulève-t-il pas de nouvelles questions ?
Les enjeux de l’édition critique et génétique
Il faut avant tout insister sur un préalable non négligeable, celui de l’existence des sources. La conservation de traces du processus de création (archives, premiers jets, ébauches, brouillons manuscrits ou dactylographiés, etc.) est une condition nécessaire à l’analyse génétique ; or s’il est vrai qu’en France, depuis la fin du XIXe siècle et le legs historique de Victor Hugo (testament du 31 août 1881Voir le testament du 31 août 1881 de Victor Hugo.↩︎) à la Bibliothèque nationale de France (BNF), les écrivains ont régulièrement légué leurs fonds aux bibliothèques, dans les autres pays d’Europe ou du monde, le legs ou le dépôt à l’institution publique restent inhabituels ; il est plutôt courant que les manuscrits soient vendus à des privés ou à des bibliothèques, engendrant ainsi la dispersion des fonds. Parfois, ce sont des ayants droit privés qui se proposent d’assumer la conservation des fonds et qui agissent sur ceux-ci en fonction de leurs capacités financières, comme cela a été le cas des archives africaines et latino-américaines qui sont au cœur de notre expérience.
Le généticien qui travaille sur de telles archives dépend de la disponibilité de ces sources primaires et des aléas juridiques inhérents à l’histoire de ces patrimoines et des pays dans lesquels ils sont conservés. Lorsqu’on a levé l’ensemble de ces verrous privés ou institutionnels, le travail du généticien est d’abord celui d’un archiviste : il récolte, classe et traite les documents en vue de leur étude scientifique et de leur communication au public. À cette étape, et en raison de ces contextes, la numérisation revêt deux fonctions essentielles : elle permet une première préservation des archives, préalable au dépôt (physique) des originaux dans un lieu de conservation pérenne, et elle facilite l’accès des chercheurs aux données génétiques.
Lorsqu’il a pu accéder aux fonds, le généticien suit alors un protocole très précis : il parcourt la masse documentaire dans le but de reconstituer la chronologie de l’écriture puis organise cet ensemble en « phases génétiques » et en « états rédactionnels » ou « génétiques » (Biasi 2011). Ce premier classement est capital car il permet de constituer le « dossier génétique » (Biasi 1995), c’est-à-dire le dossier qui rassemble l’ensemble des documents utilisés par l’écrivain pour réaliser son œuvre, depuis les brouillons et les ébauches scripturaires (feuillets libres, dessins, carnets, etc.) jusqu’aux documents qu’il a consultés (on parlera de sources exogénétiques comme les journaux, les revues, les livres, etc.) et aux échanges qu’il a eus avec d’autres sur son projet (lettres, courriers, etc.). Ce dossier, qui est une production critique du chercheur, est une « part essentielle de la recherche, non seulement par les difficultés propres au déchiffrage et à la transcription des documents mais surtout par l’exigence d’un classement exhaustif qui suppose, en réalité, que le dossier publié ait été au préalable presque entièrement élucidé » (Biasi, 2007) : il est l’élément-clé de l’édition scientifique des brouillons.
L’édition génétique ne vise donc pas uniquement à établir un texte, elle ambitionne de présenter les étapes situées en amont et rendues compréhensibles grâce au récit de genèse. Bien sûr, elle pourrait « légitimement se contenter […] de reproduire en fac-similé le dossier génétique complet, en l’accompagnant d’un classement génétique des documents et de leurs sous-parties […] et d’une représentation ou explication des processus génétiques sous-jacents » (D’Ioro 2010) mais la richesse d’une telle édition génétique réside dans la plus-value apportée par l’éditeur scientifique qui révèle les chemins de traverse empruntés par l’écrivain pour construire son œuvre. Deux possibilités s’offrent à lui pour mettre en évidence cette genèse : une présentation qui permette de découvrir un moment précis de la genèse en ciblant, dans le dossier génétique, une étape ou une phase particulière (dans son épaisseur spatio-temporelle) ou la mise en lumière d’une succession de strates différentes parcourues dans leur chronologie. Pour distinguer ces deux approches, consubstantielles en réalité, Pierre-Marc de Biasi parle d’horizontalité et de verticalité ; pour lui, l’édition doit tenir compte de ces « mécanismes génétiques inséparables de leur inscription temporelle dans une durée complexe et de leur déploiement dans le volume qu’occupent concrètement les documents » (Biasi, 2007). Les notions d’éditions horizontale et verticale ne sont peut-être pas appropriées pour refléter les possibilités de l’édition électronique, elles traduisent néanmoins les deux dimensions dans lesquelles s’inscrit l’édition génétique des manuscrits. Quels sont donc, à ce stade, les enjeux de l’édition numérique pour notre domaine ?
Soulignons d’abord que le basculement technologique ne modifie aucunement certains préalables de la recherche en génétique, celle-ci requiert toujours la même approche méthodologique : d’abord le classement du corpus et l’organisation des avant-textes dans l’ordre chronologique de leur apparition et selon les différentes phases de la genèse du projet, ensuite, la constitution du dossier génétique qui regroupe tous les documents qui ont eu, selon les phases, une incidence sur le processus de création. Ce dossier, qui rassemble les différents états génétiques de l’œuvre et toutes les sources de l’« exogenèse », suppose un traitement singulier en raison de son caractère multidimensionnel (et exponentiel). D’abord parce qu’en fonction de l’écrivain étudié, de son époque et de l’évolution des pratiques scripturaires, la nature des objets qui le constituent se diversifie avec le temps : manuscrits, copies dactylographiées et photos imprimées s’enrichissent, au fil des années, de nouveaux objets et de nouvelles ressources. Témoins des différentes révolutions technologiques que nous avons connues, les supports évoluent (cassettes, CDs, DVDs, disquettes, clés USB, disques durs, etc.), bouleversent le profil matériel des documents du dossier de genèse et induisent des traitements (numérisation, archivage, etc.) qui engendrent à leur tour de nouvelles réflexions épistémologiques sur les conditions de sauvegarde de ces sources, notamment lorsqu’elles sont nativement numériques. On pourrait d’ailleurs penser que l’édition électronique est en mesure d’intégrer, plus facilement que le papier, les éléments du dossier de genèse nativement numériques qui ne faisaient pas partie de l’édition papier, et pour cause ! Pourtant, le processus n’est pas si simple.
En effet, si la transition massive vers le numérique semble inéluctable, la perte de données l’est également si on ne réalise aucune structuration de l’information à archiver et si on n’anticipe pas le respect des normes et des standards, des méthodes et des coutumes, actuelles et futures. Le passage au numérique exige par conséquent une préparation en amont très fine (mesure des répercussions de l’édition, choix des outils et des méthodes, etc.) car chaque option peut avoir des conséquences irréversibles. L’expertise du généticien doit aujourd’hui intégrer les nouveaux horizons de cet environnement numérique avec, forcément, de nouveaux enjeux. Il semble ainsi évident, par exemple, que les possibilités de visualisation des processus génétiques fins (diverses campagnes d’écriture sur un état, rapprochement de différents états du même texte, relations avec des éléments d’exogenèse) sont démultipliées. Toutefois, il faut souligner que le basculement technologique ne modifie ni les étapes de la recherche génétique ni les principes éditoriaux d’une publication scientifique ; on ne sera donc pas étonné d’apprendre que la publication du dossier génétique reste l’enjeu principal de l’édition électronique et que, comme toute édition de ce type, elle répond préalablement aux règles scientifiques du domaine de recherche et à des règles éditoriales propres au numérique, à des normes et des standards destinés à faciliter l’échange d’informations d’une part, mais également la conservation à long terme de celles-ci.
Numériser et éditer un manuscrit, dans notre domaine, suppose par conséquent la prise en compte des différentes dimensions de l’objet (documentaire, archivistique, génétique), dont le contenu comporte des informations de multiples natures qui devront être structurées (usage de descripteurs, de normes et de règles différentes). À chaque étape du projet, le chercheur fait face à des choix de différentes natures selon les niveaux de l’édition qu’il envisage : d’un côté l’édition scientifique, de l’autre les contraintes techniques ; d’un côté l’interopérabilité nécessaire en vue de la mutualisation, de l’autre des choix technologiques spécifiques, en fonction de besoins propres. L’édition génétique numérique doit obéir à ces exigences, avec la même qualité que l’édition imprimée et en intégrant des impératifs techniques supplémentaires comme le respect des normes du domaine numérique.
e-Man : pour l’édition de textes et de manuscrits modernes ?
Face à la masse croissante de contenus numériques produits, à la variabilité et aux contraintes du virage vers le tout numérique, les problèmes posés par la gestion de telles sources sont, indéniablement, plus importants qu’autrefois et il n’existe, pour l’instant, aucune méthode ni solution clés en main. Nous avons fait le choix d’une nouvelle approche : adapter un outil générique à nos besoins pour tenter de répondre aux règles de la discipline scientifique et à celles du numérique. D’autres projets avaient déjà tenté, avant nous, de trouver des solutions techniques pour permettre à tous d’accéder aux sources des œuvres dans le but de rendre compte de leur processus de création. Nous pouvons citer parmi ceux-ci celui de Julie André et Elena Pierazzo, fondé sur une visualisation des manuscrits de Marcel Proust à partir d’un codage en Text Encoding Initiative (TEI) mais qui n’a donné lieu qu’à un prototypeLe projet de Julie André et d’Elena Pierazzo s’intitule Autour d’une séquence et des notes du Cahier 46 : enjeu du codage dans les brouillons de Proust. Voir le prototype.↩︎. Le projet d’édition des avant-textes de Paisajes después de la batalla de l’écrivain Juan Goytisolo, mené par Bénédicte VauthierEn savoir plus sur le projet Manuscrito digital de Juan Goytisolo.↩︎), a abouti à une solution convaincante mais difficile à transposer pour qui souhaite éditer une grande quantité de manuscrits en raison, comme pour l’édition des Cahiers de Proust, du temps considérable que requiert l’encodage en TEI. Le projet d’édition des dossiers de Bouvard et Pécuchet de Flaubert, mené par Stéphanie Dord-CrousléLes dossiers de Bouvard et Pécuchet. En savoir plus.↩︎ ou des journaux de Stendhal, mené par Cécile Meynard et Thomas LebarbéAccéder à la plate-forme Les manuscrits de Stendhal.↩︎ avaient aussi abouti à des solutions relativement transposables ; pour le premier, l’encodage en TEI a constitué le pivot, pour le second, on a mené l’édition à l’aide d’une plate-forme, CLELIACLELIA : Corpus littéraire et linguistique assisté par des outils d’informatique avancée.↩︎. Ensuite, un système a été mis en place pour permettre la transposition de l’édition vers la TEI. Tous ces projets, basés sur des solutions Open Source (développements et langages, formats, etc.), contrastent avec d’autres, comme le Samuel Beckett Digital Project, dont la solution éditoriale est difficile à consulter, et à transposer, en raison de la fermeture du site, avec accès payant.
Le projet e-Man (plate-forme pour l’édition de manuscrits modernesDésormais appelée EMAN : édition de manuscrits et d’archives numériques. Consulter la plate-forme et le carnet de recherches.↩︎) avait pour but le développement d’une solution ouverte, simple, fondée sur un outil de publication interopérable favorisant l’exploitation numérique de documents. Il s’agissait pour nous de conjuguer, ainsi que le suppose l’édition génétique, la publication en ligne d’images, de textes et de diverses sources numériques dans le respect d’un état de l’art éditorial et avec les exigences d’une édition critique enrichie des résultats de recherches scientifiques sur les processus de création des œuvres. Pour élaborer cet outil, nous avons fait le choix d’une volumétrie haute en envisageant le traitement de volumes d’archives importants (des dizaines de milliers de feuillets). Nous nous sommes appuyés sur des manuscrits et des archives dont les droits et les autorisations de reproduction et de diffusion ont été négociés avec des propriétaires qui ont accepté la numérisation et la diffusion des sources sous licences Creative CommonsLicences de types CC-BY-NC-ND ou CC-BY-NC-SA, c’est-à-dire avec citation de la paternité, interdiction de modifier les documents et interdiction d’utilisation commerciale. Ces deux licences respectent la propriété intellectuelle tout en permettant l’échange de documents sur le web. En savoir plus sur les licences Creative Commons.↩︎, à des fins de recherche scientifique. Il s’agit (pour l’instant) de fonds francophones (Jean-Joseph Rabearivelo et Mouloud FeraounCe projet bénéficie du soutien du LabeX TransferS et du réseau LaFEF, Institut Français.↩︎) et hispaniques (José Mora Guarnido, Carlos Denis Molina, Carlos LiscanoCe projet bénéficie du soutien de l’Agence Nationale de la Recherche (Projet ANR-13-JSH3-0006).↩︎) dont la genèse s’étend entre la fin du XIXe siècle et le début du XXIe siècle ; ils sont actuellement conservés soit chez leurs propriétaires ou ayants droit (en Amérique latine, en Algérie), soit dans des bibliothèques (Service commun de la documentation Lille 3, Biblioteca Nacional de l’Uruguay), soit à l’Institut français d’Antananarivo (Madagascar). Ces archives n’ont pas été traitées par des institutions nationales comme la BNF ou l’Institut mémoires de l’édition contemporaine (IMEC). Notre projet illustre en réalité la plupart des cas scientifiques : ceux de chercheurs qui travaillent sur des corpus encore situés hors des bibliothèques ou des académies. Ils doivent, en quelque sorte, prouver le potentiel de ces documents de façon qu’ils puissent être préservés un jour par ces institutions. C’est donc pour cette raison que des questions d’ordre archivistique et documentaliste se sont posées à nos équipes.
Après avoir comparé et évalué les différentes solutions de publication disponibles, nous avons décidé de développer, à partir d’un outil existant, une plate-forme générique et modulaire avec trois ambitions principales :
- éditer les manuscrits numérisés avec des métadonnées qui respectent les normes et les standards internationaux du World Wide Web Consortium (W3CLe World Wide Web Consortium (W3C), fondé en octobre 1994, est l’organisme chargé de formuler les préconisations et les protocoles assurant la communication et la compatibilité des technologies et des contenus sur internet. Accéder au site.↩︎) ;
- associer le manuscrit numérisé à sa transcription enrichie ;
- associer, au sein de la plate-forme, les documents entre eux grâce à des liens logiques, temporels et génétiques pour constituer les dossiers génétiques.
L’édition électronique génétique conjugue ainsi la publication d’images (édition de fac-similés) et de textes (édition de textes transcrits et d’analyses scientifiques) avec d’autres types de ressources, numériques ou numérisées, présentées dans un ordre significatif : celui du processus de création. La difficulté d’une telle publication réside dans le caractère multidimensionnel des dossiers génétiques qui demandent des traitements complexes. Ce sont ces réflexions qui nous ont amenés à envisager la mise en place d’un modèle éditorial modélisable, adaptable à différents types de corpus et d’une plate-forme destinée à favoriser l’édition génétique numérique : e-Man, une plate-forme d’édition de manuscrits modernesDésormais appelée EMAN : édition de manuscrits et d’archives numériques. Accéder à la plate-forme.↩︎.
Le logiciel Omeka
Nous avons donc choisi d’adapter un outil Open Source à nos besoins : OmekaPour en savoir plus sur Omeka, voir également le chapitre 7 « Du digital naive au bricoleur numérique : les images et le logiciel Omeka » de Cécile Boulaire et Romeo Carabelli.↩︎. Ce système de publication Web spécialisé dans l’édition de collections muséales, de bibliothèques numériques et d’éditions savantes en ligne se situe à la croisée du système de gestion de contenus (CMS), de la gestion de collections et de l’édition d’archives numériques ; il a été développé par une équipe de chercheurs du Roy Rosenzweig Center for History and New Media (RRCHNM) de la George Mason University (Virginie, États-Unis) dans le but de faciliter l’édition en ligne d’images. Les créateurs de cet outil ont conçu un logiciel facile à prendre en main de façon à permettre aux utilisateurs, selon le site d’Omeka, de « se concentrer sur le contenu et sur l’interprétation plutôt que sur la programmationAccéder à la présentation détaillée d’Omeka.↩︎ ». Omeka permet de publier des contenus de façon simple et flexible, son architecture souple est adaptable aux besoins du projet grâce à l’ajout de modules (plugins) et à l’utilisation de modèles visuels (templates). En revanche, le logiciel impose un schéma pour la structuration des métadonnées, celui du Dublin Core.
Le Dublin Core a été créé en 1995 pour décrire des ressources de façon simple et compréhensible, afin de les diffuser et de les échanger facilementEn savoir plus sur la Dublin Core Metadata Initiative.↩︎. Ses métadonnées sont compatibles avec les autres recommandations internationales de description des archives comme l’International Standard Archival Description-General (ISAD(G)Norme générale et internationale de description archivistique. En savoir plus.↩︎) dont la DTD EAD (Document Type Definition – Encoded Archival DescriptionDéfinition de type de document – Description archivistique encodée. En savoir plus.↩︎) est la traduction en XML. Le fait que le Dublin Core soit imposé par Omeka peut paraître réducteur pour décrire des documents aussi complexes que des manuscrits d’écrivains, mais en réalité Omeka n’impose que quelques champs du Dublin Core (quinzeVoir les quinze éléments de base du Dublin Core.↩︎), ensuite, l’utilisateur peut adjoindre aux contenus qu’il édite des métadonnées personnalisées. Celles-ci sont déclinables à l’infini et permettent d’enrichir la description en fonction des besoins du projet, en associant à chacune des unités documentaires publiées des informations descriptives, administratives et structurelles.
Une typologie applicable pour les manuscrits
Ainsi, pour publier nos manuscrits numérisésVoir les manuscrits hispaniques et l’Espace Afrique-Caraïbe.↩︎, nous avons choisi de les décrire à l’aide des quinze champs du Dublin Core et de compléter cette description par des éléments personnalisés qui correspondent à la fois aux caractéristiques de nos fonds (poésie, théâtre, référents spatiaux…) et aux intérêts scientifiques repérés et décrits par les chercheurs spécialistes. Notre description des manuscrits s’est appuyée sur le plan proposé dans la recommandation DeMArchConsulter la description des manuscrits et fonds d’archives modernes et contemporains en bibliothèque – DeMArch, 2010.↩︎. Ce plan, qui intègre la notion de dossier génétique (cette approche est de plus en plus présente dans les milieux archivistiques et dans les bibliothèques qui gèrent des fonds d’écrivains contemporains), nous a permis d’établir une typologie respectueuse des recommandations en vigueur et qui peut potentiellement s’appliquer à toute étude de manuscrits modernes et contemporains. Dans cette utilisation d’Omeka, nous avions donc fait le choix d’associer l’encodage des informations en Dublin Core à des informations encodées, dans des champs personnalisés, en XML.
Une approche par dossier génétique
Omeka permet par ailleurs de mettre en relation des documents entre eux grâce à des liens spécifiés : en élaborant la plate-forme e-Man, nous avons fouillé cette fonction de façon à permettre au lecteur de visualiser chaque manuscrit, au sein de son dossier génétique, en spécifiant la complexité de ses relations. Pour ce faire, on a associé chaque manuscrit – document – à l’ensemble des éléments liés à sa genèse (avant-textes, ébauches, documents préparatoires et sources exogénétiques). Cette « relation » a été établie à partir d’une extension d’Omeka, Item Relations qui permet d’associer des contenus entre eux selon le type de lien que le chercheur spécifie : « fait partie de », « est avant-texte de », etc. Cette extension ne construit toutefois que des relations univoques, qui fonctionnent dans les deux sens. Or pour situer le document dans la relation chronologique qu’il entretient avec les autres documents à la fois au sein du même dossier génétique ou d’un autre, la solution que nous avons mise en place a consisté à modifier le fonctionnement de l’extension de façon que la relation exprimée ne soit effective que dans un seul sens et, surtout, que la relation chronologique soit indiquée précisément. Pour cela, il a fallu modifier légèrement le code de façon à visualiser la relation qui unit chaque document à d’autres lorsque celui-ci fait partie d’un dossier génétique. Pour aller plus loin, nous nous sommes proposé d’explorer d’autres pistes de travail, notamment celles qui concernent la façon de distinguer, au sein du dossier de genèse, les différents avant-textes et surtout, d’afficher les liens génétiques dans leur complexité à la fois diachronique et synchronique. Est-il possible de poursuivre un tel développement ad hoc dans le cadre de l’utilisation d’un outil comme Omeka ? Dans notre utilisation novatrice du logiciel, nous tentons de modifier, le moins possible, son code informatique. La poursuite de l’expérience déterminera la validité du procédé mais à ce stade, nous pouvons déjà dire que le logiciel a comblé la plupart des besoins éditoriaux, et partiellement permis de répondre aux enjeux des questions de genèse.
Les autres enjeux d’Omeka et au-delà
Lors de notre expérience, nous avons testé d’autres plugins d’Omeka : la géolocalisation, la visualisation de corpus par mots-clés et ensembles de tags… mais sans résultats significatifs. Omeka présente par ailleurs l’avantage de constituer un entrepôt OAI-PMH (Open Archives Initiative – Protocol for Metadata Harvesting, une fonctionnalité que l’utilisation de métadonnées structurées en Dublin Core simplifie) destiné à faciliter la présentation de nos données auprès des grands « moissonneurs », les tests menés sur ces entrepôts ont été, en revanche, assez prometteurs. L’outil a quelques limites que nous avons tenté de repousser afin de continuer à l’adapter selon nos besoins ; une nouvelle fois, c’est par un subterfuge que nous sommes parvenus à associer à l’image du manuscrit numérisé la transcription : pour cela, nous avons utilisé l’un des champs de métadonnées de l’image. En effet, dans notre approche, la collection concerne l’auteur de l’œuvre, à chaque auteur d’œuvre, nous avons associé des contenus qui sont les œuvres et chacune de ces œuvres comporte à son tour des images, qui sont en réalité les pages numérisées. Chaque contenu est décrit avec des métadonnées associant du Dublin Core et du XML et nous pourrions encore enrichir la description du contenu en remplissant, pour chaque image, les champs des métadonnées. C’est donc dans les métadonnées des images que nous avons trouvé un champ permettant d’afficher, à côté de l’image, la transcription : le champ « description ». En effet, le projet inclut la possibilité de consulter la transcription de certains manuscrits, notamment ceux qui sont les plus difficiles à déchiffrer. Une fenêtre HTML autorise la transcription directement dans l’outil. L’une des possibilités évoquées à ce stade du projet a concerné la capacité du logiciel à intégrer un langage XML structurant comme celui de la Text Encoding Initiative (TEILa TEI est née à la fin des années 1980 (1987). Voir Burnard et Sperberg-McQueen (2013).↩︎) par exemple.
Le Consortium TEI a développé le langage XML-TEI dans le but, d’une part, de structurer les métadonnées liées au texte et, de l’autre, d’enrichir le texte publié avec des informations scientifiques. Depuis les travaux du Special Interest Group dédié à la génétique et coordonné par Elena Pierazzo, Malte Rehbein et Amanda GalleyEn savoir plus sur le TEI Manuscripts Special Interest Group.↩︎, la TEI s’est enrichie de balises permettant d’encoder des opérations génétiques importantes comme les ratures, les suppressions, les substitutions ou les déplacementsVoir l’expérience menée sur le cahier no.46 de Marcel Proust.↩︎. L’encodage des transcriptions des textes en TEI paraît évident lorsqu’il s’agit d’enrichir l’édition électronique des textes dans la mesure où l’immense bibliothèque de balises proposées par la TEI complète l’édition scientifique électronique.
Dans un premier temps, nous avons testé l’extension TEIDisplay,
pour décider, rapidement, de l’abandonner car elle n’était plus
maintenue dans les versions les plus récentes d’Omeka. Ensuite, nous
avons recherché d’autres solutionsNous devons ici signaler le travail effectué en 2015
par notre stagiaire, Cécile Brémon,
du Master « Patrimoine écrit et édition numérique » (Renaissances
& Patrimoines) du Centre d’Études Supérieures de la Renaissance
(UMR 7323 du CNRS / Université François-Rabelais, Tours). Lire son
billet « Une
expérience de stage PEEN : édition numérique de manuscrits modernes et
gestion du pojet e-Man à l’ITEM ».↩︎ pour l’encodage
XML-TEI de nos métadonnées et de la transcription, toujours au sein de
la plate-forme e-Man. Nos contraintes de départ étaient multiples :
d’abord, nous souhaitions éviter de recourir à un logiciel d’encodage
payant en raison du coût d’un tel outil, de sa difficile prise en main
et du fait que les personnes chargées des transcriptions ne sont pas
des encodeurs professionnels et qu’ils ont souvent du mal à se
familiariser avec de tels dispositifs. Ensuite, nous souhaitions que
les deux actions, transcriptions et encodage, puissent être réalisées
sur une unique plate-forme afin d’éviter une double manipulation
informatique. Cela signifiait donc d’utiliser un outil intégrable au
sein d’Omeka ; or le logiciel n’a pas prévu la saisie du texte avec
des balises spécifiques. Omeka propose certes une extension, Scripto,
qui donne à première vue l’impression de centraliser les interfaces de
transcription et de saisie des notices. Nos premières utilisations de
Scripto nous ont posé quelques problèmes pour travailler avec
nos équipes, notamment le passage par la gestion de contenus via MediaWikiVoir aussi le tableau de typologie des
wikis dans le chapitre 6 « Wiki, boîte à
outils ou de boîte Pandore ? » de Marie
Chagnoux et Pierre
Humbert.↩︎ qui compliquait le travail de
validation de la transcription (par exemple, il ne permet pas de
supprimer la dernière modification effectuée) et obligeait à
travailler hors de l’environnement d’Omeka. Nous avons pensé qu’il
serait possible d’intégrer à la plate-forme une barre d’outils
permettant d’encoder en XML-TEI, d’ajouter à la barre HTML des
fenêtres de saisie (notamment dans le champ « description » des
images), des boutons additionnels destinés à coder, plus précisément,
des phénomènes génétiques (sur ce point nous nous sommes inspirés du
projet Transcribe BenthamCe projet autour de l’œuvre de Jeremy
Bentham est mené au sein de l’UCL (University College London).
En savoir plus :
- sur le
projet Bentham,
- sur Transcribe
Bentham.↩︎). Cette démarche
vise à simplifier la tâche du transcripteur qui, comme avec un
traitement de texte, n’aurait plus qu’à sélectionner le texte ou
l’élément qu’il veut encoder et à cliquer sur l’icône correspondant à
l’action pour entourer l’élément des balises adéquates. Il ne serait
ralenti ni par l’apprentissage du langage informatique ni par le
risque d’erreur dans la saisie manuelle des balises. Nous n’avons
toujours pas testé cette option à ce jour. Sa faisabilité dépend, une
fois de plus, du degré d’intervention sur le code informatique et des
développements que nous pourrions être en mesure, non pas de réaliser,
mais de maintenir, dans la durée notamment à l’occasion de mises à
jour. En 2016, l’équipe d’Omeka avait annoncé la diffusion d’une
nouvelle version du logiciel.
En guise de conclusion provisoire, revenons d’abord sur les objectifs de notre expérience. Nous voulions initialement éviter la création et le financement d’un outil ad hoc (qui aurait demandé des développements et une maintenance importants) par l’exploration des potentialités d’un outil générique, robuste, plébiscité par une large communauté et maintenu par une équipe de recherche. Pour cela, nous avons pensé que la création de fonctions spécifiques en lien avec les besoins précis de l’édition numérique génétique permettrait à la fois d’améliorer l’outil, mais également de répondre à des besoins que les créateurs d’Omeka n’avaient pas envisagés. Or de telles interventions, que nous avions initialement jugées mineures, finissent par rendre l’outil générique… non générique ! Certes, il est vrai que nos propositions de développement pourront être soumises dans l’avenir à la communauté internationale Omeka, sous forme de propositions d’extensions, afin qu’elles bénéficient au plus grand nombre et que le partage de cette expérience, et des compétences acquises, sera l’une des voies de la pérennisation des solutions par d’autres projets comparables. Mais la question qui demeure en suspens reste celle de la relation du projet avec l’outil et d’une forme de réflexe des sciences des humanités à n’opter que pour une seule et unique solution technique/numérique. Face aux nouvelles questions épistémologiques soulevées par l’expérience, nous avons donc repris le temps de la réflexion.
Ainsi, s’il est vrai que le numérique a contribué à lever certains des verrous financiers, matériels, techniques et quantitatifs des généticiens éditeurs en leur ouvrant les possibilités de la publication des textes, des images et de tous les médias de natures différentes (sources sonores, vidéos, iconographiques, etc.) qui peuvent composer le dossier de genèse d’une œuvre, il a également bouleversé l’organisation du projet scientifique avec le passage de l’édition des sources de la recherche depuis la fin du projet vers son amont. L’édition accompagnerait dorénavant le projet dans toute sa durée. Or la question est-elle vraiment éditoriale ? Le renversement de la démarche scientifique n’est-il pas moins lié à la question de l’édition, de ses moyens, de son objectif et de sa qualité, qu’à celle de l’objet d’étude lui-même ? En effet, nombreux sont les (nos) travaux qui ont signalé que la transformation/conversion numérique de l’objet d’étude génère de nouvelles questions, requiert de nouvelles approches, d’autres méthodes ; or avons-nous toujours affaire au même objet une fois celui-ci devenu donnée informatique ?
Le numérique a contribué à dégager l’horizon de travail d’un certain nombre de verrous quantitatifs qui ont longtemps freiné les ambitions, pour le domaine qui nous concerne, de l’édition génétique des œuvres, comme la limitation du nombre de pages, d’images et le rapprochement d’éléments issus de médias différents (sources sonores, vidéos, iconographiques, etc.). De plus, grâce à l’édition numérique, on peut enfin envisager un rapprochement heureux avec l’édition savante traditionnelle (philologique). Grâce à ces technologies, il est possible d’éditer l’un des éléments-clés de l’analyse génétique : le dossier génétique de l’œuvre, un élément crucial du travail critique du chercheur, en représentant les différents niveaux de relation qui existent entre les documents, sans limite, c’est-à-dire, en donnant à voir l’interprétation des phénomènes, résultat de l’herméneutique scientifique. Mais tout cela est-il possible avec un seul outil ? Notre expérience de développement de la plate-forme e-Man a tenté de répondre à cette question.
Références
Contenus additionnels
Description des manuscrits et fonds d’archives modernes et contemporains en bibliothèque DeMArch : recommandation
Crédits : DeMArch
Plate-forme EMAN : édition de manuscrits et d’archives numériques
Omeka
Fatiha Idmhand
Fatiha Idmhand est professeur à l’Université de Poitiers et rattachée à l’Institut des textes et manuscrits modernes (UMR 8132 CNRS-ENS). Spécialisée dans l’étude génétique des manuscrits hispaniques, elle dirige le projet CHispa qui vise à élaborer des outils numériques pour exploiter et éditer les manuscrits.
Claire Riffard
Claire Riffard est ingénieure de recherche à l’Institut des textes et manuscrits modernes (UMR 8132 CNRS-ENS). Elle y co-dirige l’équipe « manuscrit francophone », qui cartographie et étudie les manuscrits littéraires africains et caribéens.
Richard Walter
Richard Walter est ingénieur de recherche à l’Institut des textes et manuscrits modernes (UMR 8132 CNRS-ENS). Spécialiste de l’édition numérique de corpus en SHS, il anime une plateforme d’édition de manuscrits modernes.