Claire Clivaz, Christian Grosse, Jérôme Meizoz, François Vallotton et moi-même tentons depuis quelques temps d’amorcer autour des campus de l’Université de Lausanne et de l’EPFL, une réflexion autour du futur des « humanités digitales ». Une série de rencontres est en cours (voir le compte-rendu de la première ici). La prochaine aura lieu lundi 4 avril. Elle commencera par un dialogue entre Marie-Laure Ryan de l’université du Colorado et moi-même autour des métamorphoses de la narration qu’introduisent les nouveaux médias numériques. La seconde partie, plus politique, prendra la forme d’un débat avec Philippe Moreillon, vice-recteur de l’Université de Lausanne, Martin Vetterli, doyen de la Faculté Informatique et Communications de EPFL, Claire Clivaz et moi-même. A cette occasion, il nous a semblé utile de tenter de donner un panorama des différentes initiatives qui en ordre dispersé se cristallisent en Europe et aux Etats-Unis. Christian Vandendorpe nous a précieusement aidé à nous repérer dans cette géographie, en communiquant à Claire Clivaz, il y a quelques jours, son propre « tour d’horizon » des humanités digitales. Cette première liste nous a été très utile pour établir cette esquisse d’atlas.
« … l’historien de demain sera programmeur ou il ne sera plus ». Souvent citée, la prophétie d’Emmanuel LeRoy Ladurie en 1968 dans le Nouvel Observateur résume bien les tensions et les enjeux qui sont aujourd’hui au cœur du futur des humanités digitales. En utilisant de manière toujours plus importante les outils informatiques, la production érudite des sciences humaines et sociales a entamé une mutation dont la portée nous est encore inconnue mais dont nous pressentons la cruciale importance. Les jeunes chercheurs qui entament aujourd’hui des carrières académiques dans ces domaines peuvent s’initier à des méthodes de recherche radicalement différentes que celles originellement pratiquées par leurs professeurs. Les études patientes et minutieuses du chercheur en bibliothèque ne sont plus la seule manière d’appréhender le passé. De nouveaux outils permettent de scruter d’immense corpus de textes et d’images et de produire des représentations radicalement nouvelles mais dont le statut épistémologique est encore en négociation. Les données et les documents deviennent plus facilement partageables, les chercheurs spécialisés dans des domaines de connaissance très pointus peuvent désormais, même s’ils sont sur des continents différents, travailler ensemble. Les manières même de communiquer sur ses recherches s’en trouve métamorphosée remettant potentiellement en cause les fondements bicentenaires de la publication académique. C’est le processus de production et de diffusion de la connaissance érudite qui est en train de changer de nature.
Malheureusement, l’historien ne peut, du jour au lendemain, devenir programmeur. Les formations qui vont dans ce sens sont encore embryonnaires. La rigidité des structures académiques qui ont traditionnellement veillé à bien séparer les sciences de l’homme de celles de l’ingénieur rendent souvent difficile ces nouveaux rapprochements. Mais des volontés existent, des initiatives émergent, nous sommes même en mesure de donner un premier aperçu de la géographie de ces nouvelles pratiques transdisciplinaires.
La géographie « institutionnelle » et « non institutionnelle » des Humanités Digitales
Aujourd’hui l’essentiel des efforts et des initiatives officielles semblent avoir lieu outre atlantique. Plus d’une dizaine de programmes se sont ouverts. Dans certains cas il s’agit de formation au niveau Master comme en Alberta (Master in Humanities Computing) ou à Loyola (Master in Digital Humanities) . Dans d’autres des centres interdisciplinaires sont créés comme à Stanford (Digital Humanities), à Denver (Center for Digital Humanities and Culture) ou en Virginie (Center for History and New Media). Parfois c’est autour des services proposés par les bibliothèques que l’innovation a lieu, comme c’est le cas également en Virginie (Scholars’lab at University of Virginia Library) ou à Brown (Center for Digital Scholarship). Des « summer institutes » sont également organisés comme à Victoria (Digital Humanities Summer Institute). En Europe, l’essentiel se passe en Grande Bretagne, notamment autour du King’s College (Departement of Digital Humanities) et l’UCL (Master in Digital Humanities).
Cependant, cette géographie institutionnelle n’est représentative que d’une partie de phénomène en cours. Comme le notait Mark Sample, ¨beaucoup de chercheurs travaillent dans le domaine des humanités digitales sans pour autant collaborer avec un centre dedié ou une institut ». En mai dernier à Paris, sur une « péniche entre la BNF et le ministère des finances Bercy », la « non-conférence » THATCamp dressait un état des lieux des forces et flux en présence dans les mondes des humanités digitales montrant que le phénomène couvre en fait un champ plus vaste que ces cristallisations institutionnelles. Il y a, invisible, déjà des multiples communautés de pratiques constituées autour d’outils et de projets transversaux. Ce réseau d’acteurs regroupe des entités hétéroclites, établissements publiques et entreprises privées. Cet « archipel » s’est en partie constitué comme contre-point à l’émergence organisée et institutionnelle telle qu’elle a lieu outre-atlantique.
Une alternative à Google ?
Cette comparaison entre les géographie institutionnelles et « émergentes » des humanités digitales ne devrait pas nous faire perdre de vue ce qui m’apparaît comme étant le point central des enjeux géostratégiques de ce domaine. C’est aujourd’hui Google qui joue le rôle le plus dominant et le plus actif dans cette organisation digitale du savoir, non seulement par l’intermédiaire de son programme massif de digitalisation des livres mais aussi par les outils d’exploration qui s’y rattache. Google soutient par ailleurs activement la recherche dans ce domaine et un nombre croissant d’études novatrices utilisant les outils et les corpus que l’entreprise propose ont déjà été publiées. En Europe, beaucoup de voix se sont déjà élevées contre les dangers potentiels de cette dominance avec des argumentaires de qualités variables. On reproche essentiellement à Google d’être une entreprise, et surtout une entreprise américaine. Malgré la qualité (et la gratuité) des services que Google propose, on ne serait dès lors lui confier notre patrimoine culturel et les outils de son étude. Nous sommes ici bel est bien au cœur d’un enjeu géostratégique.
Quelles alternative existent-il à Google ? Dans les dernières années l’essentiel du débat s’est focalisé sur le processus de numérisation massif du patrimoine avec des tentatives plus ou moins fructueuse pour opposer à l »Ogre de Mountain View », des projets de librairies digitales publiques, financées par l’état. A la course à la numérisation massive, Google a pourtant toujours eu une longueur d’avance. Créer en face de Google un autre Google étatique n’est peut-être pas la bonne voie.
Pour une approche « bottom-up »
La faiblesse de Google est son désir d’universalité. Dans son ambition de numériser le savoir du monde, cette entreprise est contrainte de créer des processus et des outils les plus généraux possible. A quelques exceptions près la règle du « One size fits all » doit s’appliquer. Or les savoirs érudits des humanités sont fait de particularismes. Une base de donnée des manuscrits du Nouveau Testament ne saurait se concevoir exactement de la même manière que le corpus qui regroupe les représentations picturales des Alpes suisses (pour prendre deux exemples pour lesquels j’ai consacré du temps ces derniers mois). Les questions de recherche sont différentes, les outils pertinents ne sont pas les mêmes. Il faut pour faire du travail de qualité dans ce domaine, pour finalement réussir la métamorphose digitale de ces domaines des sciences humaines, prendre le temps nécessaire à la compréhension de leur spécificité.
Certaines questions sont évidemment transversales: comment se mettre d’accord sur un nouveau format pour la publication scientifique, comment rendre citables des documents digitaux de natures variées, comment organiser l’interopérabilité des bases de connaissances produites. Les solutions et les réponses à ces questions doivent, comme toute norme culturelle, être négociée collectivement, s’imposer par les pratiques qui sélectionneront « naturellement » les outils les plus adaptés à leur besoin (Google pourrait d’ailleurs participer à ces débats, partager son immense savoir faire technique pour aider chaque acteurs à faire les bons choix).
Pour offrir une alternative éventuelle à l’hégémonie de Google, la solution n’est peut-être pas de construire un « Google étatique » mais de poursuivre une approche « bottom-up », décentralisée, basée sur la cristallisation progressive d’un réseau d’acteurs universitaires et privés ayant une volonté commune de partager leurs outils et ressources mais le soucis aussi d’adapter toujours les méthodes les plus appropriées à la spécificité de leur sujets d’études, un juste compromis entre universalisme et particularisme. Le rôle des états serait alors plutôt que de construire des « cathédrales », de renforcer les énergies et les volontés de collaboration, dont de multiples indices nous indiquent qu’elles sont déjà nombreuses, mais qui, faute de moyen et de légitimité ne survivent pas aux contraintes combinées de la compétition économiques et la rigidité des silos universitaires. Les états doivent incuber les meilleurs projets dans ce domaine, pourquoi pas en créant le cas échéant institutionnellement des centres d’excellence qui serviront de nœuds forts et stables dans ce réseau en construction. Ces centres dont la mission serait de constituer d’une part des corpus de haute qualité et d’autre part de proposer des outils de recherche partagés, seraient en interaction directe avec tout ensemble d’acteurs plus petits, entreprises et même des particuliers. Ils constitueraient au niveau mondial l’armature d’une infrastructure à la fois solide, flexible et ouverte.
L’Internet s’est construit sur la force technologique du principe de la décentralisation des ressources et des outils. La robustesse et la flexibilité de cette approche distribuée associé à une volonté commune de normalisation et d’interopérabilité a permis de créer une infrastructure technologique réalisant le rêve des penseur du siècles des Lumières. Paradoxalement, l’Internet a aussi donné naissance à des géants centralisateurs, conduisant à des effets de concentration caractéristiques des dynamiques industrielles plus traditionnelles. Nous sommes donc à un tournant culturel probablement décisif. Décentralisé mais néanmoins structuré, basé sur des principes d’ouverture et de coopération mais doté de mécanismes visant à récompenser et consolider l’excellence, un autre modèle est sans doute encore possible pour le développement des humanités au XXIe siècle. Un modèle finalement pas si loin de celui qu’a suivi l’humanisme à la Renaissance.