Posts Tagged ‘digital humanities’

Lancement de la « Venice Time Machine »

mars 14, 2013

Le lancement de la Venice Time Machine, grand projet de Digital Humanities entre l’EPFL et l’université Ca’Foscari a donné lieu à plusieurs d’articles de presse et réactions sur Internet (communiqué officiel, article dans le Temps, repris également dans Le Monde) . Le projet propose une modélisation multidimensionnelle de Venise et de son empire méditerranéen. Son ambition consiste à rendre interopérables des données concernant l’histoire environnementale (évolution de la lagune), urbaine (morphogenèse de la ville), humaine (démographie et circulation) et culturelle (politique, commerce, évolution artistique). La Venice Time Machine comporte des défis en terme de numérisation (des archives immenses et très anciennes), de modélisation (reconstructions cartographiques, gestions de l’incertitude intrinsèque aux données historiques) et de muséographie (comment rendre compte de cette histoire complexe). Les équipes vénitiennes et lausannoises travailleront en étroite collaboration, dans le cadre d’un centre de recherche comme appelé Digital Humanities Venice. Nous sommes également en train de constituer un réseau international de chercheurs qui pourront collaborer à ce grand projet. Maintenant que les annonces sont passées, il est peut-être utile de revenir sur ce qui fait l’originalité de la démarche de cette machine à remonter le temps.

Peut-on construire une machine à remonter le temps ?

Au départ, il y a un rêve, celui d’adapter les outils numériques du présent à l’exploration du passé.  Nous avons depuis quelques années, des outils extraordinaires pour explorer le monde sans partir de chez nous (p.e. Google Earth/Maps/Streetview). Quand nous ne voyageons pas dans l’espace physique, nous parcourons le graphe social documentant les liens et les activités de plus d’un milliard de personnes. Ces services nous donnent l’impression de vivre dans un « grand maintenant ». Le présent est devenu tellement dense que son exploration perpétuelle pour suffit à nourrir notre curiosité.

Il me semble extrêmement important de tenter de construire des outils d’exploration du temps aussi puissant que ceux qui nous permettent de voyage dans l’espace. Peut-on construire un Google Maps du passé pour nous montrer comment étaient une ville ou une région il y a plusieurs centaines d’années ? Peut-on construire un Streetview du passé pour nous montrer à quoi ressemblait une rue à cette époque ?  Peut-on construire  un Facebook historique documentant la vie quotidienne du passé ? Autrement dit :  Peut-on construire des machines à remonter dans le temps ?

Le champignon informationnel

Pour répondre à cette question, il nous faut considérer ce que j’appelle « le champignon informationnel ». L’information numérique disponible sur les dix dernières années est extrêmement riche et dense. Nous pouvons représenter cet abondance par un large plateau. Pour simplifier notre raisonnement, nous dirons que plus nous reculons dans le temps plus la quantité d’information se réduit (il est possible que ce ne soit pas tout à fait vrai, certaines périodes anciennes comme l’antiquité étant potentiellement mieux documentées numériquement que certains périodes intermédiaires comme le moyen-âge). Pour pouvoir utiliser les outils du présent pour explorer le passé nous avons besoin d’une densité informationnelle comparable à celle du présent. Autrement il nous faut élargir le pied du champignon pour qu’il s’approche le plus possible d’un rectangle.

champignon-en-lucida-1

Une première manière pour réaliser cet « élargissement » consiste à numériser les archives publiques et privées. Il existe des archives télévisuelles de qualité sur une cinquantaine d’années, des archives photographiques sur plus de 100 ans, des archives de presse bien conservées sur au moins 200 ans (et souvent plus), des documents imprimés sur 500 ans, et enfin de grandes collections de manuscrits, dessins ou d’anciennes cartes. La figure ci-dessous montre symboliquement ce que nous pourrions attendre en numérisation et modélisant de telles archives. La courbe s’élargit beaucoup sur les 200 dernières années et continue, puis recommence à rétrécir jusqu’à la Renaissance. Pour des périodes plus anciennes, les sources sont, en général, globalement moins nombreuses et il est possible qu’il soit difficile de reconstituer une densité informationnelle suffisante.

champignon-en-lucida-2

Pour le pied du champignon et les données les plus anciennes, nous pouvons extrapoler à partir des données existantes et « simuler » les données manquantes. Par exemple, un carnet de bord d’un capitaine de navire vénitien nous indique bien plus qu’un itinéraire particulier, il nous informe sur les routes commerciales d’une époque. De la même manière, une gravure représentant une façade vénitienne nous décrit bien plus que ce bâtiment en particulier, mais nous renseigne sur les grammaires architecturales utilisées à cette époque particulière. Les historiens extrapolent très souvent de cette façon. Il s’agit simplement de formaliser et systématiser cette démarche.

champignon-en-lucida-3

Gestion de l’incertitude et espaces fictionnels

La gestion de l’incertitude est le coeur du défi scientifique de ce projet. Il s’agit de raisonner dans des espaces où se côtoient des incertitudes de natures très diverses (fiabilités des sources, erreurs d’interprétations, extrapolations basées sur de fausses hypothèses, erreurs dues aux procédés de numérisation). Depuis 50 ans, les sciences de l’information n’ont cessé de développer des approches pour raisonner dans des univers incertains et a priori peu prévisibles (calculs probabilistes, logique floue, apprentissage artificiel, etc.). Des méthodes qui n’ont jusque-là pas reçu suffisamment d’attention en histoire. La rencontre de ces approches formelles et des mondes historiques incertains pourrait donner lieu à de grandes découvertes.

Dans notre approche, chaque source produit ce que nous appelons un « espace fictionnel ».  Ce n’est que par la « jointure » d’espaces fictionnels émanant de divers documents que nous pouvons progressivement produire un passé « probable ». Une conséquence de cette approche est qu’il n’y a évidemment pas un passé, pas une organisation de Venise ou une structuration de son empire maritime, mais de multiples mondes possibles dont nous tâchons d’évaluer la plausibilité.

Des millions de documents

Évidemment nous n’avons pas choisi Venise au hasard. La Cité des Doges représente un cas unique dans l’histoire. Elle a très rapidement mis en place un État bureaucratique, qui deviendra vite un véritable Empire régnant sur toute la Méditerranée. La moindre délibération du Sénat ou des autres chambres était consignée, tout ce qui sortait et entrait dans la Cité, les possessions des habitants… Au total, on estime le nombre de documents exploitables à plus de 100 millions. Une personne seule ne peut évidemment pas compiler une telle somme d’informations.

archivio-di-stato

Les archives d’états à Venise comportent plus 80 km de documents administratifs couvrant toute l’histoire de la Cité des Doges

Il faudra développer des techniques nouvelles pour numériser, transcrire et indexer une telle masse de documents. Nous testerons différentes approches :  robots capables de manipuler avec soin les parchemins, dispositifs portables permettant une numérisation rapide et efficaces, etc. Pour transcrire ces très nombreux manuscrits, nous devrons développer de nouvelles techniques de reconnaissance de caractères couplées à des modèles des langues dans lesquelles ils sont écrits (latin, toscan, dialecte vénitien). Dans ces transcriptions, nous identifierons les noms de lieux, de personnes, les dates et progresserons pas à pas dans une caractérisation sémantique toujours plus fine.

Des millions de visiteurs

Venise c’est aussi 20 millions de touristes qui chaque année sillonnent les canaux, se perdent dans les ruelles et découvrent une cité dont, le plus souvent, ils ne savent que peu de choses. En développant de nouveaux dispositifs muséographiques, interfaces mobiles ou au contraire très large installation, nous espérons pouvoir faire mieux connaitre la fascinante histoire de ce petit peuple de pécheur qui devint maitre de la Méditerranée. Profitant de nombre du ces visiteurs nous espérons avec les équipes de Ca’Foscari mettre en place une muséographie expérimentale capable d’évaluer les succès et les échecs des dispositifs qu’elle propose. Autant d’innovations qui pourront venir nourrir d’autres musées ou d’autres villes.

Je reviendrai plus en détail sur tous ces points dans de prochains billets.

Le développement des Digital Humanities en Suisse

juillet 16, 2012

Pour faire suite à l’annonce de ma nomination dans la presse, voici quelques explications complémentaires. 

Un nouveau laboratoire

La presse a donc annoncé aujourd’hui ma nomination en tant que professeur en Digital Humanities, première chaire suisse de ce domaine émergent. Je dirigerai à l’EPFL, le Digital Humanities Lab dont la mission est d’appliquer les savoir-faire des sciences de l’information aux questions de sciences humaines et sociales. Nous travaillerons en étroite collaboration avec l’Université de Lausanne et d’autres centres de recherche dans le monde.

Je préciserai dans quelques semaines les axes de recherches principaux de ce nouveau laboratoire, mais je peux déjà en dire quelques mots. Une de mes priorités sera de développer des technologies qui permettent de mieux prendre conscience du « Temps Long ». L’explosion informationnelle nous donne l’impression de vivre dans un éternel présent. Nous pensons de moins en moins au passé et plus du tout au futur. Ce rétrécissement temporel réduit notre imagination. Or parallèlement, nous pouvons aujourd’hui numériser et structurer des archives immenses et disparates. À partir de cet océan d’informations, nous pouvons reconstituer de nouvelles représentations du passé, voir apparaitre des structures à l’échelle des siècles ou au contraire « zoomer » et reconstituer le contexte riche et précis d’un jour et d’un lieu. De la même manière que Google Earth a rendu toute la Terre accessible en quelques clics, nous pouvons développer aujourd’hui des outils pour rendre le passé présent.

Symétriquement, nous comptons aussi développer des outils pour mieux comprendre les dynamiques culturelles et sociales au moment même où elles se déroulent. Il s’agit en quelque sorte de comprendre ce « Grand Maintenant » caractéristique de notre société globalisée. Nous organisons d’ailleurs en décembre le premier workshop international  sur la sociologie « Just-in-Time».

Nous comptons lancer aussi des projets sur les nouvelles écritures,les systèmes architecturaux,  la génétique des objets industriels, l’éducation globale et d’autres aspects de la culture digitale. Mais je n’en dirai pas plus pour aujourd’hui.

Un tournant

Historiquement, les Digital Humanities se sont construites essentiellement dans le monde anglo-saxon. L’Europe en général et la Suisse en particulier, ont pourtant un rôle crucial à jouer dans ce nouveau domaine. Nous comprenons la diversité culturelle, vivons la diversité linguistique, héritons d’un patrimoine immense et riche.  Ce n’est sans doute pas un hasard si cette thématique des Digital Humanities trouve ici des dynamiques si puissantes. À la chaire nouvellement créée par l’EPFL vont faire échos en 2013 et 2014 d’autres chaires à Berne et à Lausanne. Plusieurs postes de doctorants sont déjà mis au concours. Nous avons également corédigé un programme de recherche sur 12 ans (NCCR) aux effets structuraux importants et dont nous recevrons les premières évaluations dans quelques mois.

Sans doute pour toutes ces raisons, cette semaine à Hambourg, l’association des organisations en Digital Humanities a décidé de choisir la candidature de l’EPFL et de l’UNIL pour accueillir la plus grande conférence du domaine en 2014. C’est un grand honneur, mais surtout le signe d’un tournant décisif du domaine.

Eusèbe de Césarée, inventeur de l’Histoire en deux dimensions

juin 22, 2012

Je présentais dans le précédent billet le remarquable travail de Daniel Rosenberg sur les cartographies du temps. Il est également l’auteur d’une étonnante « Timeline of Timelines » publiée dans la revue Cabinet au printemps 2004. Cette timeline montre avec éloquence la lente et complexe construction des représentations graphiques du Temps et de l’Histoire. Elle nous invite à nous interroger sur la manière dont on pouvait se représenter le passé, le présent et le futur selon les époques. Un préalable nécessaire à toute interprétation.

Chacune des entrées de cette chronologie de chronologies mériterait une étude à elle seule. Dans cette morphogénèse progressive de l’espace historique, Les Chroniques d’Eusèbe de Césarée (~325) sont comme un point zéro. Il y avait certes de grands chronologues avant Eusebe, mais ils se contentaient de penser l’Histoire en une dimension. Eusebe est, semble-t-il, le premier à proposer un système de tables pour faire correspondre des évènements venant de traditions historiographiques diverses. Eusèbe compose en quelque sorte une pierre de rosette, permettant de traduire différentes traditions historiographiques et ainsi, il est le premier à tenter d’esquisser le début d’une histoire universelle en deux dimensions.

Eusèbe découvre aussi le pouvoir de la table comme technologie intellectuelle (dans le sens que Pascal Robert donne à ce terme) capable de révolutionner l’Histoire. Lignes et colonnes composent un espace structuré où le passage du Temps peut être appréhendé simultanément pour plusieurs civilisations. L’histoire des Babylionniens et l’histoire des Hébreux par exemple s’inscrivent ainsi pour la première fois dans un référentiel commun.  Mieux, les Chroniques mettent déjà en lumière des connexions géostratégiques, comme l’importance de l’Empire romain pour la diffusion de la foi chrétienne, le lien entre le développement des idées et celui des routes.

Les Chroniques seront reprises et complétées au fil des siècles. Elles serviront longtemps de canon chronologique. L’imprimerie contribuera encore à diffuser cette invention et renforcer le modèle de la table comme ossature de toute chronologie.

Canons d'Eusèbe de Césarée 1659

Canons d’Eusèbe de Césarée
1659

Avant Eusèbe, le temps était linéaire ou cyclique. C’était toujours une route dont ne peut pas vraiment s’éloigner. En plaçant les chronologies en deux dimensions, Eusebe étend implicitement l’espace des possibles.

Les représentations graphiques du temps caractéristiques d’une époque donnée fixent la géométrie de nos modes en pensées. Certaines choses ne sont tout simplement pas pensables si nous ne les avons jamais vues sous un certain angle. Interviewé lors de la parution du livre Cartographies of Times, Anthony Grafton argumente qu’au XVIIIe siècle c’est l’innovation graphique d’un chronographe comme Joseph Priestley qui permettra à Buffon de penser le temps long biologique et géologique (« Deep Time »).

Chart of History

Gardons donc à l’esprit que nos pensées sont intrinsèquement limitées par les représentations graphiques du Temps de notre époque ou qu’inversement elles seront peut-être demain libérées par des représentations visuelles synthétiques absolument inédites.

—-

Notes de bas de page

La page Wikipedia (consultation 24 juin 2012) sur le thème de la chronique universelle, donne des informations érudites et intéressantes sur la structure de l’oeuvre d’Eusèbe de Césarée.

(…) Eusèbe de Césarée (…) est resté comme le véritable père du genre chrétien de la Chronique universelle. Son œuvre en la matière, intitulée Histoire générale (Παντοδαπή ίστορία) se divisait en deux parties : dans la première, appelée Χρονογραφία, l’auteur s’efforçait d’établir, pour chaque peuple, la succession chronologique des grands événements de son histoire jusqu’à l’année 325 (date du Ier concile de Nicée) ; dans la seconde, intitulée Règle du calcul des temps (Κανών χρονικός), il s’agissait de dégager de ces diverses séries de faits, dans des colonnes parallèles, le synchronisme qui était l’objet ultime de l’ouvrage. La version originale grecque de l’ensemble de l’œuvre a été perdue comme telle, mais de très larges extraits de la Χρονογραφία se retrouvent en fait dans les chroniques byzantines postérieures, spécialement dans celle de Georges le Syncelle. Cependant, les deux parties ont été conservées, bien qu’avec des lacunes, dans une traduction arménienne retrouvée par hasard en 17825 et révélée en Occident en 1818 par deux publications bilingues arménien-latin concurrentes6 ; c’est cette traduction qui permit d’ailleurs de repérer les parties des chroniques byzantines qui étaient empruntées à Eusèbe. Deux résumés (epitomae) de l’œuvre en syriaque ont également été retrouvés au xixe siècle.

C’est seulement la deuxième partie, le Canon, qui a été connue traditionnellement en Occident dans la traduction latine de saint Jérôme(Chronicum ad annum Abrahae), où la chronologie est d’ailleurs prolongée jusqu’à l’avènement de Théodose Ier en 379.

La page précise également la structure de la Χρονογραφία

La Χρονογραφία est divisée en cinq parties : l’histoire des Babyloniens et des Assyriens, suivie de listes des rois d’Assyrie, de Médie, deLydie et de Perse ; puis l’histoire de l’Ancien Testament ; puis l’histoire de l’Égypte ; puis l’histoire grecque ; puis l’histoire romaine. Le texte est constitué pour partie de citations d’historiens antiques, dont souvent les œuvres ont été perdues (par exemple les Persica de Ctésias ou lesBabyloniaca de Bérose). Les récits babyloniens de la Création et du Déluge, par exemple, se trouvent chez Eusèbe, qui a dû les emprunter directement ou indirectement à Bérose.

Et celle du  Κανών  χρονικός

Quant au Canon, il s’agit donc d’une série de tables chronologiques avec de courtes notices historiques. Le point de départ est la date supposée de la naissance d’Abraham, et c’est à partir de là que tout le reste est daté et synchronisé. Auprès des « années d’Abraham » sont placées les années de règne (début et fin) des souverains de différents royaumes. Voici un passage du Canon tel qu’il apparaît dans le manuscrit de la bibliothèque bodléienne de la traduction latine de saint Jérôme :

      LXXVIII Olymp. Herodotus historiarum
                     scriptor agnoscitur
      XVIII      Bacchylides et Diag-
                           rus atheus      XXXVI
             sermone plurimo cele-
                             brantur
     MDL. XVIIII   Zeuxis pictor agnosci-
                              ur, etc.    XXXVII

Les « années d’Abraham » sont données par décennies (ici, MDL représente la 1550e année après la naissance d’Abraham). Nous sommes donc dans la 78eolympiade ; XVIII et XVIIII (18 et 19) sont les années de règne de Xerxès Ier, roi des Perses, XXXVI et XXXVII (36 et 37) celles d’Alexandre Ier, roi de Macédoine. Les événements-repères correspondants sont donc donnés sur la même ligne.

Les chronologies données par le Chronicum de saint Jérôme et par la version arménienne sont divergentes notamment dans les listes épiscopales : il a été montré que cette différence était due à une mauvaise transmission dans le document arménien7. En tout cas, le Κανώνd’Eusèbe constitue le plus grand travail chronologique de toute l’Antiquité, et c’est l’un des fondements sur lesquels repose encore notre connaissance des dates pour une notable partie de l’histoire antique8.

J’imagine de jolis projets à faire en digital humanities sur ces sujets. D’abord tracer l’arbre génétique le plus complet possible de tous les descendants des Chroniques, avec leurs modifications et ajouts successifs. Placer évidemment cette évolution du contenu dans une perspective à la fois temporelle et spatiale. Voir comment, dans le temps et l’espace, la représentation régulée inventée par Eusèbe se diffuse et se perfectionne.

Symétriquement, il serait magnifique de tenter de reconstituer visuellement à partir de ces textes la structure du passé associé à chaque instance de ces chroniques. Il s’agirait en quelque sorte d’observer visuellement la morphogénèse de l’Histoire dans le temps et l’espace ainsi que les processus de convergence et de divergence associés.


				

Les cartographies du temps

juin 19, 2012

Quand la plupart des cartographes représentent l’espace, certains tentent aussi de saisir le temps. Comment saisir en deux dimensions, l’émergence et la chute des empires, les grands évènements culturels, le temps long géologique et les fluctuations du pouvoir dans le monde contemporain ? Daniel Rosenberg et Anthony Grafton ont publié il y a deux ans un des rares livres sur le sujet intitulé « Cartographies of Time ». Pour ceux qui veulent découvrir la richesse encore assez méconnue de ces représentations chronospatiales, l’extraordinaire collection de 32 000 cartes rassemblées par David Rumsey (et accessibles en ligne) compte au moins une centaine de cartes chronologiques produites entre 1770 et 1967. Retour sur quelques exemples remarquables identifiés dans un billet de David Rumsey.

La Synchronological Chart of Universal History (Sebastien Adams, 1881) est une chronologie de 7 metres couvrant 5885 ans (4004 av. J.-C. — 1881 ).

Le Tableau de L’Histoire Universelle de la création jusqu’à nos jours (Eugene Pick,1858) est présenté en deux tableaux (un pour l’hémisphère est et l’autre pour l’hémisphère ouest). Cette chronologie est basée sur l’ouvrage de 1804 de Friedrich Stass d’Autriche, Strom der Zeiten (Steam of Time).

En 1931, John B.Spark’s publie « The Histomap. Four Thousand Years of World History« . La carte représente l’évolution relative du pouvoir entre les différents états, nations et empires.

Enfin, la Succession of Life and Geological Time Table (Herbert Bayer, 1953) tente d’unifier sur une seule représentation la succession des temps géologiques et biologiques.

David Rumsey présente ainsi des dizaines d’autres cartes, plus fascinantes les unes que les autres. Il me semble que, plus que jamais, ces cartes sont des sources d’inspiration fécondes pour tenter d’appréhender l’exposition spatiotemporelle qui caractérise notre époque. Nous devons inventer de nouvelle représentations du temps et de l’espace pour essayer d’embrasser l’histoire du monde dans sa globalité. Les archives sont de plus en plus nombreuses à être digitalisées. Pour la première fois, nous allons avoir accès à un océan de données que nous allons pouvoir croiser les unes avec les autres. Pour autant, serons-nous capables de reproduire des représentations aussi synthétiques que ces chefs-d’oeuvre des deux siècles passés ? Comment saurons-nous représenter l’incertitude intrinsèque qui caractérise ces sources historiques ? Faudrait-il inventer des manières de visualiser l’Histoire non pas comme une narration cohérente, mais plutôt comme un faisceau de probabilités ? Des défis passionnants pour les digital humanities.

Sur ces mêmes sujets voir également :

L’enregistrement audio Book Talk and Release Party: Cartographies of Time par Daniel Rosenberg and Anthony Grafton

Timeline of Timelines par Sasha Archibald and Daniel Rosenberg (Issue 13 Futures Spring 2004)

Une autre Timeline of timelines par infovis.info

Time after Time un billet de BibliOdyssey

Timeline Visualizations: A Brief and Incomplete Teleological History par Whitney Anne Trettien

Timelines and Visual Histories by Michael Friendly

La construction collective des métadonnées en bibliothèque

avril 28, 2012

Nous avons organisé ce jeudi, avec Alain Jacquesson et Silvère Mercier (blog), une formation pour les bibliothécaires (comme l’an dernier) au Salon du Livre de Genève.  Alain Jacquesson a fait un point complet et critique sur les ressources numériques disponibles aujourd’hui pour les bibliothèques et les centres de documentation en ce qui concerne les revues (NewJour, DOAJ, Seals, Revues.org, CAIRN) et les monographies (Projet Gutenberg, Gallica, Rero.doc, Google Livre, Internet Archive, Hathi Trust). Il a également fait le point sur les nouveaux services de prets (Overdrive, Amazon). Silvère Mercier a proposé un atelier sur les stratégies des médiations numériques en faisant découvrir par la pratique les outils pour proposer du contenu éditorial sous la forme  de « dispositifs ponctuels » (storify, mindmeister, Libraything, scoop.it, Google maps, Dailymontion, Pearltrees, Markup.io, Prezi, etc.) à insérer dans des « dispositifs de flux » (Blog, twitter, profil Facebook, etc.). J’ai pour ma part proposé d’explorer la manière dont on pouvait développer en bibliothèque la lecture sociale et la production collective de métadonnées, une direction encore relativement peu explorée. Le billet ci-dessous reprend en partie mon argumentaire. 

 

 

La bibliothèque est une interface physique 

Une bibliothèque est toujours un volume organisé en deux sous-espaces : une partie publique (front-end) avec laquelle les usages peuvent interagir, une partie cachée (back-end) utilisée pour la logistique et le stockage.  A la Bibliothèque Nationale de France, c’est un système robotisé qui fait la jonction entre les espaces immenses et sous-terrains ouverts au public et les quatre tours qui stockent les livres. L’architecte Dominique Perrault a imaginé une vertigineuse bibliothèque-machine où la circulation des hommes a été pensée symétriquement à la circulation des livres.

Alain Galey discute dans « The Human Presence of Digital Artefacts » la vue séctionnée de la New York Public Library telle quelle apparait sur la couverture du Scientific American le 27 Mai 1911. La bibliothèque est ici sans ambiguïté présentée comme interface physique mettant en contact des lecteurs avec des collections de livres archivés. Au sommet les bibliothécaires gèrent les requêtes et le catalogue et utilisent un système de tubes pneumatiques pour commander les livres stockés dans les étages inférieurs. Les livres, une fois localisés, remontent vers par des mini-ascenseurs.  Presque un siècle avant la bibliothèque Francois Mitterand, la NY Public Library est présentée commune une bibliothèque-machine, préfigurant le rêve de l’open-access des digital humanities.

Dans d’autres grandes bibliothèques et surtout dans tous les centres de documentations de taille beaucoup plus modeste, c’est encore aujourd’hui une logisitique humaine plus ou moins complexe qui organisent les circulations de livres entre le front-end et le back-end. Dans un article du dernier numéro de ligne en ligne, Véronique Poirier décrivait avec poésie l’articulation de ces deux espaces à la BPI.

Tous les matins et chaque mardi, la bibliothèque est fermée au public. Elle se transforme alors en une vaste ruche où se croisent les chariots bleus, rouges, jaunes, verts. Des livres quittent les étagères, d’autres les remplacent. L’espace étant limité, une volumétrie stable (près de 390 000 livres), doit être maintenu grâce à une gestion rigoureuse de l’équilibre entre le nombre d’ouvrages acquis et le nombre de « désherbés ».

Ce souci d’équilibre et de sélection, éléments clés dans la gestion de toutes les bibliothèques et centre de documentation, grand ou petit,  est aussi une des problématiques centrales des interfaces. Celui qui conçoit un site web ou une application iPad se demande également comment organiser au mieux l’espace de navigation et les cheminements des utilisateurs, comment articuler l’expérience « front-end » avec la logistique et le stockage back-end. Mais quand le créateur d’applications doit composer avec une surface de quelques centimètres carrés, le bibliothécaire dispose lui souvent d’un volume articulable en rayonnage, en espace d’échanges, en zones de travail spécialisées.

Durant les dernières années, nous avons vu apparaître de grandes bibliothèques construites selon un autre type d’organisation. Le Rolex Learning Center au sein duquel j’ai la chance d’avoir mon bureau, est organisé selon une logique tout autre et selon un plan qui optimise plus les échanges et les activités autour du livre, que l’accès aux livres eux-mêmes. Cette nouvelle tendance peut-elle servir de modèle directeur pour des bibliothèques de taille plus modeste ?

La tentation de la virtualité 

Avec l’arrivée du numérique, Il est tentant pour la bibliothèque de nier sa dimension physique, de ne devenir qu’une machine à information aux front-ends démultipliés, accessibles par toutes sortes de terminaux et aux back-end entièrement informatisés. On se souvient que Jacques Attali, alors conseiller de Francois Mitterand, avait en son temps critiqué le projet architecturale la bibliothèque-machine de la BNF pour lui opposer l’urgente nécessité d’une BNF directement numérique et algorithmique, accessible de partout et qui serait le meilleur outil possible pour la diffusion de la culture française à travers le monde.

Mais sur ce point, les questions stratégiques et patrimoniales des grandes bibliothèques ne rejoignent pas les questions locales pour nombre de modestes centres de documentation. Les bibliothèques n’ont aujourd’hui que des droits très encadrés pour l’exploitation digitale des livres qu’elles proposent en lecture ou en prêt. Impossible pour elles de construire de nouveaux services en exploitant directement des nouveaux circuits commerciaux de livre numérique « grand public » dans la mesure où la législation leur interdit la diffusion de contenus obtenus « sous le régime réservé à l’acquisition personnelle » (rappelons que les bibliothèques achètent plus cher les livres et les DVDs précisément pour pouvoir les exploiter dans le cadre particulier des services qu’elles proposent). Dans ces conditions, il est peu étonnant que ce soit en ordre dispersé et expérimentant parfois dans les zones grises qui entourent ces nouveaux usages, qu’elles essaient aujourd’hui de proposer certaines offres de prêt numérique complémentaire à leurs services traditionnels.

Dans billet écrit suite à un différent avec une bibliothécaire de Martigues, François Bon rappelait les deux manières de lire du numérique en bibliothèque

a. La bibliothèque acquiert le droit de diffusion un certain nombre de titres à un tarif défini par l’« interprofession » et les diffuse avec des DRM chronodégrable (la lecture n’est autorisée que pendant un certain temps).  En France, c’est la solution adoptée par Numilog basé sur Adobe Digital Reader et un logiciel de lecture particulier type Bluefire par exemple).

b. La bibliothèque acquiert le droit de diffuser en streaming certains contenus à des utilisateurs identifiés (via leur carte d’abonné par exemple). Plusieurs bibliothèques diffusent de cette manière les titres de publie.net

Ces nouvelles formes de prêt numérique sont un enjeu important et transverse sur dans le paysage de la lecture numérique. Il faut suivre avec attention les initiatives canadiennes dans ce domaine  au travers de la plateforme pretnumerique.ca (voir le billet de Clément Laberge) qui combine les usages de types a et b pour éviter que ce marché soit remporté par des fournisseurs externes. En effet, le risque est de voir la bibliothèque se faire l’intermédiaire de solution de prêt proposé par d’autres fournisseurs. La solution Overdrive est par exemple adoptée par un nombre semble-t-il croissant de bibliothèques aux USA. Ces questions sont donc en rapport direct avec la constitution des plateformes interprofessionnelles et de circuits de distribution indépendants des grands libraires digitaux que sont Google, Apple et Amazon.

Néanmoins, penser que l’avenir des bibliothèques se joue uniquement dans le succès ou l’échec de leur virtualisation et la constitution d’archives de contenus « empruntables » est peut-être un pari risqué. En ne portant son attention que sur l’indépendance des circuits de distribution et des services numériques, ne risque-t-on pas de passer à côté de ce qui pourrait être la vraie valeur des bibliothèques dans ce paysage de pratique de lecture en grande mutation ?

Pour Silvère Mercier, les bibliothèques peuvent se différencier en proposant de l’information de qualité, des services de questions-réponses et d’autres activités éditoriales. À côté des organes de presse, elles peuvent proposer une information et des services différents, ancrés dans leur rôle de service publique. C’est une piste riche et passionnante, déjà bien explorée par certaines initiatives locales.

Parmi ces services, il me semble qu’un dispositif particulier mériterait d’être développé de façon plus poussée : la construction et la curation collectives des métadonnées.

La bibliothèque comme lieu de production et de curation collective de métadonnées riches

Une bibliothèque n’est pas qu’une archive de contenus accessibles selon des règles de prêt particulières. C’est aussi et avant tout une interface physique de découverte. Je discutais dans un précédent billet de la pauvreté des interfaces proposées par les grandes libraires numériques. Deux types d’algorithmes statistiques sont utilisés en exploitant soit les corrélations d’achats ( “Ceux qui comme vous ont acheté ce livre ont aussi aimé celui-là”), soit les corrélations d’opinions (“Ceux qui ont aimé ce livre ont aussi aimé celui-là”). Les livres ne sont, dans ce jeu algorithmique, que de simples identifiants, des produits comme les autres.

Une des missions de la bibliothèque est d’organiser une rencontre physique différente entre des lecteurs et des livres. Le bibliothécaire est un match-maker. Il peut travailler à cette mission en utilisant aux mieux les trois atouts qu’il a sa disposition : un espace physique organisable, une équipe compétente et une communauté locale plus ou moins fidèle.

Beaucoup d’exemples tirant profit de ce triangle vertueux pourraient être envisagés, mais dans ce billet je ne développerai qu’une lignée de pratique qui semble pertinente (et relativement nouvelle). Les bibliothèques et les centres de documentations peuvent participer à l’organisation la production et la curation sociale de métadonnées riches.

La production et l’organisation métadonnées ont toujours été au coeur du travail du bibliothécaire. Elles constituent une de ces compétences premières. Plusieurs exemples récents ont montré que dans certaines conditions la production sociale de métadonnées riches était envisageable pour peu que les bonnes boucles d’engagements soient mises en place (voir mes billets Wikipedia est un jeu et Un monde où chaque ville est un livre). En détaillant par exemple des fiches de personnages, de lieux et d’objets, d’auteur sur les livres les plus empruntés et invitant les usages à faire de même, une bibliothèque peut mettre en place une communauté locale de pratique, une sorte de club de lecture qui travaille lui-même à un but plus vaste et organise ses contributions dans un réseau d’autres communautés locales.

Pour cela il faut bien sûr des outils communs et neutres.  Je n’ai pas de doute que des tels outils seront créés dans les prochains mois, car plusieurs dynamiques poussent dans ces directions

— Le développement des humanités digitales et la prise de conscience de leur importance géostratégique (voir mon billet sur cette question)   permettent de dégager d’important fonds de recherche académique dans ces nouvelles directions. Une des missions des humanités digitales est précisément de contribuer à la production d’outils communs et neutres permettant à des communautés de pratiques de s’organiser pour produire des métadonnées riches.

— La prise de conscience simultanée de l’importance historique des bibliothèques dans la constitution du capital linguistique et sémantique (voir mon billet « Le trésor de guerre de Google Books ») et de l’importance de ne pas laisser ce capital entièrement dans des mains privées. Les bibliothèques ne peuvent que dans des conditions particulières numériser et diffuser les livres qu’elles proposent, mais elles peuvent en extraire des informations linguistiques et sémantiques et les rendre accessibles gratuitement comme un bien commun. De la même manière qu’elles ont parfois contribué sans s’en rendre tout à fait compte à la constitution des nouveaux empires du capitalisme linguistique, elles peuvent aussi maintenant jouer un rôle moteur dans constitution d’immenses bases de données libres détaillant le contenu des livres, leurs relations mutuelles et permettant ainsi les bases d’outils de découverte sans précédent.

Une interface physique centrée sur la visualisation et la production de métadonnées

Plutôt que de construire une bibliothèque pensée comme une interface physique à la distribution de livres (le modèle de la bibliothèque machine que nous avons discuté au début de ce billet) nous pourrions envisager d’adapter certains espaces des bibliothèques aux activités de curation collective. Tout pourrait commencer par des visualisations intéressantes. La bibliothèque pourrait par exemple présenter un grand mur une carte des relations entre les auteurs d’un certain pays, la géographie des lieux d’une famille de romans policiers, l’arbre généalogique des personnes d’une saga, etc. Ces données visuelles, ces diagrammes et ces cartes seraient autant d’invitation à découvrir des livres et des auteurs nouveaux.

Dans une seconde étape, le bibliothécaire pourrait inviter les abonnés les plus motivés à participer à ces processus cartographiques. Notre expérience avec Bookworld nous a confirmé que visualisation et participation sont intimement liées. Voir un livre-ville complexe donne envie d’en construire un soi-même. La bibliothèque en mettant en scène et en valeur les productions de certains abonnés pour amorcer des pratiques locales, une forme de nouveaux clubs de lecture, où il ne s’agirait plus tant de critiquer les livres qu’on a lus, mais de travailler ensemble à leur cartographie.

Les métadonnées que les bibliothécaires produisent, structurent et organisent depuis les débuts des pratiques documentaires ont toujours été à la base de l’organisation physique des espaces que les bibliothèques proposent. Pourquoi ne pas continuer dans cette voie en élargissant les pratiques et les services à une communauté locale de lecteurs ?

Géostratégie des humanités digitales

avril 1, 2011

Claire Clivaz, Christian Grosse, Jérôme Meizoz, François Vallotton et moi-même tentons depuis quelques temps d’amorcer autour des campus de l’Université de Lausanne et de l’EPFL, une réflexion autour du futur des « humanités digitales ». Une série de rencontres est en cours (voir le compte-rendu de la première ici). La prochaine aura lieu lundi 4 avril. Elle commencera par un dialogue entre Marie-Laure Ryan de l’université du Colorado et moi-même autour des métamorphoses de la narration qu’introduisent les nouveaux médias numériques. La seconde partie, plus politique, prendra la forme d’un débat avec Philippe Moreillon, vice-recteur de l’Université de Lausanne, Martin Vetterli, doyen de la Faculté Informatique et Communications de EPFL, Claire Clivaz et moi-même. A cette occasion, il nous a semblé utile de tenter de donner un panorama des différentes initiatives qui en ordre dispersé se cristallisent en Europe et aux Etats-Unis. Christian Vandendorpe nous a précieusement aidé à nous repérer dans cette géographie, en communiquant à Claire Clivaz,  il y a quelques jours, son propre « tour d’horizon » des humanités digitales. Cette première liste nous a été très utile pour établir cette esquisse d’atlas.

« … l’historien de demain sera programmeur ou il ne sera plus ». Souvent citée, la prophétie d’Emmanuel LeRoy Ladurie en 1968 dans le Nouvel Observateur résume bien les tensions et les enjeux qui sont aujourd’hui au cœur du futur des humanités digitales. En utilisant de manière toujours plus importante les outils informatiques, la production érudite des sciences humaines et sociales a entamé une mutation dont la portée nous est encore inconnue mais dont nous pressentons la cruciale importance. Les jeunes chercheurs qui entament aujourd’hui des carrières académiques dans ces domaines peuvent s’initier à des méthodes de recherche radicalement différentes que celles originellement pratiquées par leurs professeurs. Les études patientes et minutieuses du chercheur en bibliothèque ne sont plus la seule manière d’appréhender le passé. De nouveaux outils permettent de scruter d’immense corpus de textes et d’images et de produire des représentations radicalement nouvelles mais dont le statut épistémologique est encore en négociation. Les données et les documents deviennent plus facilement partageables, les chercheurs spécialisés dans des domaines de connaissance très pointus peuvent désormais, même s’ils sont sur des continents différents, travailler ensemble. Les manières même de communiquer sur ses recherches s’en trouve métamorphosée remettant potentiellement en cause les fondements bicentenaires de la publication académique. C’est le processus de production et de diffusion de la connaissance érudite qui est en train de changer de nature.

Malheureusement, l’historien ne peut, du jour au lendemain, devenir programmeur. Les formations qui vont dans ce sens sont encore embryonnaires. La rigidité des structures académiques qui ont traditionnellement veillé à bien séparer les sciences de l’homme de celles de l’ingénieur rendent souvent difficile ces nouveaux rapprochements. Mais des volontés existent, des initiatives émergent, nous sommes même en mesure de donner un premier aperçu de la géographie de ces nouvelles pratiques transdisciplinaires.

La géographie « institutionnelle » et « non institutionnelle » des Humanités Digitales

Aujourd’hui l’essentiel des efforts et des initiatives officielles semblent avoir lieu outre atlantique. Plus d’une dizaine de programmes se sont ouverts. Dans certains cas il s’agit de formation au niveau Master comme en Alberta (Master in Humanities Computing) ou à Loyola (Master in Digital Humanities) . Dans d’autres des centres interdisciplinaires sont créés comme à Stanford (Digital Humanities), à Denver (Center for Digital Humanities and Culture) ou en Virginie (Center for History and New Media). Parfois c’est autour des services proposés par les bibliothèques que l’innovation a lieu, comme c’est le cas également en Virginie (Scholars’lab at University of Virginia Library) ou à Brown (Center for Digital Scholarship). Des « summer institutes » sont également organisés comme à Victoria (Digital Humanities Summer Institute). En Europe, l’essentiel se passe en Grande Bretagne, notamment autour du King’s College (Departement of Digital Humanities) et l’UCL (Master in Digital Humanities).

Cependant, cette géographie institutionnelle n’est représentative que d’une partie de phénomène en cours. Comme le notait Mark Sample, ¨beaucoup de chercheurs travaillent dans le domaine des humanités digitales sans pour autant collaborer avec un centre dedié ou une institut ».  En mai dernier à Paris, sur une « péniche entre la BNF et le ministère des finances Bercy », la « non-conférence » THATCamp  dressait un état des lieux des forces et flux en présence dans les mondes des humanités digitales montrant que le phénomène couvre en fait un champ plus vaste que ces cristallisations institutionnelles.  Il y a, invisible, déjà des multiples communautés de pratiques constituées autour d’outils et de projets transversaux. Ce réseau d’acteurs regroupe des entités hétéroclites, établissements publiques et entreprises privées. Cet « archipel » s’est en partie constitué comme contre-point à l’émergence organisée et institutionnelle telle qu’elle a lieu outre-atlantique.

Une alternative à Google ?

Cette comparaison entre les géographie institutionnelles et « émergentes » des humanités digitales ne devrait pas nous faire perdre de vue ce qui m’apparaît comme étant le point central des enjeux géostratégiques de ce domaine. C’est aujourd’hui Google qui joue le rôle le plus dominant et le plus actif dans cette organisation digitale du savoir, non seulement par l’intermédiaire de son programme massif de digitalisation des livres mais aussi par les outils d’exploration qui s’y rattache. Google soutient par ailleurs activement la recherche dans ce domaine et un nombre croissant d’études novatrices utilisant les outils et les corpus que l’entreprise propose ont déjà été publiées. En Europe, beaucoup de voix se sont déjà élevées contre les dangers potentiels de cette dominance avec des argumentaires de qualités variables. On reproche essentiellement à Google d’être une entreprise, et surtout une entreprise américaine. Malgré la qualité (et la gratuité) des services que Google propose, on ne serait dès lors lui confier notre patrimoine culturel et les outils de son étude. Nous sommes ici bel est bien au cœur d’un enjeu géostratégique.

Quelles alternative existent-il à Google ? Dans les dernières années l’essentiel du débat s’est focalisé sur le processus de numérisation massif du patrimoine avec des tentatives plus ou moins fructueuse pour opposer à l »Ogre de Mountain View », des projets de librairies digitales publiques, financées par l’état. A la course à la numérisation massive, Google a pourtant toujours eu une longueur d’avance. Créer en face de Google un autre Google étatique n’est peut-être pas la bonne voie.

Pour une approche « bottom-up »

La faiblesse de Google est son désir d’universalité. Dans son ambition de numériser le savoir du monde, cette entreprise est contrainte de créer des processus et des outils les plus généraux possible. A quelques exceptions près la règle du « One size fits all » doit s’appliquer. Or les savoirs érudits des humanités sont fait de particularismes. Une base de donnée des manuscrits du Nouveau Testament ne saurait se concevoir exactement de la même manière que le corpus qui regroupe les représentations picturales des Alpes suisses (pour prendre deux exemples pour lesquels j’ai consacré du temps ces derniers mois). Les questions de recherche sont différentes, les outils pertinents ne sont pas les mêmes. Il faut pour faire du travail de qualité dans ce domaine, pour finalement réussir la métamorphose digitale de ces domaines des sciences humaines, prendre le temps nécessaire à la compréhension de leur spécificité.

Certaines questions sont évidemment transversales: comment se mettre d’accord sur un nouveau format pour la publication scientifique, comment rendre citables des documents digitaux de natures variées, comment organiser l’interopérabilité des bases de connaissances produites. Les solutions et les réponses à ces questions doivent, comme toute norme culturelle, être négociée collectivement, s’imposer par les pratiques qui sélectionneront « naturellement » les outils les plus adaptés à leur besoin (Google pourrait d’ailleurs participer à ces débats, partager son immense savoir faire technique pour aider chaque acteurs à faire les bons choix).

Pour offrir une alternative éventuelle à l’hégémonie de Google, la solution n’est peut-être pas de construire un « Google étatique » mais de poursuivre une approche « bottom-up », décentralisée, basée sur la cristallisation progressive d’un réseau d’acteurs universitaires et privés ayant une volonté commune de partager leurs outils et ressources mais le soucis aussi d’adapter toujours les méthodes les plus appropriées à la spécificité de leur sujets d’études, un juste compromis entre universalisme et particularisme. Le rôle des états serait alors plutôt que de construire des « cathédrales », de renforcer les énergies et les volontés de collaboration, dont de multiples indices nous indiquent qu’elles sont déjà nombreuses,  mais qui, faute de moyen et de légitimité ne survivent pas aux contraintes combinées de la compétition économiques et la rigidité des silos universitaires. Les états doivent incuber les meilleurs projets dans ce domaine, pourquoi pas en créant le cas échéant institutionnellement des centres d’excellence qui serviront de nœuds forts et stables dans ce réseau en construction. Ces centres dont la mission serait de constituer d’une part des corpus de haute qualité et d’autre part de proposer des outils de recherche partagés, seraient en  interaction directe avec tout ensemble d’acteurs plus petits, entreprises et même des particuliers. Ils constitueraient au niveau mondial l’armature d’une infrastructure à la fois solide, flexible et ouverte.

L’Internet s’est construit sur la force technologique du principe de la décentralisation des ressources et des outils. La robustesse et la flexibilité de cette approche distribuée associé à une volonté commune de normalisation et d’interopérabilité a permis de créer une infrastructure technologique réalisant le rêve des penseur du siècles des Lumières. Paradoxalement, l’Internet a aussi donné naissance à des géants centralisateurs, conduisant à des effets de concentration caractéristiques des dynamiques industrielles plus traditionnelles. Nous sommes donc à un tournant culturel probablement décisif. Décentralisé mais néanmoins structuré, basé sur des principes d’ouverture et de coopération mais doté de mécanismes visant à récompenser et consolider l’excellence, un autre modèle est sans doute encore possible pour le développement des humanités au XXIe siècle. Un modèle finalement pas si loin de celui qu’a suivi l’humanisme à la Renaissance.