Le développement des Digital Humanities en Suisse

juillet 16, 2012

Pour faire suite à l’annonce de ma nomination dans la presse, voici quelques explications complémentaires. 

Un nouveau laboratoire

La presse a donc annoncé aujourd’hui ma nomination en tant que professeur en Digital Humanities, première chaire suisse de ce domaine émergent. Je dirigerai à l’EPFL, le Digital Humanities Lab dont la mission est d’appliquer les savoir-faire des sciences de l’information aux questions de sciences humaines et sociales. Nous travaillerons en étroite collaboration avec l’Université de Lausanne et d’autres centres de recherche dans le monde.

Je préciserai dans quelques semaines les axes de recherches principaux de ce nouveau laboratoire, mais je peux déjà en dire quelques mots. Une de mes priorités sera de développer des technologies qui permettent de mieux prendre conscience du « Temps Long ». L’explosion informationnelle nous donne l’impression de vivre dans un éternel présent. Nous pensons de moins en moins au passé et plus du tout au futur. Ce rétrécissement temporel réduit notre imagination. Or parallèlement, nous pouvons aujourd’hui numériser et structurer des archives immenses et disparates. À partir de cet océan d’informations, nous pouvons reconstituer de nouvelles représentations du passé, voir apparaitre des structures à l’échelle des siècles ou au contraire « zoomer » et reconstituer le contexte riche et précis d’un jour et d’un lieu. De la même manière que Google Earth a rendu toute la Terre accessible en quelques clics, nous pouvons développer aujourd’hui des outils pour rendre le passé présent.

Symétriquement, nous comptons aussi développer des outils pour mieux comprendre les dynamiques culturelles et sociales au moment même où elles se déroulent. Il s’agit en quelque sorte de comprendre ce « Grand Maintenant » caractéristique de notre société globalisée. Nous organisons d’ailleurs en décembre le premier workshop international  sur la sociologie « Just-in-Time».

Nous comptons lancer aussi des projets sur les nouvelles écritures,les systèmes architecturaux,  la génétique des objets industriels, l’éducation globale et d’autres aspects de la culture digitale. Mais je n’en dirai pas plus pour aujourd’hui.

Un tournant

Historiquement, les Digital Humanities se sont construites essentiellement dans le monde anglo-saxon. L’Europe en général et la Suisse en particulier, ont pourtant un rôle crucial à jouer dans ce nouveau domaine. Nous comprenons la diversité culturelle, vivons la diversité linguistique, héritons d’un patrimoine immense et riche.  Ce n’est sans doute pas un hasard si cette thématique des Digital Humanities trouve ici des dynamiques si puissantes. À la chaire nouvellement créée par l’EPFL vont faire échos en 2013 et 2014 d’autres chaires à Berne et à Lausanne. Plusieurs postes de doctorants sont déjà mis au concours. Nous avons également corédigé un programme de recherche sur 12 ans (NCCR) aux effets structuraux importants et dont nous recevrons les premières évaluations dans quelques mois.

Sans doute pour toutes ces raisons, cette semaine à Hambourg, l’association des organisations en Digital Humanities a décidé de choisir la candidature de l’EPFL et de l’UNIL pour accueillir la plus grande conférence du domaine en 2014. C’est un grand honneur, mais surtout le signe d’un tournant décisif du domaine.


Tout Rousseau en numérique

juin 27, 2012

Les éditions Slatkine et Honoré Champion ont présenté hier la monumentale édition des oeuvres complètes de Jean-Jacques Rousseau dans la maison natale du philosophe dans la vieille ville à Genève. Ce fut un évènement haut en couleur et en érudition. A cette occasion, j’ai présenté les grands principes de fonctionnement de la version numérique de ces oeuvres complètes, dont les éditions Slatkine nous ont fait l’honneur de nous confier la conception et la réalisation.

La mise en scène se prêtait bien à mon propos. J’avais en face de moi, sur une table basse, les imposants 24 volumes de l’édition papier et je présentais l’édition numérique sur un fin écran suspendu par deux fils au plafond. La question était donc : Comment faire rentrer un si imposant volume dans une si fine surface ?

Un monument de papier est par essence en trois dimensions. On peut le visiter comme un lieu. Nos repères et habitudes pour la navigation spatio-temporelle sont opérants. Selon l’échelle de la métaphore choisie, chaque volume est la pièce d’un appartement ou une ville d’un pays.

Sur une surface sans épaisseur, nous devons inventer des artifices supplémentaires pour compenser cette troisième dimension  tout d’un coup manquante. Voici quelques unes des idées, développées en particulier par notre designer Gael Paccard,  que nous explorons dans cette réalisation.

1. Des menus proportionnels aux contenus auxquels ils donnent accès

Sur une interface informatique classique, les menus hiérarchiques sont souvent identiques quel que soit la quantité de contenus auxquels ils donnent accès. Une des particularités de cette nouvelle édition des oeuvres complètes de Rousseau est qu’elle fait la part belle à des pans entiers de l’oeuvre du philosophe sur lesquels les éditions précédentes n’avaient pas porté autant d’attention. Les 2400 lettres occupent 7 volumes, les écrits sur la musique plus de 1500 pages. La nouvelle importance relative de ces différentes sections se perçoit d’un coup d’oeil sur l’édition papier, mais risquait de disparaitre dans la version numérique.

Nous avons donc choisi d’utiliser pour la navigation hiérarchique des menus verticaux, dont la hauteur de chaque section est proportionnelle au nombre de pages auxquelles elles donnent accès. L’utilisateur sait déjà mieux ce qui l’attend derrière chaque clic. Cette solution a également l’avantage de donner un profil visuel aux oeuvres complètes dans leur ensemble. Nous rappelons ce profil en permanence à gauche de l’interface de manière à permettre une navigation agile depuis n’importe quelle partie de l’oeuvre, vers n’importe quelle autre.

2. Des barres de navigation indiquant la densité textuelle des pages

Un problème similaire de navigation se pose au sein d’un livre donné. Les ascenseurs/sliders de navigation tels qu’ils sont utilisés dans certaines liseuses ne donnent qu’une information très pauvre visuellement. L’utilisateur voit simplement sa position relative par rapport au début et à la fin du livre. Nous avions introduit dès nos premiers Bookapps sur iPad, un procédé visuel simple et efficace en proposant des barres de navigations sous la forme d’histogrammes dans lesquels chaque page d’un livre est représentée par le nombre de mots qu’elle contient. Cette représentation, fine et dense (qui plairait sans doute assez à Edward Tufte pour cette raison), permet de voir synthétiquement les différentes structures du livre (changement de chapitre, passages avec illustrations, zones de notes) en les identifiant par leur densité textuelle relative. Maintenant que nos yeux sont informés, notre dextérité est suffisante pour placer le curseur où nous le souhaitons.

3. De nouvelles manières de circuler

Notre interface propose un moteur de recherche un peu particulier. Lorsque vous tapez « Luxembourg », vous trouverez bien sûr l’ensemble des pages où ce mot est présent, chacune présentée par un petit extrait donnant le contexte d’apparition du mot. Ces extraits sont regroupés par oeuvre. Vous pouvez à loisir effectuer cette recherche sur le livre que vous êtes en train de consulter, sur le thème auquel il appartient (par exemple « Confessions et documents autobiographiques ») ou sur l’ensemble des oeuvres complètes.

Au-dessus des résultats de recherche, vous trouverez également les noms des personnes mentionnés dans les oeuvres complètes qui correspondent au mot cherché, en l’occurrence ici, Charles-Francois-Frédéric de Montmorency-Luxembourg, maréchal-duc de Luxembourg et Madeline-Angélique, duchesse de Luxembourg. En choisissant un de ces deux noms, vous arrivez sur une page qui présente l’ensemble des apparitions de cette personne dans l’oeuvre de Rousseau, mais également le réseau social des personnes qui lui sont associées. Ce réseau est construit en calculant les cooccurrences (sur une mêmes page) de cette personne avec les autres personnes citées par Rousseau. Si deux personnes apparaissent ensemble sur plus de 5 pages dans toute l’oeuvre nous considérons qu’un lien les unit. Le maréchal du Luxembourg apparait par exemple très souvent avec sa femme la duchesse, mais aussi avec Louis de Neufville, duc de Villeroy. Pour comprendre le lien qui unit ces deux personnes, l’interface vous permet d’afficher les pages où elles apparaissent effectivement ensemble. Ce principe simple de navigation montre que se cache dans l’oeuvre de Rousseau un véritable « Facebook » du XVIIIe siècle. Notre interface se contente de l’expliciter.

4. Une ressource facilement citable

Étant donné que cette nouvelle édition est à ce jour la plus complète ressource disponible sur le philosophe, il nous semblait important qu’elle puisse être utilisée comme une ressource pour toutes les études futures de Rousseau publié sur le web. Chaque page de l’oeuvre est associée à une URL unique qui permet d’y faire référence dans un article, un email, un tweet, etc. La consultation de l’oeuvre est ensuite gratuite pendant 5 minutes, un temps suffisant pour prendre connaissance du passage en question. Pour une lecture plus longue ou une exploration plus vaste de cette édition, il faudra s’acquitter d’un droit d’accès avec une formule pour les particuliers et une formule pour les institutions.

Cette édition électronique sera disponible à la rentrée prochaine, mais il aurait été dommage de ne pas l’annoncer alors que « le citoyen de Genève » fête ce 28 juin ses 300 ans.


Eusèbe de Césarée, inventeur de l’Histoire en deux dimensions

juin 22, 2012

Je présentais dans le précédent billet le remarquable travail de Daniel Rosenberg sur les cartographies du temps. Il est également l’auteur d’une étonnante « Timeline of Timelines » publiée dans la revue Cabinet au printemps 2004. Cette timeline montre avec éloquence la lente et complexe construction des représentations graphiques du Temps et de l’Histoire. Elle nous invite à nous interroger sur la manière dont on pouvait se représenter le passé, le présent et le futur selon les époques. Un préalable nécessaire à toute interprétation.

Chacune des entrées de cette chronologie de chronologies mériterait une étude à elle seule. Dans cette morphogénèse progressive de l’espace historique, Les Chroniques d’Eusèbe de Césarée (~325) sont comme un point zéro. Il y avait certes de grands chronologues avant Eusebe, mais ils se contentaient de penser l’Histoire en une dimension. Eusebe est, semble-t-il, le premier à proposer un système de tables pour faire correspondre des évènements venant de traditions historiographiques diverses. Eusèbe compose en quelque sorte une pierre de rosette, permettant de traduire différentes traditions historiographiques et ainsi, il est le premier à tenter d’esquisser le début d’une histoire universelle en deux dimensions.

Eusèbe découvre aussi le pouvoir de la table comme technologie intellectuelle (dans le sens que Pascal Robert donne à ce terme) capable de révolutionner l’Histoire. Lignes et colonnes composent un espace structuré où le passage du Temps peut être appréhendé simultanément pour plusieurs civilisations. L’histoire des Babylionniens et l’histoire des Hébreux par exemple s’inscrivent ainsi pour la première fois dans un référentiel commun.  Mieux, les Chroniques mettent déjà en lumière des connexions géostratégiques, comme l’importance de l’Empire romain pour la diffusion de la foi chrétienne, le lien entre le développement des idées et celui des routes.

Les Chroniques seront reprises et complétées au fil des siècles. Elles serviront longtemps de canon chronologique. L’imprimerie contribuera encore à diffuser cette invention et renforcer le modèle de la table comme ossature de toute chronologie.

Canons d'Eusèbe de Césarée 1659

Canons d’Eusèbe de Césarée
1659

Avant Eusèbe, le temps était linéaire ou cyclique. C’était toujours une route dont ne peut pas vraiment s’éloigner. En plaçant les chronologies en deux dimensions, Eusebe étend implicitement l’espace des possibles.

Les représentations graphiques du temps caractéristiques d’une époque donnée fixent la géométrie de nos modes en pensées. Certaines choses ne sont tout simplement pas pensables si nous ne les avons jamais vues sous un certain angle. Interviewé lors de la parution du livre Cartographies of Times, Anthony Grafton argumente qu’au XVIIIe siècle c’est l’innovation graphique d’un chronographe comme Joseph Priestley qui permettra à Buffon de penser le temps long biologique et géologique (« Deep Time »).

Chart of History

Gardons donc à l’esprit que nos pensées sont intrinsèquement limitées par les représentations graphiques du Temps de notre époque ou qu’inversement elles seront peut-être demain libérées par des représentations visuelles synthétiques absolument inédites.

—-

Notes de bas de page

La page Wikipedia (consultation 24 juin 2012) sur le thème de la chronique universelle, donne des informations érudites et intéressantes sur la structure de l’oeuvre d’Eusèbe de Césarée.

(…) Eusèbe de Césarée (…) est resté comme le véritable père du genre chrétien de la Chronique universelle. Son œuvre en la matière, intitulée Histoire générale (Παντοδαπή ίστορία) se divisait en deux parties : dans la première, appelée Χρονογραφία, l’auteur s’efforçait d’établir, pour chaque peuple, la succession chronologique des grands événements de son histoire jusqu’à l’année 325 (date du Ier concile de Nicée) ; dans la seconde, intitulée Règle du calcul des temps (Κανών χρονικός), il s’agissait de dégager de ces diverses séries de faits, dans des colonnes parallèles, le synchronisme qui était l’objet ultime de l’ouvrage. La version originale grecque de l’ensemble de l’œuvre a été perdue comme telle, mais de très larges extraits de la Χρονογραφία se retrouvent en fait dans les chroniques byzantines postérieures, spécialement dans celle de Georges le Syncelle. Cependant, les deux parties ont été conservées, bien qu’avec des lacunes, dans une traduction arménienne retrouvée par hasard en 17825 et révélée en Occident en 1818 par deux publications bilingues arménien-latin concurrentes6 ; c’est cette traduction qui permit d’ailleurs de repérer les parties des chroniques byzantines qui étaient empruntées à Eusèbe. Deux résumés (epitomae) de l’œuvre en syriaque ont également été retrouvés au xixe siècle.

C’est seulement la deuxième partie, le Canon, qui a été connue traditionnellement en Occident dans la traduction latine de saint Jérôme(Chronicum ad annum Abrahae), où la chronologie est d’ailleurs prolongée jusqu’à l’avènement de Théodose Ier en 379.

La page précise également la structure de la Χρονογραφία

La Χρονογραφία est divisée en cinq parties : l’histoire des Babyloniens et des Assyriens, suivie de listes des rois d’Assyrie, de Médie, deLydie et de Perse ; puis l’histoire de l’Ancien Testament ; puis l’histoire de l’Égypte ; puis l’histoire grecque ; puis l’histoire romaine. Le texte est constitué pour partie de citations d’historiens antiques, dont souvent les œuvres ont été perdues (par exemple les Persica de Ctésias ou lesBabyloniaca de Bérose). Les récits babyloniens de la Création et du Déluge, par exemple, se trouvent chez Eusèbe, qui a dû les emprunter directement ou indirectement à Bérose.

Et celle du  Κανών  χρονικός

Quant au Canon, il s’agit donc d’une série de tables chronologiques avec de courtes notices historiques. Le point de départ est la date supposée de la naissance d’Abraham, et c’est à partir de là que tout le reste est daté et synchronisé. Auprès des « années d’Abraham » sont placées les années de règne (début et fin) des souverains de différents royaumes. Voici un passage du Canon tel qu’il apparaît dans le manuscrit de la bibliothèque bodléienne de la traduction latine de saint Jérôme :

      LXXVIII Olymp. Herodotus historiarum
                     scriptor agnoscitur
      XVIII      Bacchylides et Diag-
                           rus atheus      XXXVI
             sermone plurimo cele-
                             brantur
     MDL. XVIIII   Zeuxis pictor agnosci-
                              ur, etc.    XXXVII

Les « années d’Abraham » sont données par décennies (ici, MDL représente la 1550e année après la naissance d’Abraham). Nous sommes donc dans la 78eolympiade ; XVIII et XVIIII (18 et 19) sont les années de règne de Xerxès Ier, roi des Perses, XXXVI et XXXVII (36 et 37) celles d’Alexandre Ier, roi de Macédoine. Les événements-repères correspondants sont donc donnés sur la même ligne.

Les chronologies données par le Chronicum de saint Jérôme et par la version arménienne sont divergentes notamment dans les listes épiscopales : il a été montré que cette différence était due à une mauvaise transmission dans le document arménien7. En tout cas, le Κανώνd’Eusèbe constitue le plus grand travail chronologique de toute l’Antiquité, et c’est l’un des fondements sur lesquels repose encore notre connaissance des dates pour une notable partie de l’histoire antique8.

J’imagine de jolis projets à faire en digital humanities sur ces sujets. D’abord tracer l’arbre génétique le plus complet possible de tous les descendants des Chroniques, avec leurs modifications et ajouts successifs. Placer évidemment cette évolution du contenu dans une perspective à la fois temporelle et spatiale. Voir comment, dans le temps et l’espace, la représentation régulée inventée par Eusèbe se diffuse et se perfectionne.

Symétriquement, il serait magnifique de tenter de reconstituer visuellement à partir de ces textes la structure du passé associé à chaque instance de ces chroniques. Il s’agirait en quelque sorte d’observer visuellement la morphogénèse de l’Histoire dans le temps et l’espace ainsi que les processus de convergence et de divergence associés.


				

Les cartographies du temps

juin 19, 2012

Quand la plupart des cartographes représentent l’espace, certains tentent aussi de saisir le temps. Comment saisir en deux dimensions, l’émergence et la chute des empires, les grands évènements culturels, le temps long géologique et les fluctuations du pouvoir dans le monde contemporain ? Daniel Rosenberg et Anthony Grafton ont publié il y a deux ans un des rares livres sur le sujet intitulé « Cartographies of Time ». Pour ceux qui veulent découvrir la richesse encore assez méconnue de ces représentations chronospatiales, l’extraordinaire collection de 32 000 cartes rassemblées par David Rumsey (et accessibles en ligne) compte au moins une centaine de cartes chronologiques produites entre 1770 et 1967. Retour sur quelques exemples remarquables identifiés dans un billet de David Rumsey.

La Synchronological Chart of Universal History (Sebastien Adams, 1881) est une chronologie de 7 metres couvrant 5885 ans (4004 av. J.-C. — 1881 ).

Le Tableau de L’Histoire Universelle de la création jusqu’à nos jours (Eugene Pick,1858) est présenté en deux tableaux (un pour l’hémisphère est et l’autre pour l’hémisphère ouest). Cette chronologie est basée sur l’ouvrage de 1804 de Friedrich Stass d’Autriche, Strom der Zeiten (Steam of Time).

En 1931, John B.Spark’s publie « The Histomap. Four Thousand Years of World History« . La carte représente l’évolution relative du pouvoir entre les différents états, nations et empires.

Enfin, la Succession of Life and Geological Time Table (Herbert Bayer, 1953) tente d’unifier sur une seule représentation la succession des temps géologiques et biologiques.

David Rumsey présente ainsi des dizaines d’autres cartes, plus fascinantes les unes que les autres. Il me semble que, plus que jamais, ces cartes sont des sources d’inspiration fécondes pour tenter d’appréhender l’exposition spatiotemporelle qui caractérise notre époque. Nous devons inventer de nouvelle représentations du temps et de l’espace pour essayer d’embrasser l’histoire du monde dans sa globalité. Les archives sont de plus en plus nombreuses à être digitalisées. Pour la première fois, nous allons avoir accès à un océan de données que nous allons pouvoir croiser les unes avec les autres. Pour autant, serons-nous capables de reproduire des représentations aussi synthétiques que ces chefs-d’oeuvre des deux siècles passés ? Comment saurons-nous représenter l’incertitude intrinsèque qui caractérise ces sources historiques ? Faudrait-il inventer des manières de visualiser l’Histoire non pas comme une narration cohérente, mais plutôt comme un faisceau de probabilités ? Des défis passionnants pour les digital humanities.

Sur ces mêmes sujets voir également :

L’enregistrement audio Book Talk and Release Party: Cartographies of Time par Daniel Rosenberg and Anthony Grafton

Timeline of Timelines par Sasha Archibald and Daniel Rosenberg (Issue 13 Futures Spring 2004)

Une autre Timeline of timelines par infovis.info

Time after Time un billet de BibliOdyssey

Timeline Visualizations: A Brief and Incomplete Teleological History par Whitney Anne Trettien

Timelines and Visual Histories by Michael Friendly


Le premier browser a failli être un livre électronique

juin 8, 2012

Deux représentations régulées, le livre et l’encyclopédie se livrent une guerre sans précédent depuis près de 500 ans. Retour sur un de ces épisodes « où l’histoire peut basculer » relaté par Tim Berners-Lee dans Weaving the web

En septembre 1990, Robert Caillaud et Tim Berners-Lee se rendent à l’European Conference on Hypertext Technology à Versailles pour présenter le projet du World Wide Web élaboré quelques mois plus tôt au CERN. Ils cherchent une technologie qui pourrait jouer le rôle de navigateur pour du contenu hypertexte. Plusieurs produits présentés pourraient tout à fait faire l’affaire. Owl Ltd commercialise un produit appelé Guide qui permet de consulter des documents organisés sous la forme d’un hypertexte. C’est exactement ce que cherche Tim et Robert. Mais les dirigeants de Owl ne sont pas intéressés. Ils ne voient pas l’intérêt de connecter leur système à l’Internet.

Tim Berners-Lee a lors une autre idée : utiliser la technologie Dynatext développée par Electronic Book Technology. Cette entreprise avait été fondée par Andy Van Dam de la Brown University, un des premiers chercheurs à avoir utilisé le terme electronic book. Mais l’équipe d’Electronic Book Technology pensait que le contenu d’un livre devait être compilé (comme un programme informatique) et ne pouvait pas être interprété à la volée. Le livre était un contenu fermé et clos. Ils ne prenaient pas au sérieux Tim Berners-Lee quand il suggérait que des pages pourraient être envoyées directement via le web et affichées immédiatement sur un écran d’ordinateur. Ils pensaient également qu’il était crucial qu’une base de données centrale assure qu’aucun lien hypertexte ne soit cassé. Leur vision du futur consistait en la transmission de contenus consistent, des livres entiers.

Tim lui imaginait un chantier permanent, un monde en constante évolution : Le livre contre l’encyclopédie.

Et c’est ainsi que, contraint et forcé, Tim Berners-Lee commença à travailler sur un autre navigateur.


La construction collective des métadonnées en bibliothèque

avril 28, 2012

Nous avons organisé ce jeudi, avec Alain Jacquesson et Silvère Mercier (blog), une formation pour les bibliothécaires (comme l’an dernier) au Salon du Livre de Genève.  Alain Jacquesson a fait un point complet et critique sur les ressources numériques disponibles aujourd’hui pour les bibliothèques et les centres de documentation en ce qui concerne les revues (NewJour, DOAJ, Seals, Revues.org, CAIRN) et les monographies (Projet Gutenberg, Gallica, Rero.doc, Google Livre, Internet Archive, Hathi Trust). Il a également fait le point sur les nouveaux services de prets (Overdrive, Amazon). Silvère Mercier a proposé un atelier sur les stratégies des médiations numériques en faisant découvrir par la pratique les outils pour proposer du contenu éditorial sous la forme  de « dispositifs ponctuels » (storify, mindmeister, Libraything, scoop.it, Google maps, Dailymontion, Pearltrees, Markup.io, Prezi, etc.) à insérer dans des « dispositifs de flux » (Blog, twitter, profil Facebook, etc.). J’ai pour ma part proposé d’explorer la manière dont on pouvait développer en bibliothèque la lecture sociale et la production collective de métadonnées, une direction encore relativement peu explorée. Le billet ci-dessous reprend en partie mon argumentaire. 

 

 

La bibliothèque est une interface physique 

Une bibliothèque est toujours un volume organisé en deux sous-espaces : une partie publique (front-end) avec laquelle les usages peuvent interagir, une partie cachée (back-end) utilisée pour la logistique et le stockage.  A la Bibliothèque Nationale de France, c’est un système robotisé qui fait la jonction entre les espaces immenses et sous-terrains ouverts au public et les quatre tours qui stockent les livres. L’architecte Dominique Perrault a imaginé une vertigineuse bibliothèque-machine où la circulation des hommes a été pensée symétriquement à la circulation des livres.

Alain Galey discute dans « The Human Presence of Digital Artefacts » la vue séctionnée de la New York Public Library telle quelle apparait sur la couverture du Scientific American le 27 Mai 1911. La bibliothèque est ici sans ambiguïté présentée comme interface physique mettant en contact des lecteurs avec des collections de livres archivés. Au sommet les bibliothécaires gèrent les requêtes et le catalogue et utilisent un système de tubes pneumatiques pour commander les livres stockés dans les étages inférieurs. Les livres, une fois localisés, remontent vers par des mini-ascenseurs.  Presque un siècle avant la bibliothèque Francois Mitterand, la NY Public Library est présentée commune une bibliothèque-machine, préfigurant le rêve de l’open-access des digital humanities.

Dans d’autres grandes bibliothèques et surtout dans tous les centres de documentations de taille beaucoup plus modeste, c’est encore aujourd’hui une logisitique humaine plus ou moins complexe qui organisent les circulations de livres entre le front-end et le back-end. Dans un article du dernier numéro de ligne en ligne, Véronique Poirier décrivait avec poésie l’articulation de ces deux espaces à la BPI.

Tous les matins et chaque mardi, la bibliothèque est fermée au public. Elle se transforme alors en une vaste ruche où se croisent les chariots bleus, rouges, jaunes, verts. Des livres quittent les étagères, d’autres les remplacent. L’espace étant limité, une volumétrie stable (près de 390 000 livres), doit être maintenu grâce à une gestion rigoureuse de l’équilibre entre le nombre d’ouvrages acquis et le nombre de « désherbés ».

Ce souci d’équilibre et de sélection, éléments clés dans la gestion de toutes les bibliothèques et centre de documentation, grand ou petit,  est aussi une des problématiques centrales des interfaces. Celui qui conçoit un site web ou une application iPad se demande également comment organiser au mieux l’espace de navigation et les cheminements des utilisateurs, comment articuler l’expérience « front-end » avec la logistique et le stockage back-end. Mais quand le créateur d’applications doit composer avec une surface de quelques centimètres carrés, le bibliothécaire dispose lui souvent d’un volume articulable en rayonnage, en espace d’échanges, en zones de travail spécialisées.

Durant les dernières années, nous avons vu apparaître de grandes bibliothèques construites selon un autre type d’organisation. Le Rolex Learning Center au sein duquel j’ai la chance d’avoir mon bureau, est organisé selon une logique tout autre et selon un plan qui optimise plus les échanges et les activités autour du livre, que l’accès aux livres eux-mêmes. Cette nouvelle tendance peut-elle servir de modèle directeur pour des bibliothèques de taille plus modeste ?

La tentation de la virtualité 

Avec l’arrivée du numérique, Il est tentant pour la bibliothèque de nier sa dimension physique, de ne devenir qu’une machine à information aux front-ends démultipliés, accessibles par toutes sortes de terminaux et aux back-end entièrement informatisés. On se souvient que Jacques Attali, alors conseiller de Francois Mitterand, avait en son temps critiqué le projet architecturale la bibliothèque-machine de la BNF pour lui opposer l’urgente nécessité d’une BNF directement numérique et algorithmique, accessible de partout et qui serait le meilleur outil possible pour la diffusion de la culture française à travers le monde.

Mais sur ce point, les questions stratégiques et patrimoniales des grandes bibliothèques ne rejoignent pas les questions locales pour nombre de modestes centres de documentation. Les bibliothèques n’ont aujourd’hui que des droits très encadrés pour l’exploitation digitale des livres qu’elles proposent en lecture ou en prêt. Impossible pour elles de construire de nouveaux services en exploitant directement des nouveaux circuits commerciaux de livre numérique « grand public » dans la mesure où la législation leur interdit la diffusion de contenus obtenus « sous le régime réservé à l’acquisition personnelle » (rappelons que les bibliothèques achètent plus cher les livres et les DVDs précisément pour pouvoir les exploiter dans le cadre particulier des services qu’elles proposent). Dans ces conditions, il est peu étonnant que ce soit en ordre dispersé et expérimentant parfois dans les zones grises qui entourent ces nouveaux usages, qu’elles essaient aujourd’hui de proposer certaines offres de prêt numérique complémentaire à leurs services traditionnels.

Dans billet écrit suite à un différent avec une bibliothécaire de Martigues, François Bon rappelait les deux manières de lire du numérique en bibliothèque

a. La bibliothèque acquiert le droit de diffusion un certain nombre de titres à un tarif défini par l’« interprofession » et les diffuse avec des DRM chronodégrable (la lecture n’est autorisée que pendant un certain temps).  En France, c’est la solution adoptée par Numilog basé sur Adobe Digital Reader et un logiciel de lecture particulier type Bluefire par exemple).

b. La bibliothèque acquiert le droit de diffuser en streaming certains contenus à des utilisateurs identifiés (via leur carte d’abonné par exemple). Plusieurs bibliothèques diffusent de cette manière les titres de publie.net

Ces nouvelles formes de prêt numérique sont un enjeu important et transverse sur dans le paysage de la lecture numérique. Il faut suivre avec attention les initiatives canadiennes dans ce domaine  au travers de la plateforme pretnumerique.ca (voir le billet de Clément Laberge) qui combine les usages de types a et b pour éviter que ce marché soit remporté par des fournisseurs externes. En effet, le risque est de voir la bibliothèque se faire l’intermédiaire de solution de prêt proposé par d’autres fournisseurs. La solution Overdrive est par exemple adoptée par un nombre semble-t-il croissant de bibliothèques aux USA. Ces questions sont donc en rapport direct avec la constitution des plateformes interprofessionnelles et de circuits de distribution indépendants des grands libraires digitaux que sont Google, Apple et Amazon.

Néanmoins, penser que l’avenir des bibliothèques se joue uniquement dans le succès ou l’échec de leur virtualisation et la constitution d’archives de contenus « empruntables » est peut-être un pari risqué. En ne portant son attention que sur l’indépendance des circuits de distribution et des services numériques, ne risque-t-on pas de passer à côté de ce qui pourrait être la vraie valeur des bibliothèques dans ce paysage de pratique de lecture en grande mutation ?

Pour Silvère Mercier, les bibliothèques peuvent se différencier en proposant de l’information de qualité, des services de questions-réponses et d’autres activités éditoriales. À côté des organes de presse, elles peuvent proposer une information et des services différents, ancrés dans leur rôle de service publique. C’est une piste riche et passionnante, déjà bien explorée par certaines initiatives locales.

Parmi ces services, il me semble qu’un dispositif particulier mériterait d’être développé de façon plus poussée : la construction et la curation collectives des métadonnées.

La bibliothèque comme lieu de production et de curation collective de métadonnées riches

Une bibliothèque n’est pas qu’une archive de contenus accessibles selon des règles de prêt particulières. C’est aussi et avant tout une interface physique de découverte. Je discutais dans un précédent billet de la pauvreté des interfaces proposées par les grandes libraires numériques. Deux types d’algorithmes statistiques sont utilisés en exploitant soit les corrélations d’achats ( “Ceux qui comme vous ont acheté ce livre ont aussi aimé celui-là”), soit les corrélations d’opinions (“Ceux qui ont aimé ce livre ont aussi aimé celui-là”). Les livres ne sont, dans ce jeu algorithmique, que de simples identifiants, des produits comme les autres.

Une des missions de la bibliothèque est d’organiser une rencontre physique différente entre des lecteurs et des livres. Le bibliothécaire est un match-maker. Il peut travailler à cette mission en utilisant aux mieux les trois atouts qu’il a sa disposition : un espace physique organisable, une équipe compétente et une communauté locale plus ou moins fidèle.

Beaucoup d’exemples tirant profit de ce triangle vertueux pourraient être envisagés, mais dans ce billet je ne développerai qu’une lignée de pratique qui semble pertinente (et relativement nouvelle). Les bibliothèques et les centres de documentations peuvent participer à l’organisation la production et la curation sociale de métadonnées riches.

La production et l’organisation métadonnées ont toujours été au coeur du travail du bibliothécaire. Elles constituent une de ces compétences premières. Plusieurs exemples récents ont montré que dans certaines conditions la production sociale de métadonnées riches était envisageable pour peu que les bonnes boucles d’engagements soient mises en place (voir mes billets Wikipedia est un jeu et Un monde où chaque ville est un livre). En détaillant par exemple des fiches de personnages, de lieux et d’objets, d’auteur sur les livres les plus empruntés et invitant les usages à faire de même, une bibliothèque peut mettre en place une communauté locale de pratique, une sorte de club de lecture qui travaille lui-même à un but plus vaste et organise ses contributions dans un réseau d’autres communautés locales.

Pour cela il faut bien sûr des outils communs et neutres.  Je n’ai pas de doute que des tels outils seront créés dans les prochains mois, car plusieurs dynamiques poussent dans ces directions

— Le développement des humanités digitales et la prise de conscience de leur importance géostratégique (voir mon billet sur cette question)   permettent de dégager d’important fonds de recherche académique dans ces nouvelles directions. Une des missions des humanités digitales est précisément de contribuer à la production d’outils communs et neutres permettant à des communautés de pratiques de s’organiser pour produire des métadonnées riches.

— La prise de conscience simultanée de l’importance historique des bibliothèques dans la constitution du capital linguistique et sémantique (voir mon billet « Le trésor de guerre de Google Books ») et de l’importance de ne pas laisser ce capital entièrement dans des mains privées. Les bibliothèques ne peuvent que dans des conditions particulières numériser et diffuser les livres qu’elles proposent, mais elles peuvent en extraire des informations linguistiques et sémantiques et les rendre accessibles gratuitement comme un bien commun. De la même manière qu’elles ont parfois contribué sans s’en rendre tout à fait compte à la constitution des nouveaux empires du capitalisme linguistique, elles peuvent aussi maintenant jouer un rôle moteur dans constitution d’immenses bases de données libres détaillant le contenu des livres, leurs relations mutuelles et permettant ainsi les bases d’outils de découverte sans précédent.

Une interface physique centrée sur la visualisation et la production de métadonnées

Plutôt que de construire une bibliothèque pensée comme une interface physique à la distribution de livres (le modèle de la bibliothèque machine que nous avons discuté au début de ce billet) nous pourrions envisager d’adapter certains espaces des bibliothèques aux activités de curation collective. Tout pourrait commencer par des visualisations intéressantes. La bibliothèque pourrait par exemple présenter un grand mur une carte des relations entre les auteurs d’un certain pays, la géographie des lieux d’une famille de romans policiers, l’arbre généalogique des personnes d’une saga, etc. Ces données visuelles, ces diagrammes et ces cartes seraient autant d’invitation à découvrir des livres et des auteurs nouveaux.

Dans une seconde étape, le bibliothécaire pourrait inviter les abonnés les plus motivés à participer à ces processus cartographiques. Notre expérience avec Bookworld nous a confirmé que visualisation et participation sont intimement liées. Voir un livre-ville complexe donne envie d’en construire un soi-même. La bibliothèque en mettant en scène et en valeur les productions de certains abonnés pour amorcer des pratiques locales, une forme de nouveaux clubs de lecture, où il ne s’agirait plus tant de critiquer les livres qu’on a lus, mais de travailler ensemble à leur cartographie.

Les métadonnées que les bibliothécaires produisent, structurent et organisent depuis les débuts des pratiques documentaires ont toujours été à la base de l’organisation physique des espaces que les bibliothèques proposent. Pourquoi ne pas continuer dans cette voie en élargissant les pratiques et les services à une communauté locale de lecteurs ?


La poésie des nouvelles écritures algorithmiques

avril 13, 2012

Stéphane Lecorney, qui gère la mise en service et le suivi des nos publications à bookapp.com  me signalait aujourd’hui la forte augmentation des commentaires créés par des bots ou des algorithmes de traduction automatique. L’occasion de voir concrètement les tournures étonnantes de l’écriture algorithmique que j’évoquais dans mon précédent billet

À propos de l’application Type & Walk  + Flashlight qui permet de taper des messages tout en marchant…

Un « utilisateur » nous dit enthousiaste :

« Intuitif à utiliser, des beaux résultats et à nouveau de bonne humeur. Merci qui a fait la! c’est vraiment cool et recommande. »

Un autre digital native, qui visiblement partage certaines bizarreries de langage avec le premier :

« Il m’aide introduire le texte horizontale et verticale, envoyer des messages SMS, envoyer d’e-mail, envoyer des messages sur Twitter et Facebook… assez amusant, je vous remercie! »

Un peu plus bas, un autre utilisateur affirme sans hésitation :

« Je pense donc que ce programme très transparent! »

Un autre s’embrouille dans les personnes (c’est vrai que c’est dur quand on est une machine)

« J’AIME cette demande et il a recommandé à plusieurs amis »

Etonnement, aucune critique négative…

Si la poésie consiste, comme l’argumentait Jean Cohen, à casser la langue pour faire ressortir un autre sens que le sens premier, les nouvelles écritures algorithmiques inaugurent de longues heures de lectures poétiques (que nous le souhaitions ou non).


Nos langues à l’heure du capitalisme linguistique

avril 12, 2012

Invité par Bernard Stiegler aux journées préparatoires des entretiens du nouveau monde industriel, j’ai proposé une extension de mes réflexions initiales sur le capitalisme linguistique et explorant la manière dont ce nouveau régime économique pouvait transformer la langue. La publication des slides a rapidement provoqué des réactions sur le réseau dont notamment un intéressant rebond par Olivier Ertzscheid. Sur la suggestion d’Hubert Guillaud, j’ai écrit l’article suivant pour Internet Actu

Faire de chaque mot une marchandise

Google a construit son succès puis sa richesse autour de deux algorithmes.
Le premier permet de classer les ressources du web. Le second organise des enchères sur des mots clés. La combinaison de ces deux idées a permis à Google d’organiser un formidable marché de la langue et de donner naissance à un nouveau régime économique : le capitalisme linguistique.

Rappelons les principes simples de ce second algorithme qui permet de fixer la valeur de chaque mot. Un annonceur fait une enchère sur un mot clé (par exemple “vacances”) en donnant le prix maximum qu’il serait prêt à payer pour un clic. Google donne un score de qualité à la publicité mesurant son efficacité. L’algorithme exact qui produit le score de qualité de la publicité reste secret et modifiable à loisir par Google. Le rang est déterminé par le produit de l’enchère et du score. En cas de clic, l’entreprise paie un prix basé sur l’enchère juste en dessous de sa propre enchère modulé par la qualité relative entre cette deuxième enchère et celle de l’entreprise.

Ce jeu d’enchères a lieu des millions de fois par seconde, à chaque requête d’un utilisateur. Si on considère qu’il constitue la principale source de revenus de Google, nous pouvons estimer qu’il génère un chiffre d’affaires d’environ 40 milliards par an. C’est cette énorme et continuelle source de financement qui permet à Google sa politique de recherche et développement ambitieuse, et notamment l’acquisition de grandes ressources linguistiques constituant un capital de plus en plus vaste. Un projet aussi incroyable que Google Books ne représente annuellement qu’une petite portion de ce chiffre d’affaires (1,5 % selon Alain Jacquesson dans son livre Google Livres et le futur des bibliothèques numériques).

Dans ces conditions, il est pertinent d’analyser les autres services que Google propose au travers de ce prisme. Quand vous tapez le mot “vacen”, le moteur de recherche vous propose en temps réel des complétions qui non seulement corrigent la faute que vous étiez sur le point de commettre, mais également prolongent ces premières lettres par une suite de mots statistiquement probable. En proposant ce service, Google ne fait pas que vous rendre service, il transforme un matériau sans valeur en une ressource économique directement rentable. Un mot mal orthographié est en fait sans valeur économique, car peu de personnes feront des enchères à son sujet, une suite de mots statistiquement probables et souvent recherchés constitue au contraire l’assurance d’une enchère et donc d’un gain immédiat pour Google. Il s’agit pour Google de vous ramener le plus souvent possible dans le domaine de la langue qu’il exploite.

De l’économie de l’attention à l’économie de l’expression

En première approximation, nous voyons déjà comment les technologies du capitalisme linguistique poussent à la régularisation de la langue, étendant continuellement le domaine de la langue statiquement régulière et commercialement exploitable. Plus nous ferons appel aux prothèses linguistiques, laissant les algorithmes corriger et prolonger nos propos, plus cette régularisation sera efficace. Dans les dernières années, Google a multiplié la diversité de ces prothèses. Nous nous exprimons chaque jour un peu plus au travers d’une des interfaces de Google ; pas simplement lorsque nous faisons une recherche, mais aussi quand nous écrivons un courrier électronique avec GMail, un article avec Google Docs, nous signalons une information sur le réseau social Google+ et même oralement, à travers les interfaces de reconnaissance vocale que Google intègre à ses applications mobiles.

Avec le capitalisme linguistique, nous quittons une économie de l’attention pour entrer dans une économie de l’expression. L’enjeu n’est plus tant de capter les regards, que d’être un médiateur de la parole et l’écrit. Les gagnants seront ceux qui auront pu développer des relations linguistiques intimes et durables avec un grand nombre d’utilisateurs, pour modéliser et infléchir la langue, créer un marché linguistique contrôlé et organiser la spéculation sur les mots.

En étendant le domaine commercial de la langue au-delà du traditionnel domaine des noms de marques, le capitalisme linguistique est susceptible de provoquer des évolutions linguistiques complexes. Ces effets vont au-delà de régularisations statistiques induites par les nouvelles prothèses linguistiques.

Le “Flash Crash” du 6 mai 2010 a fait prendre conscience de l’omniprésence des algorithmes dans la finance. En quelques minutes le Dow Jones a plongé de 1000 points pour se ressaisir presque aussitôt. Après presque deux ans d’enquête sur ce mini-Krach, la chaine automatique qui a conduit à ces effets est encore mal identifiée. Peut-être ne saura-t-on jamais ce qui s’est vraiment passé ? L’essentiel des transactions est aujourd’hui réalisé par des ordinateurs et le courtage à “haute fréquence”, où chaque microseconde compte, est devenu la norme. Le système complexe résultant de ces milliers d’algorithmes est aussi difficile à comprendre et à modéliser qu’un environnement météorologique.

Le capitalisme linguistique, nouvelle étape du capitalisme ?

La finance n’est pas un cas à part. Dès que les systèmes culturels proposent des fonctions précises à optimiser, les algorithmes deviennent des alternatives pertinentes à l’action humaine. Dès que le nombre d’actions décidées par des algorithmes devient significatif par rapport aux actions humaines, la forme des systèmes culturels change profondément. Comme dans le domaine capitalisme financier, les algorithmes sont devenus des acteurs majeurs du capitalisme linguistique.

Toute prothèse linguistique peut être utilisée par un “bot” plutôt qu’un humain. Il nous fait donc désormais distinguer deux types de ressources linguistiques : (a) les ressources primaires produites par des humains (conversations orales ou écrites, contenus de livres scannés, etc.) et (b) les ressources secondaires produites par des machines en général à partir des ressources primaires (traduction automatique, articles écrits par des algorithmes, spam).

Malheureusement, sans connaître l’origine d’une production, il n’est souvent pas aisé de distinguer entre ressources primaires ou secondaires. Un humain peut dans certains cas faire la différence, mais il est difficile de construire des algorithmes pour faire automatiquement cette distinction. Rappelons que les acteurs du capitalisme linguistique doivent modéliser la langue le plus parfaitement possible. C’est leur capital. Google voit donc les ressources secondaires comme un danger, une pollution pour ses modèles.

Faites l’expérience : prenez une phrase en Français, traduisez-la automatiquement en Anglais par un algorithme, puis en Espagnol, puis de nouveau en Français. Le résultat sera certainement très différent de l’original. Même dans les cas où les algorithmes évitent les erreurs grossières de traductions, ils infléchissent la syntaxe pour proposer des phrases certes compréhensibles, mais qu’aucun humain n’aurait jamais formulées de cette manière.

Nos langues sont désormais optimisées par et pour les machines

Rappelons qu’un nombre croissant de textes sont maintenant directement produits par des machines. Un lecteur averti peut souvent détecter la mécanique sous-jacente et deviner parfois que ces textes ne sont pas écrits par des humains. Leur composition syntaxique et surtout leur positionnement pragmatique sonnent le plus souvent faux, reflétant les biais de l’algorithme qui les compose. Néanmoins, ces textes sont optimisés pour l’univers linguistique qu’ils investissent. Le même contenu peut donner lieu à différentes formes : articles longs ou courts, chroniques sportives, tweets, message vocal. Il peut être exprimé en optimisant son efficacité pour les moteurs de recherche (SEO) : choix de mots particuliers, de tournures statistiques optimales. Comme en finance, les algorithmes sont sans doute meilleurs que les hommes pour produire des stratégies optimales dans le milieu économique du capitalisme linguistique.

Les algorithmes qui archivent inlassablement le web ne font pas facilement la différence entre ces ressources linguistiques dégradées et les ressources primaires. Au fur et à mesure que la quantité de ressources secondaires devient significative par rapport aux ressources primaires, les modèles statistiques peuvent se modifier pour intégrer le vocabulaire, les formulations et les tournures des algorithmes. Par une rétroaction qui ne manque pas d’ironie, ce sont ces tournures qui risquent de nous être proposées sous la forme de suggestions ou de corrections.

Pour lutter contre cette “pollution” croissante, Google a modifié en 2011 son service Google Translate. Comme l’explique Kirti Vashee dans un billet très complet sur cette question, Google a remplacé son service créateur de ressources secondaires en un service de traduction “on demand” qui garde toujours le texte original de la traduction, pour s’en servir pour la recherche et pour potentiellement améliorer progressivement la traduction proposée au fur et à mesure que les algorithmes de traduction progressent.

Cela ne suffira pas. Il faut maintenant compter avec l’écriture des machines et tous les hybrides de ce nouvel ordre linguistique. Rappelons que sur les 30 meilleurs éditeurs de Wikipedia, les 2/3 sont des bots (voir la passionnante discussion de Stuart Geiger sur ces questions – “The Lives of Bots” in Wikipedia : A Critical Point of View. 2011 [.pdf]). D’ici deux ans, une proportion significative des messages sur les réseaux sociaux seront peut-être produits par des bots (voir de dossier“Socialbots : Voices for the Fronts” par Hwang, Pearce et Nanis dans le numéro de mars 2012 d’Interactions).

Ainsi, textes humains et algorithmiques se mêlent pour proposer une nouvelle forme d’écriture. Et c’est cette nouvelle écriture que d’autres algorithmes analysent pour ensuite structurer nos propres productions linguistiques. Avec le capitalisme linguistique, la langue elle-même se transforme pour intégrer les biais linguistiques des machines et les contraintes de l’économie linguistique planétaire. Nous assistons peut-être une nouvelle phase de “grammatisation” de la langue, une nouvelle rétroaction de la technologie et de l’économie sur la langue naturelle. Dans un temps intermédiaire apparait quelque chose comme une lingua franca, un pidgin ou un créole, dont la syntaxe et le vocabulaire sont liés aux capacités linguistiques des machines et aux valeurs marchandes des mots. Il nous faut maintenant porter toute notre attention sur cette nouvelle “créolisation”.

Si notre langue se transforme, si nos enfants lisent un nombre croissant de textes coécrits par des rédacteurs humains et algorithmiques, comment, à leur tour, écriront-ils, parleront-ils, penseront-ils ?



Une autre algorithmie de la découverte

mars 21, 2012

La Fondation Cartier organise ce jeudi 22 mars à 19h, une discussion Google Hang-Out sur curiosité et les algorithmes avec 5 ingénieurs de Google, Pierre-Yves Oudeyer et moi-même. 

L’exposition de la Fondation Cartier « Mathématiques, un dépaysement soudain » ferme ses portes cette semaine à Paris. Laurent Bolli et moi-même avons collaboré sur plusieurs projets de l’exposition :

– Le projet, finalement non retenu sous cette forme de la bibliothèque de Gromov (voir mon précédent bille « Replier les textes comme des proteines« )

– Le projet de Takeshi Kitano et David Lynch : La réponse est 2011 (voir également un autre billet sur ce sujet et sur la solution inventée par Quentin Bonnard, un des mes doctorants)

– L’application iPad de l’exposition basée sur le principe mathématique de la curiosité exploré par Pierre-Yves Oudeyer et moi-même il y a quelques années.

Je n’avais pas pris le temps à l’époque d’expliquer le principe original de ce dernier projet.


Cercle de pertinence, cercle de curiosité

L’application présente plusieurs centaines de documents provenant de l’exposition mais aussi des archives de la Fondation Cartier (Contenus sonores, Biographies, Vidéos, Concepts, Images, Evènements). Chaque document est associé à un vecteur N de k paramètres codant un identifiant, son type et des indications sur son contenu. L’espace des documents peut donc être considéré comme un espace de dimension k, relativement grand. L’utilisateur va naviguer dans cet espace grâce à deux algorithmes.

L’interface de l’application est organisée sous la forme de deux cercles concentriques. Le premier cercle de « pertinence » présente les transitions statistiquement les plus communes entre le noeud central N(t) et les autres noeuds de le l’application étant donné le chemin S(t) = Sn(t) = ((N(t), N(t-1)…. N (t-n)) récemment parcouru par l’utilisateur. Le système tente donc de prédire quel sera le prochain noeud à visiter en fonction du parcours des autres utilisateur.  Il s’agit donc d’un système de recommandations assez classique basé la maximisation de la prédiction.  A partir de l’analyse de l’ensemble des chemins des utilisateurs, l’algorithme propose les chemins qu’il a observés comme étant les plus choisis. A chaque choix d’un noeud par l’utilisateur il améliore également son modèle de transition (distribution statistique des transitions à partir d’un chemin donné). Tous les parcours des utilisateurs contribuent donc à affiner ce modèle central.

Le second cercle de « curiosité », l’algorithme propose des noeuds basés sur une adaptation des algorithmes de découverte que nous avons développés Pierre-Yves Oudeyer et moi-même il y a presque dix ans (voir les pages que Pierre-Yves Oudeyer proposent sur ce sujet, un peu plus à jour que les miennes).  Ces algorithmes apprennent un peu comme des enfants (un projet que Turing formulait déjà clairement dans les années 1950s). Ils ne tentent pas de faire des choix en fonction de critères extérieurs (ex: proposer la réponse la plus pertinente pour un utilisateur) mais pour optimiser leur propre apprentissage. A tout moment, ils se posent la question : que dois-je maintenant faire pour un apprendre le plus possible sur l’espace que j’explore ?.

Il est probable que ce soit ce même type de motivation intrinsèque qui pousse par exemple un jeune enfant à jouer avec l’emballage d’un cadeau plutôt qu’avec le jouet qu’il contient. La promesse sensorimotrice de l’emballage étant plus alléchante que celle proposée par le jouet. Nous avons également montré comme ce principe permet de faire émerger des séquences développementale organisée chez un robot apprenant (voir notre article sur ce sujet mais également la video d’AIBO apprenant à marcher grâce à ce type d’exploration ou la salle de jeux pour robot qui nous avions développée avec des designers de l’ECAL pour explorer ce même principe.). A la Fondation Cartier, Pierre-Yves Oudeyer a présenté Ergo-robots, une installation robotique  mise en scène par David Lynch qui permet de découvrir comment se comportent un groupe de robots, motivé par le principe de curiosité.

Les algorithmes de curiosité donnent des effets impressionnants en robotique, mais leur utilité est bien plus large. Ce champ de recherche rejoint d’ailleurs d’autres domaines des statistiques développées en 1972 par Fedorov sous le terme « optimal experiment design » . Des chercheurs en Machine Learning comme Jurgen Schmidhuber ont, dès les années 1990s, commencé à théoriser la pertinence de ces algorithmes pour l’exploration de grands espaces de données. En une vingtaines d’années tout une famille d’algorithmes ont vu le jour, tous construits autour  d’une même intuition : les machines doivent choisir les meilleures actions pour optimiser leur propre apprentissage. 

Un algorithme dont l’apprentissage progresse optimallement

C’est un même principe que nous avons mis en oeuvre pour le second cercle de l’application iPad de la Fondation Cartier. L’algorithme essaie de comprendre la relation entre la présentation de certains documents et le fait qu’ils soient ou non consultés par l’utilisateur dans le contexte d’un chemin de découverte particulier. L’algorithme sait déjà que certains documents sont d’ordinairement choisis (cercle de pertinence) mais il est encore ignorant de la structure de la plus grande partie de l’espace qu’il doit explorer. N’ayant pas une infinité d’essais (puisque chaque essai demande l’intervention d’un utilisateur de l’application), il doit proposer des choix qui lui permettront de progresser optimallement dans son apprentissage.

Plus formellement, il s’agit d’optimiser I(S(t), A(t)),  l’intérêt d’effectuer l’action A(t) (le choix d’un noeud) dans l’état S(t). Cet intérêt peut être approximé par la dérivée de la qualité prédictive. Si la qualité d’une prédiction d’une transition vers un noeud (N+1) est en augmentation (le système est en train de perfectionner son modèle de transition vers noeud à partir du chemin S(t)), ce noeud aura un bon score d’Intérêt).

A chaque interaction l’algorithme propose ainsi dans le cercle de curiosité 14 contenus dont l’intérêt en terme d’apprentissage est optimal. Comme de nouveaux contenus peuvent être rajoutés à l’application, nous avons également introduit un biais pour les noeuds dont l’algorithme sait très peu de chose.  Ceci aura pour effet d’introduire plus souvent dans le cercle de curiosité, les nouveaux noeuds de manière à tester rapidement leur pertinence et leur intérêt.

Jeudi 22 mars à 19h, lors d’un Hang-Out Google+ sur la page de la Fondation Cartier, nous discuterons de toutes ces questions avec cinq ingénieurs de chez GoogleMehyrar Mohri (publications), David Singleton (blog), Aaron Shon (Bayesian cognitive models for imitation), Rich Washington (homepage), Radu – Eosif Mihailescu (blog). Une retransmission simultanée entre Dublin, Zurich, Lausanne, Paris, Bordeaux et les Etats-Unis…


La pollution des ressources linguistiques

mars 18, 2012

En préparation d’un exposé sur le capitalisme linguistique que je donnerai à l’ENSCI le 29 mars, j’explore dans ce billet un aspect important de ce nouvel ordre linguistique où se mélangent les écrits humains et les textes des algorithmes. 

Les nouveaux acteurs du capitalisme linguistique ont besoin d’accéder à des ressources de qualité pour chacun des marchés linguistiques qu’ils visent. Or dans il nous faut distinguer au moins deux types de ressources linguistiques: (a) les ressources primaires produites par des humains (conversations orales ou écrites, contenus de livres scannés, etc.) et (b) les ressources secondaires produites par des machines en général à partir des ressources primaires (traduction automatique, article écrit par des algorithmes, spam). Malheureusement, sans connaître l’origine d’une production, il n’est souvent pas aisé de distinguer entre ressources primaires ou secondaires. Un humain peut dans certains cas faire la différence, mais il est difficile de construire des algorithmes  pour faire automatiquement cette distinction.

Les acteurs du capitalisme linguistique doivent modéliser la langue le plus parfaitement possible. Un acteur comme Google en proposant de multiple interfaces d’expression (Gmail, Google docs, Google +, Service de reconnaissance vocale) et de puissant outils d’accumulation linguistique (Google books, Youtube) a développé un observatoire unique pour construire des modèles statistiques précis de nombreuses langues vivantes. Grâce à ces modèles il peut proposer des outils de correction ou de complétion automatique et lisser la langue pour la faire revenir dans le domaine commercial.(un mot ou une phrase incorrecte ne valent rien car aucune enchère ne peuvent être organisée à leur propos)

Les ressources secondaires sont un danger, une pollution pour ces modèles. Prenons le cas d’un article écrite anglais traduit approximativement en français par un service de traduction. L’article est encore lisible pour un humain qui peut ainsi avoir ainsi une idée de son contenu s’il n’est pas anglophone mais il ne constitue en aucun cas un exemple valide d’une production linguistique en français. Pourtant, dans certains cas, cet article sera la base d’une seconde traduction automatique, par exemple en chinois. A chaque étape sa qualité linguistique se dégrade, pour refléter toujours plus les caractéristiques et les biais de l’algorithme de traduction.

A côté des algorithmes de traductions automatiques, un nombre croissant de textes sont maintenant directement produits par des machines. Ces algorithmes produisent à partir de données structurées des formes narratives variées : Articles longs ou courts, chroniques sportives, tweets. A nouveau, un lecteur averti peut souvent detecter la mécanique sous-jacente et deviner parfois que ces textes ne sont pas écrits par des humains. Leur composition syntaxique et surtout leur positionnement pragmatique sonnent parfois faux, reflétant les biais de l’algorithme qui les compose.

Malheureusement les robots de Google qui archivent inlassablement le web ne font pas la différence entre ces ressources linguistiques dégradées et les ressources primaires. Au fur et à mesure que la quantité de ressources secondaires devient significative par rapport aux ressources primaires, le modèles statistiques peut se modifier pour intégrer le vocabulaire, les formulations et les tournures des algorithmes. Par une retroaction que ne manque pas d’ironie, ce sont ces tournures qui risquent de nous être proposées sous la forme de suggestions ou de corrections. 

Kirti Vashee analyse que c’est essentiellement pour cette raison que Google a décidé de fermer son service de traduction automatique en 2011. En proposant des traductions approximatives qui venaient grossir le rang des ressources linguistiques secondaires, Google polluait sa ressource vitale (« polluting its own drinking water ») en particulier pour des marchés linguistiques où ses modèles n’était peut-être pas encore aussi bons que pour l’Anglais. Rappelons que Google n’est pas dominant partout. En Russie, en Chine, au Japon et en Corée il doit faire face à une concurrence importante respectivement de Yandex, Baidu, Yahoo et NHN. Pour gagner ces marchés, il est contraint d’offrir une qualité de service irréprochable (c’est cette stratégie qui lui a permis à l’époque de battre ces concurrents sur les marchés anglo-saxons et européens)

Google a remplacé son service créateur de ressources secondaires en un service de traduction « on demand » qui garde toujours le texte original de la traduction, pour s’en servir pour la recherche et pour potentiellement améliorer progressivement la traduction proposée au fur et à mesure que les algorithmes de traduction progressent. La modification de ce service de traduction était une opération risquée pour Google dans la mesure où il était utilisé par un très grand nombre d’autres services.En agissant ainsi, Google prend le risque de perdre la confiance des développeurs qui utilise ses API, rappelant qu’à tout moment , la compagnie peut décider de changer les règles du jeu. Si Google a fait ce choix c’est que la question de la pollution des ressources linguistiques est un enjeu majeur pour son modèle commercial.

Mais transformer son service de traduction automatique ne suffira pas à stopper les autres services produisant des textes encores plus dégradés, ni à freiner le développement des textes produits par des algorithmes. Il faut maintenant compter avec l’écriture des machines et tous les hybrides de ce nouvel ordre linguistique. Comme l’explique bien Stuart Geiger, un article de Wikipedia n’est pas que le travail collectif d’un groupe de redacteurs mais également le resultat des productions de bots qui effectuent des travaux syntaxiques spécifiques et des opérations sémantiques systématiques.  Textes humains et machiniques se mélent pour proposer une nouvelle forme d’écriture. Et c’est cette nouvelle écriture que les robots de Google analysent pour ensuite structurer nos propres écrits.


Suivre

Recevez les nouvelles publications par mail.

Rejoignez 224 autres abonnés