Eusèbe de Césarée, inventeur de l’Histoire en deux dimensions

juin 22, 2012

Je présentais dans le précédent billet le remarquable travail de Daniel Rosenberg sur les cartographies du temps. Il est également l’auteur d’une étonnante « Timeline of Timelines » publiée dans la revue Cabinet au printemps 2004. Cette timeline montre avec éloquence la lente et complexe construction des représentations graphiques du Temps et de l’Histoire. Elle nous invite à nous interroger sur la manière dont on pouvait se représenter le passé, le présent et le futur selon les époques. Un préalable nécessaire à toute interprétation.

Chacune des entrées de cette chronologie de chronologies mériterait une étude à elle seule. Dans cette morphogénèse progressive de l’espace historique, Les Chroniques d’Eusèbe de Césarée (~325) sont comme un point zéro. Il y avait certes de grands chronologues avant Eusebe, mais ils se contentaient de penser l’Histoire en une dimension. Eusebe est, semble-t-il, le premier à proposer un système de tables pour faire correspondre des évènements venant de traditions historiographiques diverses. Eusèbe compose en quelque sorte une pierre de rosette, permettant de traduire différentes traditions historiographiques et ainsi, il est le premier à tenter d’esquisser le début d’une histoire universelle en deux dimensions.

Eusèbe découvre aussi le pouvoir de la table comme technologie intellectuelle (dans le sens que Pascal Robert donne à ce terme) capable de révolutionner l’Histoire. Lignes et colonnes composent un espace structuré où le passage du Temps peut être appréhendé simultanément pour plusieurs civilisations. L’histoire des Babylionniens et l’histoire des Hébreux par exemple s’inscrivent ainsi pour la première fois dans un référentiel commun.  Mieux, les Chroniques mettent déjà en lumière des connexions géostratégiques, comme l’importance de l’Empire romain pour la diffusion de la foi chrétienne, le lien entre le développement des idées et celui des routes.

Les Chroniques seront reprises et complétées au fil des siècles. Elles serviront longtemps de canon chronologique. L’imprimerie contribuera encore à diffuser cette invention et renforcer le modèle de la table comme ossature de toute chronologie.

Canons d'Eusèbe de Césarée 1659

Canons d’Eusèbe de Césarée
1659

Avant Eusèbe, le temps était linéaire ou cyclique. C’était toujours une route dont ne peut pas vraiment s’éloigner. En plaçant les chronologies en deux dimensions, Eusebe étend implicitement l’espace des possibles.

Les représentations graphiques du temps caractéristiques d’une époque donnée fixent la géométrie de nos modes en pensées. Certaines choses ne sont tout simplement pas pensables si nous ne les avons jamais vues sous un certain angle. Interviewé lors de la parution du livre Cartographies of Times, Anthony Grafton argumente qu’au XVIIIe siècle c’est l’innovation graphique d’un chronographe comme Joseph Priestley qui permettra à Buffon de penser le temps long biologique et géologique (« Deep Time »).

Chart of History

Gardons donc à l’esprit que nos pensées sont intrinsèquement limitées par les représentations graphiques du Temps de notre époque ou qu’inversement elles seront peut-être demain libérées par des représentations visuelles synthétiques absolument inédites.

—-

Notes de bas de page

La page Wikipedia (consultation 24 juin 2012) sur le thème de la chronique universelle, donne des informations érudites et intéressantes sur la structure de l’oeuvre d’Eusèbe de Césarée.

(…) Eusèbe de Césarée (…) est resté comme le véritable père du genre chrétien de la Chronique universelle. Son œuvre en la matière, intitulée Histoire générale (Παντοδαπή ίστορία) se divisait en deux parties : dans la première, appelée Χρονογραφία, l’auteur s’efforçait d’établir, pour chaque peuple, la succession chronologique des grands événements de son histoire jusqu’à l’année 325 (date du Ier concile de Nicée) ; dans la seconde, intitulée Règle du calcul des temps (Κανών χρονικός), il s’agissait de dégager de ces diverses séries de faits, dans des colonnes parallèles, le synchronisme qui était l’objet ultime de l’ouvrage. La version originale grecque de l’ensemble de l’œuvre a été perdue comme telle, mais de très larges extraits de la Χρονογραφία se retrouvent en fait dans les chroniques byzantines postérieures, spécialement dans celle de Georges le Syncelle. Cependant, les deux parties ont été conservées, bien qu’avec des lacunes, dans une traduction arménienne retrouvée par hasard en 17825 et révélée en Occident en 1818 par deux publications bilingues arménien-latin concurrentes6 ; c’est cette traduction qui permit d’ailleurs de repérer les parties des chroniques byzantines qui étaient empruntées à Eusèbe. Deux résumés (epitomae) de l’œuvre en syriaque ont également été retrouvés au xixe siècle.

C’est seulement la deuxième partie, le Canon, qui a été connue traditionnellement en Occident dans la traduction latine de saint Jérôme(Chronicum ad annum Abrahae), où la chronologie est d’ailleurs prolongée jusqu’à l’avènement de Théodose Ier en 379.

La page précise également la structure de la Χρονογραφία

La Χρονογραφία est divisée en cinq parties : l’histoire des Babyloniens et des Assyriens, suivie de listes des rois d’Assyrie, de Médie, deLydie et de Perse ; puis l’histoire de l’Ancien Testament ; puis l’histoire de l’Égypte ; puis l’histoire grecque ; puis l’histoire romaine. Le texte est constitué pour partie de citations d’historiens antiques, dont souvent les œuvres ont été perdues (par exemple les Persica de Ctésias ou lesBabyloniaca de Bérose). Les récits babyloniens de la Création et du Déluge, par exemple, se trouvent chez Eusèbe, qui a dû les emprunter directement ou indirectement à Bérose.

Et celle du  Κανών  χρονικός

Quant au Canon, il s’agit donc d’une série de tables chronologiques avec de courtes notices historiques. Le point de départ est la date supposée de la naissance d’Abraham, et c’est à partir de là que tout le reste est daté et synchronisé. Auprès des « années d’Abraham » sont placées les années de règne (début et fin) des souverains de différents royaumes. Voici un passage du Canon tel qu’il apparaît dans le manuscrit de la bibliothèque bodléienne de la traduction latine de saint Jérôme :

      LXXVIII Olymp. Herodotus historiarum
                     scriptor agnoscitur
      XVIII      Bacchylides et Diag-
                           rus atheus      XXXVI
             sermone plurimo cele-
                             brantur
     MDL. XVIIII   Zeuxis pictor agnosci-
                              ur, etc.    XXXVII

Les « années d'Abraham » sont données par décennies (ici, MDL représente la 1550e année après la naissance d'Abraham). Nous sommes donc dans la 78eolympiade ; XVIII et XVIIII (18 et 19) sont les années de règne de Xerxès Ier, roi des Perses, XXXVI et XXXVII (36 et 37) celles d'Alexandre Ier, roi de Macédoine. Les événements-repères correspondants sont donc donnés sur la même ligne.

Les chronologies données par le Chronicum de saint Jérôme et par la version arménienne sont divergentes notamment dans les listes épiscopales : il a été montré que cette différence était due à une mauvaise transmission dans le document arménien7. En tout cas, le Κανώνd'Eusèbe constitue le plus grand travail chronologique de toute l'Antiquité, et c'est l'un des fondements sur lesquels repose encore notre connaissance des dates pour une notable partie de l'histoire antique8.

J'imagine de jolis projets à faire en digital humanities sur ces sujets. D'abord tracer l'arbre génétique le plus complet possible de tous les descendants des Chroniques, avec leurs modifications et ajouts successifs. Placer évidemment cette évolution du contenu dans une perspective à la fois temporelle et spatiale. Voir comment, dans le temps et l'espace, la représentation régulée inventée par Eusèbe se diffuse et se perfectionne.

Symétriquement, il serait magnifique de tenter de reconstituer visuellement à partir de ces textes la structure du passé associé à chaque instance de ces chroniques. Il s'agirait en quelque sorte d'observer visuellement la morphogénèse de l'Histoire dans le temps et l'espace ainsi que les processus de convergence et de divergence associés.


				

Les cartographies du temps

juin 19, 2012

Quand la plupart des cartographes représentent l’espace, certains tentent aussi de saisir le temps. Comment saisir en deux dimensions, l’émergence et la chute des empires, les grands évènements culturels, le temps long géologique et les fluctuations du pouvoir dans le monde contemporain ? Daniel Rosenberg et Anthony Grafton ont publié il y a deux ans un des rares livres sur le sujet intitulé "Cartographies of Time". Pour ceux qui veulent découvrir la richesse encore assez méconnue de ces représentations chronospatiales, l’extraordinaire collection de 32 000 cartes rassemblées par David Rumsey (et accessibles en ligne) compte au moins une centaine de cartes chronologiques produites entre 1770 et 1967. Retour sur quelques exemples remarquables identifiés dans un billet de David Rumsey.

La Synchronological Chart of Universal History (Sebastien Adams, 1881) est une chronologie de 7 metres couvrant 5885 ans (4004 av. J.-C. — 1881 ).

Le Tableau de L’Histoire Universelle de la création jusqu’à nos jours (Eugene Pick,1858) est présenté en deux tableaux (un pour l’hémisphère est et l’autre pour l’hémisphère ouest). Cette chronologie est basée sur l’ouvrage de 1804 de Friedrich Stass d’Autriche, Strom der Zeiten (Steam of Time).

En 1931, John B.Spark’s publie "The Histomap. Four Thousand Years of World History". La carte représente l’évolution relative du pouvoir entre les différents états, nations et empires.

Enfin, la Succession of Life and Geological Time Table (Herbert Bayer, 1953) tente d’unifier sur une seule représentation la succession des temps géologiques et biologiques.

David Rumsey présente ainsi des dizaines d’autres cartes, plus fascinantes les unes que les autres. Il me semble que, plus que jamais, ces cartes sont des sources d’inspiration fécondes pour tenter d’appréhender l’exposition spatiotemporelle qui caractérise notre époque. Nous devons inventer de nouvelle représentations du temps et de l’espace pour essayer d’embrasser l’histoire du monde dans sa globalité. Les archives sont de plus en plus nombreuses à être digitalisées. Pour la première fois, nous allons avoir accès à un océan de données que nous allons pouvoir croiser les unes avec les autres. Pour autant, serons-nous capables de reproduire des représentations aussi synthétiques que ces chefs-d’oeuvre des deux siècles passés ? Comment saurons-nous représenter l’incertitude intrinsèque qui caractérise ces sources historiques ? Faudrait-il inventer des manières de visualiser l’Histoire non pas comme une narration cohérente, mais plutôt comme un faisceau de probabilités ? Des défis passionnants pour les digital humanities.

Sur ces mêmes sujets voir également :

L’enregistrement audio Book Talk and Release Party: Cartographies of Time par Daniel Rosenberg and Anthony Grafton

Timeline of Timelines par Sasha Archibald and Daniel Rosenberg (Issue 13 Futures Spring 2004)

Une autre Timeline of timelines par infovis.info

Time after Time un billet de BibliOdyssey

Timeline Visualizations: A Brief and Incomplete Teleological History par Whitney Anne Trettien

Timelines and Visual Histories by Michael Friendly


Le premier browser a failli être un livre électronique

juin 8, 2012

Deux représentations régulées, le livre et l’encyclopédie se livrent une guerre sans précédent depuis près de 500 ans. Retour sur un de ces épisodes "où l’histoire peut basculer" relaté par Tim Berners-Lee dans Weaving the web

En septembre 1990, Robert Caillaud et Tim Berners-Lee se rendent à l’European Conference on Hypertext Technology à Versailles pour présenter le projet du World Wide Web élaboré quelques mois plus tôt au CERN. Ils cherchent une technologie qui pourrait jouer le rôle de navigateur pour du contenu hypertexte. Plusieurs produits présentés pourraient tout à fait faire l’affaire. Owl Ltd commercialise un produit appelé Guide qui permet de consulter des documents organisés sous la forme d’un hypertexte. C’est exactement ce que cherche Tim et Robert. Mais les dirigeants de Owl ne sont pas intéressés. Ils ne voient pas l’intérêt de connecter leur système à l’Internet.

Tim Berners-Lee a lors une autre idée : utiliser la technologie Dynatext développée par Electronic Book Technology. Cette entreprise avait été fondée par Andy Van Dam de la Brown University, un des premiers chercheurs à avoir utilisé le terme electronic book. Mais l’équipe d’Electronic Book Technology pensait que le contenu d’un livre devait être compilé (comme un programme informatique) et ne pouvait pas être interprété à la volée. Le livre était un contenu fermé et clos. Ils ne prenaient pas au sérieux Tim Berners-Lee quand il suggérait que des pages pourraient être envoyées directement via le web et affichées immédiatement sur un écran d’ordinateur. Ils pensaient également qu’il était crucial qu’une base de données centrale assure qu’aucun lien hypertexte ne soit cassé. Leur vision du futur consistait en la transmission de contenus consistent, des livres entiers.

Tim lui imaginait un chantier permanent, un monde en constante évolution : Le livre contre l’encyclopédie.

Et c’est ainsi que, contraint et forcé, Tim Berners-Lee commença à travailler sur un autre navigateur.


La construction collective des métadonnées en bibliothèque

avril 28, 2012

Nous avons organisé ce jeudi, avec Alain Jacquesson et Silvère Mercier (blog), une formation pour les bibliothécaires (comme l’an dernier) au Salon du Livre de Genève.  Alain Jacquesson a fait un point complet et critique sur les ressources numériques disponibles aujourd’hui pour les bibliothèques et les centres de documentation en ce qui concerne les revues (NewJour, DOAJ, Seals, Revues.org, CAIRN) et les monographies (Projet Gutenberg, Gallica, Rero.doc, Google Livre, Internet Archive, Hathi Trust). Il a également fait le point sur les nouveaux services de prets (Overdrive, Amazon). Silvère Mercier a proposé un atelier sur les stratégies des médiations numériques en faisant découvrir par la pratique les outils pour proposer du contenu éditorial sous la forme  de « dispositifs ponctuels » (storify, mindmeister, Libraything, scoop.it, Google maps, Dailymontion, Pearltrees, Markup.io, Prezi, etc.) à insérer dans des « dispositifs de flux » (Blog, twitter, profil Facebook, etc.). J’ai pour ma part proposé d’explorer la manière dont on pouvait développer en bibliothèque la lecture sociale et la production collective de métadonnées, une direction encore relativement peu explorée. Le billet ci-dessous reprend en partie mon argumentaire. 

 

 

La bibliothèque est une interface physique 

Une bibliothèque est toujours un volume organisé en deux sous-espaces : une partie publique (front-end) avec laquelle les usages peuvent interagir, une partie cachée (back-end) utilisée pour la logistique et le stockage.  A la Bibliothèque Nationale de France, c’est un système robotisé qui fait la jonction entre les espaces immenses et sous-terrains ouverts au public et les quatre tours qui stockent les livres. L’architecte Dominique Perrault a imaginé une vertigineuse bibliothèque-machine où la circulation des hommes a été pensée symétriquement à la circulation des livres.

Alain Galey discute dans « The Human Presence of Digital Artefacts » la vue séctionnée de la New York Public Library telle quelle apparait sur la couverture du Scientific American le 27 Mai 1911. La bibliothèque est ici sans ambiguïté présentée comme interface physique mettant en contact des lecteurs avec des collections de livres archivés. Au sommet les bibliothécaires gèrent les requêtes et le catalogue et utilisent un système de tubes pneumatiques pour commander les livres stockés dans les étages inférieurs. Les livres, une fois localisés, remontent vers par des mini-ascenseurs.  Presque un siècle avant la bibliothèque Francois Mitterand, la NY Public Library est présentée commune une bibliothèque-machine, préfigurant le rêve de l’open-access des digital humanities.

Dans d’autres grandes bibliothèques et surtout dans tous les centres de documentations de taille beaucoup plus modeste, c’est encore aujourd’hui une logisitique humaine plus ou moins complexe qui organisent les circulations de livres entre le front-end et le back-end. Dans un article du dernier numéro de ligne en ligne, Véronique Poirier décrivait avec poésie l’articulation de ces deux espaces à la BPI.

Tous les matins et chaque mardi, la bibliothèque est fermée au public. Elle se transforme alors en une vaste ruche où se croisent les chariots bleus, rouges, jaunes, verts. Des livres quittent les étagères, d’autres les remplacent. L’espace étant limité, une volumétrie stable (près de 390 000 livres), doit être maintenu grâce à une gestion rigoureuse de l’équilibre entre le nombre d’ouvrages acquis et le nombre de « désherbés ».

Ce souci d’équilibre et de sélection, éléments clés dans la gestion de toutes les bibliothèques et centre de documentation, grand ou petit,  est aussi une des problématiques centrales des interfaces. Celui qui conçoit un site web ou une application iPad se demande également comment organiser au mieux l’espace de navigation et les cheminements des utilisateurs, comment articuler l’expérience « front-end » avec la logistique et le stockage back-end. Mais quand le créateur d’applications doit composer avec une surface de quelques centimètres carrés, le bibliothécaire dispose lui souvent d’un volume articulable en rayonnage, en espace d’échanges, en zones de travail spécialisées.

Durant les dernières années, nous avons vu apparaître de grandes bibliothèques construites selon un autre type d’organisation. Le Rolex Learning Center au sein duquel j’ai la chance d’avoir mon bureau, est organisé selon une logique tout autre et selon un plan qui optimise plus les échanges et les activités autour du livre, que l’accès aux livres eux-mêmes. Cette nouvelle tendance peut-elle servir de modèle directeur pour des bibliothèques de taille plus modeste ?

La tentation de la virtualité 

Avec l’arrivée du numérique, Il est tentant pour la bibliothèque de nier sa dimension physique, de ne devenir qu’une machine à information aux front-ends démultipliés, accessibles par toutes sortes de terminaux et aux back-end entièrement informatisés. On se souvient que Jacques Attali, alors conseiller de Francois Mitterand, avait en son temps critiqué le projet architecturale la bibliothèque-machine de la BNF pour lui opposer l’urgente nécessité d’une BNF directement numérique et algorithmique, accessible de partout et qui serait le meilleur outil possible pour la diffusion de la culture française à travers le monde.

Mais sur ce point, les questions stratégiques et patrimoniales des grandes bibliothèques ne rejoignent pas les questions locales pour nombre de modestes centres de documentation. Les bibliothèques n’ont aujourd’hui que des droits très encadrés pour l’exploitation digitale des livres qu’elles proposent en lecture ou en prêt. Impossible pour elles de construire de nouveaux services en exploitant directement des nouveaux circuits commerciaux de livre numérique « grand public » dans la mesure où la législation leur interdit la diffusion de contenus obtenus « sous le régime réservé à l’acquisition personnelle » (rappelons que les bibliothèques achètent plus cher les livres et les DVDs précisément pour pouvoir les exploiter dans le cadre particulier des services qu’elles proposent). Dans ces conditions, il est peu étonnant que ce soit en ordre dispersé et expérimentant parfois dans les zones grises qui entourent ces nouveaux usages, qu’elles essaient aujourd’hui de proposer certaines offres de prêt numérique complémentaire à leurs services traditionnels.

Dans billet écrit suite à un différent avec une bibliothécaire de Martigues, François Bon rappelait les deux manières de lire du numérique en bibliothèque

a. La bibliothèque acquiert le droit de diffusion un certain nombre de titres à un tarif défini par l’« interprofession » et les diffuse avec des DRM chronodégrable (la lecture n’est autorisée que pendant un certain temps).  En France, c’est la solution adoptée par Numilog basé sur Adobe Digital Reader et un logiciel de lecture particulier type Bluefire par exemple).

b. La bibliothèque acquiert le droit de diffuser en streaming certains contenus à des utilisateurs identifiés (via leur carte d’abonné par exemple). Plusieurs bibliothèques diffusent de cette manière les titres de publie.net

Ces nouvelles formes de prêt numérique sont un enjeu important et transverse sur dans le paysage de la lecture numérique. Il faut suivre avec attention les initiatives canadiennes dans ce domaine  au travers de la plateforme pretnumerique.ca (voir le billet de Clément Laberge) qui combine les usages de types a et b pour éviter que ce marché soit remporté par des fournisseurs externes. En effet, le risque est de voir la bibliothèque se faire l’intermédiaire de solution de prêt proposé par d’autres fournisseurs. La solution Overdrive est par exemple adoptée par un nombre semble-t-il croissant de bibliothèques aux USA. Ces questions sont donc en rapport direct avec la constitution des plateformes interprofessionnelles et de circuits de distribution indépendants des grands libraires digitaux que sont Google, Apple et Amazon.

Néanmoins, penser que l’avenir des bibliothèques se joue uniquement dans le succès ou l’échec de leur virtualisation et la constitution d’archives de contenus « empruntables » est peut-être un pari risqué. En ne portant son attention que sur l’indépendance des circuits de distribution et des services numériques, ne risque-t-on pas de passer à côté de ce qui pourrait être la vraie valeur des bibliothèques dans ce paysage de pratique de lecture en grande mutation ?

Pour Silvère Mercier, les bibliothèques peuvent se différencier en proposant de l’information de qualité, des services de questions-réponses et d’autres activités éditoriales. À côté des organes de presse, elles peuvent proposer une information et des services différents, ancrés dans leur rôle de service publique. C’est une piste riche et passionnante, déjà bien explorée par certaines initiatives locales.

Parmi ces services, il me semble qu’un dispositif particulier mériterait d’être développé de façon plus poussée : la construction et la curation collectives des métadonnées.

La bibliothèque comme lieu de production et de curation collective de métadonnées riches

Une bibliothèque n’est pas qu’une archive de contenus accessibles selon des règles de prêt particulières. C’est aussi et avant tout une interface physique de découverte. Je discutais dans un précédent billet de la pauvreté des interfaces proposées par les grandes libraires numériques. Deux types d’algorithmes statistiques sont utilisés en exploitant soit les corrélations d’achats ( “Ceux qui comme vous ont acheté ce livre ont aussi aimé celui-là”), soit les corrélations d’opinions (“Ceux qui ont aimé ce livre ont aussi aimé celui-là”). Les livres ne sont, dans ce jeu algorithmique, que de simples identifiants, des produits comme les autres.

Une des missions de la bibliothèque est d’organiser une rencontre physique différente entre des lecteurs et des livres. Le bibliothécaire est un match-maker. Il peut travailler à cette mission en utilisant aux mieux les trois atouts qu’il a sa disposition : un espace physique organisable, une équipe compétente et une communauté locale plus ou moins fidèle.

Beaucoup d’exemples tirant profit de ce triangle vertueux pourraient être envisagés, mais dans ce billet je ne développerai qu’une lignée de pratique qui semble pertinente (et relativement nouvelle). Les bibliothèques et les centres de documentations peuvent participer à l’organisation la production et la curation sociale de métadonnées riches.

La production et l’organisation métadonnées ont toujours été au coeur du travail du bibliothécaire. Elles constituent une de ces compétences premières. Plusieurs exemples récents ont montré que dans certaines conditions la production sociale de métadonnées riches était envisageable pour peu que les bonnes boucles d’engagements soient mises en place (voir mes billets Wikipedia est un jeu et Un monde où chaque ville est un livre). En détaillant par exemple des fiches de personnages, de lieux et d’objets, d’auteur sur les livres les plus empruntés et invitant les usages à faire de même, une bibliothèque peut mettre en place une communauté locale de pratique, une sorte de club de lecture qui travaille lui-même à un but plus vaste et organise ses contributions dans un réseau d’autres communautés locales.

Pour cela il faut bien sûr des outils communs et neutres.  Je n’ai pas de doute que des tels outils seront créés dans les prochains mois, car plusieurs dynamiques poussent dans ces directions

— Le développement des humanités digitales et la prise de conscience de leur importance géostratégique (voir mon billet sur cette question)   permettent de dégager d’important fonds de recherche académique dans ces nouvelles directions. Une des missions des humanités digitales est précisément de contribuer à la production d’outils communs et neutres permettant à des communautés de pratiques de s’organiser pour produire des métadonnées riches.

— La prise de conscience simultanée de l’importance historique des bibliothèques dans la constitution du capital linguistique et sémantique (voir mon billet « Le trésor de guerre de Google Books ») et de l’importance de ne pas laisser ce capital entièrement dans des mains privées. Les bibliothèques ne peuvent que dans des conditions particulières numériser et diffuser les livres qu’elles proposent, mais elles peuvent en extraire des informations linguistiques et sémantiques et les rendre accessibles gratuitement comme un bien commun. De la même manière qu’elles ont parfois contribué sans s’en rendre tout à fait compte à la constitution des nouveaux empires du capitalisme linguistique, elles peuvent aussi maintenant jouer un rôle moteur dans constitution d’immenses bases de données libres détaillant le contenu des livres, leurs relations mutuelles et permettant ainsi les bases d’outils de découverte sans précédent.

Une interface physique centrée sur la visualisation et la production de métadonnées

Plutôt que de construire une bibliothèque pensée comme une interface physique à la distribution de livres (le modèle de la bibliothèque machine que nous avons discuté au début de ce billet) nous pourrions envisager d’adapter certains espaces des bibliothèques aux activités de curation collective. Tout pourrait commencer par des visualisations intéressantes. La bibliothèque pourrait par exemple présenter un grand mur une carte des relations entre les auteurs d’un certain pays, la géographie des lieux d’une famille de romans policiers, l’arbre généalogique des personnes d’une saga, etc. Ces données visuelles, ces diagrammes et ces cartes seraient autant d’invitation à découvrir des livres et des auteurs nouveaux.

Dans une seconde étape, le bibliothécaire pourrait inviter les abonnés les plus motivés à participer à ces processus cartographiques. Notre expérience avec Bookworld nous a confirmé que visualisation et participation sont intimement liées. Voir un livre-ville complexe donne envie d’en construire un soi-même. La bibliothèque en mettant en scène et en valeur les productions de certains abonnés pour amorcer des pratiques locales, une forme de nouveaux clubs de lecture, où il ne s’agirait plus tant de critiquer les livres qu’on a lus, mais de travailler ensemble à leur cartographie.

Les métadonnées que les bibliothécaires produisent, structurent et organisent depuis les débuts des pratiques documentaires ont toujours été à la base de l’organisation physique des espaces que les bibliothèques proposent. Pourquoi ne pas continuer dans cette voie en élargissant les pratiques et les services à une communauté locale de lecteurs ?


La poésie des nouvelles écritures algorithmiques

avril 13, 2012

Stéphane Lecorney, qui gère la mise en service et le suivi des nos publications à bookapp.com  me signalait aujourd’hui la forte augmentation des commentaires créés par des bots ou des algorithmes de traduction automatique. L’occasion de voir concrètement les tournures étonnantes de l’écriture algorithmique que j’évoquais dans mon précédent billet

À propos de l’application Type & Walk  + Flashlight qui permet de taper des messages tout en marchant…

Un « utilisateur » nous dit enthousiaste :

« Intuitif à utiliser, des beaux résultats et à nouveau de bonne humeur. Merci qui a fait la! c’est vraiment cool et recommande. »

Un autre digital native, qui visiblement partage certaines bizarreries de langage avec le premier :

« Il m’aide introduire le texte horizontale et verticale, envoyer des messages SMS, envoyer d’e-mail, envoyer des messages sur Twitter et Facebook… assez amusant, je vous remercie! »

Un peu plus bas, un autre utilisateur affirme sans hésitation :

« Je pense donc que ce programme très transparent! »

Un autre s’embrouille dans les personnes (c’est vrai que c’est dur quand on est une machine)

« J’AIME cette demande et il a recommandé à plusieurs amis »

Etonnement, aucune critique négative…

Si la poésie consiste, comme l’argumentait Jean Cohen, à casser la langue pour faire ressortir un autre sens que le sens premier, les nouvelles écritures algorithmiques inaugurent de longues heures de lectures poétiques (que nous le souhaitions ou non).


Nos langues à l’heure du capitalisme linguistique

avril 12, 2012

Invité par Bernard Stiegler aux journées préparatoires des entretiens du nouveau monde industriel, j’ai proposé une extension de mes réflexions initiales sur le capitalisme linguistique et explorant la manière dont ce nouveau régime économique pouvait transformer la langue. La publication des slides a rapidement provoqué des réactions sur le réseau dont notamment un intéressant rebond par Olivier Ertzscheid. Sur la suggestion d’Hubert Guillaud, j’ai écrit l’article suivant pour Internet Actu

Faire de chaque mot une marchandise

Google a construit son succès puis sa richesse autour de deux algorithmes.
Le premier permet de classer les ressources du web. Le second organise des enchères sur des mots clés. La combinaison de ces deux idées a permis à Google d’organiser un formidable marché de la langue et de donner naissance à un nouveau régime économique : le capitalisme linguistique.

Rappelons les principes simples de ce second algorithme qui permet de fixer la valeur de chaque mot. Un annonceur fait une enchère sur un mot clé (par exemple “vacances”) en donnant le prix maximum qu’il serait prêt à payer pour un clic. Google donne un score de qualité à la publicité mesurant son efficacité. L’algorithme exact qui produit le score de qualité de la publicité reste secret et modifiable à loisir par Google. Le rang est déterminé par le produit de l’enchère et du score. En cas de clic, l’entreprise paie un prix basé sur l’enchère juste en dessous de sa propre enchère modulé par la qualité relative entre cette deuxième enchère et celle de l’entreprise.

Ce jeu d’enchères a lieu des millions de fois par seconde, à chaque requête d’un utilisateur. Si on considère qu’il constitue la principale source de revenus de Google, nous pouvons estimer qu’il génère un chiffre d’affaires d’environ 40 milliards par an. C’est cette énorme et continuelle source de financement qui permet à Google sa politique de recherche et développement ambitieuse, et notamment l’acquisition de grandes ressources linguistiques constituant un capital de plus en plus vaste. Un projet aussi incroyable que Google Books ne représente annuellement qu’une petite portion de ce chiffre d’affaires (1,5 % selon Alain Jacquesson dans son livre Google Livres et le futur des bibliothèques numériques).

Dans ces conditions, il est pertinent d’analyser les autres services que Google propose au travers de ce prisme. Quand vous tapez le mot “vacen”, le moteur de recherche vous propose en temps réel des complétions qui non seulement corrigent la faute que vous étiez sur le point de commettre, mais également prolongent ces premières lettres par une suite de mots statistiquement probable. En proposant ce service, Google ne fait pas que vous rendre service, il transforme un matériau sans valeur en une ressource économique directement rentable. Un mot mal orthographié est en fait sans valeur économique, car peu de personnes feront des enchères à son sujet, une suite de mots statistiquement probables et souvent recherchés constitue au contraire l’assurance d’une enchère et donc d’un gain immédiat pour Google. Il s’agit pour Google de vous ramener le plus souvent possible dans le domaine de la langue qu’il exploite.

De l’économie de l’attention à l’économie de l’expression

En première approximation, nous voyons déjà comment les technologies du capitalisme linguistique poussent à la régularisation de la langue, étendant continuellement le domaine de la langue statiquement régulière et commercialement exploitable. Plus nous ferons appel aux prothèses linguistiques, laissant les algorithmes corriger et prolonger nos propos, plus cette régularisation sera efficace. Dans les dernières années, Google a multiplié la diversité de ces prothèses. Nous nous exprimons chaque jour un peu plus au travers d’une des interfaces de Google ; pas simplement lorsque nous faisons une recherche, mais aussi quand nous écrivons un courrier électronique avec GMail, un article avec Google Docs, nous signalons une information sur le réseau social Google+ et même oralement, à travers les interfaces de reconnaissance vocale que Google intègre à ses applications mobiles.

Avec le capitalisme linguistique, nous quittons une économie de l’attention pour entrer dans une économie de l’expression. L’enjeu n’est plus tant de capter les regards, que d’être un médiateur de la parole et l’écrit. Les gagnants seront ceux qui auront pu développer des relations linguistiques intimes et durables avec un grand nombre d’utilisateurs, pour modéliser et infléchir la langue, créer un marché linguistique contrôlé et organiser la spéculation sur les mots.

En étendant le domaine commercial de la langue au-delà du traditionnel domaine des noms de marques, le capitalisme linguistique est susceptible de provoquer des évolutions linguistiques complexes. Ces effets vont au-delà de régularisations statistiques induites par les nouvelles prothèses linguistiques.

Le “Flash Crash” du 6 mai 2010 a fait prendre conscience de l’omniprésence des algorithmes dans la finance. En quelques minutes le Dow Jones a plongé de 1000 points pour se ressaisir presque aussitôt. Après presque deux ans d’enquête sur ce mini-Krach, la chaine automatique qui a conduit à ces effets est encore mal identifiée. Peut-être ne saura-t-on jamais ce qui s’est vraiment passé ? L’essentiel des transactions est aujourd’hui réalisé par des ordinateurs et le courtage à “haute fréquence”, où chaque microseconde compte, est devenu la norme. Le système complexe résultant de ces milliers d’algorithmes est aussi difficile à comprendre et à modéliser qu’un environnement météorologique.

Le capitalisme linguistique, nouvelle étape du capitalisme ?

La finance n’est pas un cas à part. Dès que les systèmes culturels proposent des fonctions précises à optimiser, les algorithmes deviennent des alternatives pertinentes à l’action humaine. Dès que le nombre d’actions décidées par des algorithmes devient significatif par rapport aux actions humaines, la forme des systèmes culturels change profondément. Comme dans le domaine capitalisme financier, les algorithmes sont devenus des acteurs majeurs du capitalisme linguistique.

Toute prothèse linguistique peut être utilisée par un “bot” plutôt qu’un humain. Il nous fait donc désormais distinguer deux types de ressources linguistiques : (a) les ressources primaires produites par des humains (conversations orales ou écrites, contenus de livres scannés, etc.) et (b) les ressources secondaires produites par des machines en général à partir des ressources primaires (traduction automatique, articles écrits par des algorithmes, spam).

Malheureusement, sans connaître l’origine d’une production, il n’est souvent pas aisé de distinguer entre ressources primaires ou secondaires. Un humain peut dans certains cas faire la différence, mais il est difficile de construire des algorithmes pour faire automatiquement cette distinction. Rappelons que les acteurs du capitalisme linguistique doivent modéliser la langue le plus parfaitement possible. C’est leur capital. Google voit donc les ressources secondaires comme un danger, une pollution pour ses modèles.

Faites l’expérience : prenez une phrase en Français, traduisez-la automatiquement en Anglais par un algorithme, puis en Espagnol, puis de nouveau en Français. Le résultat sera certainement très différent de l’original. Même dans les cas où les algorithmes évitent les erreurs grossières de traductions, ils infléchissent la syntaxe pour proposer des phrases certes compréhensibles, mais qu’aucun humain n’aurait jamais formulées de cette manière.

Nos langues sont désormais optimisées par et pour les machines

Rappelons qu’un nombre croissant de textes sont maintenant directement produits par des machines. Un lecteur averti peut souvent détecter la mécanique sous-jacente et deviner parfois que ces textes ne sont pas écrits par des humains. Leur composition syntaxique et surtout leur positionnement pragmatique sonnent le plus souvent faux, reflétant les biais de l’algorithme qui les compose. Néanmoins, ces textes sont optimisés pour l’univers linguistique qu’ils investissent. Le même contenu peut donner lieu à différentes formes : articles longs ou courts, chroniques sportives, tweets, message vocal. Il peut être exprimé en optimisant son efficacité pour les moteurs de recherche (SEO) : choix de mots particuliers, de tournures statistiques optimales. Comme en finance, les algorithmes sont sans doute meilleurs que les hommes pour produire des stratégies optimales dans le milieu économique du capitalisme linguistique.

Les algorithmes qui archivent inlassablement le web ne font pas facilement la différence entre ces ressources linguistiques dégradées et les ressources primaires. Au fur et à mesure que la quantité de ressources secondaires devient significative par rapport aux ressources primaires, les modèles statistiques peuvent se modifier pour intégrer le vocabulaire, les formulations et les tournures des algorithmes. Par une rétroaction qui ne manque pas d’ironie, ce sont ces tournures qui risquent de nous être proposées sous la forme de suggestions ou de corrections.

Pour lutter contre cette “pollution” croissante, Google a modifié en 2011 son service Google Translate. Comme l’explique Kirti Vashee dans un billet très complet sur cette question, Google a remplacé son service créateur de ressources secondaires en un service de traduction “on demand” qui garde toujours le texte original de la traduction, pour s’en servir pour la recherche et pour potentiellement améliorer progressivement la traduction proposée au fur et à mesure que les algorithmes de traduction progressent.

Cela ne suffira pas. Il faut maintenant compter avec l’écriture des machines et tous les hybrides de ce nouvel ordre linguistique. Rappelons que sur les 30 meilleurs éditeurs de Wikipedia, les 2/3 sont des bots (voir la passionnante discussion de Stuart Geiger sur ces questions – “The Lives of Bots” in Wikipedia : A Critical Point of View. 2011 [.pdf]). D’ici deux ans, une proportion significative des messages sur les réseaux sociaux seront peut-être produits par des bots (voir de dossier“Socialbots : Voices for the Fronts” par Hwang, Pearce et Nanis dans le numéro de mars 2012 d’Interactions).

Ainsi, textes humains et algorithmiques se mêlent pour proposer une nouvelle forme d’écriture. Et c’est cette nouvelle écriture que d’autres algorithmes analysent pour ensuite structurer nos propres productions linguistiques. Avec le capitalisme linguistique, la langue elle-même se transforme pour intégrer les biais linguistiques des machines et les contraintes de l’économie linguistique planétaire. Nous assistons peut-être une nouvelle phase de “grammatisation” de la langue, une nouvelle rétroaction de la technologie et de l’économie sur la langue naturelle. Dans un temps intermédiaire apparait quelque chose comme une lingua franca, un pidgin ou un créole, dont la syntaxe et le vocabulaire sont liés aux capacités linguistiques des machines et aux valeurs marchandes des mots. Il nous faut maintenant porter toute notre attention sur cette nouvelle “créolisation”.

Si notre langue se transforme, si nos enfants lisent un nombre croissant de textes coécrits par des rédacteurs humains et algorithmiques, comment, à leur tour, écriront-ils, parleront-ils, penseront-ils ?



Une autre algorithmie de la découverte

mars 21, 2012

La Fondation Cartier organise ce jeudi 22 mars à 19h, une discussion Google Hang-Out sur curiosité et les algorithmes avec 5 ingénieurs de Google, Pierre-Yves Oudeyer et moi-même. 

L’exposition de la Fondation Cartier "Mathématiques, un dépaysement soudain" ferme ses portes cette semaine à Paris. Laurent Bolli et moi-même avons collaboré sur plusieurs projets de l’exposition :

- Le projet, finalement non retenu sous cette forme de la bibliothèque de Gromov (voir mon précédent bille "Replier les textes comme des proteines")

- Le projet de Takeshi Kitano et David Lynch : La réponse est 2011 (voir également un autre billet sur ce sujet et sur la solution inventée par Quentin Bonnard, un des mes doctorants)

- L’application iPad de l’exposition basée sur le principe mathématique de la curiosité exploré par Pierre-Yves Oudeyer et moi-même il y a quelques années.

Je n’avais pas pris le temps à l’époque d’expliquer le principe original de ce dernier projet.


Cercle de pertinence, cercle de curiosité

L’application présente plusieurs centaines de documents provenant de l’exposition mais aussi des archives de la Fondation Cartier (Contenus sonores, Biographies, Vidéos, Concepts, Images, Evènements). Chaque document est associé à un vecteur N de k paramètres codant un identifiant, son type et des indications sur son contenu. L’espace des documents peut donc être considéré comme un espace de dimension k, relativement grand. L’utilisateur va naviguer dans cet espace grâce à deux algorithmes.

L’interface de l’application est organisée sous la forme de deux cercles concentriques. Le premier cercle de "pertinence" présente les transitions statistiquement les plus communes entre le noeud central N(t) et les autres noeuds de le l’application étant donné le chemin S(t) = Sn(t) = ((N(t), N(t-1)…. N (t-n)) récemment parcouru par l’utilisateur. Le système tente donc de prédire quel sera le prochain noeud à visiter en fonction du parcours des autres utilisateur.  Il s’agit donc d’un système de recommandations assez classique basé la maximisation de la prédiction.  A partir de l’analyse de l’ensemble des chemins des utilisateurs, l’algorithme propose les chemins qu’il a observés comme étant les plus choisis. A chaque choix d’un noeud par l’utilisateur il améliore également son modèle de transition (distribution statistique des transitions à partir d’un chemin donné). Tous les parcours des utilisateurs contribuent donc à affiner ce modèle central.

Le second cercle de "curiosité", l’algorithme propose des noeuds basés sur une adaptation des algorithmes de découverte que nous avons développés Pierre-Yves Oudeyer et moi-même il y a presque dix ans (voir les pages que Pierre-Yves Oudeyer proposent sur ce sujet, un peu plus à jour que les miennes).  Ces algorithmes apprennent un peu comme des enfants (un projet que Turing formulait déjà clairement dans les années 1950s). Ils ne tentent pas de faire des choix en fonction de critères extérieurs (ex: proposer la réponse la plus pertinente pour un utilisateur) mais pour optimiser leur propre apprentissage. A tout moment, ils se posent la question : que dois-je maintenant faire pour un apprendre le plus possible sur l’espace que j’explore ?.

Il est probable que ce soit ce même type de motivation intrinsèque qui pousse par exemple un jeune enfant à jouer avec l’emballage d’un cadeau plutôt qu’avec le jouet qu’il contient. La promesse sensorimotrice de l’emballage étant plus alléchante que celle proposée par le jouet. Nous avons également montré comme ce principe permet de faire émerger des séquences développementale organisée chez un robot apprenant (voir notre article sur ce sujet mais également la video d’AIBO apprenant à marcher grâce à ce type d’exploration ou la salle de jeux pour robot qui nous avions développée avec des designers de l’ECAL pour explorer ce même principe.). A la Fondation Cartier, Pierre-Yves Oudeyer a présenté Ergo-robots, une installation robotique  mise en scène par David Lynch qui permet de découvrir comment se comportent un groupe de robots, motivé par le principe de curiosité.

Les algorithmes de curiosité donnent des effets impressionnants en robotique, mais leur utilité est bien plus large. Ce champ de recherche rejoint d’ailleurs d’autres domaines des statistiques développées en 1972 par Fedorov sous le terme "optimal experiment design" . Des chercheurs en Machine Learning comme Jurgen Schmidhuber ont, dès les années 1990s, commencé à théoriser la pertinence de ces algorithmes pour l’exploration de grands espaces de données. En une vingtaines d’années tout une famille d’algorithmes ont vu le jour, tous construits autour  d’une même intuition : les machines doivent choisir les meilleures actions pour optimiser leur propre apprentissage. 

Un algorithme dont l’apprentissage progresse optimallement

C’est un même principe que nous avons mis en oeuvre pour le second cercle de l’application iPad de la Fondation Cartier. L’algorithme essaie de comprendre la relation entre la présentation de certains documents et le fait qu’ils soient ou non consultés par l’utilisateur dans le contexte d’un chemin de découverte particulier. L’algorithme sait déjà que certains documents sont d’ordinairement choisis (cercle de pertinence) mais il est encore ignorant de la structure de la plus grande partie de l’espace qu’il doit explorer. N’ayant pas une infinité d’essais (puisque chaque essai demande l’intervention d’un utilisateur de l’application), il doit proposer des choix qui lui permettront de progresser optimallement dans son apprentissage.

Plus formellement, il s’agit d’optimiser I(S(t), A(t)),  l’intérêt d’effectuer l’action A(t) (le choix d’un noeud) dans l’état S(t). Cet intérêt peut être approximé par la dérivée de la qualité prédictive. Si la qualité d’une prédiction d’une transition vers un noeud (N+1) est en augmentation (le système est en train de perfectionner son modèle de transition vers noeud à partir du chemin S(t)), ce noeud aura un bon score d’Intérêt).

A chaque interaction l’algorithme propose ainsi dans le cercle de curiosité 14 contenus dont l’intérêt en terme d’apprentissage est optimal. Comme de nouveaux contenus peuvent être rajoutés à l’application, nous avons également introduit un biais pour les noeuds dont l’algorithme sait très peu de chose.  Ceci aura pour effet d’introduire plus souvent dans le cercle de curiosité, les nouveaux noeuds de manière à tester rapidement leur pertinence et leur intérêt.

Jeudi 22 mars à 19h, lors d’un Hang-Out Google+ sur la page de la Fondation Cartier, nous discuterons de toutes ces questions avec cinq ingénieurs de chez GoogleMehyrar Mohri (publications), David Singleton (blog), Aaron Shon (Bayesian cognitive models for imitation), Rich Washington (homepage), Radu – Eosif Mihailescu (blog). Une retransmission simultanée entre Dublin, Zurich, Lausanne, Paris, Bordeaux et les Etats-Unis…


La pollution des ressources linguistiques

mars 18, 2012

En préparation d’un exposé sur le capitalisme linguistique que je donnerai à l’ENSCI le 29 mars, j’explore dans ce billet un aspect important de ce nouvel ordre linguistique où se mélangent les écrits humains et les textes des algorithmes. 

Les nouveaux acteurs du capitalisme linguistique ont besoin d’accéder à des ressources de qualité pour chacun des marchés linguistiques qu’ils visent. Or dans il nous faut distinguer au moins deux types de ressources linguistiques: (a) les ressources primaires produites par des humains (conversations orales ou écrites, contenus de livres scannés, etc.) et (b) les ressources secondaires produites par des machines en général à partir des ressources primaires (traduction automatique, article écrit par des algorithmes, spam). Malheureusement, sans connaître l’origine d’une production, il n’est souvent pas aisé de distinguer entre ressources primaires ou secondaires. Un humain peut dans certains cas faire la différence, mais il est difficile de construire des algorithmes  pour faire automatiquement cette distinction.

Les acteurs du capitalisme linguistique doivent modéliser la langue le plus parfaitement possible. Un acteur comme Google en proposant de multiple interfaces d’expression (Gmail, Google docs, Google +, Service de reconnaissance vocale) et de puissant outils d’accumulation linguistique (Google books, Youtube) a développé un observatoire unique pour construire des modèles statistiques précis de nombreuses langues vivantes. Grâce à ces modèles il peut proposer des outils de correction ou de complétion automatique et lisser la langue pour la faire revenir dans le domaine commercial.(un mot ou une phrase incorrecte ne valent rien car aucune enchère ne peuvent être organisée à leur propos)

Les ressources secondaires sont un danger, une pollution pour ces modèles. Prenons le cas d’un article écrite anglais traduit approximativement en français par un service de traduction. L’article est encore lisible pour un humain qui peut ainsi avoir ainsi une idée de son contenu s’il n’est pas anglophone mais il ne constitue en aucun cas un exemple valide d’une production linguistique en français. Pourtant, dans certains cas, cet article sera la base d’une seconde traduction automatique, par exemple en chinois. A chaque étape sa qualité linguistique se dégrade, pour refléter toujours plus les caractéristiques et les biais de l’algorithme de traduction.

A côté des algorithmes de traductions automatiques, un nombre croissant de textes sont maintenant directement produits par des machines. Ces algorithmes produisent à partir de données structurées des formes narratives variées : Articles longs ou courts, chroniques sportives, tweets. A nouveau, un lecteur averti peut souvent detecter la mécanique sous-jacente et deviner parfois que ces textes ne sont pas écrits par des humains. Leur composition syntaxique et surtout leur positionnement pragmatique sonnent parfois faux, reflétant les biais de l’algorithme qui les compose.

Malheureusement les robots de Google qui archivent inlassablement le web ne font pas la différence entre ces ressources linguistiques dégradées et les ressources primaires. Au fur et à mesure que la quantité de ressources secondaires devient significative par rapport aux ressources primaires, le modèles statistiques peut se modifier pour intégrer le vocabulaire, les formulations et les tournures des algorithmes. Par une retroaction que ne manque pas d’ironie, ce sont ces tournures qui risquent de nous être proposées sous la forme de suggestions ou de corrections. 

Kirti Vashee analyse que c’est essentiellement pour cette raison que Google a décidé de fermer son service de traduction automatique en 2011. En proposant des traductions approximatives qui venaient grossir le rang des ressources linguistiques secondaires, Google polluait sa ressource vitale ("polluting its own drinking water") en particulier pour des marchés linguistiques où ses modèles n’était peut-être pas encore aussi bons que pour l’Anglais. Rappelons que Google n’est pas dominant partout. En Russie, en Chine, au Japon et en Corée il doit faire face à une concurrence importante respectivement de Yandex, Baidu, Yahoo et NHN. Pour gagner ces marchés, il est contraint d’offrir une qualité de service irréprochable (c’est cette stratégie qui lui a permis à l’époque de battre ces concurrents sur les marchés anglo-saxons et européens)

Google a remplacé son service créateur de ressources secondaires en un service de traduction "on demand" qui garde toujours le texte original de la traduction, pour s’en servir pour la recherche et pour potentiellement améliorer progressivement la traduction proposée au fur et à mesure que les algorithmes de traduction progressent. La modification de ce service de traduction était une opération risquée pour Google dans la mesure où il était utilisé par un très grand nombre d’autres services.En agissant ainsi, Google prend le risque de perdre la confiance des développeurs qui utilise ses API, rappelant qu’à tout moment , la compagnie peut décider de changer les règles du jeu. Si Google a fait ce choix c’est que la question de la pollution des ressources linguistiques est un enjeu majeur pour son modèle commercial.

Mais transformer son service de traduction automatique ne suffira pas à stopper les autres services produisant des textes encores plus dégradés, ni à freiner le développement des textes produits par des algorithmes. Il faut maintenant compter avec l’écriture des machines et tous les hybrides de ce nouvel ordre linguistique. Comme l’explique bien Stuart Geiger, un article de Wikipedia n’est pas que le travail collectif d’un groupe de redacteurs mais également le resultat des productions de bots qui effectuent des travaux syntaxiques spécifiques et des opérations sémantiques systématiques.  Textes humains et machiniques se mélent pour proposer une nouvelle forme d’écriture. Et c’est cette nouvelle écriture que les robots de Google analysent pour ensuite structurer nos propres écrits.


Wikipedia est un jeu

mars 17, 2012

Depuis quelques années, nous avons vu plusieurs réussites de création collective de connaissance utilisant des jeux. L’exemple le plus emblématique est Foursquare. Par sa dynamique ludique et la dizaine de millions d’utilisateurs, Foursquare a réussi à documenter l’espace géographique de manière sémantique. Il propose aujourd’hui cette immense et précieuse base de données à d’autres services, comme Instagram.

Les jeux peuvent créer des bases de connaissances. Mais nous pourrions également argumenter que les grands services de créations connaissances partagées sont également des jeux même s’ils ne sont pas présentés comme tels. Je vais tenter de développer cet argument autour de trois exemples : Twitter, Quora et Wikipedia.

Twitter est un jeu

Dans leur livre Gamification by Design, Gabe Zichermann et Christopher Cunningham décrivent minutieusement le concept d’Onboarding. L’Onboarding désigne l’initiation d’un utilisateur novice à un système complexe comme un jeu ou un service en ligne. Le nouvel utilisateur doit comprendre progressivement comment le système fonctionne et surtout avoir envie de continuer à l’utiliser dans le futur.

Une stratégie possible consiste à créer une boucle d’engagement social. Pour Zichermann et Cunningham cette boucle se décompose en quatre temps. Une émotion motivante (1) rencontre une proposition d’action (2)  qui donne des effets visibles incitant à continuer l’exploration (3) et conduit à des progrès mesurables (4) qui a leur tour renforcent une émotion motivante (1′).

Pour l’utilisateur novice de Twitter, tout commence avec probablement avec la curiosité d’essayer le service dont il a entendu parler (1), il découvre qu’il peut rédiger des Tweets (2). L’utilisateur quitte en général la plate-forme à ce stade sans savoir vraiment si elle va utiliser le service de manière régulière. Avec un peu de chance dans les heures ou les jours qui suivent, quelqu’un le mentionne dans un Tweet (3) (Il voit son nom avec @ et en déduit l’usage de ce signe), ce qui incite le novice à revenir sur le service et à continuer la conversation. Si ses Tweets sont jugés pertinents, l’utilisateur commence à avoir des followers. Cette mesure explicite (4)  de son importance dans Twitter le motive à continuer à tweeter avec pour objectif plus ou moins avoué de tenter d’avoir plus de followers.

Au fur et à mesure que l’utilisateur de Twitter devient un expert, sa perception de la boucle d’engagement se modifie et l’importance des divers classements associés au service de micro-message se précise. L’expert comprend qu’un grand nombre de  mention et de retweet peuvent modifier son score sur Klout ou sur un autre des services qui proposent aujourd’hui d’évaluer le capital social. Il comprend les meilleures heures pour Twitter. Consciemment ou inconsciemment il optimise son écriture et la temporalité de ses messages pour jouer au jeu Twitter de la meilleure manière possible.

Quora est un autre type de jeu

Zichermann et Cunningham analyse de la même manière la structure ludique de Quora. Lancé à grand bruit en 2009, Quora est un service de questions/réponses. Son objectif affiché est de proposer un marché de la connaissance structurée sous la forme de questions associées à une série de réponses de grande qualité. L’enjeu pour Quora est d’attirer des contributeurs de qualité et de les motiver à écrire d’excellentes réponses aux questions posées.

Pour atteindre ce but, Quora a fait un choix très clair : personnaliser les réponses, dépersonnaliser les questions.Les questions ne sont pas visuellement attachées à celui qui les a posé. Elles sont immédiatement traitées comme un bien commun. Chacun peut les modifier et les améliorer. Dès qu’un utilisateur pose une question, il ne la contrôle plus.

En revanche tout dans l’interface reinforce le lien entre une réponse et son auteur. Dans Quora, la juxtaposition systématique de l’identité de l’utilisateur, mentionnant en particulier sa photo, son nom et sa bio, et de ses contributions introduit une équivalence directe entre la valeur d’un utilisateur et la qualité de ses réponses. Quora propose ensuite un système de classement explicite : les réponses les mieux notées sont présentées en premier juste en dessous de la question. Chaque question est donc une simplement une compétition entre utilisateurs. Celui qui propose la meilleure réponse gagne le jeu. Quora se contente ensuite de documenter au mieux cette compétition en fournissant des outils qui permettent aux utilisateurs de suivre en temps réel les performances de leur réponse dans chacune des compétitions dans lesquelles elles sont engagées.

Comme dans Twitter, le contributeur de Quora découvre ces règles au fur et à mesure et apprend ce qu’il doit optimiser pour gagner dans ce type particulier de compétition.

Wikipedia est aussi un jeu

Il est clair que Wikipedia n’a pas adopté la même stratégie ludique que Quora ou que Twitter. Il n’en reste pas moins que sa structure et sa réussite sont la résultante, au moins autant sinon plus, de la qualité de sa construction ludique que du rêve partagé d’une encyclopédie universelle, libre et gratuite.

Quel jeu est alors Wikipedia ? La réponse est évidente. C’est un MMORPG  ("Massively Multiplayer Online Role Playing Games"). Les contributeurs les plus actifs de Wikipedia ont un démarche qui a beaucoup de points communs avec celle des joueurs de World of Warcraft.

Pour jouer à Wikipedia, il faut contribuer. Contrairement à Quora qui impose à l’utilisateur novice un long et fastidieux processus de formation avant de pouvoir commencer, le processus d’onboarding de Wikipedia est beaucoup plus doux. Pas de login. Pas besoin d’être identifié. Le fait que l’historique de chaque page est conservé et qu’il soit toujours possible de revenir à une ancienne version d’un article permet cette ouverture. Mais la force conceptuelle de ce principe d’ouverture (Le projet d’encyclopédie libre que vous pouvez améliorer) ne doit pas masquer les vrais dynamiques qui pousse les utilisateurs à s’investir dans Wikipedia.

Après quelques contributions ou corrections anonymes, il est naturel que l’utilisateur souhaite signer ses ajouts. En s’identifiant, le Wikipedien développe une identité propre avec nom, une page personnelle. Il vient, peut-être sans le savoir, de passer au niveau 2.

Comme dans tout bon jeu, cette étape n’est que la première d’une longue série qui permettra à l’utilisateur motivé de franchir les niveaux successifs de la grande pyramide Wikipedia. Comment gravit-on les échelons ? Quels sont les privilèges reservés à ceux qui sont plus hauts ? Pourquoi certaines page sont-elles protégées contre les modifications ? Qui peut décider de ces choix ? Le novice ne le sait pas encore.

Wikipedia n’est pas aussi transparente que son mythe fondateur le laisse entendre. Comprendre ses rouages, ses comités, le système d’attribution de ses privilèges fait partie du plaisir de la découverte du joueur qui veut explorer ce monde finalement peu connu, reservé à quelques initiés qui ont fait l’effort de s’y investir.  Pour le novice, l’encyclopédie "participative" semble au début cacher relativement bien ses secrets.  La meilleure, et peut-être la seule, manière de comprendre Wikipedia est d’y jouer longtemps.

Au fur et à mesure qu’il réside dans Wikipedia, le joueur apprend les différents métiers qu’il pourrait exercer dans ce monde : administrateur, bureaucrate, steward, médiateur, arbitre, masqueur, importateur, vérificateur d’adresse IP. Comme dans tout jeu de rôle qui se respecte, chaque caste a ses devoirs et ses pouvoirs spéciaux.

Les administrateurs assurent typiquement la maintenance (nettoyage) de certaines pages, vérifier que les contenus ne posent pas de problèmes de droits d’auteur, réparer les actes de vandalisme. Toutes ces opérations peuvent être effectué par n’importe quel contributeur mais les administrateurs ont aussi accès à des pouvoirs supplémentaires :effacer des pages non pertinentes ou au contraire les "protéger" (empêcher leur modification), bloquer certains utilisateurs, renommer des pages, masquer des versions de l’historique.

Comment devient-on administrateur ? Il faut simplement être élu. La page correspondante indique les critères suivants non obligatoires mais recommandés  : "une bonne connaissance de la syntaxe wiki, des règles et du fonctionnement de Wikipédia en françaisune participation au minimum à des travaux du Projet:Maintenanceenviron 3 000 contributions et un an d’activité significative". La route est longue, comme dans tout bon jeu de rôles.

Pour réussir sa campagne et se faire élire, il est important de comprendre le processus de vote et de décision.  Seul les votes des contributeurs ayant 50 contributions significatives à leur actif sont pris en considération. La candidature dure quinze jours. Si les votes sont favorables à l’accès au statut, le candidat est nommé. Les instructions précisent cependant que "La définition d’un vote « favorable » relève du pouvoir discrétionnaire des bureaucrates".

Déjà notre administrateur voit plus haut et plus loin. Un jour peut-être il sera lui aussi "bureaucrate". Les bureaucrates sont chargés de gérer les statuts de certains contributeurs à Wikipedia en particulier les adminstrateurs mais aussi les bots, ces algorithmes qui contribuent à Wikidepia effectuant des tâches répétitives et fastidieuses pour un humain (gestion des liens d’interlangue, la résolution des homonymies, les annulations de certains vandalismes). Environ de 8 personnes ont ce privilège sur Wikipédia en français.

Les stewards sont des "super bureaucrates". En plus de gérer le statut des administrateurs, des bots et des bureaucrates, ils nomment également les masqueurs (ceux qui peuvent cacher des parties de Wikipedia comme des pages, des commentaires ou des historiques) et les vérificateurs d’adresses IP (qui peuvent faire le lien entre un compte utilisateur et l’adresse IP). Il n’y a que 3 stewards sur Wikipedia en Français.

Il faudrait encore parler des médiateurs, capable de s’interposer dans les disputes mais qui n’ont pas le pouvoir de voter ou de recommander une action punitive,  et des arbitres qui eux peuvent imposer une décision définitive. Le prestigieux ArbCom (Arbitration Committee) de la version Anglaise de Wikipedia n’a qu’une quinzaines de membres.

Wikipedia a aussi ses histoires fondatrices. Une des plus célèbres est la controverse sur Essjay, membre éminent de la Wikicratie qui cumulait les fonctions d’administrateur, bureaucrate, arbitre et mediateur, et qui fut pris en flagrant délit de mensonge sur sa page Wikipedia. Jouer le jeu de Wikipedia c’est faire un voyage initiatique dans l’envers du decor. Comprendre que la plus grande encyclopédie en ligne n’est pas tout à fait le simple résultat de la "sagesse des foules" mais a su s’auto-organiser autour d’une bureaucratie émergente. Wikipedia est véritablement un monde en soi avec sa politique, son histoire, son oligarchie.

Ainsi, World of Warcraft semble presque ennuyeux comparé aux mystères que l’exploration patiente de Wikipedia peut révéler. Il semble évident que. par bien des aspects, s’investir dans Wikipedia est une activité similaire à faire progresser son personnage dans un jeu de rôle multijoueurs. Et sur Wikipedia comme dans le MMPORG les joueurs avancent le plus souvent masqué derrière un pseudo qui leur permet de véritablement vivre une double vie. Employé du bureau le jour, Wikipedien la nuit.  Avec temps et persévérance, le contributeur se construit une identité propre, avec des pouvoirs associés, aussi difficilement acquis que ceux qui vous permettent d’être grand mage dans un univers d’heroic fantasy.

Tout cela n’enlève rien au fantastique édifice que Wikipedia représente, à la valeur de cette oeuvre collective, à la manière dont ce service gratuit à changer nos vies. Mais pour comprendre comment Wikipedia a pu croitre et prospérer, il faut réaliser, qu’avant tout, Wikipedia est un jeu.


Bookworld : Pourquoi expliciter le réseau interne des livres

mars 16, 2012

La première version de l’application iPad Bookworld est disponible sur l’AppStore depuis une semaine (voir la présentation et l’historique du projet dans mon précédent billet). Le Temps a  fait un bel article dessus. L’application sera également présentée au Salon du Livre de Paris ce samedi. Lorsque nous avons montré pour la première fois l’application il y a quinze jours, de nombreuses personnes m’ont demandé à quoi pouvait bien servir une application dans laquelle chaque livre est une ville. Ceci mérite peut-être en effet une petite explication.

Un livre n’est pas une trottinette

Mon discours sur le potentiel et l’importance de Bookworld rejoint par certains aspects celui que tient Valla Vakili lorsqu’il parle de Small Demons. A l’heure des grandes librairies digitales, comment découvre-t-on un nouveau livre ? Le processus de découverte est aujourd’hui presque entièrement délégué à deux types d’algorithmes basés sur l’analyse de deux types de corrélations statistiques.

Les premiers font du data mining sur les corrélations d’achats. "Ceux qui comme vous ont achète ce livre on aussi aimé celui-là".

Les seconds font du data mining sur les corrélations d’opinions. "Ceux qui ont aimé ce livre ont aussi aimé celui-là".

Dans les deux cas, les livres ne sont rien d’autre des identifiants dans une grande base de données de produits. Ils se résument à leur ISBN ou plus généralement à leur SKU. Leur "contenu" est au mieux "taggé", le plus souvent totalement ignoré. Le fait qu’Amazon ait étendu cette même algorithmie commerciale à une myriade d’autres produits est tout à fait révélateur du fait que cette machinerie ne fait aucune différence fondamentale entre un livre et une trottinette.

De plus, dans les deux cas, les statistiques de corrélations tendent à former de grands "hubs" où un petit nombre de livres pivots deviennent des passages obligés. L’algorithmie "homophile" renforce les best-sellers par rétroaction positive et ne favorise pas les chemins de traverses (voir le billet de Hubert Gillaut sur ce point ainsi que les réflexions de Danah Boyd).

Derrière ces choix algorithmiques se cachent donc des enjeux essentiels pour les chemins de la découverte d’objets culturels nouveaux.

Un livre contient lui-même un réseau d’objets culturels

Dans Bookworld, nous considérons qu’un livre est déjà un réseau complexe en tant que tel. Tout livre est une une organisation temporelle et spatiale qui structure un discours sur des personnes, des lieux, des objets (c’est même une des fonctions centrales du livre selon Pascal Robert). C’est pourquoi nous le représentons sous la forme d’une ville, métaphore potentiellement riche pour donner corps à ce réseau d’interaction.

L’application est construite pour que les lecteurs aient envie d’entreprendre ensemble ce travail titanesque qui consiste à document ce réseau, à l’expliciter. Plus il y a d’information sur un livre, plus la ville le représentant devient complexe, plus elle se lie à d’autres livres-villes construisant ainsi petit à petit la topologie de ce monde livresque.

Rob le héros du roman "Haute Fidelité" de Nick Hornby a une chanson pour chaque moment de la vie. Son passe temps favori consiste à classer les musiques (et accessoirement aussi les films) dans des TOP 5 thématiques. Quand je visite dans Bookworld la ville livre correspondant au roman, je découvre ou redécouvre cette constellation de films et de musiques. Au loin je vois d’autres villes-livres qui partagent certaines références en terme de musique, films, etc. des connections parfois insoupçonnées qu’aucun autre système de recommandation artificiel ou humain n’aurait pu trouver s’il a fait l’économie de ce processus cartographique.

La lecture est un processus d’attachement puis d’incorporation

Dans son exposé à Books in Browsers Valla Vakili explique bien que la lecture d’un livre est essentiellement une rencontre entre les référents culturels d’un lecteur et l’univers organisé de référents culturels proposé par une narration. Le personnage que Nick Hornby dessine en creux à partir à partir des objets culturels qu’il aime ou déteste me parle car je me retrouve d’une certaine manière dans ses références ou dans sa relation avec la musique. Ce processus d’attachement est fondamental dans ce qui nous fait aimer un livre. Inversement, quand un livre nous laisse indifférent ce que nous n’avons pas pu réussi à créer ces liens.

Si la rencontre entre le livre et son lecteur se passe bien, ce dernier incorpore, petit à petit, certains référents culturels du livre. Nous les faisons notre. Après ma rencontre avec la Terre du Milieux, les Hobbits ont désormais fait partie de mon monde… Tout comme ce morceau de Marvin Gay que la lecture de "Haute Fidelité" m’a fait écouter pour la première fois. Riches de ces nouveaux référents nous sommes prêts à de nouvelles rencontres livresques qui nous auraient peut-être laissées indifférents quelques semaines plus tôt. La métaphore touristique file toujours aussi bien. Dans le monde des livres aussi, certains itinéraire sont meilleurs que d’autres.

Documenter le contenu des livres ne tient donc pas d’un simple excès encyclopédique. Les liaisons narratives explicitées dans Bookworld ont une pertinence bien différente des corrélations statistiques exploitées par les algorithmes d’Amazon ou d’Apple. Caché dans la structure de ces réseaux que nous nous proposons de collectivement expliciter se cache sans doute une autre algorithmie de la découverte.


Suivre

Recevez les nouvelles publications par mail.

Rejoignez 203 autres abonnés