16 des 20 contributeurs les plus actifs sur Wikipedia sont des bots

Mai 26, 2015

Première ébauche d’un texte pour le catalogue d’une exposition au Quai Branly. Un travail réalisé avec un de mes doctorants Dana Kianfar, qui travaille sur les algorithmes et le capitalisme linguistique. Les questions plus générale sur les effets de la médiation algorithmiques sur la langue ont été traitée dans Kaplan (2014) et la transformation progressive des livres en machines, thème connexe à celui traité ici est discutée dans Kaplan (2012). Le billet prolonge le travail pionnier de Stuart Geiger dans ce domaine (Geiger 2011). J’ai également parlé de ce sujet sur la RTS 1 lors d’une interview de 10 min à l’émission CQFD. 

16 des 20 contributeurs les plus actifs sur la version anglaise de Wikipedia sont des bots. Cette estimation, a peu près équivalente à celle de Stuart Geiger en 2011, est rapidement obtenue en comparant la page qui classe les contributeurs humains le plus prolifiques avec celle qui propose le même classement pour les algorithmes. Dans ce classement qui mesure l’activité par le nombre d’actions d’édition sur l’encyclopédie en ligne, le premier contributeur humain n’arrive qu’à la douzième position. Ce chiffre varie selon les communautés linguistiques de Wikipedia. Dans le même classement pour la version espagnole de Wikipedia, on ne retrouve que deux bots.

Wikipédia n’est pas simplement le grand oeuvre d’une communauté d’utilisateurs qui, ensemble, aurait décidé de construire une encyclopédie libre et gratuite. C’est aussi le résultat du travail de plusieurs centaines d’algorithmes qui chaque jour mettent en forme, contrôlent, surveillent et réprimandent les contenus écrits. Au fil des années, les hommes ont appris à construire et structurer la connaissance en programmant des règles que les bots se chargeaient d’appliquer. Les bots ont aidé à construire Wikipedia et aujourd’hui, jouent un rôle crucial dans sa maintenance et son évolution. Ce faisant il sont devenus comme une présence, une altérité machinique que les contributeurs de l’encyclopédie en ligne ont accepté avec plus ou moins de facilité. L’histoire de ces premières frictions, la négociation progressive de l’autonomie accordée à ces algorithmes sont les prémisses d’un monde qui vient, où hommes et machines devront apprendre à partager un même espace pour écrire ensemble.

Historiquement,les bots ont joué un rôle important dans la création et le développement de Wikipédia. En février 2002, plusieurs centaines d’articles du « Federal Standard 1037c », un dictionnaire de termes techniques, ont été importés et wikifiés par un algorithme, proposant ainsi la base de nombreuses nouvelles pages que les utilisateurs que les utilisateurs purent ensuite enrichir. À la même période, de nombreux articles du « Easton’s Bible Dictionary », un ouvrage de la fin du XIXe siècle, furent également importés et restructurés pour servir de contenu initial à des pages Wikipedia encore inexistantes. Cette importation a conduit à introduire dans certaines pages de Wikipedia une prose victorienne anachronique, qui fut progressivement assimilée pour se fondre avec l’anglais contemporain. Le même bot importa une grande partie des articles de la version de 1911 de l’Encyclopedia Britanica, à partir d’une copie numérisée par le projet Gutenberg.

Durant ces premières années, les algorithmes se nourrissant des contenus suffisamment anciens pour être passés dans le domaine public ont ainsi contribué à structurer les premiers contenus de Wikipedia lui permettant d’atteindre rapidement une masse critique. Dès que la logique de « template » pouvait être appliquée, des bots ont été utilisés pour produire des articles types. Un algorithme nommé « Ram-bot » produisit ainsi les articles de base pour 30 000 villes américaines en important les données du recensement américain et en les structurant dans un style simple et systématique. Ce squelette textuel fut ensuite étoffé par les contributeurs qui l’enrichirent avec des détails de la géographie et l’histoire locale de chaque ville, expérimentant sans vraiment en avoir conscience une forme d’écriture mixte personne-machine.

Ce procédé fut répété à plusieurs reprises, mais toujours dans des domaines de la connaissance de plus en plus pointus. En 2008, par exemple, un algorithme nommé « Clue-bot II » créa 15 000 petits articles sur les astéroïdes à partir d’une base de données de la Nasa. Ces articles furent à leur tour édités puis traduits par d’autres bots. Malheureusement, la base, assez ancienne, contenait des erreurs et, quand un humain a réalisé la contamination, un processus de correction massive dut être mis en place. Ce type d’accidents a contribué à alimenter la polémique autour des bots et leur rôle positif ou négatif sur la construction et la régulation de l’encyclopédie en ligne.

Aujourd’hui les bots assurent de nombreuses fonctions de maintenance et de réparation, souvent répétitives et consommatrices de temps. Un des algorithmes patrouilleurs les plus sophistiqués s’appelle ClueBot NG. Il identifie et répare les actes de vandalisme, comme l’insertion de propos outrancier sans rapport avec le contenu d’une page donnée. D’autres bots détectent des violations possibles de copyright, tissent des liens entre les pages de différentes versions linguistiques de Wikipédia, bloquent automatiquement les pages qui sont modifiées avec trop d’intensité, corrigent les fautes de syntaxe et d’une manière générale se chargent d’automatiser les règles et normes de bon fonctionnement de l’encyclopédie en ligne. La version anglaise de Wikipédia comptant plus de 4 millions d’articles, dont une partie significative sont régulièrement mis à jour, seule une police algorithmique semble pouvoir veiller sur cet édifice en perpétuelle reconstruction. C’est ce qui a poussé certains éditeurs de Wikipédia à devenir programmateurs de bots, les concevant avant tout comme une forme d’outil d’édition puissant. Ce faisant, ils ont donné naissance à un écosystème complexe, conduisant à des articles systématiquement coproduits par des humains et des machines.

L’ambivalence des bots réside dans leur double nature, à la fois la formalisation informatique d’une règle de comportement et l’agent faisant appliquer cette règle. Une des controverses la plus importantes dans la longue histoire de la négociation de la présence des bots sur Wikipédia est relatée par Stuart Geiger (2011). L’algorithme Hagermanbot ne faisait qu’appliquer une règle acceptée sur Wikipédia. Il identifiait les commentaires sans signature et ajoutait automatiquement l’identité de leur auteur. Personne ne remettait en cause cette règle, mais quand elle fut appliquée systématiquement par l’algorithme, l’action du bot fut perçue comme embarrassante pour certains. Il existait des situations dans lesquelles un auteur pouvait vouloir différer sa signature ou effectivement laisser son commentaire non signé. Certains argumentèrent que la règle des signatures n’était qu’une « guideline » pas une loi dont l’application devait être systématiquement vérifiée par la surveillance policière et violente d’un algorithme.

C’est la différence, discutée par Bruno Latour, entre le gendarme et le « gendarme couché ». Le premier fait appliquer la limitation de vitesse dans une rue à proximité d’une école, mais sait en adapter l’application quand une ambulance doit exceptionnellement passer par ce chemin. Le « gendarme couché », devenu infrastructure urbaine de ralentissement, ne fait pas de distinction et applique la règle communément admise dans tous les contextes, sans discrimination. « Les
 techniques
 agissent
 comme
 des
 transformateurs
 de
 forme,
 faisant
 un
 policier
 d’une
 charge
 de
 béton
 frais,
 donnant
 à
 un
 gendarme 
la
 permanence
 et
 l’opiniâtreté
 de
 la
 pierre » (Latour 2001, p.199).

Alors la règle collectivement négociée devient algorithme et que l’algorithme devient agent qui fait systématiquement appliquer la règle, une force hostile semble menacer l’édifice utopique collectivement construit. Poser la question « Les bots de Wikipédia sont-ils méchants » revient à se demander si Wikipédia est l’archétype d’un collectivisme auto-organisé qui fonctionne, un modèle à imiter pour créer demain des sociétés numériques égalitaires créatrices de biens communs ou si elle préfigure au contraire une algorithmisation massive de la société caractérisée par une surveillance permanente et auto-infligée. L’algorithme s’anthropomorphise quand il devient menaçant, même si on le sait non doté d’une quelconque forme d’autonomie. Contrairement au robot humanoïde (Kaplan 2004), il fait peur non pas parce qu’il commence à ressembler à l’humain, mais parce qu’au contraire, il se montre inflexible, aveugle au contexte, et, qu’il ait raison ou qu’il ait tort, capable de soumettre les hommes aux lois qu’ils ont eux-mêmes créés. L’expérience Wikipédia nous invite à penser ces « autres » qui semblent être devenus nos partenaires, amis ou ennemis, pour organiser la connaissance à l’échelle planétaire.

Geiger, R. Stuart. 2011. “The Lives of Bots.” In Critical Point of View: A Wikipedia Reader, 78–93. Institute of Networked Cultures, Amsterdam. http://papers.ssrn.com/sol3/Delivery.cfm?abstractid=2075015#page=41.

Kaplan, Frédéric. 2004. “Who Is Afraid of the Humanoid? Investigating Cultural Differences in the Acceptance of Robots.International Journal of Humanoid Robotics 01 (03): 465–80. doi:10.1142/S0219843604000289.

Kaplan, Frédéric. 2012. “How Books Will Become Machines.” In Lire Demain. Des Manuscrits Antiques à L’ère Digitale., edited by Claire Clivaz, Jérome Meizos, François Vallotton, and Joseph Verheyden, 25–41. PPUR.

Kaplan, Frederic. 2014. “Linguistic Capitalism and Algorithmic Mediation.” Representations 127 (1): 57–63. doi:10.1525/rep.2014.127.1.57. Latour, Bruno. 2001. L’espoir de Pandore : Pour Une Version Réaliste de L’activité Scientifique. Editions La découverte. https://hal-mines-paristech.archives-ouvertes.fr/hal-00830223.


La seconde renaissance d’OZWE

novembre 16, 2014

OZWE, l’entreprise que j’ai co-fondée en 2008 avec Martino d’Esposito, prend depuis quelques mois un nouveau départ. Devenue OZWE Games, elle a fait ce week-end la « une » de bilan.ch, en tant que première entreprise du monde à produire un jeu multiplayer pour le casque de réalité  virtuelle Samsung Gear VR. Quelques mois plus tôt, nous avions annoncé que nous travaillons avec les équipes d’Oculus Rift sur un nouveau système de contrôle pour les casques immersifs.  Laurent Bolli et moi-même avions accompagné Stéphane Intissar, le nouveau CEO d’OZWE Games, pour présenter cette innovation et un nouveau jeu à l’évènement Samsung Unpack à Berlin.  Ce fut l’occasion de discuter directement avec un de mes « héros personnel » John Carmack sur le futur de ce nouveau domaine en plein bouleversement. Ce billet propose un retour sur une aventure entrepreneuriale avec rebondissements.

2006-2010 : Le premier ordinateur robotique entièrement contrôlé par les gestes, du MoMA à la production en série.

J’ai créé OZWE en 2008 avec le designer industriel Martino d’Esposito autour d’une idée simple: inventer un ordinateur que serait entièrement contrôlable à distance par des gestes. Pas de souris, pas de clavier. Nous avions commencé à travailler sur cette idée en 2006 a une époque où ce type d’idée était relativement peu commune. La Kinect n’existait pas. Il y avait juste quelques équipes dans des laboratoires qui expérimentaient avec des nouvelles technologies pour percevoir l’environnement en 3d. Tout restait à inventer.

Le QB1 était un écran avec un cou articulé, doté d’une caméra 3d dont nous avions inventé le principe avec l’ingénieur de l’EPFL, Jonathan Besuchet. La machine était capable de suivre l’utilisateur du “regard” est de l’entourer d’un halo d’interactivité. Programmé pour rester en face de l’utilisateur, le QB1 amenait l’interactivité là où l’utilisateur se trouvait. Plus besoin de s’adapter à la machine, la machine s’adaptait à nous. Il devenait possible d’interagir en étant debout ou assis, en marchant et en continuant à discuter avec des amis. L’informatique à portée de main.

Le principe de cette machine avait séduit Paola Antonelli, conservatrice du département design et architecture du musée d’art moderne de New York ( le MoMA ). Elle nous avait invité, Martino et moi,  à venir exposer le prototype de notre machine dans le musée à l’occasion de l’exposition Design and the Elastic Mind.

Cette exposition au MoMA a été décisive pour la suite du projet. Nous étions dans un musée d’art, pas dans une exposition scientifique. Il n’y avait aucun texte didactique pour expliquer comment la machine fonctionnait. Les visiteurs, plusieurs milliers par jour, allaient devoir le découvrir seuls. Nous avons profité de cette unique occasion pour étudier attentivement la manière dont ces rencontres inédites avaient lieu. De retour à Lausanne, nous avions pris deux décisions: créer une société dont le but serait d’amener sur le marché ce nouveau type d’ordinateurs et repenser entièrement l’interface gestuelle que nous avions mise en place, pour la rendre plus intime.

Les premières versions du QB1 furent achetées par Logitech et Samsung. Mais nous avions du mal à transformer notre petite start-up en une entreprise capable de produire et distribuer les QB1 en série. La machine était perçue comme extrêmement futuriste. Elle attirait l’attention, mais pas les ventes.

En parallèle, j’approfondissais le concept de “Real Scale Media”, d’une certaine manière l’inverse des médias immersifs, un principe que j’ai exposé dans un TED talk en 2010. QB1 dont je faisais la démonstration sur scène était un premier exemple sur ce qui pourrait être un domaine médiatique beaucoup plus large.

La grande innovation de QB1 consistait finalement en un changement de référentiel. En physique, tout mouvement doit être interprété par rapport à un référentiel: la Terre autour du Soleil, la Lune autour de la Terre, la pomme qui tombe de l’arbre vers le sol. Avec QB1 et contrairement aux interfaces classiques, l’interaction n’a plus lieu dans le référentiel de l’écran, mais dans le nôtre. Chacun de mes gestes était interprété par rapport à ma propre position corporelle. Par un geste ample de la main droite je passais à la chanson ou photo suivante, par le geste symétrique de la main gauche je revenais à mon choix précédent. En écartant les mains je zoomais sur l’image, en les rapprochant je prends du recul. Que je sois loin ou près, le même geste aura le même effet, car de mon point de vue, dans mon référentiel, il est le même.

2009-2013 : De QB1 aux livres-machines, la première renaissance d’OZWE

Alors que ces principes d’interaction se mettaient progressivement en place, je commençais à travailler avec Laurent Bolli et Cristiana Bolli, fondateurs de BBStudio pour créer l’univers graphique du QB1. QB1 était par bien des aspects une machine paradoxale. Son enveloppe textile cachait des composants d’une haute technicité. Son design était géométrique et froid, mais on interagissait avec elle par des gestes animés et fluides. Les interfaces et interactions graphiques avec ce qu’il y aurait sur l’écran de la machine étaient tout aussi important que la forme de l’objet lui-même.

Mais OZWE commençait à être en difficulté par l’effort de recherche et développement que représentait l’invention de logiciels pour QB1. Les dépenses n’étaient pas compensées par les ventes de machines. A ce rythme, l’entreprise allait faire faillite. C’était dommage, car nous étions une équipe d’ingénieurs motivés, plein de bonnes idées, mais sans moyen pour les réaliser.

Et puis …  l’iPad est arrivé. Laurent et Cris étaient des spécialistes de la communication et de la publication. BBStudio travaillait déjà avec les plus grandes marques suisses. J’ai alors décidé de transformer profondément OZWE pour créer en partenariat avec Laurent et Cristiana une joint venture, Bookapp.com, dont l’objectif serait de devenir un des leaders de l’adaptation de publication papier sur support numérique. Nous avons pris contact avec des éditeurs et très vite développé un savoir-faire et des technologies qui nous permis d’être leader sur ce marché en Suisse et partiellement en France.

En 2011 la transition était achevée et la joint venture se développait à grande vitesse. Bookapp comptait une vingtaine d’employés. Je tentais d’expliquer cette transition à la presse (voir http://www.bilan.ch/articles/techno/le-roboticien-qui-veut-transformer-le-livre-en-machine) . Pour moi le passage de la robotique d’intérieur au livre électronique n’était pas si incongru. C’est dans ce contexte et par analogie avec mes travaux précédents que je commençais à développer le concept de livre-machine. Cette réflexion et un certain nombre de collaborations que nous avions développées avec des institutions culturelles (Bibliothèque Nationale de France, Fondation Cartier, Fondation Bodmer, etc.) seront aussi à la base de certaines recherches que je continuerai ensuite dans le cadre du Digital Humanities Lab à l’EPFL.

2013- …  : Immersion dans le virtuel, la seconde renaissance d’OZWE

C’est dans ce contexte que Stéphane Intissar a rejoint l’équipe. Ce spécialiste de jeux vidéo a commencé à travailler sur les projets de Bookapp.com qui comportaient des univers immersifs et de la 3d (livre pour enfants, visites virtuelles de musée), notamment dans le cadre du partenariat que nous avions avec l’éditeur Tom Books. Mais le week-end, Intissar travaille sur d’autres projets. Il essaie toutes les interfaces les plus innovantes, rentre en contact avec les premiers développeurs sur ces machines. Petit à petit, les jeux qu’il développe en indépendant attirent l’attention de nouveaux acteurs du marché, dont Oculus Rift.

Nous discutons souvent de l’opportunité d’entrer ou non dans ces nouveaux marchés. Nommé professeur à l’EPFL, je ne peux plus diriger OZWE au jour le jour. Laurent assure l’interim, mais il devient clair qu’il faut donner à l’entreprise un nouveau départ, peut-être plus proche de sa trajectoire d’origine. Nous decidons alors de dissoudre la jointe venture (les projets Bookapp deviennent des projets BBstudio.com) et de transformer OZWE en OZWE games, un studio de jeu spécialisé dans l’interaction immersive. Stéphane devient CEO et est rejoint par une nouvelle équipe (dont Jonathan Besuchet qui avait travaillé avec moi sur le QB1). Il dirige avec passion et énergie cette seconde renaissance d’OZWE. La suite de l’histoire est partiellement chroniquée dans la presse ces jours-ci. Depuis quelques mois, OZWE Games travaille en interaction constante avec Oculus Rift et Samsung (un de premier client du QB1). Stéphane est à la base d’une invention en terme de gameplay, qui donne à l’entreprise une longueur d’avance sur presque tous ses concurrents potentiels. Travaillant avec BB studio pour le développement des interfaces graphiques, son titre phare, Anshar’s Wars, est un des jeux ayant reçus les critiques les plus positives depuis ses premières démonstrations (vrfocus). D’autres titres sont en préparation. L’essentiel de l’histoire est encore à écrire.

Alors qu’OZWE Games prend aujourd’hui son envol et tente d’écrire un nouveau chapitre de cette aventure entrepreneuriale de presque 10 ans, je ne peux m’empêcher de penser de voir dans cette histoire à rebondissement une certaine logique. Nous cherchons à comprendre le futur de l’immersion et au fil des succès et des échecs nous apprenons petit à petit à mieux faire cohabiter des univers parallèles avec notre quotidien. Être ici et être ailleurs.

Kaplan, Frédéric. 2012. “L’ordinateur Du XXIe Siècle Sera Un Robot.” In Et l’Homme Créa Le Robot, 58–65. Musée des arts et metiers.

Kaplan, Frédéric. 2012. “How Books Will Become Machines.” In Lire Demain. Des Manuscrits Antiques à L’ère Digitale., edited by Claire Clivaz, Jérome Meizos, François Vallotton, and Joseph Verheyden, 25–41. PPUR.


L’Anglais comme langue pivot ou l’impérialisme linguistique caché de Google Translate

novembre 15, 2014
Depuis quelques mois, j’explore avec Dana Kianfar, un des nouveaux doctorants du DHLAB financé par le Fond National suisse, la logique interne de Google Translate. Nous tentons d’en anticiper les effets culturels dans le cadre du capitalisme linguistique et des nouveaux effets de médiations algorithmiques.

Demandez à Google Translate de traduire cette “Cette fille est jolie.” en italien et vous obtiendrez une proposition étrange : “Questa ragazza è abbastanza.”, littéralement cette fille est “moyenne”. La beauté a été “lost in translation”. Comment un des traducteurs automatiques aujourd’hui les plus performants, capable d’utiliser un capital linguistique unique au monde, des milliards de phrases, peut-il faire une erreur aussi grossière ? La réponse est simple, il pivote par l’anglais. Jolie se traduit par “pretty” et “pretty” par “abbastanza”.

google translate

Une fois compris ce principe, il devient dès lors aisé de produire des phrases traductions extrêmement étranges. L’expression idiomatique “Il peut des cordes” se transforme en une expression très poétique “Piove cani and gatti”. Cette traduction directe de “It rains cats and dogs” est absolument incompréhensible pour un italien.

Il est normal que Google Translate procède de cette façon. Pour produire un traducteur automatique, il est nécessaire de disposer de grand corpus de textes identiques traduits d’une langue à l’autre. Google étant une entreprise américaine, son outil s’est construit sur des paires associant presque toujours l’anglais comme langue pivot. Pour aller du Français vers l’Italien, il faut ainsi, “par construction”, passer par une traduction anglaise intermédiaire.

Le biais culturel d’un tel procédé est évidemment important. Le Français et l’Italien sont des langues relativement proches. En comparaison, l’anglais est une langue particulière, compacte, idiomatique. Projeter vers l’espace anglophone puis reprojeter vers une langue cible induit des effets linguistiques et culturels qu’il faut étudier.

En effet, comme nous l’avons discuté ailleurs (Kaplan 2014), les textes produits algorithmiquement par des traducteurs automatiques ne sont pas nécessairement identifiés comme tels. Ils se présentent au contraire souvent comme des ressources primaires, naturelles et éventuellement prises comme modèle par un certain nombre de lecteurs. “Piove cani e gatti” peut sembler une expression admissible pour un lecteur dont l’italien n’est pas la langue maternelle et a fortiori pour des algorithmes qui étudient la structure de la langue dans le but produire artificiellement de nouveaux textes. Les modèles ainsi induits peuvent dans un second temps être utilisés par des services de médiation textuelle qui proposent par exemple d’autocompléter une phrase que vous êtes en train de taper. Il n’est pas un impensable que, dans quelque temps, un italien commençant une phrase par “Piove …” se voit proposer la continuation “Piove cani e gatti”, une expression qui sans doute n’a jamais été prononcée ou écrite dans toute l’histoire de la langue italienne. Le pivot linguistique vers l’anglais participe à un phénomène de créolisation inédit.

L’impérialisme linguistique de l’anglais a donc des effets beaucoup plus subtils que ne le laisseraient penser les approches qui n’étudient que la “guerre des langues”. Le fait de pivoter par une langue conduit à introduire dans les autres langues des logiques linguistiques propres et donc insensiblement des modes de pensée spécifiques. Il semble crucial d’inventer de nouveaux outils pour détecter et documenter ces nouvelles évolutions linguistiques.

Notons pour conclure que si l’anglais joue un rôle pivot pour les langues “européennes”, d’autres langues ont sans doute le même effet localement pour d’autres bassins linguistiques (Le Hindi par exemple). À l’échelle mondiale, c’est un réseau de chaines de traduction qui est en train de se mettre en place et qui impose parfois pour traduire une expression d’une langue à une autre de pivoter par une série de langues intermédiaires. Quand nous voyons les effets linguistiques d’un de ces pivots, imaginer des séquences de ces transformations linguistiques laisse songeur.

Kaplan, Frederic. 2014. “Linguistic Capitalism and Algorithmic Mediation.” Representations 127 (1): 57–63. doi:10.1525/rep.2014.127.1.57.


Les mots croisés vénitiens

octobre 14, 2013

J’étais la semaine dernière à Venise pour l’organisation de la première école doctorale entre l’Université Ca’Foscari et l’EPFL. Une petite trentaine d’étudiants des sciences historiques et des sciences de l’information ont pu travailler en groupe autour de projets liés à la Venice Time Machine. Nous avons créé un site web dédié à cet évènement. J’ai également profité de cette semaine vénitienne pour progresser sur notre projet de reconstruction cartographique avec Isabella di Lenardo, une chercheuse de l’IUAV. Il s’agit de tenter d’ajouter un « slider » aux systèmes d’informations géographiques comme Google maps pour pouvoir remonter dans le temps et tenter de recréer l’état de la ville et de sa population, année après année sur une période d’au moins 500 ans. Nous parlerons de ces recherches lors du table ronde sur « la carte et le temps » que j’organise demain au SITG 2013, à Genève.

Une carte de Venise de 1829

Une carte de Venise de 1829

Les deux ans premières centaines années ne posent que peu de problèmes. Les systèmes cartographiques et cadastraux du XIXe siècle ressemblent encore beaucoup aux nôtres.  Les procédures mises en place par Napoléon en 1797 nous sont familières. Nous disposons également à partir de cette période de recensements précis de la population. L’ensemble de ces données constitue une base solide pour faire revivre la Venise des 200 ans dernières années.

venice_map_1765-crop

Une carte de Venise en 1765

La situation est plus complexe entre le XVIIIe siècle et le début du XVIe siècle. Les cartes sont encore nombreuses, mais ne peuvent plus être considérées directement comme des objets géométriques. Nous disposons de déclarations d’impôts des Vénitiens jusqu’au début du XVIe siècle, mais elles indiquent rarement les adresses de manières précises. Nous avons que telle boutique est dans telle calle, près de tel palazzo.  En fait le problème que nous avons à résoudre ressemble à un mot croisé géant. Nous partons de quelques points fixes qui n’ont que peu bougés dans le temps, comme un point ou un palais, et de proche en proche nous tentons de placer les maisons. Certaines reconstitutions s’avèrent après exploration des impasses. Il nous faut, comme dans les mots croisés, revenir en arrière, tester une autre hypothèse de départ et voir si, dans ces conditions, nous réussissons à reconstruire une solution qui respecte tout ce que nous savons de la ville à une époque donnée. À ce jeu exploratoire, les ordinateurs ne sont pas mauvais. Il est d’ailleurs possible qu’un certain nombre de nos mots croisés vénitiens ne puisse en fait être résolu qu’avec leur aide.

Une carte de Venise en 1550

Une carte de Venise en 1550

Avant 1500, les choses se compliquent encore. Plus de carte, plus de déclaration d’impôts. Simplement des témoignages indirects et des éléments archéologiques. Mais même si les documents se font plus rares, nous pouvons toujours tenter d’extrapoler, de simuler, de reconstruire des Venises compatibles avec ce que nous savons. Car au final, il ne s’agit pas tant de reconstruire le passé véritable que d’explorer l’espace des Venises possibles, un espace toujours resculpté par les nouvelles découvertes historiques, un espace trop grand pour tenir dans la tête d’un seul chercheur, mais que l’informatique peut nous aider à cartographier ensemble.


A propos d’Ingress, jeu en réalité alternée

septembre 7, 2013

Le Temps consacre ce samedi une page entière à Ingress, jeu en réalité alternée. La journaliste, Jessica Richard, m’avait posé quelques questions pour préparer son article. Comme l’article a pris finalement la forme d’une narration décrivant essentiellement l’expérience de jeu, plus que d’une réflexion sur les enjeux de ces nouvelles formes ludiques — il faut en effet sans doute d’abord faire mieux connaitre ces jeux au grand public avant d’en discuter la spécificité de manière plus approfondie —   je me permets de reproduire ici l’interview préparatoire, dans le cas où cela pourrait intéresser quelqu’un. 

Ingress est-il selon vous un jeu de réalité augmentée ou alternée ? Et quelle est la différence entre ces deux appellations ?

Les jeux en réalité alternée sont construits autour de scénarios, le plus souvent participatifs, qui se déroulent dans notre monde et en temps réel. Ce sont d’une certaine manière de jeux de rôles « grandeur nature » ayant comme cadre notre univers familier. Certains de ces jeux utilisent de multiples modalités : les joueurs reçoivent des emails, des coups de téléphone, consultent des sites web ou utilisent une application mobile. Le jeu ne s’arrête jamais et se poursuit en parallèle des autres activités quotidiennes. Dans Ingress par exemple, les joueurs doivent se rendre des lieux réels pour effectuer des actions qui ont des impacts dans l’univers du jeu, mais évidemment seuls les joueurs de jeu le savent. Ce sentiment de participer ensemble à des actions à la fois publiques et secrètes fait partie d’un des plaisirs spécifiques des jeux en réalité alternée.

Les jeux en réalité augmentée sont ceux qui d’une manière plus générale utilisent des dispositifs informatiques (smartphone, tablette, lunette, etc.) pour superposer des représentations virtuelles sur les images de la réalité. Il s’agit en quelque sorte de voir le monde au travers d’un filtre additionnel. Ingress n’utilise pas encore vraiment ce principe, puisque les interactions ont essentiellement lieu par l’intermédiaire de cartes, mais il est clair que ce type de technologie pourrait venir enrichir l’expérience ludique et s’inscrit tout à fait dans l’esprit des jeux en réalité alternée.

— Comment caractériser l’expérience nouvelle proposée par un jeu comme Ingress ?

Des jeux comme Ingress font la synthèse et étendent de deux types de virtualités traditionnelles, l’une qui vient des jeux et l’autre qui vient de la narration. N’importe quel jeu permet de créer momentanément une parenthèse spatiotemporelle dans laquelle les règles de comportements sont différentes. C’est ce que l’historien Johan Huizinga appelait le « cercle magique ». Dans certains jeux, ce cercle est visuellement matérialisé (un court de tennis, un échiquier, une marelle). La parenthèse s’ouvre quand le jeu commence puis elle se clôt quand le jeu finit. Les enfants apprennent très tôt ce principe culturel fondamental de nos sociétés. Par ailleurs, toute narration est aussi une réalité virtuelle. L’auteur d’un roman construit un monde parallèle cohérent et nous guide dans son exploration. Quand nous lisons un livre, nous sommes donc à tout moment à deux endroits à la fois, à un arrêt de bus à Lausanne, mais aussi dans l’Angleterre de Jane Austen ou sur la trace du meurtrier dans une enquête du commissaire Maigret. Les jeux en réalité alternée étendent, d’une part, le cercle magique du jeu à la vie de tous les jours et, d’autre part, synchronisent un univers narratif parallèle dans notre propre espace et notre propre temps. C’est donc le prolongement et le mariage des deux formes culturelles assez traditionnelles qui donne cette forme d’expérience inédite.

— Qu’est-ce qu’un jeu comme Ingress nous dit des « fantasmes » de l’homme ?

Nous avons sans doute une prédisposition culturelle pour ce type d’expérience. L’existence d’univers parallèles seuls perceptibles par des initiés est une des formes classiques en littérature fantastique. C’est aussi un thème très contemporain. L’esthétique d’Ingress, notamment dans les teasers annonçant le projet, a beaucoup de similarités avec les univers de J.J Abrams, notamment ceux des séries Lost et Fringe qui joue perpétuellement sur des variations autour du thème des mondes parallèles. Ce sont d’ailleurs des univers qui ont déjà donné lieu à d’autres jeux en réalité alternée.

— Pensez-vous que ce genre de jeu qui use du monde réel comme plateforme est appelé à se développer ?

Aujourd’hui les grandes entreprises comme Google accumulent des données sur le comportement des utilisateurs, mais jusqu’à présent elles n’avaient pas d’influence directe sur leurs actions. Avec un jeu comme Ingress, une entreprise peut littéralement « sculpter » comportement des joueurs en les invitant par exemple à se rendre à un point particulier pour effectuer une action spécifique. Ceci peut servir à améliorer la collection de données cartographique en documentant les déplacements des joueurs pour se rendre vers ce point, une manière d’affiner l’évaluation des temps de parcours et la diversité des trajets possibles. C’est une forme spécifique et efficace de « crowdsourcing » qui permet non seulement de recueillir de très large quantité de données, mais de se servir des joueurs comme sujets d’expérience. Celui qui contrôle le jeu transforme de fait les joueurs en pantins.

— Dans quelques années, pensez-vous que les gamers seront équipés de Google Glass et feront de leur ville leur terrain de jeu ? Quels risques, si risque il y a, cela pourrait générer ?

Un joueur qui utilise des dispositifs de réalité augmentée comme Google Glass prend peut-être en fait moins de risque qu’un simple piéton qui traverse une rue tout en consultant ses emails sur son smartphone. C’est la captation des données associées à ce type d’interface qui est plus préoccupante. Quand une entreprise peut non seulement inciter des joueurs à se rendre à un endroit particulier, mais également capter continument leur regard durant ce trajet, elle dispose d’une stratégie sans précédent pour la collection de données. C’est, il me semble, dans cette perspective qu’il faut discuter des risques de ce type de projets.


Fantasmagorie au musée

Mai 10, 2013

La muséographie, cet art de la rencontre que les Italiens nomment « fruizione » et dont certaines formes s’étaient progressivement stabilisées au cours du XIXe et du XXe siècle, est aujourd’hui remise en question par de nouveaux dispositifs technologiques. Le musée, comme la bibliothèque, est avant tout une interface particulière dont la structure est affectée par les nouvelles technologies (Kaplan 2012a). Audioguides, tablettes, écrans interactifs bouleversent les narrations muséographiques et la structure même de l’espace du musée. Le groupe en visite — encore aujourd’hui la forme d’expérience muséale la plus répandue — se trouve dès l’entrée atomisé. Grâce aux audioguides et aux tablettes, les visiteurs font l’expérience de discours parallèles et personnalisables. L’effort pour proposer des parcours non linéaires (McLuhan et al 2008) conduit parfois au renoncement à un discours d’ensemble. Ceux qui refusent ces dispositifs s’engagent dans des rencontres non encadrées, privilégient l’émotion à la compréhension. Ceux qui optent pour la compréhension finissent par ne plus voir les objets. La technologie fait ce qu’elle sait faire de mieux : diviser, paralleliser, personnaliser — au détriment d’un expérience collective partagée.

Dans l’imaginaire collectif, le musée reste pourtant le lieu où l’on voit, ensemble, les choses en « vrai ». Dinosaures et momies — versions contemporaines des reliques saintes — attirent des foules excitées à l’idée de faire la rencontre physique avec des « monstres » des temps anciens. Toutes proportions gardées, c’est aussi en partie ce frisson de la rencontre qui motive l’amateur d’exposition de grands maitres : voir un Van Gogh ou un De Vinci «en vrai», s’interroger sur l’expérience ressentie, la comparer avec celle des multiples représentations de l’oeuvre sous forme imprimée ou télévisuelle que nous avions pu voir auparavant. Cette attraction du réel, du « grandeur nature » et de l’authentique, assure la singularité du musée par rapport à l’abondance des musées virtuels et des gigantesques bases de données. C’est la rencontre physique avec l’objet qui toujours motive dans ce lieu, hors du monde et hors du temps (Deloche, 2010)

Comment concilier l’expérience de l’objet, le frisson de la rencontre avec le « monstre », avec sa compréhension et sa mise en contexte ? Peut-on imaginer des technologies qui enrichissent cette rencontre pour en faire non seulement une expérience physique, mais aussi intellectuelle ? Je m’intéresse depuis plusieurs années à la question des medias « grandeur nature », non immersifs, ceux qui se mêlent sans discontinuité à notre espace physique et social. Ce champ d’études comporte de nombreux sous-problèmes depuis les effets d’individuation  induits par les « bulles digitales »  ou à la manière de concevoir des « real-scale media » par l’intermédiaire de dispositifs robotiques (Kaplan 2012b). La dernière exposition à la Fondation Bodmer nous a donné l’occasion de tester la pertinence d’une approche en réalité mixte pour la muséographie.

Deux vitrines sont présentées lors de l’exposition Le lecteur à l’œuvre, du 27 avril au 25 août à la fondation Martin Bodmer. Développée avec l’aide la société Kenzan, ces vitrines permettent de juxtaposer des images autour d’objets réels, en l’occurrence ici des manuscrits du XIVe siècle. Les images semblent flotter dans les airs, à la manière d’un hologramme. Quand le visiteur s’approche, une grille apparait comme projetée sur le manuscrit pour guider son regard en soulignant sa structure. De minuscules détails sont alors révélés. Un scénario explicatif commence à se dérouler tout autour de l’objet . Ces vitrines, équipées de caméra 3D, permettent également d’adapter le contenu présenté au public et de mesurer l’attention des visiteurs. Elles peuvent aussi, quand cela est pertinent, permettre l’interaction.

Vitrine réalisé par l'EPFL pour l'exposition Le lecteur à l'oeuvre à la Fondation Bodmer

Vitrine présentée à la Fondation Bodmer pour l’exposition le lecteur à l’oeuvre

D’une certaine manière ces vitrines permettent de créer des « fantômes » ou plus précisément des « fantasmagories didactiques » autour des objets présentés. L’idée n’est pas nouvelle — loin de là — puisque le type d’illusions d’optique utilisées ici trouve ces racines dans les grands spectacles de la fin du XVIIIe siècle. Je reviens dans la suite de ce billet sur la genèse, les sources d’inspiration et la construction imaginaire de ce projet. Comme nous le verrons, l’ambition de ce dispositif est de tenter de résoudre le problème muséographique de l’« attention divisée » introduit par l’arrivée des cartels, dans le dernier quart du XVIIIe siècle par un procédé fantasmagorique dont les premières versions furent inventées à la même époque, mais qui connait aujourd’hui une nouvelle renaissance sous le nom, quelque peu abusif, de procédé « holographique ».

L’attention divisée

À la fin du XVIIIe siècle, Tommaso Puccini, nouveau directeur de la gallérie des Offices à Florence suggéra que les oeuvres d’art ne sauraient être appréciées en tant que telles et qu’il était pertinent d’ajouter, pour les visiteurs, une indication sur leur auteur et que cette indication pourrait modifier de manière significative la perception des oeuvres d’art. Il installa donc de petits « cartels » (« cartellino ») pour accompagner chaque oeuvre (Barbieri 2012).

Les effets du cartel, pressentis par Puccini, se montrèrent rapidement extrêmement importants : un point de « non-retour » muséographique, pour reprendre l’expression de Giuseppe Barbieri. Dans les musées, il ne serait plus question d’expérience directe de l’oeuvre, mais d’un complexe mélange entre réception intellectuelle et expérience esthétique. Le cartel nouvellement inventé préfigurait la narration muséographique. Il offrait aux commissaires d’exposition une manière de sculpter le regard du visiteur dans un sens ou dans un autre.

Encore aujourd’hui, c’est dans l’aller-retour entre cartel et oeuvre que tout se joue. Un dialogue s’instaure. Le cartel détermine-t-il la perception d’une oeuvre ? L’oeuvre éclaire-t-elle le cartel ? Beaucoup d’artistes exploreront cette dualité et construiront leur discours artistique en utilisant ces deux instants de la perception muséographique.

Mais depuis l’invention majeure du cartel et l’attention divisée, le discours muséographique n’a finalement que timidement évolué. Le cartel est toujours là, l’attention toujours divisée. Au contraire, l’introduction des écrans, sorte de « super cartels interactifs » a renforcé la dichotomie expérience/explication. Les visiteurs peinnent à choisir. Faut-il voir l’oeuvre ou son explication ? Et si l’explication sur écran, nécessairement plus didactique, balisée et sécurisante que l’oeuvre dépasse l’objet qu’elle commente, à quoi bon encore regarder l’objet ? Ne serions-nous pas mieux sur le canapé de notre salon, une tablette en main, zoomant sur chaque détail de l’oeuvre ou se lisant guider par une explication raisonnée ?

Ici se joue peut-être l’enjeu muséographique des années à venir.

La bulle de l’audioguide

Au début des années 1960, l’italien Giovanni d’Uva installa dans plusieurs églises (Le Duomo à Mlan, la Basilique Santa Croce et le Duomo à Florence), l’« audiophono », un premier système permettant d’obtenir des informations sonores. Cet ancêtre des audioguides était une première piste pour tenter de résoudre le dilemme de l’attention divisée (d’Uva est d’ailleurs semble-t-il toujours actif dans ce domaine)

Audioguide-1959

Audiophono de Giovanni d’Uva en 1959

Une dizaine d’années auparavant, le Stedelijk Museum à Amsterdam avait déjà expérimenté un premier modèle d’audioguide portable (voir le billet de Loic Tallon sur ce sujet). Basé sur une technologie développée par Philips initialement pour le cinéma et à destination des malentendants, le système transmettait par radio le contenu audio simultanément à tous les visiteurs. Une visite synchrone dont il ne fallait évidemment pas manquer le début.

audio-guide

Audio guide de 1952 – Stedeljk Museum. Photo by Loic Tallon via Flickr.

C’est Williem Sandberg, typographe et directeur du musée Stedelijk entre 1945 et 1968 qui fut à l’origine de cette petite révolution. Sandberg était dès les années 1960 convaincu que le musée devait se transformer et il fut à l’origine de nombreuses autres innovations (dont le texte non justifié aligné sur la gauche pour les cartels par exemple). (Bradburne, 2008, p.x). L’audioguide a eu le succès qu’on connait. Il s’est généralisé dans de nombreux musées, permettant à chacun d’accompagner sa visite par une explication interactive.

Regarder l’oeuvre, écouter explication. Cette dissociation des sens permet de retrouver en partie l’unité de l’expérience. Mais cette unité retrouvée a un prix, celui de la bulle. Comme chaque visiteur peut maintenant à son propre rythme construire son propre parcours au travers des oeuvres proposés, les familles se divisent, les groupes aussi. L’expérience du musée devient singulière et difficilement partageable. La réunion de l’attention se fait ici par une individuation de l’expérience.

De plus, le discours de l’audioguide peut donner le contexte, mais plus difficilement guider le regard. Impossible de pointer avec un audioguide. Face à cette difficulté, le discours de l’audioguide devient rapidement autonome, un discours à propos de l’oeuvre, mais pas en contact direct avec elle. Il n’est pas rare de voir les visiteurs quitter l’oeuvre du regard pour se concentrer sur ce qu’on leur explique. Certains commencent à déambuler dans la salle, les yeux ailleurs, comme peut le faire dans une conversation téléphonique. Ils sont dans leur bulle sonore : le discours a pris le pas sur tout le reste.

Des images qui flottent dans les airs

Le musée a sans doute besoin d’un autre type de discours qui combine dans un même espace l’émotion de la rencontre avec les objets authentiques et l’explication intellectuelle . Cet espace ne peut que l’espace physique et social de nos interactions, pas ceux immersifs des écrans ou des textes.

Le rêve d’un média capable de s’intégrer au monde réel sans cadre ou écran visible est depuis longtemps présent dans notre imaginaire. Le fantôme ou le spectre, apparitions semi-transparentes superposées au monde réel, relèvent de cette famille d’effets qui produisent des images flottant dans les airs. À la fin du XVIIIe siècle, le public se réunissait autour de dispositifs de projection créant ces illusions spectrales (Gunning, 2009). Etienne-Gaspard Roberston, belge ayant fait une carrière en France, propose dans ses Salons de Physique des Fantasmagories, littéralement « l’art de faire parler les fantômes en public » (Levie, 1990). Dans une ambiance macabre, les illusions d’optique de Roberston font apparaitre des images volantes, fantomatiques conçues pour terroriser l’auditoire. Roberston place les visiteurs, d’ordinaire habitués aux spectacles éclairés, dans une grande obscurité. Ils sursautent et tremblent ensemble, sans comprendre le procédé dont il voit que les effets. Ils ne viennent plus contempler avec fascination les lanternes magiques, ils viennent se faire surprendre face à des images qui flottent dans les airs. Robertson refuse d’ailleurs de dévoiler sa technique et en gardera longtemps le monopole.

phantasmagoria

Les Fantasmagories d’Etienne-Gaspard Roberston

À la fin du XXe siècle, l’arrivée des techniques holographiques a donné une nouvelle impulsion et une base scientifique à ce rêve spectral. L’hologramme fixe en trois dimensions, une image qui apparait elle aussi comme flottant dans les airs. Et même si paradoxalement aucune technique holographique à proprement parler n’a été utilisée pour réaliser des interfaces, les « hologrammes » ont progressivement envahi l’imaginaire visuel. Dans les films de science-fiction, ils sont devenus l’incarnation des procédés d’affichage et d’interaction de demain.

Ainsi s’est développée une esthétique visuelle relativement stable basée sur des effets de transparences colorées, le plus souvent dans des gammes de couleur allant du bleu au vert, référence directe aux effets visuels des premiers « hologrammes ». Dans un billet récent, Christophe Gazeau fait l’inventaire de certaines apparitions holographiques dans les films de science-fiction américains. En 1977 dans la Guerre des Étoiles,  la princesse Leia délivre son message de détresse sous la forme d’une projection holographique, tridimensionnelle, mais de taille réduite. La projection partage le même espace que les autres personnages sans pour autant agir directement avec eux (Steven Spielberg reprendra cette esthétique de la projection holographique dans Minority Report : l’inspecteur incarné par Tom Cruise, se repassent les vidéos tridimensionnelles de sa femme décédée comme on revoit avec nostalgie un ancien film pris au caméscope ; un écran large cette fois-ci, mais toujours pas d’interaction).

princessleiahologram012511

L’hologramme de Princesse Leia dans La Guerre des Etoiles de Georges Lucas

Avec Avatar et Iron man, les écrans « holographiques » tridimensionnels deviennent le standard de visualisation. Ils s’imposent comme futur naturel de nos interfaces graphiques, permettant une interaction gestuelle en trois dimensions dont l’efficacité est mis en scène par les réalisateurs. Comme ces images s’insèrent dans un espace visible en transparence, superposé à l’espace physique, elles permettent l’interaction en groupe — sans immersion. C’est le fantasme d’une interface totalement dématérialisée et paradoxalement entièrement intégré au monde réel, fantasme d’une réalité mixte ou les images et réalité se mêlent pour former un nouveau medium.

avatar-hologram2

Les écrans « holographiques » de Avatar

Comme toujours, Hollywood s’inspire des travaux des chercheurs, les extrapole, les met en scène et fixe ainsi l’esthétique et les objectifs d’un nouveau cycle de recherche. En 2002. les interfaces 3D de Minority Report étaient basées sur les prototypes déjà fonctionnels (notamment le système G-Speak de la société Oblong), mais ont donné naissance à une grande vague de recherche pour le développement des cameras 3D et des interfaces gestuelles. Un produit comme Kinect ou les premiers téléviseurs qui aujourd’hui remplacent la télécommande par le geste sont les héritiers de l’immense impulsion que le film de Steven Spielberg a donnée pour cet imaginaire technologique.

Sommes-nous en train d’observer l’équivalent avec Avatar/Iron Man et les interfaces « holographiques » ? Depuis quelques années, grâce à d’habiles jeux de miroirs, dont les principes sont depuis longtemps connus, l’esthétique des images flottantes s’invite dans les vitrines publicitaires, les présentations de nouveaux produits et les concerts. Dès 2006, le designer Alexandre McQueen avait déjà fait apparaitre une Kate Moss fantomatique lors d’un de ses défilés.

Le "fantome" de Kate Moss en 2006

Le « fantome » de Kate Moss en 2006 par le designer Alexandre McQueen

Le terme « holographique » continue à être utilisé pour designer ces systèmes qui s’inspirent de l’esthétique de science-fiction, bien qu’ils n’utilisent en rien les techniques de l’holographie. Le passage par Hollywood a permis un glissement sémantique. Les nouvelles vitrines « holographiques » produisent sans holographie ce que le cinéma de science-fiction a anticipé, mais que l’holographie n’a jamais réussi à produire. Faut-il dès lors les rebaptiser ?

Écrire pour la réalité mixte

Pour les vitrines de la fondation Bodmer, j’ai essayé de produire des narrations adaptées à ce qui est finalement un nouveau média. Écrire non pas pour le cadre bien circonscrit d’un écran mais pour une fantasmagorie qui vient se superposer à la réalité, demande des adaptations. J’ai procédé en deux étapes.

J’ai d’abord rédigé pour chacune projet un billet de blog (« L’origine médiévale de l’hyperlien, des pointeurs et des smileys», « Venise et Troie : même combat ») pour faire le point sur ce que l’on pouvait dire de manière relativement simple sur chacun des objets.

J’ai ensuite transformé ce discours en deux familles de mouvements : une trajectoire permettant la décomposition des objets eux-mêmes (identification de la structure puis des parties remarquables des manuscrits), une autre recréant l’histoire spatiotemporelle de l’objet (généalogie géohistorique). La première trajectoire colle à l’objet pour guider le regard, la seconde le replace dans une espace bien plus large. Ensemble, elles construisent un discours autour de l’objet dans un espace visuel unifié.

Chacun de ces récits dure environ cinq minutes. Comme les vitrines sont équipées de caméras 3D, nous pouvons observer les réactions des visiteurs au fur et à mesure que se déroule ce récit en réalité mixte. J’ai tenu que cette dimension expérimentale soit intégrée à ce premier prototype car il me semble que nous avons encore tout à apprendre pour développer des productions dans ce qui est finalement un nouveau médium pour les musées. Nous comptons publier les résultats de cette première expérience une fois l’exposition terminée, à l’automne prochain.

Ces vitrines à effet « fantasmagorique » ouvrent-elles une nouvelle voie pour la muséographie ? Nous ne le savons pas encore. Mais comme nous l’avons vu, le procédé qu’elles mettent en oeuvre est issu d’une longue lignée technologique qui a déjà fait ses preuves. Ce sont en fait de nouvelles machines à créer des « fantômes ». Et comme nous le savons, quand on parle de musée, Belphegor n’est jamais très loin.

Remerciements

Je tiens à remercier tous ceux qui ont travaillé à la conception et la production de ces premières vitrines à effet fantasmagorique : Stéphane Intissar (direction de projet, programmation),  Pascal Conicella (conception), Thierry Divenot (gestion de la production des vitrines), Quentin Bonnard (hardware, programmation linux), Jonathan Besuchet (programmation camera 3D), Edouard Chabrol (design graphique), Martino d’Esposito et Alexandre Gaillard (direction design industriel), Laurent Bolli  et Cristiana Bolli-Freitas (direction artistique).

Références

Bradburne, James, ‘Foreword’, in Digital Technologies and the Museum Experience: Handheld Guides and Other Media (AltaMira Press,U.S., 2008)

Barbieri, Giuseppe, ‘Commune et Diverso : Dalla Genese Del Cultural Heritage Alle Nuove Strategie Di Fruizione Del Centro Multimediale Di Pordenone’, in Pordenone, un nuovo sguardo (Terra Ferma, 2012), pp. 43–78

Deloche, Bernard, Mythologie Du Musée : De L’uchronie à L’utopie (Editions Le Cavalier Bleu, 2010)

Gunning, Tom, ‘The Long and the Short of It: Centuries of Projecting Shadows, from Natural Magic to the Avant-garde’, in Art of Projection (Hatje Cantz, 2009), pp. 23–35

Levie, Françoise, Étienne-Gaspard Robertson: la vie d’un fantasmagore (Le Préambule, 1990)

Kaplan, Frédéric, ‘La Bibliothèque Comme Interface Physique de Découverte et Lieu de Curation Collective’, Documentaliste — Sciences de l’information, 49 (2012a), 12–13

Kaplan, Frédéric, ‘L’ordinateur Du XXIe Siècle Sera Un Robot’, in Et l’Homme créa le robot (Musée des arts et metiers, 2012b), pp. 58–65

McLuhan, Marshall, Harley Parker, Jacques Barzun, Bernard Deloche, and Collectif, Le Musée Non-linéaire : Exploration Des Méthodes, Moyens Et Valeurs de La Communication Avec Le Public Par Le Musée (Aléas, 2008)


L’origine médiévale de l’hyperlien, des pointeurs et des smileys

avril 19, 2013

Le second manuscrit que nous présentons dans une vitrine à réalité augmentée pour l’exposition «Le lecteur à l’oeuvre» est une copie du XIVe siècle produite à Bologne d’un texte juridique de l’empereur byzantin Justinien Ier. Sa décomposition révèle d’étranges surprises et nous invite, comme pour le Guido delle colonne à un voyage dans le temps. Je me base pour ce billet sur le texte de Valérie Hayaert (à paraitre dans le livre le lecteur à l’oeuvre chez Infolio) qui s’appuie elle-même sur certaines conclusions d’Élisabeth Pellegrin (1982, pp. 195-198.). Et toujours un grand merci à Radu Suciu qui me guide dans la compréhension dans ces mondes des manuscrits médiévaux. 

L’empereur Justinien a opéré au VIe siècle un grand travail de réorganisation législative. Au fil des siècles, les différents régimes avaient complexifié le droit romain primitif. Les juristes du Justinien ont procédé à une simplification, une modernisation et une uniformisation du code juridique de l’empire. Ce nouveau code a subsisté pendant de nombreux siècles comme base du droit. La page que nous présentons se présente sous la forme d’une mise en page complexe, comportant de multiples blocs de textes. Le texte juridique de Justinien est au centre de la page, présenté en deux colonnes. Le texte est accompagné de lettrines, mais surtout plusieurs signes qui, dans les marges, viennent aider la lecture.

justinien-Digeste-entouré

 

Pointeurs

En marge de la première colonne, une petite main, ou manicule, a été dessinée pour souligner un passage important.

Manucule

Ce signe calligraphique était fréquemment utilisé dans les manuscrits au Moyen-âge. Voytek Bialkowski, Christine DeLuca et Kalina Lafreniere proposent dans l’entrée « Manicule » du site Archbook de l’université de Toronto (Merci à Radu Suciu pour le lien) plusieurs exemples de ces petites mains. Ici sur un texte grec.

manicule-2

Là sur une partition


manicule-3

Dans les premières décennies de l’imprimerie, les typographes adaptèrent le signe pour l’inclure dans les nouveaux livres.

manicule-4

Dans tous ces cas, la manicule joue le rôle d’un outil intellectuel qui favorise la mémorisation et aide la lecture du texte.

Au XIXe et XXe siècle, la manicule a été adaptée sous la forme de caractères d’imprimerie standardisés pour la publicité.

manicule-moderne

Prolongeant la filiation, Bialkowski, DeLuca et Lafreniere  considèrent qu’il s’agit de l’ancêtre des pointeurs utilisés dans les interfaces informatiques.

pointeurs-mac

Cette filiation est également discutée par Peter Stallybrass dans son exposé « The Book as Computer » donné à l’Université de South Carolina le 17 avril 2009 (en vidéo ci-dessous). Peter Stallybrass explique en complément que des le moyen-âge des « doigts mobiles », objets physiques déplaçables,  ont proliféré permettant aux lettres de tenir des livres ouverts, de pointer certains passages, etc. Stallybrass parle de « prosthetic fingers » offrant littéralement la possibilité d’avoir plus que dix doigts.

Mais face dans cette généalogie, une question de bon sens se pose. William H. Sherman la formule ainsi dans son livre Used Books: Marking Readers in Renaissance England

« why did so many readers, until relatively recently, take the trouble to stop and draw a whole hand when they simply wanted to mark something as important? And why did so many authors and printers use the increasingly heavy-handed image of the manicule to direct the attention of their readers? Unlike the simple line or even the figural flower and asterisk, the manicule has a gestural function that extends beyond its straightforwardly indexical one.  » (Sherman 2009, p.45)

La manicule médievale, comme celle que nous constatons en marge du texte juridique de Justinien est un donc autant un geste qu’un signe. C’est en particulier une signature personnelle, celle du lecteur, qui prend soin de marquer par de manière distinctive, par un doigt pointé stylisé, sa contribution à cette indexation du texte original. Avec le temps pourtant, elle se standardise, cesse d’être signature pour devenir symbole.

Smileys

En marge de la seconde colonne du texte juridique, un visage de profil est dessiné.

tête

Le copiste a peut-être suggéré qu’il faut marquer ici un temps de réflexion ou éventuellement son désaccord avec le contenu de ce passage. Nous pourrions considérer que ce type de visage est l’ancêtre de nos actuels « smileys ».

smiley

Rappelons que la lecture silencieuse n’existait pas à cette époque. Il était alors courant d’ajouter des indications pour guider la gestuelle ou l’intonation de l’orateur. C’est de nouveau un geste de lecture qui a pour fonction de modifier à la fois la perception et l’expression du texte. Le smiley trouve ici son origine dans une technique de l’oralité, dans un contexte où expression orale et art de la mémoire sont intimement associés.

Comme pour les manicules, le smiley fait des apparitions typographiques dans la presse au XIXe siècle par exemple dans ce numero du 30 Mars 1881 de  Puck magazine (reproduit dans le livre 100 diagrams that changed the world, Merci à Christophe Guignard pour le lien)

emoticons-imprime

David Crystal dans son analyse de l’utilisation contemporaine des smileys analyse le nouveau rapport à l’oralité que ces signes ont introduit dans le discours écrit (Crystal 2001, p. 38-39). Il est intéressant de voir que ce lien avec l’oralité trouve en fait ses racines dans d’anciennes pratiques médiévales.

Hyperliens

Justinien considère que le nouveau code publié en 533 est parfait et il interdit expressément tout commentaire des nouvelles lois ainsi présentées. Mais malgré l’interdiction, les copistes ont entouré le texte du digeste par les commentaires de François Accurse, grand juriste toscan. Il faut en effet adapter les textes anciens du droit romain à la situation du moyen-âge. François Accurse est d’ailleurs considéré par les Florentins comme un des citoyens les plus illustres. Il a sa statue dans le piazzale des Offices à côté de Dante ou Pétrarque, Boccace ou Amerigo Vespucci. Ses commentaires ont peut-être autant de valeur que le texte de Justinien lui-même.

Les commentaires sont associés au texte principal par un système de renvois basé sur des signes calligraphiques.

renvois

.

Beaucoup de signes différents sont utilisés

renvois-2

D’autres lecteurs ont commenté les commentaires de François Accurse, soulignant parfois certains mots. Ils utilisent un second niveau de renvois et écrivent dans les espaces encore vierges de la page. Parfois, un troisième niveau de renvois est présent.

renvois-3-bis

Ce jeu de renvois rappelle le principe contemporain de l’hyperlien. Dans la généalogie « classique » de l’hypertexte, on a coutume de se référer aux travaux de Ted Nelson ou au texte « visionnaire » de Vanevar Bush qui en 1945 dans « As we may think » définissent le principe du fonctionnement du Memex. Des auteurs comme Buckland (1998) se sont attachés à corriger et prolonger cette généalogie officielle en retraçant la lignée technique plus loin jusqu’à Paul Otlet ou jusqu’au bibliothécaire allemand Shuermeyer. Mais il faut évidemment réinscrire la lente conception du principe de textes en réseaux dans une perspective beaucoup plus vaste, qui englobe l’encyclopédisme du XVII et XVIIIe siècle et trouve ses racines dans les nombreux manuscrits qui au moyen-âge développent des outils complexes pour articuler plusieurs niveaux de gloses. Pour reprendre les idées de Pascal Robert (2010), le manuscrit est déjà un volume, un conteneur dont il s’agit d’organiser les circulations. Ici, c’est au niveau de la page, en deux dimensions, que des dispositifs innovants permettant la circulation entre les textes sont mis en place.

Ainsi, pointeurs, smileys et hyperliens sont déjà d’une certaine manière présents dans les manuscrits du XIVe siècle. Ils correspondent à des usages conventionnels que les technologie de l’impression d’abord, puis de l’informatique viendront mécaniser et standardiser. Ce processus de régularisation des représentations régulées que Pascal Robert décrit dans son livre Mnemotechnologies (Robert 2010) et dont j’ai discuté les principes dans un article récent, How books will become machines (Kaplan 2012) donne un cadre pour penser cette évolution. Des formes conventionnelles sont d’abord mécanisées dans leur production (caractère typographique remplaçant les manicules manuelles) puis dans leur usage (système d’hyperliens à la base du web plus puissant, mais aussi plus contraint).

Dernière remarque : En bas à gauche de la page qui nous intéresse, un lecteur a fait un petit dessin représentant deux chiens, l’un en laisse tirant la langue et l’autre libre s’approchant.

chiens

Qui s’est permis de griffonner sur ce texte juridique ? Pourquoi dessiner deux chiens ? Valérie Hayaert a trouvé la réponse à ces interrogations.  En fait, l’illustration fait ici directement référence au contenu du texte juridique. Le passage traite en effet de l’obligation pour le propriétaire d’un chien de le tenir en laisse dans les lieux publics. Même les graffitis procèdent ici d’une didactique.

Buckland, Michael. 1998. “What Is a Digital Document.” Document Numérique 2 (2).

Bush, Vannevar. 1945. “As We May Think.The Atlantic, July.

Crystal, David. 2001. Language and the Internet. Cambridge University Press.

Hayaert, Valerie. à paraitre. “Fiche Sur Le Justinien.” In Le Lecteur à L’oeuvre. Infolio.
Kaplan, Frédéric. 2012. “How Books Will Become Machines. In Lire Demain. Des Manuscrits Antiques à L’ère Digitale., 25–41. PPUR.

Pellegrin, Elisabeth. 1982. Manuscrits Latins. Bibliotheca Bodmeriana.

Robert, Pascal. 2010. Mnémotechnologies : Une Théorie Générale Critique Des Technologies Intellectuelles. Hermes Science Publications.

Sherman, William H. 2009. Used Books: Marking Readers in Renaissance England. University of Pennsylvania Press.

Venise et Troie : même combat

mars 18, 2013

Le 27 avril prochain s’ouvrira à la Fondation Bodmer l’exposition « Le lecteur à l’oeuvre » dont je suis avec Michel Jeanneret et Radu Suciu un des commissaires. Cette exposition illustre sur une collection d’exemples précis comment les textes se transforment au fur et à mesure qu’ils sont édités, annotés, illustrés, traduits, manipulés. Nous présenterons à cette occasion deux manuscrits dans des « vitrines à réalité augmentée » développées par mon laboratoire à l’EPFL en partenariat avec la société Kenzan. Elles permettent de déployer des explications autour d’objets réels, sans passer par l’intermédiaire d’un écran. 

Le premier de ces manuscrits a été produit Venise dans la seconde moitié du XIVe siècle. Il relate une histoire compilée par Guido delle Colonne (Guido de Columnis), un juriste sicilien, à partir de sources françaises. Nous voulons faire comprendre aux visiteurs que le manuscrit qu’ils ont devant les yeux traite d’un thème antique qu’ils croient connaitre est en fait le résultat de multiples cycles de lecture-écriture, chacun transformant son sens et sa réception. La vitrine présentera donc cette histoire sous la forme d’une enquête qui part du manuscrit lui-même pour progressivement retracer la complexe histoire de sa production. Un grand à merci à Radu Suciu qui m’a fourni tous les documents clés nécessaires à cette enquête, notamment sa notice consacrée à ce codex Bodmer et faisant partie du volume qui accompagnera l’exposition, actuellement sous presse aux éditions infolio et à David Bouvier pour les passionnantes discussions de la semaine dernière sur les origines des récits de la Guerre de Troie et à Mélanie Fournier pour ses documents complémentaires sur les liens qui lient Venise à Troie. 

La vitrine présentera le manuscrit ouvert sur la page ci-dessous :

Guido Troie

La page présente un texte manuscrit sur deux colonnes, dans une écriture de chancellerie italienne, accompagnée de lettrines. Des lignes verticales se terminant par des arabesques entourent les colonnes. En bas de la page, une large illustration montre des chevaliers en armures qui sortent d’un château rose fortifié. Ils chargent violemment d’autres soldats. Qui sont ces chevaliers ? Contre qui se battent-ils ?

Guido Troie-detail

Dans le palais lui-même, un roi couronné un barbu parle à une assemblée constituée d’hommes portant d’étranges chapeaux courbés. Qui est ce roi ? Ces hommes sont-ils ses sujets ?

Guido Troie-detail - priam

Une partie de la réponse nous est donnée plus bas. Dans la marge on peut lire des instructions pour l’enlumineur en dialecte vénitien

Guido notes

« fa qua de sovra Troia como lo re Priamo xe (?) in lo so palazo in una gran sala […] et fa li con le gran barbe »

Le maitre d’atelier demande à l’illustrateur de peindre le roi Priam dans son palais avec sa grande barbe. Ces chevaliers et ces hommes aux chapeaux courbés sont des Troyens. Le texte en latin relate la destruction de Troie et l’épisode  de cette page montre leur contre-offensive contre les Grecs qui assiègent leur ville.

Comment ce récit antique peut-il être dépeint comme une aventure chevaleresque ? Est-ce le manque de connaissance ou d’imagination de la part des illustrateurs du moyen-âge ?  Pourquoi dans cette image, les Troyens semblent-ils si valeureux et les Grecs si pitoyables ?

Une composition normande basée sur des « témoignages » antiques …

Il nous faut retourner au texte et tracer sa généalogie pour mieux comprendre. L’étude du manuscrit Bodmer publié par Hugo Buchthal en 1987 retrace avec précision l’histoire européenne de ce récit. Ce manuscrit témoigne de la circulation des idées dans l’Europe médiévale. Guido delle Colonne recompose en latin entre les années 1270 et 1287, un récit nourrit par texte en vieux français, Le Roman de Troie, écrit par le moine bénédictin Benoît de Sainte-Maure entre 1160-1170, probablement en Normandie. Les « sources » de Benoît sont Darès le Phrygien et Dictys de Crête, deux légendaires « témoins » des événements.

Ce qui peut paraître étonnant pour le lecteur contemporain habitué à Homère, c’est que tous ces récits sont profondément antiGrecs et proTroyens. Homère n’est pas lu à cette époque par ces auteurs du monde latin. La version de l’histoire de Troie qui circule en cette période du moyen-âge dépeint les Grecs comme des agresseurs brutaux et les Troyens comme des victimes innocentes et des résistants héroïques qui auraient pu tenir sans la trahison d’Antenor, un des dirigeants troyens, beau-frère du roi Priam, qui une nuit pactisa avec les Grecs pour les faire entrer dans la cité. Le succès de l’épisode du Cheval de Troie n’est dans cette version pas dû à la ruse d’Ulysse ou la crédulité des Troyens, mais à la trahison d’un des leurs.

Dès le début du XIIIe siècle, le Roman de Troie commence à avoir une influence en Italie où la littérature française était abondamment lue et commentée. Une de raison de ce succès peut être liée aux récits légendaires qui font remonter les origines romaines au peuple troyen. De nombreuses villes d’Italie reconstituent d’improbables généalogies liant leurs contemporains à des héros troyens inventés.

… réinventée en Sicile durant une période de grands bouleversements …

Guido est né autour de 1220 et nommé juge 1242. Il fait partie du groupe de juristes et haut dignitaires de la cour de Frédéric II de Hohenstaufen (1194 – 1250) , puis de son fils Manfred. La cour de Frederic II est un des lieux intellectuels européens les plus sophistiqués du XIII. On y compose de la poésie et des chansons d’amour qui constitueront pour Dante et Pétrarque les origines de la littérature italienne. Néanmoins, même si Frédéric II est un empereur éclairé, il reste avant tout un chevalier et les écrits de Guildo delle Colonne reflèteront cette esthétique chevaleresque.

À Messine, Guido delle Colonne produit sa version de la destruction de Troie dans un contexte politique particulier. Charles d’Anjou conquiert la Sicile en 1266 (après l’avoir reçu par le pape en 1262). Mais il sera repoussé en 1282 après le soulèvement des « Vêpres » siciliennes (cf le célèbre opéra de Verdi) et le débarquement de la flotte aragono-catalane, qui conduiront au massacre des troupes de Charles d’Anjou et des Français.

L’histoire de la destruction de Troie est produite entre 1270 et 1287 donc en plein milieu de cette période charnière de l’histoire de la Sicile et la géopolitique européenne en général. Les thèmes du récit rejoignent la réalité politique de l’époque. Dès 1266, sous la domination de Charles d’Anjou, la culture francophone se déploie en Sicile et c’est peut-être par ce biais que le Roman de Troie est connu par Guido delle Colonne. Le travail de Guido constitue essentiellement une paraphrase de la version française de Benoit de Sainte-Maure, même s’il ne le cite jamais et préfère se référer directement à Dares et Dictys.

Comme le récit de Guido est écrit en latin, une langue internationale plus largement comprise que le Français de Benoit de Sainte-Maure, il se diffuse très largement en Europe et devient plus influent que le modèle sur lequel il se base. Il fut semble-t-il traduit dans presque toutes les langues. Son influence peut même être tracée jusqu’à l’oeuvre de Shakespeare Troïlus et Cressida composée au début du XVIIe siècle.

… puis mise en images à Venise

Le manuscrit présenté à la Fondation Bodmer est vénitien, comme en attestent les notes en dialecte destiné à l’enlumineur. Par ailleurs les 187 miniatures qui le composent mettent en scène des « décors » typiques de l’architecture gothique de Venise. La ville de Troie est visuellement assimilée à la Cité des Doges. Le Palais de Priam est semble-t-il composé sur le modèle du Palais de Doges, dont la construction gothique à débuté en 1340. Sur cette autre représentation quelques pages plus tôt on retrouve les voutes caractéristiques du bâtiment. Rendre Troie sous les traits de Venise n’est pas anodin. Les Vénitiens font remonter leurs origines aux Troyens et à Antenor en particulier. Jacques Poucet dans Le mythe de l’origine troyenne au Moyen âge et à la Renaissance : un exemple d’idéologie politique explique que dans les chroniques médiévales comme la Cronaca di Marco à la fin du XIIIe siècle présente Venise comme le foyer originel de l’arrivée des Troyens, puis de la « diaspora » troyenne en Vénétie et dans le reste de l’Italie.  Ce récit tient vraisemblablement de l’idéologie politique, car en présentant Venice comme antérieure à Padoue, les vénétiens souhaite assoir leur domination sur la cité que se trouve à 40km à l’intérieur des terres. La reconnaissance de la filiation Troie-Venise est donc au coeur de la stratégie politique. C’est naturel qu’elle se retrouve dans les illustrations du manuscrit.

Guido_018v

Le style des illustrations est lui aussi caractéristique de Venise. Un autre manuscrit « La Leggenda die gloriosi santi Pietro et Paolo » aujourd’hui au Musée Correr à Venise montre de grandes ressemblances avec celui de la fondation Bodmer. Tout porte à croire qu’il a été composé dans le même atelier, probablement par la même main. Les points de ressemblances incluent les lignes fines se finissant avec des arabesques circulaires le long des colonnes de textes ou les bâtiments avec leurs fenêtres fines et leur couleur rose ou ocre.

La chercheuse Mirella Levi d’Ancona a conclu que l’enlumineur du manuscrit du Musée Correr est Giustino del fu Gueradino da Forlì et date le manuscrit de 1370. Hugo Buchthal conclut qu’étant donné les ressemblances stylistiques, Giustino est également l’enlumineur de la destruction de Troie et que le manuscrit de la fondation Bodmer doit avoir été produit dans la même période de sa carrière, soit vers 1370.

Que se passe-t-il à Venise en cette fin de XIVe siècle ? Après des siècles de croissance, la ville a subi plusieurs crises. En 1348 la peste noire a emporté plus de 40 000 vénitiens. La rivalité avec Gênes est maintenant à son paroxisme. Elle culminera entre 1378 et 1381 avec la guerre de Chioggia qui verra les Génois arriver aux portes de lagunes.  L’Histoire de Troie anticipe sur cet autre siège où comme dans le récit antique des actes héroiques de quelques-uns (L’amiral Vittor Pisani en particulier) joueront un rôle crucial pour la victoire finale.

Bonnets phrygiens contre coiffes byzantines

Reste le mystère des chapeaux. Pourquoi les Troyens portent-ils ses étranges coiffes arquées ? Dans d’autres pafes du manuscrit, pourquoi les Grecs ont-ils quant à eux de larges chapeaux ?  C’est par la coiffe que l’on distingue les deux groupes de combattants.

Guido_chapeaux

Les coiffes pointues, allongées et courbées des Troyens rappellent le bonnet Phrygien dont Pâris, le fils de Priam et originaire de Phrygie est souvent affublé. Dans l’iconographie romaine, ce bonnet est un symbole d’exotisme. Les rois-mages sont parfois représentés avec cette coiffe. À la Révolution, il devient un symbole de liberté, car il ressemble au chapeau qui coiffait les esclaves affranchis de l’Empire romain.

Quant aux larges chapeaux des Grecs, ils correspondent à une coiffe byzantine, contemporaine de Giustino. Ainsi coiffés, les combattants de l’Histoire de Troie reproduisent l’opposition et les liens qui divisent et unissent Venise et Byzance.

Voici donc l’histoire d’une seule page d’un seul manuscrit, relue sous le prisme des différents contextes européens qui président à sa forme. Nous espérons que par cet exemple et les nombreux autres qui seront présentés dans l’exposition Le lecteur à l’oeuvre, nous pourrons tordre le cou à l’idée trompeuse qu’un texte est avant tout une construction intellectuelle,  résultat du travail d’un auteur solitaire. Ce sont ici évidemment au contraire de multiples mains qui composent, éditent, illustrent et collectivement créent un objet culturel complexe.

Le manuscrit complet peut être consulté sur e-codices


Lancement de la « Venice Time Machine »

mars 14, 2013

Le lancement de la Venice Time Machine, grand projet de Digital Humanities entre l’EPFL et l’université Ca’Foscari a donné lieu à plusieurs d’articles de presse et réactions sur Internet (communiqué officiel, article dans le Temps, repris également dans Le Monde) . Le projet propose une modélisation multidimensionnelle de Venise et de son empire méditerranéen. Son ambition consiste à rendre interopérables des données concernant l’histoire environnementale (évolution de la lagune), urbaine (morphogenèse de la ville), humaine (démographie et circulation) et culturelle (politique, commerce, évolution artistique). La Venice Time Machine comporte des défis en terme de numérisation (des archives immenses et très anciennes), de modélisation (reconstructions cartographiques, gestions de l’incertitude intrinsèque aux données historiques) et de muséographie (comment rendre compte de cette histoire complexe). Les équipes vénitiennes et lausannoises travailleront en étroite collaboration, dans le cadre d’un centre de recherche comme appelé Digital Humanities Venice. Nous sommes également en train de constituer un réseau international de chercheurs qui pourront collaborer à ce grand projet. Maintenant que les annonces sont passées, il est peut-être utile de revenir sur ce qui fait l’originalité de la démarche de cette machine à remonter le temps.

Peut-on construire une machine à remonter le temps ?

Au départ, il y a un rêve, celui d’adapter les outils numériques du présent à l’exploration du passé.  Nous avons depuis quelques années, des outils extraordinaires pour explorer le monde sans partir de chez nous (p.e. Google Earth/Maps/Streetview). Quand nous ne voyageons pas dans l’espace physique, nous parcourons le graphe social documentant les liens et les activités de plus d’un milliard de personnes. Ces services nous donnent l’impression de vivre dans un « grand maintenant ». Le présent est devenu tellement dense que son exploration perpétuelle pour suffit à nourrir notre curiosité.

Il me semble extrêmement important de tenter de construire des outils d’exploration du temps aussi puissant que ceux qui nous permettent de voyage dans l’espace. Peut-on construire un Google Maps du passé pour nous montrer comment étaient une ville ou une région il y a plusieurs centaines d’années ? Peut-on construire un Streetview du passé pour nous montrer à quoi ressemblait une rue à cette époque ?  Peut-on construire  un Facebook historique documentant la vie quotidienne du passé ? Autrement dit :  Peut-on construire des machines à remonter dans le temps ?

Le champignon informationnel

Pour répondre à cette question, il nous faut considérer ce que j’appelle « le champignon informationnel ». L’information numérique disponible sur les dix dernières années est extrêmement riche et dense. Nous pouvons représenter cet abondance par un large plateau. Pour simplifier notre raisonnement, nous dirons que plus nous reculons dans le temps plus la quantité d’information se réduit (il est possible que ce ne soit pas tout à fait vrai, certaines périodes anciennes comme l’antiquité étant potentiellement mieux documentées numériquement que certains périodes intermédiaires comme le moyen-âge). Pour pouvoir utiliser les outils du présent pour explorer le passé nous avons besoin d’une densité informationnelle comparable à celle du présent. Autrement il nous faut élargir le pied du champignon pour qu’il s’approche le plus possible d’un rectangle.

champignon-en-lucida-1

Une première manière pour réaliser cet « élargissement » consiste à numériser les archives publiques et privées. Il existe des archives télévisuelles de qualité sur une cinquantaine d’années, des archives photographiques sur plus de 100 ans, des archives de presse bien conservées sur au moins 200 ans (et souvent plus), des documents imprimés sur 500 ans, et enfin de grandes collections de manuscrits, dessins ou d’anciennes cartes. La figure ci-dessous montre symboliquement ce que nous pourrions attendre en numérisation et modélisant de telles archives. La courbe s’élargit beaucoup sur les 200 dernières années et continue, puis recommence à rétrécir jusqu’à la Renaissance. Pour des périodes plus anciennes, les sources sont, en général, globalement moins nombreuses et il est possible qu’il soit difficile de reconstituer une densité informationnelle suffisante.

champignon-en-lucida-2

Pour le pied du champignon et les données les plus anciennes, nous pouvons extrapoler à partir des données existantes et « simuler » les données manquantes. Par exemple, un carnet de bord d’un capitaine de navire vénitien nous indique bien plus qu’un itinéraire particulier, il nous informe sur les routes commerciales d’une époque. De la même manière, une gravure représentant une façade vénitienne nous décrit bien plus que ce bâtiment en particulier, mais nous renseigne sur les grammaires architecturales utilisées à cette époque particulière. Les historiens extrapolent très souvent de cette façon. Il s’agit simplement de formaliser et systématiser cette démarche.

champignon-en-lucida-3

Gestion de l’incertitude et espaces fictionnels

La gestion de l’incertitude est le coeur du défi scientifique de ce projet. Il s’agit de raisonner dans des espaces où se côtoient des incertitudes de natures très diverses (fiabilités des sources, erreurs d’interprétations, extrapolations basées sur de fausses hypothèses, erreurs dues aux procédés de numérisation). Depuis 50 ans, les sciences de l’information n’ont cessé de développer des approches pour raisonner dans des univers incertains et a priori peu prévisibles (calculs probabilistes, logique floue, apprentissage artificiel, etc.). Des méthodes qui n’ont jusque-là pas reçu suffisamment d’attention en histoire. La rencontre de ces approches formelles et des mondes historiques incertains pourrait donner lieu à de grandes découvertes.

Dans notre approche, chaque source produit ce que nous appelons un « espace fictionnel ».  Ce n’est que par la « jointure » d’espaces fictionnels émanant de divers documents que nous pouvons progressivement produire un passé « probable ». Une conséquence de cette approche est qu’il n’y a évidemment pas un passé, pas une organisation de Venise ou une structuration de son empire maritime, mais de multiples mondes possibles dont nous tâchons d’évaluer la plausibilité.

Des millions de documents

Évidemment nous n’avons pas choisi Venise au hasard. La Cité des Doges représente un cas unique dans l’histoire. Elle a très rapidement mis en place un État bureaucratique, qui deviendra vite un véritable Empire régnant sur toute la Méditerranée. La moindre délibération du Sénat ou des autres chambres était consignée, tout ce qui sortait et entrait dans la Cité, les possessions des habitants… Au total, on estime le nombre de documents exploitables à plus de 100 millions. Une personne seule ne peut évidemment pas compiler une telle somme d’informations.

archivio-di-stato

Les archives d’états à Venise comportent plus 80 km de documents administratifs couvrant toute l’histoire de la Cité des Doges

Il faudra développer des techniques nouvelles pour numériser, transcrire et indexer une telle masse de documents. Nous testerons différentes approches :  robots capables de manipuler avec soin les parchemins, dispositifs portables permettant une numérisation rapide et efficaces, etc. Pour transcrire ces très nombreux manuscrits, nous devrons développer de nouvelles techniques de reconnaissance de caractères couplées à des modèles des langues dans lesquelles ils sont écrits (latin, toscan, dialecte vénitien). Dans ces transcriptions, nous identifierons les noms de lieux, de personnes, les dates et progresserons pas à pas dans une caractérisation sémantique toujours plus fine.

Des millions de visiteurs

Venise c’est aussi 20 millions de touristes qui chaque année sillonnent les canaux, se perdent dans les ruelles et découvrent une cité dont, le plus souvent, ils ne savent que peu de choses. En développant de nouveaux dispositifs muséographiques, interfaces mobiles ou au contraire très large installation, nous espérons pouvoir faire mieux connaitre la fascinante histoire de ce petit peuple de pécheur qui devint maitre de la Méditerranée. Profitant de nombre du ces visiteurs nous espérons avec les équipes de Ca’Foscari mettre en place une muséographie expérimentale capable d’évaluer les succès et les échecs des dispositifs qu’elle propose. Autant d’innovations qui pourront venir nourrir d’autres musées ou d’autres villes.

Je reviendrai plus en détail sur tous ces points dans de prochains billets.


La généralisation des techniques de suivi du regard annonce une nouvelle économie de l’attention

mars 13, 2013

Le New York Times nourrit des rumeurs sur l’arrivée prochaine d’un smartphone Samsung équipé en standard d’un dispositif pour le suivi du regard. L’occasion de réfléchir à mon monde où nos regards seraient devenus des données numériques. 

Lorsque je travaillais au CRAFT, nous avions conçu avec Andrea Mazzei et Youri Marko un système de lunettes très bon marché permettant le suivi de regard (A 99 dollars eye-tracker). Nous voulions montrer qu’il était aujourd’hui relativement simple de produire des systèmes capables d’enregistrer le regard avec des composants standards et bon marchés et que les possibilités étaient pour la recherche très intéressantes.

Ces lunettes de lecture sont équipées de deux caméras. L’une, tournée vers l’extérieur, regarde ce que vous regardez, l’autre regarde un de vos yeux. À partir de l’image du livre que vous lisez, nous pouvons calculer sa position dans l’espace par rapport aux lunettes. À partir de l’image de votre œil en train de lire, nous pouvons calculer très précisément l’angle de votre regard. Comment nous connaissons la manière dont les deux caméras sont placées sur les lunettes, il nous suffit de faire un peu de géométrie pour calculer précisément l’angle d’intersection de votre regard avec le livre. En répétant cette opération des dizaines de fois par seconde, nous pouvons tracer avec précision le passage de vos yeux sur une page.

Cette vidéo, réalisée par mon collègue Basilio Noris, à partir des travaux de sa société Pomelo et du CRAFT à l’EPFL, donne une bonne illustration du potentiel de ces technologies.

Le passage des techniques de suivi du regard, pour l’instant cantonnées à des utilisations en laboratoire aux objets de grande consommation annonce un « nouveau régime attentionnel » et une nouvelle économie de l’attention qui vont avoir des conséquences sur les médias culturels. Aujoud’hui, il y a l’audimat et les chiffres de ventes des livres ou de fréquentation.  Les études de suivi du regard sont effectuées simplement à de petites échelles Si le suivi attentionnel se généralise par l’intermédiaire de smartphones équipés de dispositifs de suivi du regard ou de lunettes qui capturent l’attention de celui qui les porte, nous basculerons dans une nouvelle manière de concevoir les contenus culturels.

La généralisation de ces techniques aura une conséquence immédiate sur l’écriture des médias « classiques » ?

— Comment écrit-on un livre ou compose-t-on la maquette d’un magazine quand on sait précisément comment il peut être lu ?

— Comment réalise- t-on un film quand on peut mesurer avec précision l’attention du spectateur ?

— Comment conçoit-on des expositions quand l’attention des visiteurs peut être analysée finement ?

Elle ouvre aussi de nouvelles perspectives. Peut-on créer des contenus culturels qui s’adaptent à la manière dont ils sont « lus » ? Peut-on développer des tableaux qui se modifient selon la manière dont ils sont « vus » ? Les artistes seront, comme souvent, les premiers à s’emparer de cet espace à explorer.

Évidemment la généralisation des techniques du suivi du regard pose de nombreuses questions. Le regard est un témoin intime de notre vie cognitive. Il dit parfois beaucoup plus que les études de neurosciences. C’est une porte d’entrée sur nos pensées.

Notre regard dit aussi notre éducation. Un étudiant en architecture ne regarde pas la même manière un livre d’architecture qu’une personne qui n’a pas fait ce genre d’études. Pour les grands acteurs des médias numériques des données qui valent potentiellement de l’or. Trouveront-ils le moyen d’obtenir ces données contre une expérience interactionnelle à haute valeur ajoutée ?