Posts Tagged ‘muséographie’

Fantasmagorie au musée

mai 10, 2013

La muséographie, cet art de la rencontre que les Italiens nomment « fruizione » et dont certaines formes s’étaient progressivement stabilisées au cours du XIXe et du XXe siècle, est aujourd’hui remise en question par de nouveaux dispositifs technologiques. Le musée, comme la bibliothèque, est avant tout une interface particulière dont la structure est affectée par les nouvelles technologies (Kaplan 2012a). Audioguides, tablettes, écrans interactifs bouleversent les narrations muséographiques et la structure même de l’espace du musée. Le groupe en visite — encore aujourd’hui la forme d’expérience muséale la plus répandue — se trouve dès l’entrée atomisé. Grâce aux audioguides et aux tablettes, les visiteurs font l’expérience de discours parallèles et personnalisables. L’effort pour proposer des parcours non linéaires (McLuhan et al 2008) conduit parfois au renoncement à un discours d’ensemble. Ceux qui refusent ces dispositifs s’engagent dans des rencontres non encadrées, privilégient l’émotion à la compréhension. Ceux qui optent pour la compréhension finissent par ne plus voir les objets. La technologie fait ce qu’elle sait faire de mieux : diviser, paralleliser, personnaliser — au détriment d’un expérience collective partagée.

Dans l’imaginaire collectif, le musée reste pourtant le lieu où l’on voit, ensemble, les choses en « vrai ». Dinosaures et momies — versions contemporaines des reliques saintes — attirent des foules excitées à l’idée de faire la rencontre physique avec des « monstres » des temps anciens. Toutes proportions gardées, c’est aussi en partie ce frisson de la rencontre qui motive l’amateur d’exposition de grands maitres : voir un Van Gogh ou un De Vinci «en vrai», s’interroger sur l’expérience ressentie, la comparer avec celle des multiples représentations de l’oeuvre sous forme imprimée ou télévisuelle que nous avions pu voir auparavant. Cette attraction du réel, du « grandeur nature » et de l’authentique, assure la singularité du musée par rapport à l’abondance des musées virtuels et des gigantesques bases de données. C’est la rencontre physique avec l’objet qui toujours motive dans ce lieu, hors du monde et hors du temps (Deloche, 2010)

Comment concilier l’expérience de l’objet, le frisson de la rencontre avec le « monstre », avec sa compréhension et sa mise en contexte ? Peut-on imaginer des technologies qui enrichissent cette rencontre pour en faire non seulement une expérience physique, mais aussi intellectuelle ? Je m’intéresse depuis plusieurs années à la question des medias « grandeur nature », non immersifs, ceux qui se mêlent sans discontinuité à notre espace physique et social. Ce champ d’études comporte de nombreux sous-problèmes depuis les effets d’individuation  induits par les « bulles digitales »  ou à la manière de concevoir des « real-scale media » par l’intermédiaire de dispositifs robotiques (Kaplan 2012b). La dernière exposition à la Fondation Bodmer nous a donné l’occasion de tester la pertinence d’une approche en réalité mixte pour la muséographie.

Deux vitrines sont présentées lors de l’exposition Le lecteur à l’œuvre, du 27 avril au 25 août à la fondation Martin Bodmer. Développée avec l’aide la société Kenzan, ces vitrines permettent de juxtaposer des images autour d’objets réels, en l’occurrence ici des manuscrits du XIVe siècle. Les images semblent flotter dans les airs, à la manière d’un hologramme. Quand le visiteur s’approche, une grille apparait comme projetée sur le manuscrit pour guider son regard en soulignant sa structure. De minuscules détails sont alors révélés. Un scénario explicatif commence à se dérouler tout autour de l’objet . Ces vitrines, équipées de caméra 3D, permettent également d’adapter le contenu présenté au public et de mesurer l’attention des visiteurs. Elles peuvent aussi, quand cela est pertinent, permettre l’interaction.

Vitrine réalisé par l'EPFL pour l'exposition Le lecteur à l'oeuvre à la Fondation Bodmer

Vitrine présentée à la Fondation Bodmer pour l’exposition le lecteur à l’oeuvre

D’une certaine manière ces vitrines permettent de créer des « fantômes » ou plus précisément des « fantasmagories didactiques » autour des objets présentés. L’idée n’est pas nouvelle — loin de là — puisque le type d’illusions d’optique utilisées ici trouve ces racines dans les grands spectacles de la fin du XVIIIe siècle. Je reviens dans la suite de ce billet sur la genèse, les sources d’inspiration et la construction imaginaire de ce projet. Comme nous le verrons, l’ambition de ce dispositif est de tenter de résoudre le problème muséographique de l’« attention divisée » introduit par l’arrivée des cartels, dans le dernier quart du XVIIIe siècle par un procédé fantasmagorique dont les premières versions furent inventées à la même époque, mais qui connait aujourd’hui une nouvelle renaissance sous le nom, quelque peu abusif, de procédé « holographique ».

L’attention divisée

À la fin du XVIIIe siècle, Tommaso Puccini, nouveau directeur de la gallérie des Offices à Florence suggéra que les oeuvres d’art ne sauraient être appréciées en tant que telles et qu’il était pertinent d’ajouter, pour les visiteurs, une indication sur leur auteur et que cette indication pourrait modifier de manière significative la perception des oeuvres d’art. Il installa donc de petits « cartels » (« cartellino ») pour accompagner chaque oeuvre (Barbieri 2012).

Les effets du cartel, pressentis par Puccini, se montrèrent rapidement extrêmement importants : un point de « non-retour » muséographique, pour reprendre l’expression de Giuseppe Barbieri. Dans les musées, il ne serait plus question d’expérience directe de l’oeuvre, mais d’un complexe mélange entre réception intellectuelle et expérience esthétique. Le cartel nouvellement inventé préfigurait la narration muséographique. Il offrait aux commissaires d’exposition une manière de sculpter le regard du visiteur dans un sens ou dans un autre.

Encore aujourd’hui, c’est dans l’aller-retour entre cartel et oeuvre que tout se joue. Un dialogue s’instaure. Le cartel détermine-t-il la perception d’une oeuvre ? L’oeuvre éclaire-t-elle le cartel ? Beaucoup d’artistes exploreront cette dualité et construiront leur discours artistique en utilisant ces deux instants de la perception muséographique.

Mais depuis l’invention majeure du cartel et l’attention divisée, le discours muséographique n’a finalement que timidement évolué. Le cartel est toujours là, l’attention toujours divisée. Au contraire, l’introduction des écrans, sorte de « super cartels interactifs » a renforcé la dichotomie expérience/explication. Les visiteurs peinnent à choisir. Faut-il voir l’oeuvre ou son explication ? Et si l’explication sur écran, nécessairement plus didactique, balisée et sécurisante que l’oeuvre dépasse l’objet qu’elle commente, à quoi bon encore regarder l’objet ? Ne serions-nous pas mieux sur le canapé de notre salon, une tablette en main, zoomant sur chaque détail de l’oeuvre ou se lisant guider par une explication raisonnée ?

Ici se joue peut-être l’enjeu muséographique des années à venir.

La bulle de l’audioguide

Au début des années 1960, l’italien Giovanni d’Uva installa dans plusieurs églises (Le Duomo à Mlan, la Basilique Santa Croce et le Duomo à Florence), l’« audiophono », un premier système permettant d’obtenir des informations sonores. Cet ancêtre des audioguides était une première piste pour tenter de résoudre le dilemme de l’attention divisée (d’Uva est d’ailleurs semble-t-il toujours actif dans ce domaine)

Audioguide-1959

Audiophono de Giovanni d’Uva en 1959

Une dizaine d’années auparavant, le Stedelijk Museum à Amsterdam avait déjà expérimenté un premier modèle d’audioguide portable (voir le billet de Loic Tallon sur ce sujet). Basé sur une technologie développée par Philips initialement pour le cinéma et à destination des malentendants, le système transmettait par radio le contenu audio simultanément à tous les visiteurs. Une visite synchrone dont il ne fallait évidemment pas manquer le début.

audio-guide

Audio guide de 1952 – Stedeljk Museum. Photo by Loic Tallon via Flickr.

C’est Williem Sandberg, typographe et directeur du musée Stedelijk entre 1945 et 1968 qui fut à l’origine de cette petite révolution. Sandberg était dès les années 1960 convaincu que le musée devait se transformer et il fut à l’origine de nombreuses autres innovations (dont le texte non justifié aligné sur la gauche pour les cartels par exemple). (Bradburne, 2008, p.x). L’audioguide a eu le succès qu’on connait. Il s’est généralisé dans de nombreux musées, permettant à chacun d’accompagner sa visite par une explication interactive.

Regarder l’oeuvre, écouter explication. Cette dissociation des sens permet de retrouver en partie l’unité de l’expérience. Mais cette unité retrouvée a un prix, celui de la bulle. Comme chaque visiteur peut maintenant à son propre rythme construire son propre parcours au travers des oeuvres proposés, les familles se divisent, les groupes aussi. L’expérience du musée devient singulière et difficilement partageable. La réunion de l’attention se fait ici par une individuation de l’expérience.

De plus, le discours de l’audioguide peut donner le contexte, mais plus difficilement guider le regard. Impossible de pointer avec un audioguide. Face à cette difficulté, le discours de l’audioguide devient rapidement autonome, un discours à propos de l’oeuvre, mais pas en contact direct avec elle. Il n’est pas rare de voir les visiteurs quitter l’oeuvre du regard pour se concentrer sur ce qu’on leur explique. Certains commencent à déambuler dans la salle, les yeux ailleurs, comme peut le faire dans une conversation téléphonique. Ils sont dans leur bulle sonore : le discours a pris le pas sur tout le reste.

Des images qui flottent dans les airs

Le musée a sans doute besoin d’un autre type de discours qui combine dans un même espace l’émotion de la rencontre avec les objets authentiques et l’explication intellectuelle . Cet espace ne peut que l’espace physique et social de nos interactions, pas ceux immersifs des écrans ou des textes.

Le rêve d’un média capable de s’intégrer au monde réel sans cadre ou écran visible est depuis longtemps présent dans notre imaginaire. Le fantôme ou le spectre, apparitions semi-transparentes superposées au monde réel, relèvent de cette famille d’effets qui produisent des images flottant dans les airs. À la fin du XVIIIe siècle, le public se réunissait autour de dispositifs de projection créant ces illusions spectrales (Gunning, 2009). Etienne-Gaspard Roberston, belge ayant fait une carrière en France, propose dans ses Salons de Physique des Fantasmagories, littéralement « l’art de faire parler les fantômes en public » (Levie, 1990). Dans une ambiance macabre, les illusions d’optique de Roberston font apparaitre des images volantes, fantomatiques conçues pour terroriser l’auditoire. Roberston place les visiteurs, d’ordinaire habitués aux spectacles éclairés, dans une grande obscurité. Ils sursautent et tremblent ensemble, sans comprendre le procédé dont il voit que les effets. Ils ne viennent plus contempler avec fascination les lanternes magiques, ils viennent se faire surprendre face à des images qui flottent dans les airs. Robertson refuse d’ailleurs de dévoiler sa technique et en gardera longtemps le monopole.

phantasmagoria

Les Fantasmagories d’Etienne-Gaspard Roberston

À la fin du XXe siècle, l’arrivée des techniques holographiques a donné une nouvelle impulsion et une base scientifique à ce rêve spectral. L’hologramme fixe en trois dimensions, une image qui apparait elle aussi comme flottant dans les airs. Et même si paradoxalement aucune technique holographique à proprement parler n’a été utilisée pour réaliser des interfaces, les « hologrammes » ont progressivement envahi l’imaginaire visuel. Dans les films de science-fiction, ils sont devenus l’incarnation des procédés d’affichage et d’interaction de demain.

Ainsi s’est développée une esthétique visuelle relativement stable basée sur des effets de transparences colorées, le plus souvent dans des gammes de couleur allant du bleu au vert, référence directe aux effets visuels des premiers « hologrammes ». Dans un billet récent, Christophe Gazeau fait l’inventaire de certaines apparitions holographiques dans les films de science-fiction américains. En 1977 dans la Guerre des Étoiles,  la princesse Leia délivre son message de détresse sous la forme d’une projection holographique, tridimensionnelle, mais de taille réduite. La projection partage le même espace que les autres personnages sans pour autant agir directement avec eux (Steven Spielberg reprendra cette esthétique de la projection holographique dans Minority Report : l’inspecteur incarné par Tom Cruise, se repassent les vidéos tridimensionnelles de sa femme décédée comme on revoit avec nostalgie un ancien film pris au caméscope ; un écran large cette fois-ci, mais toujours pas d’interaction).

princessleiahologram012511

L’hologramme de Princesse Leia dans La Guerre des Etoiles de Georges Lucas

Avec Avatar et Iron man, les écrans « holographiques » tridimensionnels deviennent le standard de visualisation. Ils s’imposent comme futur naturel de nos interfaces graphiques, permettant une interaction gestuelle en trois dimensions dont l’efficacité est mis en scène par les réalisateurs. Comme ces images s’insèrent dans un espace visible en transparence, superposé à l’espace physique, elles permettent l’interaction en groupe — sans immersion. C’est le fantasme d’une interface totalement dématérialisée et paradoxalement entièrement intégré au monde réel, fantasme d’une réalité mixte ou les images et réalité se mêlent pour former un nouveau medium.

avatar-hologram2

Les écrans « holographiques » de Avatar

Comme toujours, Hollywood s’inspire des travaux des chercheurs, les extrapole, les met en scène et fixe ainsi l’esthétique et les objectifs d’un nouveau cycle de recherche. En 2002. les interfaces 3D de Minority Report étaient basées sur les prototypes déjà fonctionnels (notamment le système G-Speak de la société Oblong), mais ont donné naissance à une grande vague de recherche pour le développement des cameras 3D et des interfaces gestuelles. Un produit comme Kinect ou les premiers téléviseurs qui aujourd’hui remplacent la télécommande par le geste sont les héritiers de l’immense impulsion que le film de Steven Spielberg a donnée pour cet imaginaire technologique.

Sommes-nous en train d’observer l’équivalent avec Avatar/Iron Man et les interfaces « holographiques » ? Depuis quelques années, grâce à d’habiles jeux de miroirs, dont les principes sont depuis longtemps connus, l’esthétique des images flottantes s’invite dans les vitrines publicitaires, les présentations de nouveaux produits et les concerts. Dès 2006, le designer Alexandre McQueen avait déjà fait apparaitre une Kate Moss fantomatique lors d’un de ses défilés.

Le "fantome" de Kate Moss en 2006

Le « fantome » de Kate Moss en 2006 par le designer Alexandre McQueen

Le terme « holographique » continue à être utilisé pour designer ces systèmes qui s’inspirent de l’esthétique de science-fiction, bien qu’ils n’utilisent en rien les techniques de l’holographie. Le passage par Hollywood a permis un glissement sémantique. Les nouvelles vitrines « holographiques » produisent sans holographie ce que le cinéma de science-fiction a anticipé, mais que l’holographie n’a jamais réussi à produire. Faut-il dès lors les rebaptiser ?

Écrire pour la réalité mixte

Pour les vitrines de la fondation Bodmer, j’ai essayé de produire des narrations adaptées à ce qui est finalement un nouveau média. Écrire non pas pour le cadre bien circonscrit d’un écran mais pour une fantasmagorie qui vient se superposer à la réalité, demande des adaptations. J’ai procédé en deux étapes.

J’ai d’abord rédigé pour chacune projet un billet de blog (« L’origine médiévale de l’hyperlien, des pointeurs et des smileys», « Venise et Troie : même combat ») pour faire le point sur ce que l’on pouvait dire de manière relativement simple sur chacun des objets.

J’ai ensuite transformé ce discours en deux familles de mouvements : une trajectoire permettant la décomposition des objets eux-mêmes (identification de la structure puis des parties remarquables des manuscrits), une autre recréant l’histoire spatiotemporelle de l’objet (généalogie géohistorique). La première trajectoire colle à l’objet pour guider le regard, la seconde le replace dans une espace bien plus large. Ensemble, elles construisent un discours autour de l’objet dans un espace visuel unifié.

Chacun de ces récits dure environ cinq minutes. Comme les vitrines sont équipées de caméras 3D, nous pouvons observer les réactions des visiteurs au fur et à mesure que se déroule ce récit en réalité mixte. J’ai tenu que cette dimension expérimentale soit intégrée à ce premier prototype car il me semble que nous avons encore tout à apprendre pour développer des productions dans ce qui est finalement un nouveau médium pour les musées. Nous comptons publier les résultats de cette première expérience une fois l’exposition terminée, à l’automne prochain.

Ces vitrines à effet « fantasmagorique » ouvrent-elles une nouvelle voie pour la muséographie ? Nous ne le savons pas encore. Mais comme nous l’avons vu, le procédé qu’elles mettent en oeuvre est issu d’une longue lignée technologique qui a déjà fait ses preuves. Ce sont en fait de nouvelles machines à créer des « fantômes ». Et comme nous le savons, quand on parle de musée, Belphegor n’est jamais très loin.

Remerciements

Je tiens à remercier tous ceux qui ont travaillé à la conception et la production de ces premières vitrines à effet fantasmagorique : Stéphane Intissar (direction de projet, programmation),  Pascal Conicella (conception), Thierry Divenot (gestion de la production des vitrines), Quentin Bonnard (hardware, programmation linux), Jonathan Besuchet (programmation camera 3D), Edouard Chabrol (design graphique), Martino d’Esposito et Alexandre Gaillard (direction design industriel), Laurent Bolli  et Cristiana Bolli-Freitas (direction artistique).

Références

Bradburne, James, ‘Foreword’, in Digital Technologies and the Museum Experience: Handheld Guides and Other Media (AltaMira Press,U.S., 2008)

Barbieri, Giuseppe, ‘Commune et Diverso : Dalla Genese Del Cultural Heritage Alle Nuove Strategie Di Fruizione Del Centro Multimediale Di Pordenone’, in Pordenone, un nuovo sguardo (Terra Ferma, 2012), pp. 43–78

Deloche, Bernard, Mythologie Du Musée : De L’uchronie à L’utopie (Editions Le Cavalier Bleu, 2010)

Gunning, Tom, ‘The Long and the Short of It: Centuries of Projecting Shadows, from Natural Magic to the Avant-garde’, in Art of Projection (Hatje Cantz, 2009), pp. 23–35

Levie, Françoise, Étienne-Gaspard Robertson: la vie d’un fantasmagore (Le Préambule, 1990)

Kaplan, Frédéric, ‘La Bibliothèque Comme Interface Physique de Découverte et Lieu de Curation Collective’, Documentaliste — Sciences de l’information, 49 (2012a), 12–13

Kaplan, Frédéric, ‘L’ordinateur Du XXIe Siècle Sera Un Robot’, in Et l’Homme créa le robot (Musée des arts et metiers, 2012b), pp. 58–65

McLuhan, Marshall, Harley Parker, Jacques Barzun, Bernard Deloche, and Collectif, Le Musée Non-linéaire : Exploration Des Méthodes, Moyens Et Valeurs de La Communication Avec Le Public Par Le Musée (Aléas, 2008)

Lancement de la « Venice Time Machine »

mars 14, 2013

Le lancement de la Venice Time Machine, grand projet de Digital Humanities entre l’EPFL et l’université Ca’Foscari a donné lieu à plusieurs d’articles de presse et réactions sur Internet (communiqué officiel, article dans le Temps, repris également dans Le Monde) . Le projet propose une modélisation multidimensionnelle de Venise et de son empire méditerranéen. Son ambition consiste à rendre interopérables des données concernant l’histoire environnementale (évolution de la lagune), urbaine (morphogenèse de la ville), humaine (démographie et circulation) et culturelle (politique, commerce, évolution artistique). La Venice Time Machine comporte des défis en terme de numérisation (des archives immenses et très anciennes), de modélisation (reconstructions cartographiques, gestions de l’incertitude intrinsèque aux données historiques) et de muséographie (comment rendre compte de cette histoire complexe). Les équipes vénitiennes et lausannoises travailleront en étroite collaboration, dans le cadre d’un centre de recherche comme appelé Digital Humanities Venice. Nous sommes également en train de constituer un réseau international de chercheurs qui pourront collaborer à ce grand projet. Maintenant que les annonces sont passées, il est peut-être utile de revenir sur ce qui fait l’originalité de la démarche de cette machine à remonter le temps.

Peut-on construire une machine à remonter le temps ?

Au départ, il y a un rêve, celui d’adapter les outils numériques du présent à l’exploration du passé.  Nous avons depuis quelques années, des outils extraordinaires pour explorer le monde sans partir de chez nous (p.e. Google Earth/Maps/Streetview). Quand nous ne voyageons pas dans l’espace physique, nous parcourons le graphe social documentant les liens et les activités de plus d’un milliard de personnes. Ces services nous donnent l’impression de vivre dans un « grand maintenant ». Le présent est devenu tellement dense que son exploration perpétuelle pour suffit à nourrir notre curiosité.

Il me semble extrêmement important de tenter de construire des outils d’exploration du temps aussi puissant que ceux qui nous permettent de voyage dans l’espace. Peut-on construire un Google Maps du passé pour nous montrer comment étaient une ville ou une région il y a plusieurs centaines d’années ? Peut-on construire un Streetview du passé pour nous montrer à quoi ressemblait une rue à cette époque ?  Peut-on construire  un Facebook historique documentant la vie quotidienne du passé ? Autrement dit :  Peut-on construire des machines à remonter dans le temps ?

Le champignon informationnel

Pour répondre à cette question, il nous faut considérer ce que j’appelle « le champignon informationnel ». L’information numérique disponible sur les dix dernières années est extrêmement riche et dense. Nous pouvons représenter cet abondance par un large plateau. Pour simplifier notre raisonnement, nous dirons que plus nous reculons dans le temps plus la quantité d’information se réduit (il est possible que ce ne soit pas tout à fait vrai, certaines périodes anciennes comme l’antiquité étant potentiellement mieux documentées numériquement que certains périodes intermédiaires comme le moyen-âge). Pour pouvoir utiliser les outils du présent pour explorer le passé nous avons besoin d’une densité informationnelle comparable à celle du présent. Autrement il nous faut élargir le pied du champignon pour qu’il s’approche le plus possible d’un rectangle.

champignon-en-lucida-1

Une première manière pour réaliser cet « élargissement » consiste à numériser les archives publiques et privées. Il existe des archives télévisuelles de qualité sur une cinquantaine d’années, des archives photographiques sur plus de 100 ans, des archives de presse bien conservées sur au moins 200 ans (et souvent plus), des documents imprimés sur 500 ans, et enfin de grandes collections de manuscrits, dessins ou d’anciennes cartes. La figure ci-dessous montre symboliquement ce que nous pourrions attendre en numérisation et modélisant de telles archives. La courbe s’élargit beaucoup sur les 200 dernières années et continue, puis recommence à rétrécir jusqu’à la Renaissance. Pour des périodes plus anciennes, les sources sont, en général, globalement moins nombreuses et il est possible qu’il soit difficile de reconstituer une densité informationnelle suffisante.

champignon-en-lucida-2

Pour le pied du champignon et les données les plus anciennes, nous pouvons extrapoler à partir des données existantes et « simuler » les données manquantes. Par exemple, un carnet de bord d’un capitaine de navire vénitien nous indique bien plus qu’un itinéraire particulier, il nous informe sur les routes commerciales d’une époque. De la même manière, une gravure représentant une façade vénitienne nous décrit bien plus que ce bâtiment en particulier, mais nous renseigne sur les grammaires architecturales utilisées à cette époque particulière. Les historiens extrapolent très souvent de cette façon. Il s’agit simplement de formaliser et systématiser cette démarche.

champignon-en-lucida-3

Gestion de l’incertitude et espaces fictionnels

La gestion de l’incertitude est le coeur du défi scientifique de ce projet. Il s’agit de raisonner dans des espaces où se côtoient des incertitudes de natures très diverses (fiabilités des sources, erreurs d’interprétations, extrapolations basées sur de fausses hypothèses, erreurs dues aux procédés de numérisation). Depuis 50 ans, les sciences de l’information n’ont cessé de développer des approches pour raisonner dans des univers incertains et a priori peu prévisibles (calculs probabilistes, logique floue, apprentissage artificiel, etc.). Des méthodes qui n’ont jusque-là pas reçu suffisamment d’attention en histoire. La rencontre de ces approches formelles et des mondes historiques incertains pourrait donner lieu à de grandes découvertes.

Dans notre approche, chaque source produit ce que nous appelons un « espace fictionnel ».  Ce n’est que par la « jointure » d’espaces fictionnels émanant de divers documents que nous pouvons progressivement produire un passé « probable ». Une conséquence de cette approche est qu’il n’y a évidemment pas un passé, pas une organisation de Venise ou une structuration de son empire maritime, mais de multiples mondes possibles dont nous tâchons d’évaluer la plausibilité.

Des millions de documents

Évidemment nous n’avons pas choisi Venise au hasard. La Cité des Doges représente un cas unique dans l’histoire. Elle a très rapidement mis en place un État bureaucratique, qui deviendra vite un véritable Empire régnant sur toute la Méditerranée. La moindre délibération du Sénat ou des autres chambres était consignée, tout ce qui sortait et entrait dans la Cité, les possessions des habitants… Au total, on estime le nombre de documents exploitables à plus de 100 millions. Une personne seule ne peut évidemment pas compiler une telle somme d’informations.

archivio-di-stato

Les archives d’états à Venise comportent plus 80 km de documents administratifs couvrant toute l’histoire de la Cité des Doges

Il faudra développer des techniques nouvelles pour numériser, transcrire et indexer une telle masse de documents. Nous testerons différentes approches :  robots capables de manipuler avec soin les parchemins, dispositifs portables permettant une numérisation rapide et efficaces, etc. Pour transcrire ces très nombreux manuscrits, nous devrons développer de nouvelles techniques de reconnaissance de caractères couplées à des modèles des langues dans lesquelles ils sont écrits (latin, toscan, dialecte vénitien). Dans ces transcriptions, nous identifierons les noms de lieux, de personnes, les dates et progresserons pas à pas dans une caractérisation sémantique toujours plus fine.

Des millions de visiteurs

Venise c’est aussi 20 millions de touristes qui chaque année sillonnent les canaux, se perdent dans les ruelles et découvrent une cité dont, le plus souvent, ils ne savent que peu de choses. En développant de nouveaux dispositifs muséographiques, interfaces mobiles ou au contraire très large installation, nous espérons pouvoir faire mieux connaitre la fascinante histoire de ce petit peuple de pécheur qui devint maitre de la Méditerranée. Profitant de nombre du ces visiteurs nous espérons avec les équipes de Ca’Foscari mettre en place une muséographie expérimentale capable d’évaluer les succès et les échecs des dispositifs qu’elle propose. Autant d’innovations qui pourront venir nourrir d’autres musées ou d’autres villes.

Je reviendrai plus en détail sur tous ces points dans de prochains billets.

Une autre algorithmie de la découverte

mars 21, 2012

La Fondation Cartier organise ce jeudi 22 mars à 19h, une discussion Google Hang-Out sur curiosité et les algorithmes avec 5 ingénieurs de Google, Pierre-Yves Oudeyer et moi-même. 

L’exposition de la Fondation Cartier « Mathématiques, un dépaysement soudain » ferme ses portes cette semaine à Paris. Laurent Bolli et moi-même avons collaboré sur plusieurs projets de l’exposition :

- Le projet, finalement non retenu sous cette forme de la bibliothèque de Gromov (voir mon précédent bille « Replier les textes comme des proteines« )

- Le projet de Takeshi Kitano et David Lynch : La réponse est 2011 (voir également un autre billet sur ce sujet et sur la solution inventée par Quentin Bonnard, un des mes doctorants)

- L’application iPad de l’exposition basée sur le principe mathématique de la curiosité exploré par Pierre-Yves Oudeyer et moi-même il y a quelques années.

Je n’avais pas pris le temps à l’époque d’expliquer le principe original de ce dernier projet.


Cercle de pertinence, cercle de curiosité

L’application présente plusieurs centaines de documents provenant de l’exposition mais aussi des archives de la Fondation Cartier (Contenus sonores, Biographies, Vidéos, Concepts, Images, Evènements). Chaque document est associé à un vecteur N de k paramètres codant un identifiant, son type et des indications sur son contenu. L’espace des documents peut donc être considéré comme un espace de dimension k, relativement grand. L’utilisateur va naviguer dans cet espace grâce à deux algorithmes.

L’interface de l’application est organisée sous la forme de deux cercles concentriques. Le premier cercle de « pertinence » présente les transitions statistiquement les plus communes entre le noeud central N(t) et les autres noeuds de le l’application étant donné le chemin S(t) = Sn(t) = ((N(t), N(t-1)…. N (t-n)) récemment parcouru par l’utilisateur. Le système tente donc de prédire quel sera le prochain noeud à visiter en fonction du parcours des autres utilisateur.  Il s’agit donc d’un système de recommandations assez classique basé la maximisation de la prédiction.  A partir de l’analyse de l’ensemble des chemins des utilisateurs, l’algorithme propose les chemins qu’il a observés comme étant les plus choisis. A chaque choix d’un noeud par l’utilisateur il améliore également son modèle de transition (distribution statistique des transitions à partir d’un chemin donné). Tous les parcours des utilisateurs contribuent donc à affiner ce modèle central.

Le second cercle de « curiosité », l’algorithme propose des noeuds basés sur une adaptation des algorithmes de découverte que nous avons développés Pierre-Yves Oudeyer et moi-même il y a presque dix ans (voir les pages que Pierre-Yves Oudeyer proposent sur ce sujet, un peu plus à jour que les miennes).  Ces algorithmes apprennent un peu comme des enfants (un projet que Turing formulait déjà clairement dans les années 1950s). Ils ne tentent pas de faire des choix en fonction de critères extérieurs (ex: proposer la réponse la plus pertinente pour un utilisateur) mais pour optimiser leur propre apprentissage. A tout moment, ils se posent la question : que dois-je maintenant faire pour un apprendre le plus possible sur l’espace que j’explore ?.

Il est probable que ce soit ce même type de motivation intrinsèque qui pousse par exemple un jeune enfant à jouer avec l’emballage d’un cadeau plutôt qu’avec le jouet qu’il contient. La promesse sensorimotrice de l’emballage étant plus alléchante que celle proposée par le jouet. Nous avons également montré comme ce principe permet de faire émerger des séquences développementale organisée chez un robot apprenant (voir notre article sur ce sujet mais également la video d’AIBO apprenant à marcher grâce à ce type d’exploration ou la salle de jeux pour robot qui nous avions développée avec des designers de l’ECAL pour explorer ce même principe.). A la Fondation Cartier, Pierre-Yves Oudeyer a présenté Ergo-robots, une installation robotique  mise en scène par David Lynch qui permet de découvrir comment se comportent un groupe de robots, motivé par le principe de curiosité.

Les algorithmes de curiosité donnent des effets impressionnants en robotique, mais leur utilité est bien plus large. Ce champ de recherche rejoint d’ailleurs d’autres domaines des statistiques développées en 1972 par Fedorov sous le terme « optimal experiment design » . Des chercheurs en Machine Learning comme Jurgen Schmidhuber ont, dès les années 1990s, commencé à théoriser la pertinence de ces algorithmes pour l’exploration de grands espaces de données. En une vingtaines d’années tout une famille d’algorithmes ont vu le jour, tous construits autour  d’une même intuition : les machines doivent choisir les meilleures actions pour optimiser leur propre apprentissage. 

Un algorithme dont l’apprentissage progresse optimallement

C’est un même principe que nous avons mis en oeuvre pour le second cercle de l’application iPad de la Fondation Cartier. L’algorithme essaie de comprendre la relation entre la présentation de certains documents et le fait qu’ils soient ou non consultés par l’utilisateur dans le contexte d’un chemin de découverte particulier. L’algorithme sait déjà que certains documents sont d’ordinairement choisis (cercle de pertinence) mais il est encore ignorant de la structure de la plus grande partie de l’espace qu’il doit explorer. N’ayant pas une infinité d’essais (puisque chaque essai demande l’intervention d’un utilisateur de l’application), il doit proposer des choix qui lui permettront de progresser optimallement dans son apprentissage.

Plus formellement, il s’agit d’optimiser I(S(t), A(t)),  l’intérêt d’effectuer l’action A(t) (le choix d’un noeud) dans l’état S(t). Cet intérêt peut être approximé par la dérivée de la qualité prédictive. Si la qualité d’une prédiction d’une transition vers un noeud (N+1) est en augmentation (le système est en train de perfectionner son modèle de transition vers noeud à partir du chemin S(t)), ce noeud aura un bon score d’Intérêt).

A chaque interaction l’algorithme propose ainsi dans le cercle de curiosité 14 contenus dont l’intérêt en terme d’apprentissage est optimal. Comme de nouveaux contenus peuvent être rajoutés à l’application, nous avons également introduit un biais pour les noeuds dont l’algorithme sait très peu de chose.  Ceci aura pour effet d’introduire plus souvent dans le cercle de curiosité, les nouveaux noeuds de manière à tester rapidement leur pertinence et leur intérêt.

Jeudi 22 mars à 19h, lors d’un Hang-Out Google+ sur la page de la Fondation Cartier, nous discuterons de toutes ces questions avec cinq ingénieurs de chez GoogleMehyrar Mohri (publications), David Singleton (blog), Aaron Shon (Bayesian cognitive models for imitation), Rich Washington (homepage), Radu – Eosif Mihailescu (blog). Une retransmission simultanée entre Dublin, Zurich, Lausanne, Paris, Bordeaux et les Etats-Unis…

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 217 autres abonnés