Archive for mars, 2012

Une autre algorithmie de la découverte

mars 21, 2012

La Fondation Cartier organise ce jeudi 22 mars à 19h, une discussion Google Hang-Out sur curiosité et les algorithmes avec 5 ingénieurs de Google, Pierre-Yves Oudeyer et moi-même. 

L’exposition de la Fondation Cartier « Mathématiques, un dépaysement soudain » ferme ses portes cette semaine à Paris. Laurent Bolli et moi-même avons collaboré sur plusieurs projets de l’exposition :

– Le projet, finalement non retenu sous cette forme de la bibliothèque de Gromov (voir mon précédent bille « Replier les textes comme des proteines« )

– Le projet de Takeshi Kitano et David Lynch : La réponse est 2011 (voir également un autre billet sur ce sujet et sur la solution inventée par Quentin Bonnard, un des mes doctorants)

– L’application iPad de l’exposition basée sur le principe mathématique de la curiosité exploré par Pierre-Yves Oudeyer et moi-même il y a quelques années.

Je n’avais pas pris le temps à l’époque d’expliquer le principe original de ce dernier projet.


Cercle de pertinence, cercle de curiosité

L’application présente plusieurs centaines de documents provenant de l’exposition mais aussi des archives de la Fondation Cartier (Contenus sonores, Biographies, Vidéos, Concepts, Images, Evènements). Chaque document est associé à un vecteur N de k paramètres codant un identifiant, son type et des indications sur son contenu. L’espace des documents peut donc être considéré comme un espace de dimension k, relativement grand. L’utilisateur va naviguer dans cet espace grâce à deux algorithmes.

L’interface de l’application est organisée sous la forme de deux cercles concentriques. Le premier cercle de « pertinence » présente les transitions statistiquement les plus communes entre le noeud central N(t) et les autres noeuds de le l’application étant donné le chemin S(t) = Sn(t) = ((N(t), N(t-1)…. N (t-n)) récemment parcouru par l’utilisateur. Le système tente donc de prédire quel sera le prochain noeud à visiter en fonction du parcours des autres utilisateur.  Il s’agit donc d’un système de recommandations assez classique basé la maximisation de la prédiction.  A partir de l’analyse de l’ensemble des chemins des utilisateurs, l’algorithme propose les chemins qu’il a observés comme étant les plus choisis. A chaque choix d’un noeud par l’utilisateur il améliore également son modèle de transition (distribution statistique des transitions à partir d’un chemin donné). Tous les parcours des utilisateurs contribuent donc à affiner ce modèle central.

Le second cercle de « curiosité », l’algorithme propose des noeuds basés sur une adaptation des algorithmes de découverte que nous avons développés Pierre-Yves Oudeyer et moi-même il y a presque dix ans (voir les pages que Pierre-Yves Oudeyer proposent sur ce sujet, un peu plus à jour que les miennes).  Ces algorithmes apprennent un peu comme des enfants (un projet que Turing formulait déjà clairement dans les années 1950s). Ils ne tentent pas de faire des choix en fonction de critères extérieurs (ex: proposer la réponse la plus pertinente pour un utilisateur) mais pour optimiser leur propre apprentissage. A tout moment, ils se posent la question : que dois-je maintenant faire pour un apprendre le plus possible sur l’espace que j’explore ?.

Il est probable que ce soit ce même type de motivation intrinsèque qui pousse par exemple un jeune enfant à jouer avec l’emballage d’un cadeau plutôt qu’avec le jouet qu’il contient. La promesse sensorimotrice de l’emballage étant plus alléchante que celle proposée par le jouet. Nous avons également montré comme ce principe permet de faire émerger des séquences développementale organisée chez un robot apprenant (voir notre article sur ce sujet mais également la video d’AIBO apprenant à marcher grâce à ce type d’exploration ou la salle de jeux pour robot qui nous avions développée avec des designers de l’ECAL pour explorer ce même principe.). A la Fondation Cartier, Pierre-Yves Oudeyer a présenté Ergo-robots, une installation robotique  mise en scène par David Lynch qui permet de découvrir comment se comportent un groupe de robots, motivé par le principe de curiosité.

Les algorithmes de curiosité donnent des effets impressionnants en robotique, mais leur utilité est bien plus large. Ce champ de recherche rejoint d’ailleurs d’autres domaines des statistiques développées en 1972 par Fedorov sous le terme « optimal experiment design » . Des chercheurs en Machine Learning comme Jurgen Schmidhuber ont, dès les années 1990s, commencé à théoriser la pertinence de ces algorithmes pour l’exploration de grands espaces de données. En une vingtaines d’années tout une famille d’algorithmes ont vu le jour, tous construits autour  d’une même intuition : les machines doivent choisir les meilleures actions pour optimiser leur propre apprentissage. 

Un algorithme dont l’apprentissage progresse optimallement

C’est un même principe que nous avons mis en oeuvre pour le second cercle de l’application iPad de la Fondation Cartier. L’algorithme essaie de comprendre la relation entre la présentation de certains documents et le fait qu’ils soient ou non consultés par l’utilisateur dans le contexte d’un chemin de découverte particulier. L’algorithme sait déjà que certains documents sont d’ordinairement choisis (cercle de pertinence) mais il est encore ignorant de la structure de la plus grande partie de l’espace qu’il doit explorer. N’ayant pas une infinité d’essais (puisque chaque essai demande l’intervention d’un utilisateur de l’application), il doit proposer des choix qui lui permettront de progresser optimallement dans son apprentissage.

Plus formellement, il s’agit d’optimiser I(S(t), A(t)),  l’intérêt d’effectuer l’action A(t) (le choix d’un noeud) dans l’état S(t). Cet intérêt peut être approximé par la dérivée de la qualité prédictive. Si la qualité d’une prédiction d’une transition vers un noeud (N+1) est en augmentation (le système est en train de perfectionner son modèle de transition vers noeud à partir du chemin S(t)), ce noeud aura un bon score d’Intérêt).

A chaque interaction l’algorithme propose ainsi dans le cercle de curiosité 14 contenus dont l’intérêt en terme d’apprentissage est optimal. Comme de nouveaux contenus peuvent être rajoutés à l’application, nous avons également introduit un biais pour les noeuds dont l’algorithme sait très peu de chose.  Ceci aura pour effet d’introduire plus souvent dans le cercle de curiosité, les nouveaux noeuds de manière à tester rapidement leur pertinence et leur intérêt.

Jeudi 22 mars à 19h, lors d’un Hang-Out Google+ sur la page de la Fondation Cartier, nous discuterons de toutes ces questions avec cinq ingénieurs de chez GoogleMehyrar Mohri (publications), David Singleton (blog), Aaron Shon (Bayesian cognitive models for imitation), Rich Washington (homepage), Radu – Eosif Mihailescu (blog). Une retransmission simultanée entre Dublin, Zurich, Lausanne, Paris, Bordeaux et les Etats-Unis…

La pollution des ressources linguistiques

mars 18, 2012

En préparation d’un exposé sur le capitalisme linguistique que je donnerai à l’ENSCI le 29 mars, j’explore dans ce billet un aspect important de ce nouvel ordre linguistique où se mélangent les écrits humains et les textes des algorithmes. 

Les nouveaux acteurs du capitalisme linguistique ont besoin d’accéder à des ressources de qualité pour chacun des marchés linguistiques qu’ils visent. Or dans il nous faut distinguer au moins deux types de ressources linguistiques: (a) les ressources primaires produites par des humains (conversations orales ou écrites, contenus de livres scannés, etc.) et (b) les ressources secondaires produites par des machines en général à partir des ressources primaires (traduction automatique, article écrit par des algorithmes, spam). Malheureusement, sans connaître l’origine d’une production, il n’est souvent pas aisé de distinguer entre ressources primaires ou secondaires. Un humain peut dans certains cas faire la différence, mais il est difficile de construire des algorithmes  pour faire automatiquement cette distinction.

Les acteurs du capitalisme linguistique doivent modéliser la langue le plus parfaitement possible. Un acteur comme Google en proposant de multiple interfaces d’expression (Gmail, Google docs, Google +, Service de reconnaissance vocale) et de puissant outils d’accumulation linguistique (Google books, Youtube) a développé un observatoire unique pour construire des modèles statistiques précis de nombreuses langues vivantes. Grâce à ces modèles il peut proposer des outils de correction ou de complétion automatique et lisser la langue pour la faire revenir dans le domaine commercial.(un mot ou une phrase incorrecte ne valent rien car aucune enchère ne peuvent être organisée à leur propos)

Les ressources secondaires sont un danger, une pollution pour ces modèles. Prenons le cas d’un article écrite anglais traduit approximativement en français par un service de traduction. L’article est encore lisible pour un humain qui peut ainsi avoir ainsi une idée de son contenu s’il n’est pas anglophone mais il ne constitue en aucun cas un exemple valide d’une production linguistique en français. Pourtant, dans certains cas, cet article sera la base d’une seconde traduction automatique, par exemple en chinois. A chaque étape sa qualité linguistique se dégrade, pour refléter toujours plus les caractéristiques et les biais de l’algorithme de traduction.

A côté des algorithmes de traductions automatiques, un nombre croissant de textes sont maintenant directement produits par des machines. Ces algorithmes produisent à partir de données structurées des formes narratives variées : Articles longs ou courts, chroniques sportives, tweets. A nouveau, un lecteur averti peut souvent detecter la mécanique sous-jacente et deviner parfois que ces textes ne sont pas écrits par des humains. Leur composition syntaxique et surtout leur positionnement pragmatique sonnent parfois faux, reflétant les biais de l’algorithme qui les compose.

Malheureusement les robots de Google qui archivent inlassablement le web ne font pas la différence entre ces ressources linguistiques dégradées et les ressources primaires. Au fur et à mesure que la quantité de ressources secondaires devient significative par rapport aux ressources primaires, le modèles statistiques peut se modifier pour intégrer le vocabulaire, les formulations et les tournures des algorithmes. Par une retroaction que ne manque pas d’ironie, ce sont ces tournures qui risquent de nous être proposées sous la forme de suggestions ou de corrections. 

Kirti Vashee analyse que c’est essentiellement pour cette raison que Google a décidé de fermer son service de traduction automatique en 2011. En proposant des traductions approximatives qui venaient grossir le rang des ressources linguistiques secondaires, Google polluait sa ressource vitale (« polluting its own drinking water ») en particulier pour des marchés linguistiques où ses modèles n’était peut-être pas encore aussi bons que pour l’Anglais. Rappelons que Google n’est pas dominant partout. En Russie, en Chine, au Japon et en Corée il doit faire face à une concurrence importante respectivement de Yandex, Baidu, Yahoo et NHN. Pour gagner ces marchés, il est contraint d’offrir une qualité de service irréprochable (c’est cette stratégie qui lui a permis à l’époque de battre ces concurrents sur les marchés anglo-saxons et européens)

Google a remplacé son service créateur de ressources secondaires en un service de traduction « on demand » qui garde toujours le texte original de la traduction, pour s’en servir pour la recherche et pour potentiellement améliorer progressivement la traduction proposée au fur et à mesure que les algorithmes de traduction progressent. La modification de ce service de traduction était une opération risquée pour Google dans la mesure où il était utilisé par un très grand nombre d’autres services.En agissant ainsi, Google prend le risque de perdre la confiance des développeurs qui utilise ses API, rappelant qu’à tout moment , la compagnie peut décider de changer les règles du jeu. Si Google a fait ce choix c’est que la question de la pollution des ressources linguistiques est un enjeu majeur pour son modèle commercial.

Mais transformer son service de traduction automatique ne suffira pas à stopper les autres services produisant des textes encores plus dégradés, ni à freiner le développement des textes produits par des algorithmes. Il faut maintenant compter avec l’écriture des machines et tous les hybrides de ce nouvel ordre linguistique. Comme l’explique bien Stuart Geiger, un article de Wikipedia n’est pas que le travail collectif d’un groupe de redacteurs mais également le resultat des productions de bots qui effectuent des travaux syntaxiques spécifiques et des opérations sémantiques systématiques.  Textes humains et machiniques se mélent pour proposer une nouvelle forme d’écriture. Et c’est cette nouvelle écriture que les robots de Google analysent pour ensuite structurer nos propres écrits.

Wikipedia est un jeu

mars 17, 2012

Depuis quelques années, nous avons vu plusieurs réussites de création collective de connaissance utilisant des jeux. L’exemple le plus emblématique est Foursquare. Par sa dynamique ludique et la dizaine de millions d’utilisateurs, Foursquare a réussi à documenter l’espace géographique de manière sémantique. Il propose aujourd’hui cette immense et précieuse base de données à d’autres services, comme Instagram.

Les jeux peuvent créer des bases de connaissances. Mais nous pourrions également argumenter que les grands services de créations connaissances partagées sont également des jeux même s’ils ne sont pas présentés comme tels. Je vais tenter de développer cet argument autour de trois exemples : Twitter, Quora et Wikipedia.

Twitter est un jeu

Dans leur livre Gamification by Design, Gabe Zichermann et Christopher Cunningham décrivent minutieusement le concept d’Onboarding. L’Onboarding désigne l’initiation d’un utilisateur novice à un système complexe comme un jeu ou un service en ligne. Le nouvel utilisateur doit comprendre progressivement comment le système fonctionne et surtout avoir envie de continuer à l’utiliser dans le futur.

Une stratégie possible consiste à créer une boucle d’engagement social. Pour Zichermann et Cunningham cette boucle se décompose en quatre temps. Une émotion motivante (1) rencontre une proposition d’action (2)  qui donne des effets visibles incitant à continuer l’exploration (3) et conduit à des progrès mesurables (4) qui a leur tour renforcent une émotion motivante (1′).

Pour l’utilisateur novice de Twitter, tout commence avec probablement avec la curiosité d’essayer le service dont il a entendu parler (1), il découvre qu’il peut rédiger des Tweets (2). L’utilisateur quitte en général la plate-forme à ce stade sans savoir vraiment si elle va utiliser le service de manière régulière. Avec un peu de chance dans les heures ou les jours qui suivent, quelqu’un le mentionne dans un Tweet (3) (Il voit son nom avec @ et en déduit l’usage de ce signe), ce qui incite le novice à revenir sur le service et à continuer la conversation. Si ses Tweets sont jugés pertinents, l’utilisateur commence à avoir des followers. Cette mesure explicite (4)  de son importance dans Twitter le motive à continuer à tweeter avec pour objectif plus ou moins avoué de tenter d’avoir plus de followers.

Au fur et à mesure que l’utilisateur de Twitter devient un expert, sa perception de la boucle d’engagement se modifie et l’importance des divers classements associés au service de micro-message se précise. L’expert comprend qu’un grand nombre de  mention et de retweet peuvent modifier son score sur Klout ou sur un autre des services qui proposent aujourd’hui d’évaluer le capital social. Il comprend les meilleures heures pour Twitter. Consciemment ou inconsciemment il optimise son écriture et la temporalité de ses messages pour jouer au jeu Twitter de la meilleure manière possible.

Quora est un autre type de jeu

Zichermann et Cunningham analyse de la même manière la structure ludique de Quora. Lancé à grand bruit en 2009, Quora est un service de questions/réponses. Son objectif affiché est de proposer un marché de la connaissance structurée sous la forme de questions associées à une série de réponses de grande qualité. L’enjeu pour Quora est d’attirer des contributeurs de qualité et de les motiver à écrire d’excellentes réponses aux questions posées.

Pour atteindre ce but, Quora a fait un choix très clair : personnaliser les réponses, dépersonnaliser les questions.Les questions ne sont pas visuellement attachées à celui qui les a posé. Elles sont immédiatement traitées comme un bien commun. Chacun peut les modifier et les améliorer. Dès qu’un utilisateur pose une question, il ne la contrôle plus.

En revanche tout dans l’interface reinforce le lien entre une réponse et son auteur. Dans Quora, la juxtaposition systématique de l’identité de l’utilisateur, mentionnant en particulier sa photo, son nom et sa bio, et de ses contributions introduit une équivalence directe entre la valeur d’un utilisateur et la qualité de ses réponses. Quora propose ensuite un système de classement explicite : les réponses les mieux notées sont présentées en premier juste en dessous de la question. Chaque question est donc une simplement une compétition entre utilisateurs. Celui qui propose la meilleure réponse gagne le jeu. Quora se contente ensuite de documenter au mieux cette compétition en fournissant des outils qui permettent aux utilisateurs de suivre en temps réel les performances de leur réponse dans chacune des compétitions dans lesquelles elles sont engagées.

Comme dans Twitter, le contributeur de Quora découvre ces règles au fur et à mesure et apprend ce qu’il doit optimiser pour gagner dans ce type particulier de compétition.

Wikipedia est aussi un jeu

Il est clair que Wikipedia n’a pas adopté la même stratégie ludique que Quora ou que Twitter. Il n’en reste pas moins que sa structure et sa réussite sont la résultante, au moins autant sinon plus, de la qualité de sa construction ludique que du rêve partagé d’une encyclopédie universelle, libre et gratuite.

Quel jeu est alors Wikipedia ? La réponse est évidente. C’est un MMORPG  (« Massively Multiplayer Online Role Playing Games »). Les contributeurs les plus actifs de Wikipedia ont un démarche qui a beaucoup de points communs avec celle des joueurs de World of Warcraft.

Pour jouer à Wikipedia, il faut contribuer. Contrairement à Quora qui impose à l’utilisateur novice un long et fastidieux processus de formation avant de pouvoir commencer, le processus d’onboarding de Wikipedia est beaucoup plus doux. Pas de login. Pas besoin d’être identifié. Le fait que l’historique de chaque page est conservé et qu’il soit toujours possible de revenir à une ancienne version d’un article permet cette ouverture. Mais la force conceptuelle de ce principe d’ouverture (Le projet d’encyclopédie libre que vous pouvez améliorer) ne doit pas masquer les vrais dynamiques qui pousse les utilisateurs à s’investir dans Wikipedia.

Après quelques contributions ou corrections anonymes, il est naturel que l’utilisateur souhaite signer ses ajouts. En s’identifiant, le Wikipedien développe une identité propre avec nom, une page personnelle. Il vient, peut-être sans le savoir, de passer au niveau 2.

Comme dans tout bon jeu, cette étape n’est que la première d’une longue série qui permettra à l’utilisateur motivé de franchir les niveaux successifs de la grande pyramide Wikipedia. Comment gravit-on les échelons ? Quels sont les privilèges reservés à ceux qui sont plus hauts ? Pourquoi certaines page sont-elles protégées contre les modifications ? Qui peut décider de ces choix ? Le novice ne le sait pas encore.

Wikipedia n’est pas aussi transparente que son mythe fondateur le laisse entendre. Comprendre ses rouages, ses comités, le système d’attribution de ses privilèges fait partie du plaisir de la découverte du joueur qui veut explorer ce monde finalement peu connu, reservé à quelques initiés qui ont fait l’effort de s’y investir.  Pour le novice, l’encyclopédie « participative » semble au début cacher relativement bien ses secrets.  La meilleure, et peut-être la seule, manière de comprendre Wikipedia est d’y jouer longtemps.

Au fur et à mesure qu’il réside dans Wikipedia, le joueur apprend les différents métiers qu’il pourrait exercer dans ce monde : administrateur, bureaucrate, steward, médiateur, arbitre, masqueur, importateur, vérificateur d’adresse IP. Comme dans tout jeu de rôle qui se respecte, chaque caste a ses devoirs et ses pouvoirs spéciaux.

Les administrateurs assurent typiquement la maintenance (nettoyage) de certaines pages, vérifier que les contenus ne posent pas de problèmes de droits d’auteur, réparer les actes de vandalisme. Toutes ces opérations peuvent être effectué par n’importe quel contributeur mais les administrateurs ont aussi accès à des pouvoirs supplémentaires :effacer des pages non pertinentes ou au contraire les « protéger » (empêcher leur modification), bloquer certains utilisateurs, renommer des pages, masquer des versions de l’historique.

Comment devient-on administrateur ? Il faut simplement être élu. La page correspondante indique les critères suivants non obligatoires mais recommandés  : « une bonne connaissance de la syntaxe wiki, des règles et du fonctionnement de Wikipédia en françaisune participation au minimum à des travaux du Projet:Maintenanceenviron 3 000 contributions et un an d’activité significative ». La route est longue, comme dans tout bon jeu de rôles.

Pour réussir sa campagne et se faire élire, il est important de comprendre le processus de vote et de décision.  Seul les votes des contributeurs ayant 50 contributions significatives à leur actif sont pris en considération. La candidature dure quinze jours. Si les votes sont favorables à l’accès au statut, le candidat est nommé. Les instructions précisent cependant que « La définition d’un vote « favorable » relève du pouvoir discrétionnaire des bureaucrates« .

Déjà notre administrateur voit plus haut et plus loin. Un jour peut-être il sera lui aussi « bureaucrate ». Les bureaucrates sont chargés de gérer les statuts de certains contributeurs à Wikipedia en particulier les adminstrateurs mais aussi les bots, ces algorithmes qui contribuent à Wikidepia effectuant des tâches répétitives et fastidieuses pour un humain (gestion des liens d’interlangue, la résolution des homonymies, les annulations de certains vandalismes). Environ de 8 personnes ont ce privilège sur Wikipédia en français.

Les stewards sont des « super bureaucrates ». En plus de gérer le statut des administrateurs, des bots et des bureaucrates, ils nomment également les masqueurs (ceux qui peuvent cacher des parties de Wikipedia comme des pages, des commentaires ou des historiques) et les vérificateurs d’adresses IP (qui peuvent faire le lien entre un compte utilisateur et l’adresse IP). Il n’y a que 3 stewards sur Wikipedia en Français.

Il faudrait encore parler des médiateurs, capable de s’interposer dans les disputes mais qui n’ont pas le pouvoir de voter ou de recommander une action punitive,  et des arbitres qui eux peuvent imposer une décision définitive. Le prestigieux ArbCom (Arbitration Committee) de la version Anglaise de Wikipedia n’a qu’une quinzaines de membres.

Wikipedia a aussi ses histoires fondatrices. Une des plus célèbres est la controverse sur Essjay, membre éminent de la Wikicratie qui cumulait les fonctions d’administrateur, bureaucrate, arbitre et mediateur, et qui fut pris en flagrant délit de mensonge sur sa page Wikipedia. Jouer le jeu de Wikipedia c’est faire un voyage initiatique dans l’envers du decor. Comprendre que la plus grande encyclopédie en ligne n’est pas tout à fait le simple résultat de la « sagesse des foules » mais a su s’auto-organiser autour d’une bureaucratie émergente. Wikipedia est véritablement un monde en soi avec sa politique, son histoire, son oligarchie.

Ainsi, World of Warcraft semble presque ennuyeux comparé aux mystères que l’exploration patiente de Wikipedia peut révéler. Il semble évident que. par bien des aspects, s’investir dans Wikipedia est une activité similaire à faire progresser son personnage dans un jeu de rôle multijoueurs. Et sur Wikipedia comme dans le MMPORG les joueurs avancent le plus souvent masqué derrière un pseudo qui leur permet de véritablement vivre une double vie. Employé du bureau le jour, Wikipedien la nuit.  Avec temps et persévérance, le contributeur se construit une identité propre, avec des pouvoirs associés, aussi difficilement acquis que ceux qui vous permettent d’être grand mage dans un univers d’heroic fantasy.

Tout cela n’enlève rien au fantastique édifice que Wikipedia représente, à la valeur de cette oeuvre collective, à la manière dont ce service gratuit à changer nos vies. Mais pour comprendre comment Wikipedia a pu croitre et prospérer, il faut réaliser, qu’avant tout, Wikipedia est un jeu.

Bookworld : Pourquoi expliciter le réseau interne des livres

mars 16, 2012

La première version de l’application iPad Bookworld est disponible sur l’AppStore depuis une semaine (voir la présentation et l’historique du projet dans mon précédent billet). Le Temps a  fait un bel article dessus. L’application sera également présentée au Salon du Livre de Paris ce samedi. Lorsque nous avons montré pour la première fois l’application il y a quinze jours, de nombreuses personnes m’ont demandé à quoi pouvait bien servir une application dans laquelle chaque livre est une ville. Ceci mérite peut-être en effet une petite explication.

Un livre n’est pas une trottinette

Mon discours sur le potentiel et l’importance de Bookworld rejoint par certains aspects celui que tient Valla Vakili lorsqu’il parle de Small Demons. A l’heure des grandes librairies digitales, comment découvre-t-on un nouveau livre ? Le processus de découverte est aujourd’hui presque entièrement délégué à deux types d’algorithmes basés sur l’analyse de deux types de corrélations statistiques.

Les premiers font du data mining sur les corrélations d’achats. « Ceux qui comme vous ont achète ce livre on aussi aimé celui-là ».

Les seconds font du data mining sur les corrélations d’opinions. « Ceux qui ont aimé ce livre ont aussi aimé celui-là ».

Dans les deux cas, les livres ne sont rien d’autre des identifiants dans une grande base de données de produits. Ils se résument à leur ISBN ou plus généralement à leur SKU. Leur « contenu » est au mieux « taggé », le plus souvent totalement ignoré. Le fait qu’Amazon ait étendu cette même algorithmie commerciale à une myriade d’autres produits est tout à fait révélateur du fait que cette machinerie ne fait aucune différence fondamentale entre un livre et une trottinette.

De plus, dans les deux cas, les statistiques de corrélations tendent à former de grands « hubs » où un petit nombre de livres pivots deviennent des passages obligés. L’algorithmie « homophile » renforce les best-sellers par rétroaction positive et ne favorise pas les chemins de traverses (voir le billet de Hubert Gillaut sur ce point ainsi que les réflexions de Danah Boyd).

Derrière ces choix algorithmiques se cachent donc des enjeux essentiels pour les chemins de la découverte d’objets culturels nouveaux.

Un livre contient lui-même un réseau d’objets culturels

Dans Bookworld, nous considérons qu’un livre est déjà un réseau complexe en tant que tel. Tout livre est une une organisation temporelle et spatiale qui structure un discours sur des personnes, des lieux, des objets (c’est même une des fonctions centrales du livre selon Pascal Robert). C’est pourquoi nous le représentons sous la forme d’une ville, métaphore potentiellement riche pour donner corps à ce réseau d’interaction.

L’application est construite pour que les lecteurs aient envie d’entreprendre ensemble ce travail titanesque qui consiste à document ce réseau, à l’expliciter. Plus il y a d’information sur un livre, plus la ville le représentant devient complexe, plus elle se lie à d’autres livres-villes construisant ainsi petit à petit la topologie de ce monde livresque.

Rob le héros du roman « Haute Fidelité » de Nick Hornby a une chanson pour chaque moment de la vie. Son passe temps favori consiste à classer les musiques (et accessoirement aussi les films) dans des TOP 5 thématiques. Quand je visite dans Bookworld la ville livre correspondant au roman, je découvre ou redécouvre cette constellation de films et de musiques. Au loin je vois d’autres villes-livres qui partagent certaines références en terme de musique, films, etc. des connections parfois insoupçonnées qu’aucun autre système de recommandation artificiel ou humain n’aurait pu trouver s’il a fait l’économie de ce processus cartographique.

La lecture est un processus d’attachement puis d’incorporation

Dans son exposé à Books in Browsers Valla Vakili explique bien que la lecture d’un livre est essentiellement une rencontre entre les référents culturels d’un lecteur et l’univers organisé de référents culturels proposé par une narration. Le personnage que Nick Hornby dessine en creux à partir à partir des objets culturels qu’il aime ou déteste me parle car je me retrouve d’une certaine manière dans ses références ou dans sa relation avec la musique. Ce processus d’attachement est fondamental dans ce qui nous fait aimer un livre. Inversement, quand un livre nous laisse indifférent ce que nous n’avons pas pu réussi à créer ces liens.

Si la rencontre entre le livre et son lecteur se passe bien, ce dernier incorpore, petit à petit, certains référents culturels du livre. Nous les faisons notre. Après ma rencontre avec la Terre du Milieux, les Hobbits ont désormais fait partie de mon monde… Tout comme ce morceau de Marvin Gay que la lecture de « Haute Fidelité » m’a fait écouter pour la première fois. Riches de ces nouveaux référents nous sommes prêts à de nouvelles rencontres livresques qui nous auraient peut-être laissées indifférents quelques semaines plus tôt. La métaphore touristique file toujours aussi bien. Dans le monde des livres aussi, certains itinéraire sont meilleurs que d’autres.

Documenter le contenu des livres ne tient donc pas d’un simple excès encyclopédique. Les liaisons narratives explicitées dans Bookworld ont une pertinence bien différente des corrélations statistiques exploitées par les algorithmes d’Amazon ou d’Apple. Caché dans la structure de ces réseaux que nous nous proposons de collectivement expliciter se cache sans doute une autre algorithmie de la découverte.