Posts Tagged ‘encyclopédisme’

Bookworld : Pourquoi expliciter le réseau interne des livres

mars 16, 2012

La première version de l’application iPad Bookworld est disponible sur l’AppStore depuis une semaine (voir la présentation et l’historique du projet dans mon précédent billet). Le Temps a  fait un bel article dessus. L’application sera également présentée au Salon du Livre de Paris ce samedi. Lorsque nous avons montré pour la première fois l’application il y a quinze jours, de nombreuses personnes m’ont demandé à quoi pouvait bien servir une application dans laquelle chaque livre est une ville. Ceci mérite peut-être en effet une petite explication.

Un livre n’est pas une trottinette

Mon discours sur le potentiel et l’importance de Bookworld rejoint par certains aspects celui que tient Valla Vakili lorsqu’il parle de Small Demons. A l’heure des grandes librairies digitales, comment découvre-t-on un nouveau livre ? Le processus de découverte est aujourd’hui presque entièrement délégué à deux types d’algorithmes basés sur l’analyse de deux types de corrélations statistiques.

Les premiers font du data mining sur les corrélations d’achats. « Ceux qui comme vous ont achète ce livre on aussi aimé celui-là ».

Les seconds font du data mining sur les corrélations d’opinions. « Ceux qui ont aimé ce livre ont aussi aimé celui-là ».

Dans les deux cas, les livres ne sont rien d’autre des identifiants dans une grande base de données de produits. Ils se résument à leur ISBN ou plus généralement à leur SKU. Leur « contenu » est au mieux « taggé », le plus souvent totalement ignoré. Le fait qu’Amazon ait étendu cette même algorithmie commerciale à une myriade d’autres produits est tout à fait révélateur du fait que cette machinerie ne fait aucune différence fondamentale entre un livre et une trottinette.

De plus, dans les deux cas, les statistiques de corrélations tendent à former de grands « hubs » où un petit nombre de livres pivots deviennent des passages obligés. L’algorithmie « homophile » renforce les best-sellers par rétroaction positive et ne favorise pas les chemins de traverses (voir le billet de Hubert Gillaut sur ce point ainsi que les réflexions de Danah Boyd).

Derrière ces choix algorithmiques se cachent donc des enjeux essentiels pour les chemins de la découverte d’objets culturels nouveaux.

Un livre contient lui-même un réseau d’objets culturels

Dans Bookworld, nous considérons qu’un livre est déjà un réseau complexe en tant que tel. Tout livre est une une organisation temporelle et spatiale qui structure un discours sur des personnes, des lieux, des objets (c’est même une des fonctions centrales du livre selon Pascal Robert). C’est pourquoi nous le représentons sous la forme d’une ville, métaphore potentiellement riche pour donner corps à ce réseau d’interaction.

L’application est construite pour que les lecteurs aient envie d’entreprendre ensemble ce travail titanesque qui consiste à document ce réseau, à l’expliciter. Plus il y a d’information sur un livre, plus la ville le représentant devient complexe, plus elle se lie à d’autres livres-villes construisant ainsi petit à petit la topologie de ce monde livresque.

Rob le héros du roman « Haute Fidelité » de Nick Hornby a une chanson pour chaque moment de la vie. Son passe temps favori consiste à classer les musiques (et accessoirement aussi les films) dans des TOP 5 thématiques. Quand je visite dans Bookworld la ville livre correspondant au roman, je découvre ou redécouvre cette constellation de films et de musiques. Au loin je vois d’autres villes-livres qui partagent certaines références en terme de musique, films, etc. des connections parfois insoupçonnées qu’aucun autre système de recommandation artificiel ou humain n’aurait pu trouver s’il a fait l’économie de ce processus cartographique.

La lecture est un processus d’attachement puis d’incorporation

Dans son exposé à Books in Browsers Valla Vakili explique bien que la lecture d’un livre est essentiellement une rencontre entre les référents culturels d’un lecteur et l’univers organisé de référents culturels proposé par une narration. Le personnage que Nick Hornby dessine en creux à partir à partir des objets culturels qu’il aime ou déteste me parle car je me retrouve d’une certaine manière dans ses références ou dans sa relation avec la musique. Ce processus d’attachement est fondamental dans ce qui nous fait aimer un livre. Inversement, quand un livre nous laisse indifférent ce que nous n’avons pas pu réussi à créer ces liens.

Si la rencontre entre le livre et son lecteur se passe bien, ce dernier incorpore, petit à petit, certains référents culturels du livre. Nous les faisons notre. Après ma rencontre avec la Terre du Milieux, les Hobbits ont désormais fait partie de mon monde… Tout comme ce morceau de Marvin Gay que la lecture de « Haute Fidelité » m’a fait écouter pour la première fois. Riches de ces nouveaux référents nous sommes prêts à de nouvelles rencontres livresques qui nous auraient peut-être laissées indifférents quelques semaines plus tôt. La métaphore touristique file toujours aussi bien. Dans le monde des livres aussi, certains itinéraire sont meilleurs que d’autres.

Documenter le contenu des livres ne tient donc pas d’un simple excès encyclopédique. Les liaisons narratives explicitées dans Bookworld ont une pertinence bien différente des corrélations statistiques exploitées par les algorithmes d’Amazon ou d’Apple. Caché dans la structure de ces réseaux que nous nous proposons de collectivement expliciter se cache sans doute une autre algorithmie de la découverte.

Les trois futurs des livres-machines

février 10, 2012

Je participe ce lundi 13 Février à une conférence débat au Centre Pompidou sur l’évolution machinique du livre organisée par Xavier de la Porte et Hubert Guillaud. Je me réjouis de la discussion avec Etienne Mineur et Alain Giffard sur ces questions. En préparation à cette rencontre j’ai rédigé ce billet qui résume une partie de mes réflexions sur les trois devenir machiniques possibles pour le livre. 

L’erreur la plus commune dans les discussions au sujet du futur du livre imprimé consiste à placer le débat sur les avantages et les défauts respectifs du papier et du digital. Il me semble qu’il ne sert à rien d’opposer deux expériences de lecture. Quelques dizaines d’années après l’invention de Gutenberg, les livres imprimés ressemblaient à si méprendre à leurs homologues papier. L’expérience utilisateur était la même. Pourtant quelque chose de fondamental avait changé dans leur mode de production.

Il est donc crucial de sentir les grandes tendances technologiques qui silencieusement sont en train de tracer les futurs possibles pour le livre. Dans ce billet, je propose de replacer l’évolution des livres dans le cadre plus général d’une théorie de l’évolution des représentations régulées. Une représentation régulée est une représentation dont la production et l’usage est soumis à un ensemble de règles. Un annuaire, une table de compte, un arbre généalogique, un diagramme de production, une carte d’une région, une encyclopédie, une feuille Excel, une présentation PowerPoint sont autant d’exemple de représentations régulées. La plupart des représentations régulées tendent vers plus de régulations au fil du temps (il y a des exceptions comme l’expression poétique qui au contraire tend vers la dérégulation).

Le processus général de cette régularisation est la transformation de conventions en mécanismes. Cette mécanisation procède en deux étapes successives :
(1) La mécanisation des règles de production
(2) La mécanisation des règles d’usage.

Au travers de cette double mécanisation les représentations régulées finissent par devenir de véritables machines.

Comment les cartes sont devenues des machines ?

Au XIVe siècles il y avait encore très peu de règles sur la manière de dessiner une carte géographique. Comme on peut le voir sur cette carte, aucune des conventions maintenant classiques (échelle, orientation vers le nord) n’était à cette époque encore en place. 150 ans plus tard, comme le montre cette carte du XVIe siècle tout ces éléments sont maintenant en place. Un véritable savoir-faire tend pour la mesure que pour la représentation s’est constitué. La carte, encore entièrement faite à la main s’est standardisée. Prenons maintenant cette carte du XXIe siècle montrant la profondeur des océans. Sa production n’inclut presque plus aucun processus manuel. Elle a été entièrement mécanisée. La mécanisation des règles de production est maintenant complète, mais son usage est encore régie par des conventions.

Le passage des cartes traditionnelles à des systèmes d’information géographique comme Google maps illustre la seconde phase du processus de mécanisation. Cette seconde mécanisation a quatre conséquences remarquables :
1. En devenant machine, la carte a internalisé ses propres usages. Les cartes machines sont plus puissantes que les cartes traditionnelles mais toutes les opérations possibles avec elles sont spécifiées à l’avance. Vous ne pouvez pas vous servir d’une carte machine comme parapluie ou paquet cadeau ! Ce passage est celui de l’outil à la machine. Vous pouvez vous servir d’un marteau comme presse papier, un usage non conventionnel. Impossible de faire cela avec une presse industrielle.
2. En devenant machines, les cartes tendent à s’agréger ensemble pour ne devenir qu’une seule carte. Il s’agit sans doute d »une propriété générale : Au fur et à mesure que les représentations régulées deviennent plus régulières, elles tendent à s’agréger sous la forme de systèmes unifiés. C’est un cas particulier du processus de concrétisation étudié par Gilbert Simondon.

3. En devenant machines, les cartes tendent à perdre leur stabilité pour ne devenir qu’un instant de pause dans un flux perpétuel. Google maps est fondamentalement une vidéo que nous consultons sur pause.

4. En devenant machines, les cartes changent de modèle commercial. Les services cartographiques sont proposés gratuitement mais en échange de la récupération des traces et des ajouts des utilisateurs. Leur valeur d’usage a augmenté et en même temps leur valeur d’échange pour l’utilisateur est devenue nulle. Ceux qui proposent ces services gratuits accumulent du capital linguistique et sémantique, lui-même monnayable.

Ce qui s’est passé pour les cartes s’est également passé pour plusieurs autres représentations régulées, comme l’évolution des tableaux en tableurs.

Que peut-on en déduire pour l’évolution du livre imprimé ?

Les livres sont des représentations régulées. Leur production a déjà été entièrement mécanisée. Il y a donc une pression forte pour à présent mécaniser leur usages conventionnels et en faire des machines complètes. Par analogie, nous devrions nous attendre à observer 4 bouleversements :

1. La transition du livre outil au livre machine intégrant sa propre interactivité.
2. L’agrégation de tous le livres-machines en l’équivalent d’un seul grand livre.
3. L’évolution du livre comme document stable en un document dépendant du temps.
4. L’arrivée d’un nouveau modèle commercial où  l’usage des livres aura plus de valeur d’échange que les livres eux-mêmes.

Certes un livre n’est pas vraiment comme une carte. Une carte est une représentation régulée de dimension 2. Un livre est un volume, une conteneur, une représentation régulée de dimension 3. Le livre peut accueillir des représentations de dimensions 2 : texte mise en page, cartes, diagramme, arbres, tables, etc. Parce qu’il est un volume fermé, le livre offre une solution pour organiser un discours dans l’espace. Il a une fonction “architecturante” permettant d’accueillir les narrations riches et les démonstrations complexes.

Chaque genre de livres est associé à des règles de structuration conventionnelles. La première mécanisation du livre commençant avec l’imprimerie a transformé ces règles en mécanismes. L’informatisation n’a fait que prolonger cette mécanisation en permettant une gestion souple de ces modèles structurels. En principe, la seconde étape du processus de mécanisation, la transformation des usages en mécanismes, devraient donner encore plus de pouvoir à l’auteur-architecte.

Mais comme les cartes, en devenant machines, les livres tendent à s’agréger en un seul grand livre, perpétuellement remanié. Ce grand livre-machine n’est rien d’autre que l’Encyclopédie. Depuis le XVIIIe siècle, l’Encyclopédie et le Livre sont porteurs de valeurs opposées. Le livre se définit par sa clôture, l’Encyclopédie est toujours en expansion. Le Livre se prête aux parcours linéaire, l’Encyclopédie suit une logique d’accès aléatoire. Fonction architecturante contre fonction totalisante, le Livre structure un discours quand l’Encyclopedie essaie d’englober le monde. Le Livre compose quand l’Encyclopédie décompose.

Dès ses premières incarnations éditoriale, L’Encyclopédie s’est trouvée à l’étroit sous forme de volumes imprimés. Dès qu’elle l’a pu l’encyclopédisme s’est incarné dans les technologies du réseau. L’ordinateur mondial qui s’est constitué avec le web est basé sur les principes et les motivations de l’encyclopédisme. Son action de description/décomposition s’est appliquée à l’ensemble de la culture.

L’Encyclopédie décompose tous les objets structurés. Elle extrait leur “contenu” et en fait un réseau. Les albums sont devenus des ensembles de chansons. Les journaux des ensembles d’articles. Elle fera des livres la même chose : une collection de pages, une collection de mots.

Les trois futurs des livres-machines

Percevant cette dynamique globale, nous pouvons voir se dessiner trois futurs pour les livres-machines

A. Les livres deviennent des ressources standardisées dans le système encyclopédique global

B. Les livres se réinventent sous la forme d’applications fermées et immersives

C. Après les écrans, les livres papiers deviennent des interfaces structurantes pour accéder à l’ordinateur planétaire.

A. L’Encyclopédie

Ce scénario correspond à la tendance dominante. Les livre sont déjà en train de devenir des ressources standardisées. Cette standardisation opère sur trois niveaux

- Des formats standards pour décrire le contenu d’un livre se mettent en place : ePub, TEI. A partir de ces descriptions standardisées, il est possible de produire plusieurs mises en pages selon les interfaces de lecture utilisées.

- La décomposition se poursuit au plan sémantique. Les textes et les images utilisées peuvent elles aussi être associés à “noeuds sémantiques” bien définis (des lieux bien définis, des personnes bien définies, des citations bien définies). Ces noeuds sémantiques servent de pivots entre les livres standardisés. D’autres types de modélisations plus ou moins sophistiquées sont également tentées, l’objectif étant d’accumuler du capital sémantique.

- La décomposition se poursuit en incluant l’usage des livres. De nouveaux formats ouverts sont aujourd’hui à l’étude pour décrire les chemins de lecture, les notes, les prêts de livres entre lecteurs. Toute la trajectoire de vie d’un livre standardisé va elle-même être décrite de manière standard. Ces “reading analytics” vont sans doute constituer un minerai de valeur exploitable économiquement.

Cette standardisation sur trois niveaux est couplée à une “digitalisation” massive. Le terme “digitalisation” décrit en fait une extraction et standardisation du contenu de millions de livres. Ces livres deviennent des données d’une immense base de données qui intègre également de nombreuses autres informations sur nos pratiques de lecteur et plus généralement sur nos vies.
L’absorption du Livre par l’Encyclopédie inaugure l’âge des lectures industrielles, pour reprendre le terme d’Alain Giffard.

B. Les applications

Alternative à l’encyclopédisme, les applications retrouvent la forme close des livres qui en faisait des îles, des réservoirs d’innovation. Les applications offrent plus de contrôles à leurs concepteurs, permettent l’utilisation des dernières ressources techniques (multitouch, GPS, accéléromètre), permettent des utilisations non connectées, peuvent inclure des vidéos, des simulations, des jeux et sont encore peu standardisées.

Les applications sont des conteneurs qui peuvent inclure des médias de dimensions 4. Elles peuvent offrir des services similaires à celles d’un site mais sont animées par une logique différente : fermeture et contrôle, la logique du livre.

Beaucoup critiquent leur fermeture en argumentant sur les bases de l’idéologie de l’Encyclopédie: ouverture, échange, partage. En l’absence de standard, le contenu des applications pourrait être difficile à lire dans quelques années.  Mais protégées par leur carapace, les applications permettent véritablement d’explorer la seconde phase de mécanisation du livre, les différentes manières dont le livre peut internaliser ses propres interactions. Les auteurs et les éditeurs peuvent concevoir de manière beaucoup plus précise l’expérience qu’ils souhaitent offrir à leurs lecteurs : des livres de cours plus pédagogiques, des romans plus immersifs, des guides voyages plus contextuels, des magazines plus divertissants, des articles plus érudits…  mais aussi des types de livres complètement nouveaux … des livres qui changent selon le moment et l’endroit où on les lit, des livres qui apprennent au fur et à mesure qu’ils sont lus et tous les autres possibles qu’offrent les livres algorithmiques.

Malheureusement, les nouveaux contenus peuvent être longs et difficiles à produire, ne fonctionner que sur les machines les plus récentes. Les éditeurs n’ont pas les budgets pour se lancer dans des créations ambitieuses. Comme ce fut le cas avec le CD-rom, ces obstacles  pourraient mettre en péril cette lignée dans l’évolution du livre.

C. Le papier comme interface

Il y une troisième voies qu’explore actuellement des artistes-ingénieurs comme Etienne Mineur ou des chercheurs dans le cadre des premières recherches sur le Paper Computing. Le papier et livre sont des interfaces extraordinaires qui peuvent maintenant être utilisées pour contrôler avec précision n’importe quel système informatique. Ils constituent peut-être l’avenir de nos écrans tactiles. Un livre relié permet d’organiser une séquence d’activités dans le temps et l’espace. Loin d’un recul, ce serait le retour de la fonction « architecturante » et des qualités ergonomiques du codex.

Dans cette approche, non seulement le livre papier ne va pas disparaître, mais il pourrait bien devenir une interface privilégiée pour d’autres activités que la lecture. Demain, nous pourrons choisir notre musique grâce à des livres, programmer notre télévision grâce à des livres, obtenir des informations sur Internet grâce à des livres. Un des avenir du livre papier pourrait donc être de devenir une interface efficace, bon marché, facile à produire et durable pour le monde numérique.

Ceux qui croient que l’avenir du livre passe nécessairement par les écrans font probablement un rapprochement trop rapide avec l’évolution récente du monde de la musique. Certes, nous assistons aujourd’hui à la constitution de très grandes bibliothèques de livres numérisés qui font penser aux « bibliothèques musicales » qui sont aujourd’hui très répandues. Mais la mort programmée du CD, support « classique » de la musique il y a encore quelques années, et l’avènement des baladeurs numériques, n’annoncent pas forcément par une analogie simpliste, la mort du livre et l’avènement des « liseuses ». Que le CD disparaisse à plus ou moins brève échéance n’a aucune importance : c’est un objet aujourd’hui dépassé, qui n’a pas d’existence autre que de se faire lire par une machine. Au contraire du CD, le livre est un objet-interface qui dispose d’un grand nombre d’atouts. Autonome et léger, il offre des possibilités interactives très intéressantes. Par exemple, nous sommes capables en quelques dizaines de secondes de retrouver un mot dans un dictionnaire parmi des dizaines de milliers. Difficile, sans clavier, de retrouver un morceau sur votre balladeur avec une bibliothèque de cette taille. De même, nous pouvons parcourir rapidement la structure d’un livre pour acquérir une première idée, superficielle certes mais tout de même précieuse, de ce qu’il contient. Impossible de faire de même avec les fichiers de son ordinateur personnel. Ces atouts permettent de penser que le livre, en tant qu’interface, a encore de beaux jours devant lui et qu’il est probablement même capable d’investir de nouveaux territoires pour le moment dominés par les interfaces électroniques — clavier et souris et interaction tactiles qui sont aujourd’hui nos modes d’accès par défaut vers les informations numérisées.

Nuançons néanmoins cet enthousiasme en rappelant que cette approche est aujourd’hui essentiellement encore du domaine de la recherche et de l’expérimentation, quand parallèlement le processus de transformation des livres en une immense encyclopédie mondiale tourne à plein régime, supposant, à tord ou à raison, que les pages des livres se liront préférentiellement sous la forme d’images derrières des vitres.

Prédictions faciles

Voici donc esquissés trois futurs des livres-machines. Est-ce que c’est trois systèmes industriels cohabiteront ? Tentons quelques prédictions faciles. Les publications les plus proches de la logique de l’Encyclopédie seront les premiers entièrement machinisés, intégrant l’ordinateur planétaire. Cela concerne typiquement les Encyclopédies, dictionnaires, publications scientifiques, livres de cuisines, guides de voyages … Les publications les plus lointaines de la logique de l’Encyclopédie resteront sous format papier, augmenté ou non, et exploreront en parallèle les machinisations sous forme d’applications. Nous pensons ici surtout aux livres pour enfants et aux romans.

Certains éditeurs vont réaliser qu’ils ne publient pas simplement des livres ou des magazines mais qu’ils gèrent en fait des corpus encyclopédiques. Ils vont les exploiter numériquement en explorant de nouveaux modèles commerciaux, sans doute à terme basé sur la gratuité. D’autres se spécialiseront dans une industrie multimédia de qualité, assez proche dans sa logique économique du monde du cinéma, mêlant potentiellement papier et digital. Ce seront probablement eux les véritables explorateurs des nouvelles potentialités du livre devenu machine.

Stephen Wolfram contre Larry Page, c’est Leibniz contre d’Alembert

janvier 31, 2012

Le renouveau de la logotechnie leibnizienne

Depuis plusieurs années, Stephen Wolfram, l’inventeur de Mathematica, poursuit un ambitieux objectif : transformer nos connaissances aujourd’hui exprimées maladroitement de manière linguistique en des représentations algorithmiques, directement traitables par un ordinateur. L’équipe progresse toujours un peu plus dans la construction de cet immense chantier. Des pans entiers de nos connaissances scientifiques mais aussi de nombreux faits culturels alimentent maintenant une base de connaissances structurées sur laquelle il est possible de faire des inférences. Wolfram Alpha peut maintenant répondre à de nombreux types de questions comme la taille actuelle de l’Internet, la limite de x / sin (x) quand x tend vers 0, mais aussi l’âge qu’aurait Lady Gaga en 2028.

Le projet de Wolfram s’inscrit dans une longue tradition en intelligence artificielle et dans une tendance technologique forte. Dans les années 1980s, Douglas Lenat avec le projet Cyc tentait de construire une encyclopédie du sens commun sous forme de descriptions traitables par une machine. Au Canada, Pierre Levy travaille depuis de nombreuses années à un métalangue IEML dont l’ambition est de fournir un système de coordonnées « mathématico-linguistique » pour la construction collaborative d’un « Hypercortex ». Ces projets proposent des approches technologiques relativement différentes les uns des autres pour tenter de construire ce que l’on pourra appeler un capital sémantique (je reviendrai sur cette notion dans un prochain billet), mais tous partagent plus ou moins le même rêve : construire une langue technique dont le cœur serait une sémantique computationelle.

La langue algébrique universelle de Leibniz

Dans un billet de 2009, Stephan Wolfram présentait l’essence de son projet Wolfram Alpha comme étant précisément une tentative de « rendre la connaissance computable » pour contourner le problème quasiment insoluble de l’analyse du langage naturel.  Dans son livre de 2011, la sphère sémantique, Pierre Levy parle d’une « écriture permettant la maîtrise intellectuelle des flux d’information ». Ce renouveau des projet de construction d’une langue technique nouvelle, créée artificiellement par l’homme pour permettre l’inférence sémantique automatique ressemble à s’y m’éprendre au projet logotechnique de Leibniz au XVIIe siècle. Leibniz voulait lui aussi construire une langue universelle et scientifique.

« après avoir fait cela, lorsqu’il surgira des controverses, il n’y aura plus besoin de discussion entre deux philosophes qu’il n’y en a entre deux calculateurs. Il suffira, en effet, qu’ils prennent leur plume, qu’ils s’assoient à une table, et qu’il se disent réciproquement (après avoir appelé, s’ils le souhaitent, un ami) : calculons » (cité dans Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

Calculons ! Un algorithme efficace peut remplacer les préceptes de la méthode cartésienne. Nous n’avons pas besoin de méthodes pour penser, nous avons besoin d’algorithmes et d’une langue symbolique adaptée. Leibniz développe cette même idée d’une sémiologie générale dans cette lettre du 10 Janvier 1714

« Ce pourrait être en même temps une manière de langue ou d’écriture universelle, mais infiniment différente de toutes celles qu’on a projetées jusqu’ici, car les caractères et les paroles même y dirigeraient la raison, et les erreurs (excepté celles de fait) n’y seraient que des erreurs de calcul »

Leibniz est en avance sur Boole de plusieurs siècles. Dans le passage suivant, il décrit très précisément les avantages de cette langue algébrique capable de manipuler aveuglement des symboles pour faire des raisonnements justes, sans pour autant avoir à préciser à quoi ces symboles sont attachés.

« Les langues ordinaires, bien qu’elles servent au raisonnement, sont cependant sujettes à d’innombrables équivoques, et ne peuvent être employées pour le calcul, c’est-à-dire de façon à ce que l’on puisse découvrir les erreurs de raisonnement en remontant à la formation et à la construction des mots, comme s’il s’agissait de solécismes ou de barbarismes. Cet avantage très admirable n’est donné pour le moment que par les signes employés par les arithméticiens et les algébristes, chez lesquels tout raisonnement consiste dans l’utilisation de caractères, et toute erreur mentale est la même chose qu’une erreur de calcul. En méditant profondément sur cet argument, il m’est apparu aussitôt clair que toutes les pensées humaines pouvaient se transformer entièrement en quelques pensées qu’il fallait considérer comme primitives. Si ensuite l’on assigne à ces dernières des caractères, on peut former, à partir de là, les caractères des notions dérivées, d’où il est toujours possible d’extraire leurs réquisits et les notions primitives qui y entrent, pour dire la chose en un mot, les définitions et les valeurs, et donc aussi leurs modifications que l’on peut faire dériver des définitions. » (Die scientia universali seu calculo philosophico in Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

L’intuition de Leibniz se base sur ses propres succès. Il explique que les progrès qu’il a fait faire aux mathématiques, le calcul infinitésimal en particulier, sont fondés sur sa réussite à trouver des symboles adaptés pour représenter les quantités et leur relations. C’est sans doute de là que lui vient l’intuition que pour découvrir de nouvelle vérité, il faut mécaniser l’inférence (la base du calcul formel tel qu’il est pratiqué dans Mathematica).

Allons-nous  vers la réalisation du langage algébrique rêvé par Leibniz ? Comme nous l’avons vu, certains projets prennent véritablement cette direction.

Dans l’avant dernier chapitre de « la recherche de la langue parfaite », Umberto Eco nous met néanmoins en garde :

« C’est précisément lorsque l’on revisite d’anciens projets qui se sont montrés utopiques et qui ont échoué, que l’on peut prévoir les limites ou les faillites possibles de chaque entreprise qui prétend être un début dans le vide. Relire ce qu’on fait nos ancêtres n’est pas un simple divertissement archéologique, mais une précaution immunologique ».

La langue algébrique sémantique universelle est-elle une utopie ? ou fallait-il juste attendre trois cents ans pour la voir enfin éclore ?

A-t-on besoin de modèles sémantiques sophistiqués ?

Certains ne croient pas à cette voie et pensent que nous n’avons pas vraiment besoin de modèles sémantiques sophistiqués pour organiser la connaissance du monde. Grâce à l’océan de données que nous avons à notre disposition, des méthodes moins « intelligentes » peuvent parfois se révéler plus efficaces.

Dans un éditorial un peu provoquant de juin 2008, Chris Anderson affirmait que nous n’avons tout simplement plus besoin de modèles et faisait de Google le contre-exemple à opposer aux approches logotechniques.

Google’s founding philosophy is that we don’t know why this page is better than that one: If the statistics of incoming links say it is, that’s good enough. No semantic or causal analysis is required. That’s why Google can translate languages without actually « knowing » them (given equal corpus data, Google can translate Klingon into Farsi as easily as it can translate French into German). And why it can match ads to content without any knowledge or assumptions about the ads or the content.

Un peu plus bas, il cite Peter Norvig, directeur de recherche chez Google : « All models are wrong, and increasingly you can succeed without them. »

Il n’y a pas que Google qui s’inscrit dans cette philosophie. En 2011, Watson, l’ordinateur d’IBM est devenu champion de Jeopardy. Il a battu les meilleurs joueurs mondiaux pour répondre à des questions de culture générale, un domaine dont on pourrait facilement argumenter qu’elle est pour une machine bien plus difficile que les échecs.  Même si Watson utilise une version de Wikipedia codée sémantiquement (DBPedia), ainsi que les bases lexicales et sémantiques WordNet et Yago, la philosophie sous-jacente relève plus du recoupement statistique de multiples sources que d’une langue algébrique rigoureuse comme en rêvait Leibniz. David Ferruci qui a dirigé le projet est relativement explicite sur ce point :

There’s no single formula that makes a computer understand and answer natural language questions. It’s really this huge combination of smaller algorithms that look at the data from many different perspectives, and they consider all sorts of possibilities and all sorts of evidence. Watson brings all these various algorithms together to judge that evidence with respect to every one of its possibly hundreds or thousands of different answers to decide which one is most likely the correct answer, and ultimately computes a confidence in that. And if that confidence is above a threshold, then Watson says, « Hey I want to answer this question. I want to buzz in and take the risk. (IBM’s Watson computer takes the Jeopardy! challenge)

Paradoxalement, cette posture n’est pas si loin de celle des encyclopédistes à la fin du XVIIIe siècles. La langue universelle est alors perçue comme un vieux rêve de l’âge classique. D’Alembert  ne croit plus à l’existence d’un système de représentations  générales de la pensée. L’Encyclopédie n’est pas une magnifique construction mathématique, c’est un labyrinthe. Chaque article est une carte particulière, un point de vue sur le monde. Il n’y a pas de système de coordonnées globales, il y a une infini variété de perspectives.

« On peut imaginer autant de systèmes différents de la connaissance humaine, que de Mappemondes de différentes projections » (Encyclopédie, Discours préliminaire, p. XV)

Pour être capable de décrire méthodiquement tous les savoirs du monde, d’Alembert refuse pragmatiquement l’aveugle et parfaite mécanique des langues algébriques. L’Encyclopédie revient au texte et à l’image comme sources premières et immédiates de connaissance. Sur ces bases, il construit un réseau, avec embranchements multiples. En fait, il invente l’approche philosophique du web.

Aujourd’hui, en ce début de XXIe siècle, deux conceptions s’affrontent, l’une héritière du rêve mathématique de l’âge classique, l’autre de l’encyclopedisme des Lumières. Wolfram contre Page, c’est Leibniz contre d’Alembert. L’enjeu de ce combat philosophico-technique n’est rien moins qu’une certain vision de ce qu’est la connaissance du monde.

La tentation de l’encyclopédisme

juin 27, 2011

Dans son Traité de documentation publié en 1934, Paul Otlet avait prédit : « Sous sa forme nouvelle, le livre sera croissance continue » (p.429). Dans sa vision, le livre avait pour vocation de prolonger le rêve encyclopédique des Lumières, de tenter d’englober la complexité du monde, en n’hésitant pas à se faire réseau, rhizome, structure en perpétuelle expansion. Chaque livre pourrait ainsi tendre à devenir un livre-monde, idéalement presque aussi complexe que le monde lui-même.

La tentation de l’encyclopédisme n’est pas nouvelle. Elle accompagne toute l’histoire du livre et le toujours fait hésiter sur sa fonction première. Déjà, au XIIIe siècle, Vincent de Beauvais avait tenté de proposer un panorama des connaissances du Moyen-Age à travers des « Miroirs », un pour la nature, un pour l’histoire, un pour les doctrines, une compilation cherchant l’exhaustivité, rééditée pendant plusieurs siècles. Toujours au XIIIe siècle, les « Trésors » écrit en Français par l’italien Brunetto Latini tentent eux de capturer l’ensemble de la philosophie théorique, logique et pratique : un seul livre pour être instruit sur l’essentiel. Il faudrait citer les anthologies de Thomas d’Aquin, les dictionnaires de Moréri et de Bayle, l’extraordinaire système mise en place par Leibniz … mais c’est évidemment le projet de Diderot et d’Alembert qui est le plus exemplaire de cet esprit de l’encyclopédisme.

Même si l’Encyclopédie de Diderot et d’Alembert est sous-titrée « dictionnaire raisonnés des sciences, des arts et des métiers« , c’est pourtant bien plus qu’un dictionnaire. Plus que de figer, d’arreter, d’encadrer, l’ambition du projet est au contraire, pour ne rien n’oublier, de s’étendre au fur et à mesure qu’il le faudra pour que chacune des sciences et chacun des arts et des métiers soit accessibles, duplicables. L’Encyclopédie se pense d’emblée comme une machine à reproduire, un chantier permanent, un lieu en croissance continue. Elle est mouvement, dynamique, plus qu’oeuvre.

Elle prend, certes, la formes d’une série de volume reliée. Elle sera, certes, un des plus grand succès de librairie de son époque. Mais cette concrétisation livresque loin de la servir, la limite. C’est un carcan dont elle ne souhaite que se défaire.

Il y a en effet un contradiction forte entre le caractère fermé et architecturé du livre imprimé et la fonction totalisante qui anime l’Encyclopédie. Le livre se définit par la clôture, par la frontière qu’il dresse autour de son propos. Il s’est, de siècles en siècles, perfectionné pour permettre des architectures intérieures d’une complexité croissante. Il a ainsi permis le raisonnement long, le récit élaboré, la pensée architecturée:  exposer ce que la voix ne permettait pas de transmettre.

Au contraire, l’Encyclopédie est par esssence toujours en expansion. Sa fonction est la totalisation des savoirs, passés, présents et à venir. C’est pourquoi  l’Encyclopédie est toujours à l’étroit sous la forme d’un le livre imprimé. Lui ne peut ne proposer que des chemins particuliers. Elle veut être un monde dans le monde, en offrir un modèle aussi complet que possible. Lui demande d’apprendre à finir.  Elle sera toujours incomplète, imparfaite, en devenir. C’est pour les mêmes raisons qu’elle est si à l’aise dans les réseaux, sur l’ordinateur planétaire, qu’elle a été la première à tirer pleinement partie des liens intertextuels, un principe qu’elle avait elle-même inventé du temps de Diderot et d’Alembert pour tenter de se libérer de la linéarité imposé par les pages des codex.

Ainsi, par bien des aspects, livre et encyclopédie s’opposent. La fonction architecturante de l’un entre en conflit permanent avec la fonction totalisante de l’autre. La tentation encyclopédisme aimerait fragmenter les narrations et les démonstrations longues et structurées des livres pour en faire de simples fiches, réordonnables, facilement liables les unes aux autres. C’est d’ailleurs ce que nous observons aujourd’hui:  des articles, des chapitres pensés comme partie de livre ou de revue qui se vendent maintenant à l’unité, des auteurs qui saisissent l’opportunité du numérique pour proposer des œuvres un chantier permanent, en continuel remaniement, étendues parfois par les lecteurs eux-mêmes.

J’ai défendu dans un précédent billet l’idée qu’il fallait travailler à bâtir de nouvelles formes de livres qui sauraient user des potentiels de numérique sans pour autant se décomposer au contact du réseau et de ses effets réticulants. Ces formes closes, nécessaires aux démonstrations et aux narrations complexes, ont aussi leur place dans le monde qui vient. Si séduisante puisse-t-elle être l’ensemble du monde du l’écrit ne devrait se laisser emporter par la tentation de l’encyclopédisme.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 217 autres abonnés