Posts Tagged ‘encyclopédie’

Le premier browser a failli être un livre électronique

juin 8, 2012

Deux représentations régulées, le livre et l’encyclopédie se livrent une guerre sans précédent depuis près de 500 ans. Retour sur un de ces épisodes "où l’histoire peut basculer" relaté par Tim Berners-Lee dans Weaving the web

En septembre 1990, Robert Caillaud et Tim Berners-Lee se rendent à l’European Conference on Hypertext Technology à Versailles pour présenter le projet du World Wide Web élaboré quelques mois plus tôt au CERN. Ils cherchent une technologie qui pourrait jouer le rôle de navigateur pour du contenu hypertexte. Plusieurs produits présentés pourraient tout à fait faire l’affaire. Owl Ltd commercialise un produit appelé Guide qui permet de consulter des documents organisés sous la forme d’un hypertexte. C’est exactement ce que cherche Tim et Robert. Mais les dirigeants de Owl ne sont pas intéressés. Ils ne voient pas l’intérêt de connecter leur système à l’Internet.

Tim Berners-Lee a lors une autre idée : utiliser la technologie Dynatext développée par Electronic Book Technology. Cette entreprise avait été fondée par Andy Van Dam de la Brown University, un des premiers chercheurs à avoir utilisé le terme electronic book. Mais l’équipe d’Electronic Book Technology pensait que le contenu d’un livre devait être compilé (comme un programme informatique) et ne pouvait pas être interprété à la volée. Le livre était un contenu fermé et clos. Ils ne prenaient pas au sérieux Tim Berners-Lee quand il suggérait que des pages pourraient être envoyées directement via le web et affichées immédiatement sur un écran d’ordinateur. Ils pensaient également qu’il était crucial qu’une base de données centrale assure qu’aucun lien hypertexte ne soit cassé. Leur vision du futur consistait en la transmission de contenus consistent, des livres entiers.

Tim lui imaginait un chantier permanent, un monde en constante évolution : Le livre contre l’encyclopédie.

Et c’est ainsi que, contraint et forcé, Tim Berners-Lee commença à travailler sur un autre navigateur.

Les trois futurs des livres-machines

février 10, 2012

Je participe ce lundi 13 Février à une conférence débat au Centre Pompidou sur l’évolution machinique du livre organisée par Xavier de la Porte et Hubert Guillaud. Je me réjouis de la discussion avec Etienne Mineur et Alain Giffard sur ces questions. En préparation à cette rencontre j’ai rédigé ce billet qui résume une partie de mes réflexions sur les trois devenir machiniques possibles pour le livre. 

L’erreur la plus commune dans les discussions au sujet du futur du livre imprimé consiste à placer le débat sur les avantages et les défauts respectifs du papier et du digital. Il me semble qu’il ne sert à rien d’opposer deux expériences de lecture. Quelques dizaines d’années après l’invention de Gutenberg, les livres imprimés ressemblaient à si méprendre à leurs homologues papier. L’expérience utilisateur était la même. Pourtant quelque chose de fondamental avait changé dans leur mode de production.

Il est donc crucial de sentir les grandes tendances technologiques qui silencieusement sont en train de tracer les futurs possibles pour le livre. Dans ce billet, je propose de replacer l’évolution des livres dans le cadre plus général d’une théorie de l’évolution des représentations régulées. Une représentation régulée est une représentation dont la production et l’usage est soumis à un ensemble de règles. Un annuaire, une table de compte, un arbre généalogique, un diagramme de production, une carte d’une région, une encyclopédie, une feuille Excel, une présentation PowerPoint sont autant d’exemple de représentations régulées. La plupart des représentations régulées tendent vers plus de régulations au fil du temps (il y a des exceptions comme l’expression poétique qui au contraire tend vers la dérégulation).

Le processus général de cette régularisation est la transformation de conventions en mécanismes. Cette mécanisation procède en deux étapes successives :
(1) La mécanisation des règles de production
(2) La mécanisation des règles d’usage.

Au travers de cette double mécanisation les représentations régulées finissent par devenir de véritables machines.

Comment les cartes sont devenues des machines ?

Au XIVe siècles il y avait encore très peu de règles sur la manière de dessiner une carte géographique. Comme on peut le voir sur cette carte, aucune des conventions maintenant classiques (échelle, orientation vers le nord) n’était à cette époque encore en place. 150 ans plus tard, comme le montre cette carte du XVIe siècle tout ces éléments sont maintenant en place. Un véritable savoir-faire tend pour la mesure que pour la représentation s’est constitué. La carte, encore entièrement faite à la main s’est standardisée. Prenons maintenant cette carte du XXIe siècle montrant la profondeur des océans. Sa production n’inclut presque plus aucun processus manuel. Elle a été entièrement mécanisée. La mécanisation des règles de production est maintenant complète, mais son usage est encore régie par des conventions.

Le passage des cartes traditionnelles à des systèmes d’information géographique comme Google maps illustre la seconde phase du processus de mécanisation. Cette seconde mécanisation a quatre conséquences remarquables :
1. En devenant machine, la carte a internalisé ses propres usages. Les cartes machines sont plus puissantes que les cartes traditionnelles mais toutes les opérations possibles avec elles sont spécifiées à l’avance. Vous ne pouvez pas vous servir d’une carte machine comme parapluie ou paquet cadeau ! Ce passage est celui de l’outil à la machine. Vous pouvez vous servir d’un marteau comme presse papier, un usage non conventionnel. Impossible de faire cela avec une presse industrielle.
2. En devenant machines, les cartes tendent à s’agréger ensemble pour ne devenir qu’une seule carte. Il s’agit sans doute d"une propriété générale : Au fur et à mesure que les représentations régulées deviennent plus régulières, elles tendent à s’agréger sous la forme de systèmes unifiés. C’est un cas particulier du processus de concrétisation étudié par Gilbert Simondon.

3. En devenant machines, les cartes tendent à perdre leur stabilité pour ne devenir qu’un instant de pause dans un flux perpétuel. Google maps est fondamentalement une vidéo que nous consultons sur pause.

4. En devenant machines, les cartes changent de modèle commercial. Les services cartographiques sont proposés gratuitement mais en échange de la récupération des traces et des ajouts des utilisateurs. Leur valeur d’usage a augmenté et en même temps leur valeur d’échange pour l’utilisateur est devenue nulle. Ceux qui proposent ces services gratuits accumulent du capital linguistique et sémantique, lui-même monnayable.

Ce qui s’est passé pour les cartes s’est également passé pour plusieurs autres représentations régulées, comme l’évolution des tableaux en tableurs.

Que peut-on en déduire pour l’évolution du livre imprimé ?

Les livres sont des représentations régulées. Leur production a déjà été entièrement mécanisée. Il y a donc une pression forte pour à présent mécaniser leur usages conventionnels et en faire des machines complètes. Par analogie, nous devrions nous attendre à observer 4 bouleversements :

1. La transition du livre outil au livre machine intégrant sa propre interactivité.
2. L’agrégation de tous le livres-machines en l’équivalent d’un seul grand livre.
3. L’évolution du livre comme document stable en un document dépendant du temps.
4. L’arrivée d’un nouveau modèle commercial où  l’usage des livres aura plus de valeur d’échange que les livres eux-mêmes.

Certes un livre n’est pas vraiment comme une carte. Une carte est une représentation régulée de dimension 2. Un livre est un volume, une conteneur, une représentation régulée de dimension 3. Le livre peut accueillir des représentations de dimensions 2 : texte mise en page, cartes, diagramme, arbres, tables, etc. Parce qu’il est un volume fermé, le livre offre une solution pour organiser un discours dans l’espace. Il a une fonction “architecturante” permettant d’accueillir les narrations riches et les démonstrations complexes.

Chaque genre de livres est associé à des règles de structuration conventionnelles. La première mécanisation du livre commençant avec l’imprimerie a transformé ces règles en mécanismes. L’informatisation n’a fait que prolonger cette mécanisation en permettant une gestion souple de ces modèles structurels. En principe, la seconde étape du processus de mécanisation, la transformation des usages en mécanismes, devraient donner encore plus de pouvoir à l’auteur-architecte.

Mais comme les cartes, en devenant machines, les livres tendent à s’agréger en un seul grand livre, perpétuellement remanié. Ce grand livre-machine n’est rien d’autre que l’Encyclopédie. Depuis le XVIIIe siècle, l’Encyclopédie et le Livre sont porteurs de valeurs opposées. Le livre se définit par sa clôture, l’Encyclopédie est toujours en expansion. Le Livre se prête aux parcours linéaire, l’Encyclopédie suit une logique d’accès aléatoire. Fonction architecturante contre fonction totalisante, le Livre structure un discours quand l’Encyclopedie essaie d’englober le monde. Le Livre compose quand l’Encyclopédie décompose.

Dès ses premières incarnations éditoriale, L’Encyclopédie s’est trouvée à l’étroit sous forme de volumes imprimés. Dès qu’elle l’a pu l’encyclopédisme s’est incarné dans les technologies du réseau. L’ordinateur mondial qui s’est constitué avec le web est basé sur les principes et les motivations de l’encyclopédisme. Son action de description/décomposition s’est appliquée à l’ensemble de la culture.

L’Encyclopédie décompose tous les objets structurés. Elle extrait leur “contenu” et en fait un réseau. Les albums sont devenus des ensembles de chansons. Les journaux des ensembles d’articles. Elle fera des livres la même chose : une collection de pages, une collection de mots.

Les trois futurs des livres-machines

Percevant cette dynamique globale, nous pouvons voir se dessiner trois futurs pour les livres-machines

A. Les livres deviennent des ressources standardisées dans le système encyclopédique global

B. Les livres se réinventent sous la forme d’applications fermées et immersives

C. Après les écrans, les livres papiers deviennent des interfaces structurantes pour accéder à l’ordinateur planétaire.

A. L’Encyclopédie

Ce scénario correspond à la tendance dominante. Les livre sont déjà en train de devenir des ressources standardisées. Cette standardisation opère sur trois niveaux

- Des formats standards pour décrire le contenu d’un livre se mettent en place : ePub, TEI. A partir de ces descriptions standardisées, il est possible de produire plusieurs mises en pages selon les interfaces de lecture utilisées.

- La décomposition se poursuit au plan sémantique. Les textes et les images utilisées peuvent elles aussi être associés à “noeuds sémantiques” bien définis (des lieux bien définis, des personnes bien définies, des citations bien définies). Ces noeuds sémantiques servent de pivots entre les livres standardisés. D’autres types de modélisations plus ou moins sophistiquées sont également tentées, l’objectif étant d’accumuler du capital sémantique.

- La décomposition se poursuit en incluant l’usage des livres. De nouveaux formats ouverts sont aujourd’hui à l’étude pour décrire les chemins de lecture, les notes, les prêts de livres entre lecteurs. Toute la trajectoire de vie d’un livre standardisé va elle-même être décrite de manière standard. Ces “reading analytics” vont sans doute constituer un minerai de valeur exploitable économiquement.

Cette standardisation sur trois niveaux est couplée à une “digitalisation” massive. Le terme “digitalisation” décrit en fait une extraction et standardisation du contenu de millions de livres. Ces livres deviennent des données d’une immense base de données qui intègre également de nombreuses autres informations sur nos pratiques de lecteur et plus généralement sur nos vies.
L’absorption du Livre par l’Encyclopédie inaugure l’âge des lectures industrielles, pour reprendre le terme d’Alain Giffard.

B. Les applications

Alternative à l’encyclopédisme, les applications retrouvent la forme close des livres qui en faisait des îles, des réservoirs d’innovation. Les applications offrent plus de contrôles à leurs concepteurs, permettent l’utilisation des dernières ressources techniques (multitouch, GPS, accéléromètre), permettent des utilisations non connectées, peuvent inclure des vidéos, des simulations, des jeux et sont encore peu standardisées.

Les applications sont des conteneurs qui peuvent inclure des médias de dimensions 4. Elles peuvent offrir des services similaires à celles d’un site mais sont animées par une logique différente : fermeture et contrôle, la logique du livre.

Beaucoup critiquent leur fermeture en argumentant sur les bases de l’idéologie de l’Encyclopédie: ouverture, échange, partage. En l’absence de standard, le contenu des applications pourrait être difficile à lire dans quelques années.  Mais protégées par leur carapace, les applications permettent véritablement d’explorer la seconde phase de mécanisation du livre, les différentes manières dont le livre peut internaliser ses propres interactions. Les auteurs et les éditeurs peuvent concevoir de manière beaucoup plus précise l’expérience qu’ils souhaitent offrir à leurs lecteurs : des livres de cours plus pédagogiques, des romans plus immersifs, des guides voyages plus contextuels, des magazines plus divertissants, des articles plus érudits…  mais aussi des types de livres complètement nouveaux … des livres qui changent selon le moment et l’endroit où on les lit, des livres qui apprennent au fur et à mesure qu’ils sont lus et tous les autres possibles qu’offrent les livres algorithmiques.

Malheureusement, les nouveaux contenus peuvent être longs et difficiles à produire, ne fonctionner que sur les machines les plus récentes. Les éditeurs n’ont pas les budgets pour se lancer dans des créations ambitieuses. Comme ce fut le cas avec le CD-rom, ces obstacles  pourraient mettre en péril cette lignée dans l’évolution du livre.

C. Le papier comme interface

Il y une troisième voies qu’explore actuellement des artistes-ingénieurs comme Etienne Mineur ou des chercheurs dans le cadre des premières recherches sur le Paper Computing. Le papier et livre sont des interfaces extraordinaires qui peuvent maintenant être utilisées pour contrôler avec précision n’importe quel système informatique. Ils constituent peut-être l’avenir de nos écrans tactiles. Un livre relié permet d’organiser une séquence d’activités dans le temps et l’espace. Loin d’un recul, ce serait le retour de la fonction "architecturante" et des qualités ergonomiques du codex.

Dans cette approche, non seulement le livre papier ne va pas disparaître, mais il pourrait bien devenir une interface privilégiée pour d’autres activités que la lecture. Demain, nous pourrons choisir notre musique grâce à des livres, programmer notre télévision grâce à des livres, obtenir des informations sur Internet grâce à des livres. Un des avenir du livre papier pourrait donc être de devenir une interface efficace, bon marché, facile à produire et durable pour le monde numérique.

Ceux qui croient que l’avenir du livre passe nécessairement par les écrans font probablement un rapprochement trop rapide avec l’évolution récente du monde de la musique. Certes, nous assistons aujourd’hui à la constitution de très grandes bibliothèques de livres numérisés qui font penser aux « bibliothèques musicales » qui sont aujourd’hui très répandues. Mais la mort programmée du CD, support « classique » de la musique il y a encore quelques années, et l’avènement des baladeurs numériques, n’annoncent pas forcément par une analogie simpliste, la mort du livre et l’avènement des "liseuses". Que le CD disparaisse à plus ou moins brève échéance n’a aucune importance : c’est un objet aujourd’hui dépassé, qui n’a pas d’existence autre que de se faire lire par une machine. Au contraire du CD, le livre est un objet-interface qui dispose d’un grand nombre d’atouts. Autonome et léger, il offre des possibilités interactives très intéressantes. Par exemple, nous sommes capables en quelques dizaines de secondes de retrouver un mot dans un dictionnaire parmi des dizaines de milliers. Difficile, sans clavier, de retrouver un morceau sur votre balladeur avec une bibliothèque de cette taille. De même, nous pouvons parcourir rapidement la structure d’un livre pour acquérir une première idée, superficielle certes mais tout de même précieuse, de ce qu’il contient. Impossible de faire de même avec les fichiers de son ordinateur personnel. Ces atouts permettent de penser que le livre, en tant qu’interface, a encore de beaux jours devant lui et qu’il est probablement même capable d’investir de nouveaux territoires pour le moment dominés par les interfaces électroniques — clavier et souris et interaction tactiles qui sont aujourd’hui nos modes d’accès par défaut vers les informations numérisées.

Nuançons néanmoins cet enthousiasme en rappelant que cette approche est aujourd’hui essentiellement encore du domaine de la recherche et de l’expérimentation, quand parallèlement le processus de transformation des livres en une immense encyclopédie mondiale tourne à plein régime, supposant, à tord ou à raison, que les pages des livres se liront préférentiellement sous la forme d’images derrières des vitres.

Prédictions faciles

Voici donc esquissés trois futurs des livres-machines. Est-ce que c’est trois systèmes industriels cohabiteront ? Tentons quelques prédictions faciles. Les publications les plus proches de la logique de l’Encyclopédie seront les premiers entièrement machinisés, intégrant l’ordinateur planétaire. Cela concerne typiquement les Encyclopédies, dictionnaires, publications scientifiques, livres de cuisines, guides de voyages … Les publications les plus lointaines de la logique de l’Encyclopédie resteront sous format papier, augmenté ou non, et exploreront en parallèle les machinisations sous forme d’applications. Nous pensons ici surtout aux livres pour enfants et aux romans.

Certains éditeurs vont réaliser qu’ils ne publient pas simplement des livres ou des magazines mais qu’ils gèrent en fait des corpus encyclopédiques. Ils vont les exploiter numériquement en explorant de nouveaux modèles commerciaux, sans doute à terme basé sur la gratuité. D’autres se spécialiseront dans une industrie multimédia de qualité, assez proche dans sa logique économique du monde du cinéma, mêlant potentiellement papier et digital. Ce seront probablement eux les véritables explorateurs des nouvelles potentialités du livre devenu machine.

Stephen Wolfram contre Larry Page, c’est Leibniz contre d’Alembert

janvier 31, 2012

Le renouveau de la logotechnie leibnizienne

Depuis plusieurs années, Stephen Wolfram, l’inventeur de Mathematica, poursuit un ambitieux objectif : transformer nos connaissances aujourd’hui exprimées maladroitement de manière linguistique en des représentations algorithmiques, directement traitables par un ordinateur. L’équipe progresse toujours un peu plus dans la construction de cet immense chantier. Des pans entiers de nos connaissances scientifiques mais aussi de nombreux faits culturels alimentent maintenant une base de connaissances structurées sur laquelle il est possible de faire des inférences. Wolfram Alpha peut maintenant répondre à de nombreux types de questions comme la taille actuelle de l’Internet, la limite de x / sin (x) quand x tend vers 0, mais aussi l’âge qu’aurait Lady Gaga en 2028.

Le projet de Wolfram s’inscrit dans une longue tradition en intelligence artificielle et dans une tendance technologique forte. Dans les années 1980s, Douglas Lenat avec le projet Cyc tentait de construire une encyclopédie du sens commun sous forme de descriptions traitables par une machine. Au Canada, Pierre Levy travaille depuis de nombreuses années à un métalangue IEML dont l’ambition est de fournir un système de coordonnées "mathématico-linguistique" pour la construction collaborative d’un "Hypercortex". Ces projets proposent des approches technologiques relativement différentes les uns des autres pour tenter de construire ce que l’on pourra appeler un capital sémantique (je reviendrai sur cette notion dans un prochain billet), mais tous partagent plus ou moins le même rêve : construire une langue technique dont le cœur serait une sémantique computationelle.

La langue algébrique universelle de Leibniz

Dans un billet de 2009, Stephan Wolfram présentait l’essence de son projet Wolfram Alpha comme étant précisément une tentative de "rendre la connaissance computable" pour contourner le problème quasiment insoluble de l’analyse du langage naturel.  Dans son livre de 2011, la sphère sémantique, Pierre Levy parle d’une "écriture permettant la maîtrise intellectuelle des flux d’information". Ce renouveau des projet de construction d’une langue technique nouvelle, créée artificiellement par l’homme pour permettre l’inférence sémantique automatique ressemble à s’y m’éprendre au projet logotechnique de Leibniz au XVIIe siècle. Leibniz voulait lui aussi construire une langue universelle et scientifique.

"après avoir fait cela, lorsqu’il surgira des controverses, il n’y aura plus besoin de discussion entre deux philosophes qu’il n’y en a entre deux calculateurs. Il suffira, en effet, qu’ils prennent leur plume, qu’ils s’assoient à une table, et qu’il se disent réciproquement (après avoir appelé, s’ils le souhaitent, un ami) : calculons" (cité dans Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

Calculons ! Un algorithme efficace peut remplacer les préceptes de la méthode cartésienne. Nous n’avons pas besoin de méthodes pour penser, nous avons besoin d’algorithmes et d’une langue symbolique adaptée. Leibniz développe cette même idée d’une sémiologie générale dans cette lettre du 10 Janvier 1714

"Ce pourrait être en même temps une manière de langue ou d’écriture universelle, mais infiniment différente de toutes celles qu’on a projetées jusqu’ici, car les caractères et les paroles même y dirigeraient la raison, et les erreurs (excepté celles de fait) n’y seraient que des erreurs de calcul"

Leibniz est en avance sur Boole de plusieurs siècles. Dans le passage suivant, il décrit très précisément les avantages de cette langue algébrique capable de manipuler aveuglement des symboles pour faire des raisonnements justes, sans pour autant avoir à préciser à quoi ces symboles sont attachés.

"Les langues ordinaires, bien qu’elles servent au raisonnement, sont cependant sujettes à d’innombrables équivoques, et ne peuvent être employées pour le calcul, c’est-à-dire de façon à ce que l’on puisse découvrir les erreurs de raisonnement en remontant à la formation et à la construction des mots, comme s’il s’agissait de solécismes ou de barbarismes. Cet avantage très admirable n’est donné pour le moment que par les signes employés par les arithméticiens et les algébristes, chez lesquels tout raisonnement consiste dans l’utilisation de caractères, et toute erreur mentale est la même chose qu’une erreur de calcul. En méditant profondément sur cet argument, il m’est apparu aussitôt clair que toutes les pensées humaines pouvaient se transformer entièrement en quelques pensées qu’il fallait considérer comme primitives. Si ensuite l’on assigne à ces dernières des caractères, on peut former, à partir de là, les caractères des notions dérivées, d’où il est toujours possible d’extraire leurs réquisits et les notions primitives qui y entrent, pour dire la chose en un mot, les définitions et les valeurs, et donc aussi leurs modifications que l’on peut faire dériver des définitions." (Die scientia universali seu calculo philosophico in Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

L’intuition de Leibniz se base sur ses propres succès. Il explique que les progrès qu’il a fait faire aux mathématiques, le calcul infinitésimal en particulier, sont fondés sur sa réussite à trouver des symboles adaptés pour représenter les quantités et leur relations. C’est sans doute de là que lui vient l’intuition que pour découvrir de nouvelle vérité, il faut mécaniser l’inférence (la base du calcul formel tel qu’il est pratiqué dans Mathematica).

Allons-nous  vers la réalisation du langage algébrique rêvé par Leibniz ? Comme nous l’avons vu, certains projets prennent véritablement cette direction.

Dans l’avant dernier chapitre de "la recherche de la langue parfaite", Umberto Eco nous met néanmoins en garde :

"C’est précisément lorsque l’on revisite d’anciens projets qui se sont montrés utopiques et qui ont échoué, que l’on peut prévoir les limites ou les faillites possibles de chaque entreprise qui prétend être un début dans le vide. Relire ce qu’on fait nos ancêtres n’est pas un simple divertissement archéologique, mais une précaution immunologique".

La langue algébrique sémantique universelle est-elle une utopie ? ou fallait-il juste attendre trois cents ans pour la voir enfin éclore ?

A-t-on besoin de modèles sémantiques sophistiqués ?

Certains ne croient pas à cette voie et pensent que nous n’avons pas vraiment besoin de modèles sémantiques sophistiqués pour organiser la connaissance du monde. Grâce à l’océan de données que nous avons à notre disposition, des méthodes moins "intelligentes" peuvent parfois se révéler plus efficaces.

Dans un éditorial un peu provoquant de juin 2008, Chris Anderson affirmait que nous n’avons tout simplement plus besoin de modèles et faisait de Google le contre-exemple à opposer aux approches logotechniques.

Google’s founding philosophy is that we don’t know why this page is better than that one: If the statistics of incoming links say it is, that’s good enough. No semantic or causal analysis is required. That’s why Google can translate languages without actually "knowing" them (given equal corpus data, Google can translate Klingon into Farsi as easily as it can translate French into German). And why it can match ads to content without any knowledge or assumptions about the ads or the content.

Un peu plus bas, il cite Peter Norvig, directeur de recherche chez Google : "All models are wrong, and increasingly you can succeed without them."

Il n’y a pas que Google qui s’inscrit dans cette philosophie. En 2011, Watson, l’ordinateur d’IBM est devenu champion de Jeopardy. Il a battu les meilleurs joueurs mondiaux pour répondre à des questions de culture générale, un domaine dont on pourrait facilement argumenter qu’elle est pour une machine bien plus difficile que les échecs.  Même si Watson utilise une version de Wikipedia codée sémantiquement (DBPedia), ainsi que les bases lexicales et sémantiques WordNet et Yago, la philosophie sous-jacente relève plus du recoupement statistique de multiples sources que d’une langue algébrique rigoureuse comme en rêvait Leibniz. David Ferruci qui a dirigé le projet est relativement explicite sur ce point :

There’s no single formula that makes a computer understand and answer natural language questions. It’s really this huge combination of smaller algorithms that look at the data from many different perspectives, and they consider all sorts of possibilities and all sorts of evidence. Watson brings all these various algorithms together to judge that evidence with respect to every one of its possibly hundreds or thousands of different answers to decide which one is most likely the correct answer, and ultimately computes a confidence in that. And if that confidence is above a threshold, then Watson says, "Hey I want to answer this question. I want to buzz in and take the risk. (IBM’s Watson computer takes the Jeopardy! challenge)

Paradoxalement, cette posture n’est pas si loin de celle des encyclopédistes à la fin du XVIIIe siècles. La langue universelle est alors perçue comme un vieux rêve de l’âge classique. D’Alembert  ne croit plus à l’existence d’un système de représentations  générales de la pensée. L’Encyclopédie n’est pas une magnifique construction mathématique, c’est un labyrinthe. Chaque article est une carte particulière, un point de vue sur le monde. Il n’y a pas de système de coordonnées globales, il y a une infini variété de perspectives.

"On peut imaginer autant de systèmes différents de la connaissance humaine, que de Mappemondes de différentes projections" (Encyclopédie, Discours préliminaire, p. XV)

Pour être capable de décrire méthodiquement tous les savoirs du monde, d’Alembert refuse pragmatiquement l’aveugle et parfaite mécanique des langues algébriques. L’Encyclopédie revient au texte et à l’image comme sources premières et immédiates de connaissance. Sur ces bases, il construit un réseau, avec embranchements multiples. En fait, il invente l’approche philosophique du web.

Aujourd’hui, en ce début de XXIe siècle, deux conceptions s’affrontent, l’une héritière du rêve mathématique de l’âge classique, l’autre de l’encyclopedisme des Lumières. Wolfram contre Page, c’est Leibniz contre d’Alembert. L’enjeu de ce combat philosophico-technique n’est rien moins qu’une certain vision de ce qu’est la connaissance du monde.

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 203 autres abonnés