Stephen Wolfram contre Larry Page, c’est Leibniz contre d’Alembert

janvier 31, 2012

Le renouveau de la logotechnie leibnizienne

Depuis plusieurs années, Stephen Wolfram, l’inventeur de Mathematica, poursuit un ambitieux objectif : transformer nos connaissances aujourd’hui exprimées maladroitement de manière linguistique en des représentations algorithmiques, directement traitables par un ordinateur. L’équipe progresse toujours un peu plus dans la construction de cet immense chantier. Des pans entiers de nos connaissances scientifiques mais aussi de nombreux faits culturels alimentent maintenant une base de connaissances structurées sur laquelle il est possible de faire des inférences. Wolfram Alpha peut maintenant répondre à de nombreux types de questions comme la taille actuelle de l’Internet, la limite de x / sin (x) quand x tend vers 0, mais aussi l’âge qu’aurait Lady Gaga en 2028.

Le projet de Wolfram s’inscrit dans une longue tradition en intelligence artificielle et dans une tendance technologique forte. Dans les années 1980s, Douglas Lenat avec le projet Cyc tentait de construire une encyclopédie du sens commun sous forme de descriptions traitables par une machine. Au Canada, Pierre Levy travaille depuis de nombreuses années à un métalangue IEML dont l’ambition est de fournir un système de coordonnées « mathématico-linguistique » pour la construction collaborative d’un « Hypercortex ». Ces projets proposent des approches technologiques relativement différentes les uns des autres pour tenter de construire ce que l’on pourra appeler un capital sémantique (je reviendrai sur cette notion dans un prochain billet), mais tous partagent plus ou moins le même rêve : construire une langue technique dont le cœur serait une sémantique computationelle.

La langue algébrique universelle de Leibniz

Dans un billet de 2009, Stephan Wolfram présentait l’essence de son projet Wolfram Alpha comme étant précisément une tentative de « rendre la connaissance computable » pour contourner le problème quasiment insoluble de l’analyse du langage naturel.  Dans son livre de 2011, la sphère sémantique, Pierre Levy parle d’une « écriture permettant la maîtrise intellectuelle des flux d’information ». Ce renouveau des projet de construction d’une langue technique nouvelle, créée artificiellement par l’homme pour permettre l’inférence sémantique automatique ressemble à s’y m’éprendre au projet logotechnique de Leibniz au XVIIe siècle. Leibniz voulait lui aussi construire une langue universelle et scientifique.

« après avoir fait cela, lorsqu’il surgira des controverses, il n’y aura plus besoin de discussion entre deux philosophes qu’il n’y en a entre deux calculateurs. Il suffira, en effet, qu’ils prennent leur plume, qu’ils s’assoient à une table, et qu’il se disent réciproquement (après avoir appelé, s’ils le souhaitent, un ami) : calculons » (cité dans Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

Calculons ! Un algorithme efficace peut remplacer les préceptes de la méthode cartésienne. Nous n’avons pas besoin de méthodes pour penser, nous avons besoin d’algorithmes et d’une langue symbolique adaptée. Leibniz développe cette même idée d’une sémiologie générale dans cette lettre du 10 Janvier 1714

« Ce pourrait être en même temps une manière de langue ou d’écriture universelle, mais infiniment différente de toutes celles qu’on a projetées jusqu’ici, car les caractères et les paroles même y dirigeraient la raison, et les erreurs (excepté celles de fait) n’y seraient que des erreurs de calcul »

Leibniz est en avance sur Boole de plusieurs siècles. Dans le passage suivant, il décrit très précisément les avantages de cette langue algébrique capable de manipuler aveuglement des symboles pour faire des raisonnements justes, sans pour autant avoir à préciser à quoi ces symboles sont attachés.

« Les langues ordinaires, bien qu’elles servent au raisonnement, sont cependant sujettes à d’innombrables équivoques, et ne peuvent être employées pour le calcul, c’est-à-dire de façon à ce que l’on puisse découvrir les erreurs de raisonnement en remontant à la formation et à la construction des mots, comme s’il s’agissait de solécismes ou de barbarismes. Cet avantage très admirable n’est donné pour le moment que par les signes employés par les arithméticiens et les algébristes, chez lesquels tout raisonnement consiste dans l’utilisation de caractères, et toute erreur mentale est la même chose qu’une erreur de calcul. En méditant profondément sur cet argument, il m’est apparu aussitôt clair que toutes les pensées humaines pouvaient se transformer entièrement en quelques pensées qu’il fallait considérer comme primitives. Si ensuite l’on assigne à ces dernières des caractères, on peut former, à partir de là, les caractères des notions dérivées, d’où il est toujours possible d’extraire leurs réquisits et les notions primitives qui y entrent, pour dire la chose en un mot, les définitions et les valeurs, et donc aussi leurs modifications que l’on peut faire dériver des définitions. » (Die scientia universali seu calculo philosophico in Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

L’intuition de Leibniz se base sur ses propres succès. Il explique que les progrès qu’il a fait faire aux mathématiques, le calcul infinitésimal en particulier, sont fondés sur sa réussite à trouver des symboles adaptés pour représenter les quantités et leur relations. C’est sans doute de là que lui vient l’intuition que pour découvrir de nouvelle vérité, il faut mécaniser l’inférence (la base du calcul formel tel qu’il est pratiqué dans Mathematica).

Allons-nous  vers la réalisation du langage algébrique rêvé par Leibniz ? Comme nous l’avons vu, certains projets prennent véritablement cette direction.

Dans l’avant dernier chapitre de « la recherche de la langue parfaite », Umberto Eco nous met néanmoins en garde :

« C’est précisément lorsque l’on revisite d’anciens projets qui se sont montrés utopiques et qui ont échoué, que l’on peut prévoir les limites ou les faillites possibles de chaque entreprise qui prétend être un début dans le vide. Relire ce qu’on fait nos ancêtres n’est pas un simple divertissement archéologique, mais une précaution immunologique ».

La langue algébrique sémantique universelle est-elle une utopie ? ou fallait-il juste attendre trois cents ans pour la voir enfin éclore ?

A-t-on besoin de modèles sémantiques sophistiqués ?

Certains ne croient pas à cette voie et pensent que nous n’avons pas vraiment besoin de modèles sémantiques sophistiqués pour organiser la connaissance du monde. Grâce à l’océan de données que nous avons à notre disposition, des méthodes moins « intelligentes » peuvent parfois se révéler plus efficaces.

Dans un éditorial un peu provoquant de juin 2008, Chris Anderson affirmait que nous n’avons tout simplement plus besoin de modèles et faisait de Google le contre-exemple à opposer aux approches logotechniques.

Google’s founding philosophy is that we don’t know why this page is better than that one: If the statistics of incoming links say it is, that’s good enough. No semantic or causal analysis is required. That’s why Google can translate languages without actually « knowing » them (given equal corpus data, Google can translate Klingon into Farsi as easily as it can translate French into German). And why it can match ads to content without any knowledge or assumptions about the ads or the content.

Un peu plus bas, il cite Peter Norvig, directeur de recherche chez Google : « All models are wrong, and increasingly you can succeed without them. »

Il n’y a pas que Google qui s’inscrit dans cette philosophie. En 2011, Watson, l’ordinateur d’IBM est devenu champion de Jeopardy. Il a battu les meilleurs joueurs mondiaux pour répondre à des questions de culture générale, un domaine dont on pourrait facilement argumenter qu’elle est pour une machine bien plus difficile que les échecs.  Même si Watson utilise une version de Wikipedia codée sémantiquement (DBPedia), ainsi que les bases lexicales et sémantiques WordNet et Yago, la philosophie sous-jacente relève plus du recoupement statistique de multiples sources que d’une langue algébrique rigoureuse comme en rêvait Leibniz. David Ferruci qui a dirigé le projet est relativement explicite sur ce point :

There’s no single formula that makes a computer understand and answer natural language questions. It’s really this huge combination of smaller algorithms that look at the data from many different perspectives, and they consider all sorts of possibilities and all sorts of evidence. Watson brings all these various algorithms together to judge that evidence with respect to every one of its possibly hundreds or thousands of different answers to decide which one is most likely the correct answer, and ultimately computes a confidence in that. And if that confidence is above a threshold, then Watson says, « Hey I want to answer this question. I want to buzz in and take the risk. (IBM’s Watson computer takes the Jeopardy! challenge)

Paradoxalement, cette posture n’est pas si loin de celle des encyclopédistes à la fin du XVIIIe siècles. La langue universelle est alors perçue comme un vieux rêve de l’âge classique. D’Alembert  ne croit plus à l’existence d’un système de représentations  générales de la pensée. L’Encyclopédie n’est pas une magnifique construction mathématique, c’est un labyrinthe. Chaque article est une carte particulière, un point de vue sur le monde. Il n’y a pas de système de coordonnées globales, il y a une infini variété de perspectives.

« On peut imaginer autant de systèmes différents de la connaissance humaine, que de Mappemondes de différentes projections » (Encyclopédie, Discours préliminaire, p. XV)

Pour être capable de décrire méthodiquement tous les savoirs du monde, d’Alembert refuse pragmatiquement l’aveugle et parfaite mécanique des langues algébriques. L’Encyclopédie revient au texte et à l’image comme sources premières et immédiates de connaissance. Sur ces bases, il construit un réseau, avec embranchements multiples. En fait, il invente l’approche philosophique du web.

Aujourd’hui, en ce début de XXIe siècle, deux conceptions s’affrontent, l’une héritière du rêve mathématique de l’âge classique, l’autre de l’encyclopedisme des Lumières. Wolfram contre Page, c’est Leibniz contre d’Alembert. L’enjeu de ce combat philosophico-technique n’est rien moins qu’une certain vision de ce qu’est la connaissance du monde.

2 Réponses to “Stephen Wolfram contre Larry Page, c’est Leibniz contre d’Alembert”


  1. [...] agencement de paradigmes (les ordres de Vitruve) au travers de constructions. L’ordre leibnizien, inspirateur de la cybernétique, absorbait et subsumait le chaos comme étant en fait une multitude d’ordres [...]


  2. [...] Stephen Wolfram contre Larry Page, c’est Leibniz contre d’Alembert [...]


Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

Suivre

Recevez les nouvelles publications par mail.

Rejoignez 217 autres abonnés

%d blogueurs aiment cette page :