Archive for janvier, 2012

Stephen Wolfram contre Larry Page, c’est Leibniz contre d’Alembert

janvier 31, 2012

Le renouveau de la logotechnie leibnizienne

Depuis plusieurs années, Stephen Wolfram, l’inventeur de Mathematica, poursuit un ambitieux objectif : transformer nos connaissances aujourd’hui exprimées maladroitement de manière linguistique en des représentations algorithmiques, directement traitables par un ordinateur. L’équipe progresse toujours un peu plus dans la construction de cet immense chantier. Des pans entiers de nos connaissances scientifiques mais aussi de nombreux faits culturels alimentent maintenant une base de connaissances structurées sur laquelle il est possible de faire des inférences. Wolfram Alpha peut maintenant répondre à de nombreux types de questions comme la taille actuelle de l’Internet, la limite de x / sin (x) quand x tend vers 0, mais aussi l’âge qu’aurait Lady Gaga en 2028.

Le projet de Wolfram s’inscrit dans une longue tradition en intelligence artificielle et dans une tendance technologique forte. Dans les années 1980s, Douglas Lenat avec le projet Cyc tentait de construire une encyclopédie du sens commun sous forme de descriptions traitables par une machine. Au Canada, Pierre Levy travaille depuis de nombreuses années à un métalangue IEML dont l’ambition est de fournir un système de coordonnées « mathématico-linguistique » pour la construction collaborative d’un « Hypercortex ». Ces projets proposent des approches technologiques relativement différentes les uns des autres pour tenter de construire ce que l’on pourra appeler un capital sémantique (je reviendrai sur cette notion dans un prochain billet), mais tous partagent plus ou moins le même rêve : construire une langue technique dont le cœur serait une sémantique computationelle.

La langue algébrique universelle de Leibniz

Dans un billet de 2009, Stephan Wolfram présentait l’essence de son projet Wolfram Alpha comme étant précisément une tentative de « rendre la connaissance computable » pour contourner le problème quasiment insoluble de l’analyse du langage naturel.  Dans son livre de 2011, la sphère sémantique, Pierre Levy parle d’une « écriture permettant la maîtrise intellectuelle des flux d’information ». Ce renouveau des projet de construction d’une langue technique nouvelle, créée artificiellement par l’homme pour permettre l’inférence sémantique automatique ressemble à s’y m’éprendre au projet logotechnique de Leibniz au XVIIe siècle. Leibniz voulait lui aussi construire une langue universelle et scientifique.

« après avoir fait cela, lorsqu’il surgira des controverses, il n’y aura plus besoin de discussion entre deux philosophes qu’il n’y en a entre deux calculateurs. Il suffira, en effet, qu’ils prennent leur plume, qu’ils s’assoient à une table, et qu’il se disent réciproquement (après avoir appelé, s’ils le souhaitent, un ami) : calculons » (cité dans Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

Calculons ! Un algorithme efficace peut remplacer les préceptes de la méthode cartésienne. Nous n’avons pas besoin de méthodes pour penser, nous avons besoin d’algorithmes et d’une langue symbolique adaptée. Leibniz développe cette même idée d’une sémiologie générale dans cette lettre du 10 Janvier 1714

« Ce pourrait être en même temps une manière de langue ou d’écriture universelle, mais infiniment différente de toutes celles qu’on a projetées jusqu’ici, car les caractères et les paroles même y dirigeraient la raison, et les erreurs (excepté celles de fait) n’y seraient que des erreurs de calcul »

Leibniz est en avance sur Boole de plusieurs siècles. Dans le passage suivant, il décrit très précisément les avantages de cette langue algébrique capable de manipuler aveuglement des symboles pour faire des raisonnements justes, sans pour autant avoir à préciser à quoi ces symboles sont attachés.

« Les langues ordinaires, bien qu’elles servent au raisonnement, sont cependant sujettes à d’innombrables équivoques, et ne peuvent être employées pour le calcul, c’est-à-dire de façon à ce que l’on puisse découvrir les erreurs de raisonnement en remontant à la formation et à la construction des mots, comme s’il s’agissait de solécismes ou de barbarismes. Cet avantage très admirable n’est donné pour le moment que par les signes employés par les arithméticiens et les algébristes, chez lesquels tout raisonnement consiste dans l’utilisation de caractères, et toute erreur mentale est la même chose qu’une erreur de calcul. En méditant profondément sur cet argument, il m’est apparu aussitôt clair que toutes les pensées humaines pouvaient se transformer entièrement en quelques pensées qu’il fallait considérer comme primitives. Si ensuite l’on assigne à ces dernières des caractères, on peut former, à partir de là, les caractères des notions dérivées, d’où il est toujours possible d’extraire leurs réquisits et les notions primitives qui y entrent, pour dire la chose en un mot, les définitions et les valeurs, et donc aussi leurs modifications que l’on peut faire dériver des définitions. » (Die scientia universali seu calculo philosophico in Gerhardt, 1875 Die philosophischen Schriften von G.W. Leibniz)

L’intuition de Leibniz se base sur ses propres succès. Il explique que les progrès qu’il a fait faire aux mathématiques, le calcul infinitésimal en particulier, sont fondés sur sa réussite à trouver des symboles adaptés pour représenter les quantités et leur relations. C’est sans doute de là que lui vient l’intuition que pour découvrir de nouvelle vérité, il faut mécaniser l’inférence (la base du calcul formel tel qu’il est pratiqué dans Mathematica).

Allons-nous  vers la réalisation du langage algébrique rêvé par Leibniz ? Comme nous l’avons vu, certains projets prennent véritablement cette direction.

Dans l’avant dernier chapitre de « la recherche de la langue parfaite », Umberto Eco nous met néanmoins en garde :

« C’est précisément lorsque l’on revisite d’anciens projets qui se sont montrés utopiques et qui ont échoué, que l’on peut prévoir les limites ou les faillites possibles de chaque entreprise qui prétend être un début dans le vide. Relire ce qu’on fait nos ancêtres n’est pas un simple divertissement archéologique, mais une précaution immunologique ».

La langue algébrique sémantique universelle est-elle une utopie ? ou fallait-il juste attendre trois cents ans pour la voir enfin éclore ?

A-t-on besoin de modèles sémantiques sophistiqués ?

Certains ne croient pas à cette voie et pensent que nous n’avons pas vraiment besoin de modèles sémantiques sophistiqués pour organiser la connaissance du monde. Grâce à l’océan de données que nous avons à notre disposition, des méthodes moins « intelligentes » peuvent parfois se révéler plus efficaces.

Dans un éditorial un peu provoquant de juin 2008, Chris Anderson affirmait que nous n’avons tout simplement plus besoin de modèles et faisait de Google le contre-exemple à opposer aux approches logotechniques.

Google’s founding philosophy is that we don’t know why this page is better than that one: If the statistics of incoming links say it is, that’s good enough. No semantic or causal analysis is required. That’s why Google can translate languages without actually « knowing » them (given equal corpus data, Google can translate Klingon into Farsi as easily as it can translate French into German). And why it can match ads to content without any knowledge or assumptions about the ads or the content.

Un peu plus bas, il cite Peter Norvig, directeur de recherche chez Google : « All models are wrong, and increasingly you can succeed without them. »

Il n’y a pas que Google qui s’inscrit dans cette philosophie. En 2011, Watson, l’ordinateur d’IBM est devenu champion de Jeopardy. Il a battu les meilleurs joueurs mondiaux pour répondre à des questions de culture générale, un domaine dont on pourrait facilement argumenter qu’elle est pour une machine bien plus difficile que les échecs.  Même si Watson utilise une version de Wikipedia codée sémantiquement (DBPedia), ainsi que les bases lexicales et sémantiques WordNet et Yago, la philosophie sous-jacente relève plus du recoupement statistique de multiples sources que d’une langue algébrique rigoureuse comme en rêvait Leibniz. David Ferruci qui a dirigé le projet est relativement explicite sur ce point :

There’s no single formula that makes a computer understand and answer natural language questions. It’s really this huge combination of smaller algorithms that look at the data from many different perspectives, and they consider all sorts of possibilities and all sorts of evidence. Watson brings all these various algorithms together to judge that evidence with respect to every one of its possibly hundreds or thousands of different answers to decide which one is most likely the correct answer, and ultimately computes a confidence in that. And if that confidence is above a threshold, then Watson says, « Hey I want to answer this question. I want to buzz in and take the risk. (IBM’s Watson computer takes the Jeopardy! challenge)

Paradoxalement, cette posture n’est pas si loin de celle des encyclopédistes à la fin du XVIIIe siècles. La langue universelle est alors perçue comme un vieux rêve de l’âge classique. D’Alembert  ne croit plus à l’existence d’un système de représentations  générales de la pensée. L’Encyclopédie n’est pas une magnifique construction mathématique, c’est un labyrinthe. Chaque article est une carte particulière, un point de vue sur le monde. Il n’y a pas de système de coordonnées globales, il y a une infini variété de perspectives.

« On peut imaginer autant de systèmes différents de la connaissance humaine, que de Mappemondes de différentes projections » (Encyclopédie, Discours préliminaire, p. XV)

Pour être capable de décrire méthodiquement tous les savoirs du monde, d’Alembert refuse pragmatiquement l’aveugle et parfaite mécanique des langues algébriques. L’Encyclopédie revient au texte et à l’image comme sources premières et immédiates de connaissance. Sur ces bases, il construit un réseau, avec embranchements multiples. En fait, il invente l’approche philosophique du web.

Aujourd’hui, en ce début de XXIe siècle, deux conceptions s’affrontent, l’une héritière du rêve mathématique de l’âge classique, l’autre de l’encyclopedisme des Lumières. Wolfram contre Page, c’est Leibniz contre d’Alembert. L’enjeu de ce combat philosophico-technique n’est rien moins qu’une certain vision de ce qu’est la connaissance du monde.

Pourquoi la narration interactive est-elle si délicate ?

janvier 23, 2012

Le 4 avril dernier,  j’ai eu la chance de participer à un débat à Lausanne avec Marie-Laure Ryan. Pour préparer cette rencontre j’ai lu deux de ses livres (Narrative as Virtual Reality et Avatars of Story),  excellents tous les deux. J’ai aussi assisté à l’un de ses cours sur les jeux narratifs et les histoires ludiques… J’ai retrouvé mes notes ce week-end et j’essaie dans ce billet de reconstruire partiellement son propos.

Pourquoi la narration interactive est-elle si délicate ? Comment se fait-il que, malgré les progrès symétriques de l’intelligence artificielle et de la narratologie,  la plupart des histoires dont nous sommes les héros restent encore bien fades par rapport à l’immersion que provoque un bon roman ou un bon film ? Comment se fait-il que nous ne parvenons pas encore à maîtriser ce genre hybride à la croisée du jeu et du récit ? Cet aveu d’impuissance est partagé.  Brenda Laurel dans Computer as Theater  compare la narration interactive à la « Licorne », celle qu’on ne peut jamais capturer. Lev Manovich dans le langage des nouveaux médias, parle de la narration interactive comme du « Saint Graal« . Où se cache la subtile difficulté dans le mariage de ces deux genres ?

Jeux et histoires ont tant de choses en commun

Lire des histoires. Jouer à des jeux. Deux formes majeures et ancestrales de divertissements qui partagent de nombreux traits communs. Jeux et histoires mettent en scène des événements qui appartiennent à des mondes séparés.

Dans les pages d’un roman, je peux pleurer en découvrant le destin tragique d’une héroïne. Mais paradoxalement ces pleurs ne sont pas du chagrin, ils font même partie du plaisir de la lecture.

De la même manière, nous pouvons et aimons être ennemis dans un jeu mais amis dans la vie. C’est le cercle magique de Johan Huizinga, celui que nous franchissons quand nous acceptons les règles d’un jeu.  Un cercle qui s’applique aussi dans une certaine mesure au monde de la lecture. Dans les fictions, comme dans beaucoup de jeux, il s’agit de suspendre son jugement, d’accepter des règles du  « faire semblant ». L’auteur fait semblant d’être le narrateur. Nous faisons semblant de croire aux histoires qu’il nous raconte. Lire et jouer c’est goûter au plaisir d’univers parallèles régis par des lois qui leur sont propres.

La dimension narrative des jeux

Une grande partie de l’intérêt des jeux vient de la dimension narrative qui leur est associée. Les jeux ne sont rarement de purs plaisirs mathématiques. Peu de jeux sont intéressants en tant que tels. Prenons le jeux de l’oie. Les règles sont simples. La progression des joueurs est entièrement déterminée par le hasard. L’intérêt ne vient que par le drame des chutes, les revirement de situations suprenants. L’enjeu est ici essentiellement narratif. Un joueur en retard peut encore gagner. Au contraire, un jeu où le joueur qui prendrait de l’avance finirait presque à coup sur la course en tête n’aurait sans doute qu’un faible intéret narratif. Il serait aussi inintéressant qu’un film, où le héros ne ferait que progresser sans jamais chuter.

De la même manière,  si un match de football peut parfois être plus palpitant qu’un film, c’est parce que les règles du football sont construites pour optimiser l’enjeu narratif. De spectaculaires retournement de situations sont possibles. Les match de foots sont de bonnes histoires avant d’être des démonstrations de virtuosité sportive.

Les difficultés de la narration interactive

Ces similarités frappantes entre les univers fictionnels et ludiques devraient naturellement conduire à des rapprochements : des jeux narratifs, des historiques ludiques. Pourtant, l’exploration de ces hybrides conduit souvent à des difficultés. Le mariage des jeux et des fictions n’est pas aussi naturel qu’on pourrait le penser.

Quelle est la difficulté ? Dans une narration interactive, l’auteur essaie de contrôler la direction de l’intrigue de manière à lui donner une structure bien formée mais, dans le même temps, le joueur/lecteur reclame la liberté de réagir sans être explicitement contrôlé par l’auteur. La narration interactive est donc structurée par deux forces opposées, dont le juste équilibre est très difficile à trouver.

La narration interactive poursuit un double objectif esthétique. Il s’agit d’une part d’obtenir une histoire émergente où chaque récit est potentiellement unique et d’autre part de proposer une expérience immersive au lecteur/joueur qualitativement différente de celle qu’il peut trouver dans les fictions. La question de d’immersion est complexe dans la mesure où elle peut soit être ludique (absorption dans l’accomplissement d’une tâche, la concentration du joueur d’échec) ou narrative (engagement de l’imagination dans la contemplation d’un monde narratif). Cette immersion prend dans les deux cas des formes spatiales, temporelles (suspens) et émotionnelle (pleurer, rire).

Quand on pose le problème de cette manière, il devient clair que celle certaines formes de récits et de jeux peuvent être adapté à ce type de narration.

Les formes majeures de la narration interactive

Le genre le plus facile à adapter en narration interactive est l’épopée. Elle met en scène une intrigue typique des traditions culturelles orales, souvent centrée sur les action d’un héros solitaire, comme Gilgamesh ou Ulysse. L’épopée propose un mode narratif infiniment prolongeable dans la mesure où les relations entre les personnages n’évoluent presque pas. Ces avantages structuraux expliquent que la plus grande partie des jeux vidéos soit basés sur une intrigue épique. Les actions du héros sont des actes physiques faciles à simuler. Le scénario de base peut se répéter indéfiniment. La nature solitaire de la quête simplifie les relations entre les personnages. Le thème du voyage donne lieu à variations de décors visuellement attrayante.

Juste derrière l’épopée, l’intrigue épistémique, centrée sur le désir de résoudre un mystère, est aussi un genre relativement bien adapté la narration interactive. Il s’agit dans ce genre d’organiser deux narrations : celle des événements de l’intrigue et celle de l’histoire des investigations, le meurtre et l’enquête. Ces deux narrations peuvent typiquement correspondre  aux forces contraires qu’il s’agit d’équilibrer dans toute narration interactive : l’élément prédéterminé et l’élément libre. Le joueur mène l’enquête au sujet d’une histoire en partie indépendante de ses propres actes. L’immersion spatiale et temporelle est également facilitée par ce type de narration. Par exemple, dans un jeu vidéo, l’intrigue épistémique peut prendre la forme de la recherche d’indices visuels. L’enquêteur est plongé dans l’univers graphique de l’histoire. Symétriquement, les éléments prédéterminés de la narration organisent implicitement une immersion temporelle. L’enquêteur est plongé dans une trame temporelle dont il n’a pas le contrôle total.

Au contraire, l’intrigue dramatique classique, celle à l’œuvre aussi bien dans Phèdre quand la plupart des récits contemporains, est beaucoup plus difficile à adapter dans la mesure où elle concerne essentiellement l’évolution d’un réseau de relations humaines. C’est une forme close basée sur un arc narratif qui passe typiquement par des phases d’exposition, de crise et de résolution. Le récit converge vers son dénouement.  Il est difficile de trouver un rôle pour le joueur dans ce type de mécanique narrative. Une approche consiste à confier au joueur un des personnages et de laisser la machine contrôler les autres selon une logique qui leur serait propre. Mais l’explosion combinatoire menace. Le risque est surtout de briser l’arc narratif en l’ouvrant. Comment garantir que l’histoire sera toujours intéressante ? L’exemple classique de ce type d’exploration est Façade, un drame interactif en un acte. Mais peu d’autres projets ont suivi.

Peut-on considérer les jeux en ligne multijoueurs comme d’immense narrations interactives ? Leur monde est en effet riche en légendes.  Ils proposent des « quêtes » qui sont autant de mini-histoires. Chaque groupe de joueurs peut vivre sa propre épopée. Mais pour des raisons pratiques, les « quêtes » n’ont aucun effet durable. Le dragon ressuscite pour être prêt à périr de nouveau sous les coups d’autres aventuriers. Ces mécanismes sont fondamentalement anti-narratifs et au delà du plaisir répétitif de l' »épopée » ils ne semblent pas offrir la base pour des narrations d’une certaine ampleur.

Que sont les Sims en terme de narration interactive ? Alfred Hitchcock disait que « le drame est une vie à laquelle on a supprimé les moments ennuyeux » (F. Truffaud, Le cinéma selon Hitchcock, Paris, Ramsay, 1983). D’une certaines manière, les Sims proposent exactement l’inverse. Les Sims c’est la vie avec les moments dramatiques supprimés. Si le jeu a eu le succès que l’on connaît c’est peut-être précisément parce que la part des relations interpersonnelles y a été réduit à un minimum caricatural. Chris Crawford était plutôt sévère sur ce point.

The Sims isn’t about people, it’s a housekeeping sim. It’s consumerism plus housekeeping. It works, it’s certainly better than shooting, and that’s its success. But interpersonal interaction is not about going to the bathroom. It’s much much more. The Sims is ultimately a cold game. The interactions people have, have a really mechanistic feel. (The Guardian, Feb 2005)

Aucune de ces productions ne semble donc s’approcher du « Saint Graal » : une narration interactive aussi passionnante qu’un bon roman, un bon film ou une bonne série télévisée. Les meilleurs jeux dans ce domaine restent avant tout des jeux. Les histoires émergentes que construisent leurs joueurs ne parviennent pas à passer le cap du simple divertissement récréatif. Mais au fond est-ce que cette quête du Graal a vraiment un sens ? Ne faut-il pas admettre que jeux et récits sont des formes radicalement différentes ? Ou est-ce simplement une question de temps et de persévérance ? Un jour, peut-être, nous aurons tellement  progressé dans notre compréhension fine de ce qu’est une bonne histoire que nous serons capables de construire à la volée des narrations interactives très supérieures aux productions actuelles. Seul le temps le dira …

L’improbable résurrection d’HTML

janvier 18, 2012

HTML n’aurait pas du survivre au 21ème siècle. Dès 1998, les puissants de l’Internet voulaient laisser mourir cette langue préhistorique et ils avaient des arguments de poids. Pour le World Wide Web Consortium (W3C), le futur langage du web serait une modernisation d’XHTML, une langue claire, précise et sans ambiguïté. Mais dans un recoin du cyberspace, un groupe de rebelles croyait encore au vieux langage des débuts du web. Contre l’avis des sages, ils continuèrent à l’améliorer. Voici l’histoire d’HTML5, avant qu’Hollywood ne l’adapte en film

La standardisation du web et des contenus de l’Internet (livres, films, images, etc.) est un des enjeux centraux pour le futur de la culture. Nombreux sont ceux qui défendent coûte que coûte les standards, les présentant comme les nécessaires garants de l’interopérabilité et la pérennité des données. Sans standardisation point de salut. Le combat rhétorique et technique autour l’ePub s’inscrit dans ce débat. Mais de ce point de vue l’histoire d’HTML5 est riche d’enseignements.

Prenez un navigateur des plus récents, Chrome ou Firefox par exemple. Tentez de charger une des toutes premières pages de web qui, par oubli ou coquetterie, serait restée identique à ce qu’elle était à l’époque. Miracle ! Ça marche. Pourtant ni Chrome, ni Firebox n’existaient quand cette page a été écrite. Les premières règles d’écriture, simples et flexibles, d’HTML ont traversé le temps et les modes. Une telle compatibilité dans le temps est suffisamment rare dans le monde de la technologie pour être soulignée. Les choses auraient d’ailleurs pu tourner très différemment.

Acte I : HTML face au processus de standardisation
A la fin des années 1990, HTML était fortement critiqué. En plus d’être vieux, il n’était pas un « beau » langage. Sa syntaxe n’était pas vraiment stricte. Le problème venait du fait que certaines expressions mal formées étaient malgré tout comprises par les navigateurs. HTML était comme une langue orale et vivante, tolérante aux fautes de grammaire, ouverte à de nouvelles conventions. Mais ce manque de rigueur était devenu intolérable pour certains informaticiens. Le web était maintenant quelque chose de sérieux. Comme dans toute industrie qui se respecte, il lui fallait de vrais standards. Ainsi naquit XHMTL 1.0, un langage XML qui reprenait les conventions d’HTML mais qui en faisaient des règles strictes, validables automatiquement. Grâce à XHMTL, un éditeur de page web comme Dreamweaver pouvait avertir le programmeur imprudent s’il s’écartait de la juste syntaxe. XHTML permettait de garantir qu’une page serait correctement interprétée par tous les navigateurs qui implémentaient le nouveau langage. Les développeurs professionnels applaudirent. C’était fini le temps du grand « n’importe quoi ». Les choses sérieuses allaient pouvoir commencer.

Au départ, ce fut un succès. XHTML devint le standard des programmeurs web sérieux. Mais les moins sérieux découvrirent vite une chose que les sages du W3C auraient aimé cacher. En pratique, la plupart des navigateurs acceptaient aussi les syntaxes qui ne suivaient pas strictement les règles de XHTML. Ils connaissaient la loi mais ne faisaient pas la police. En fait, vous pouviez garder vos vielles et mauvaises habitude de programmation HTML, tout marchait nickel ! Voilà qui était embêtant pour les défenseurs de la rigueur.

Les sages du W3C décidèrent de durcir le ton et proposèrent XHTML 2, une version plus rigoureuse et moins tolérante. Dans cette seconde version, ils remirent en cause les premières bases d’HTML (ex: les balises <h1>,<h2> … ) pour proposer de meilleures solutions plus élégantes et efficaces (ex : une unique balise <h> dont la signification change selon sa position dans l’arbre constitué par une page). Magnifique… seul souci, il fallait que tout le monde réapprenne à écrire des pages web convenables, mais il fallait aussi réadapter toutes les pages existantes.

Acte 2 : HTML résiste et prouve sa vigueur comme langue vivante 

En 2004, alors que le processus de standardisation battait son plein, un groupe de programmeurs prit un point de vue opposé. Plutôt que de s’attarder sur la pureté du langage, ils s’attaquèrent à compléter les pièces manquantes du puzzle technique que représente une application web. Plutôt que d’inventer le langage qui devrait remplacer HTML, ils travaillèrent à étendre, progressivement, par ajouts successifs, les capacités du vieux langage. Leur philosophie était « construisons ce dont nous avons besoin, les standards suivront ».

En 2007, le vent avait tourné.  L’enthousiasme de la communauté était maintenant du côté des travaux de ces rebelles, pragmatiques et respectueux du passé. Revirement rarissime, le W3C décida finalement de ne plus soutenir XHTML 2 et de commencer à formaliser un nouveau standard HTML5. Sauf qu’HTML5 n’était pas un langage unifié mais une collection d’outils, de conventions et librairies.  Personne ne s’accordait d’ailleurs sur ce que l’on devait exactement  inclure dans HTML5.

La tentative de standardisation d’HTML5 n’empêcha pas les rebelles de continuer à faire progresser le langage selon leur philosophie. Pour éviter la confusion, ils affirmèrent qu’ils ne travaillait plus sur HTML5, mais tout simple sur HTML, une langue vivante qui comme toute langue vivante ne peut cesser d’évoluer de changer, toujours en avance sur le dictionnaire des académiciens.

L’histoire d’HTML est celle de la victoire de la pratique sur la règle. Selon cette philosophie de l’innovation, jamais une page HTML ne sera déclarée obsolète. Jamais un page HTML ne sera forcée de contenir un numéro de version. Jamais les développeurs web ne devront remettre à jour leur anciennes pages. Jamais HTML ne devra attendre une nouvelle version pour inclure des innovations. Les fonctionnalités d’HTML les plus récentes ne seront peut-être pas « supportées » dans un premier temps par tous les navigateurs mais si elles sont vraiment pertinentes et intéressantes, les navigateurs s’adapteront et les standards finiront par les officialiser.

La victoire d’HTML sur les processus standardisation conduit à une philosophie de l’innovation inédite dans l’écosystème si complexe de l’ordinateur planétaire. Quelques principes de base. Ne casser pas l’existant. Laisser les utilisateurs explorer les meilleures routes et bétonner ensuite les plus empruntées. Préférer toujours les solutions pratiques aux solutions belles. A méditer …

Ceux qui veulent en savoir plus sur HTML5 et son histoire pourront consulter l’excellent « Missing Manual » de M. MacDonald, dans lequel j’ai largement puisé pour écrire ce billet.

Quand les mots valent de l’or

janvier 17, 2012

A l’automne dernier, suite à un billet sur ce blog, le Monde diplomatique m’a contacté pour me demander de développer mes idées sur le capitalisme linguistique dans un article plus long. L’article est paru en dernière page dans l’édition de novembre, il a ensuite était traduit dans de nombreuses langues, par exemple en espagnol (« Palabras que valen oro« ), en brésilien (« Quandos as palavras valem ouro« ), en italien (« Quando le parole valgono oro »), etc. Puis il y a eu des réactions multilingues diverses sur les blogs. Réjouissantes réactions multiculturelles pour un article qui traite précisément du juteux marché des langues vivantes.

L’histoire de Google tient en deux algorithmes : l’un l’a rendu populaire, l’autre l’a rendu riche. La première de ces méthodes, élaborée par Larry Page et Sergey Brin alors qu’ils étaient encore étudiants en thèse à l’université Stanford (Californie), consistait en une nouvelle définition de la pertinence d’une page Web en réponse à une requête donnée. En 1998, les moteurs de recherche étaient certes déjà capables de répertorier les pages contenant le ou les mots demandés. Mais le classement se faisait souvent de façon naïve, en comptabilisant le nombre d’occurrences de l’expression cherchée. Au fur et à mesure que le Web grandissait, les résultats proposés aux internautes étaient de plus en plus confus. Les fondateurs de Google proposèrent de calculer la pertinence de chaque page à partir du nombre de liens hypertexte pointant vers elle – un principe inspiré de celui qui assure depuis longtemps la reconnaissance des articles académiques. Plus le Web grandissait, plus l’algorithme de Page et Brin affinait la précision de ses classements. Cette intuition fondamentale permit à Google de devenir, dès le début des années 2000, la première porte d’entrée du Web.

Alors que bien des observateurs se demandaient comment la société californienne pourrait bien monétiser ses services, c’est l’invention d’un second algorithme qui a fait d’elle l’une des entreprises les plus riches du monde. A l’occasion de chaque recherche d’internaute, Google propose en effet plusieurs liens, associés à des courtes publicités textuelles, vers des sites d’entreprises. Ces annonces sont présentées avant les résultats de la recherche proprement dits. Les annonceurs peuvent choisir les expressions ou mots-clés auxquels ils souhaiteraient voir associée leur publicité ; par exemple, les recherches contenant le mot « vacances ». Ils ne paient que lorsqu’un internaute clique effectivement sur le lien proposé pour accéder à leur site. Afin de choisir quelles publicités afficher pour une requête donnée, l’algorithme propose un système d’enchères en quatre étapes :

– L’enchère sur un mot-clé. Une entreprise choisit un mot ou une expression, par exemple « vacances », et définit le prix maximum qu’elle serait prête à payer si un internaute arrive chez elle par ce biais. Pour aider les acheteurs de mots, Google fournit une estimation du montant de l’enchère à proposer pour avoir de bonnes chances de figurer sur la première page de résultats. Les acheteurs peuvent limiter leur publicité à des dates ou des lieux spécifiques. Mais attention : comme on va le voir, le fait d’avoir l’enchère la plus haute ne garantit pas que vous serez le premier sur la page.

– Le calcul du score de qualité de la publicité. Google attribue à chaque annonce, sur une échelle de un à dix, un score, fonction de la pertinence de son texte au regard de la requête de l’utilisateur, de la qualité de la page mise en avant (intérêt de son contenu et rapidité de chargement), et du nombre moyen de clics sur la publicité. Ce score mesure à quel point la publicité fonctionne, assurant à la fois de bons retours à l’annonceur, et d’imposants revenus à Google, qui ne gagne de l’argent que si les internautes choisissent effectivement de cliquer sur le lien proposé. L’algorithme exact qui établit ce score reste secret, et modifiable à loisir par Google.

– Le calcul du rang. L’ordre dans lequel les publicités apparaissent est déterminé par une formule relativement simple : le Rang est l’Enchère multipliée par le Score. Une publicité ayant un bon score peut ainsi compenser une enchère plus faible et arriver devant. Google optimise ici ses chances que l’internaute clique sur les publicités proposées.

Ce jeu d’enchères est recalculé pour chaque requête de chaque utilisateur — des millions de fois par seconde ! Ce second algorithme a rapporté à la firme de Moutain View la coquette somme de 9,720 milliards de dollars pour le troisième trimestre 2011 — un chiffre en croissance de 33 % par rapport à la même période de l’année 2010 *.

Le marché linguistique ainsi créé par Google est déjà global et multilingue. A ce titre, la Bourse des mots qui lui est associée donne une indication relativement juste des grands mouvements sémantiques mondiaux. Google propose d’ailleurs des outils simples et ludiques pour explorer une partie des données qu’il collecte sur l’évolution de la valeur des mots. C’est ainsi que nous pouvons voir comment les fluctuations du marché sont marquées par les changements de saison (les mots « ski » et « vêtements de montagne » ont plus de valeur en hiver, « bikini » et « crème solaire » en été). Les flux et les reflux de la valeur du mot « or » témoignent de la santé financière de la planète. Google gagne évidemment beaucoup d’argent sur les mots pour lesquels la concurrence est forte (« amour », « sexe », « gratuit »), sur les noms de personnes célèbres (« Picasso », « Freud », « Jésus », « Dieu »), mais également dans des domaines de langue où la spéculation est moindre.   Tout ce qui peut être nommé peut donner lieu à une enchère.

Google a réussi à étendre le domaine du capitalisme à la langue elle-même, à faire des mots une marchandise, à fonder un modèle commercial incroyablement profitable sur la spéculation linguistique. L’ensemble de ses autres projets et innovations technologiques – qu’il s’agisse de gérer le courrier électronique de millions d’usagers ou de numériser l’ensemble des livres jamais publiés sur la planète – peuvent être analysés à travers ce prisme. Que craignent les acteurs du capitalisme linguistique ? Que la langue leur échappe, qu’elle se brise, se « dysorthographie », qu’elle devienne impossible à mettre en équations. Quand Google corrige à la volée un mot que vous avez mal orthographié, il ne fait pas que vous rendre service : il transforme un matériau sans grande valeur (un mot mal orthographié) en une ressource économique directement rentable. Quand Google prolonge une phrase que vous avez commencé à taper dans la case de recherche, il ne se borne pas à vous faire gagner du temps : il vous ramène dans le domaine de la langue qu’il exploite, vous invite à emprunter le chemin statistique tracé par les autres internautes. Les technologies du capitalisme linguistique poussent donc à la régularisation de la langue. Et plus nous ferons appel aux prothèses linguistiques, laissant les algorithmes corriger et prolonger nos propos, plus cette régularisation sera efficace.

Pas de théorie du complot : Google n’entend pas modifier la langue à dessein. La régularisation évoquée ici est simplement un effet de la logique de son modèle commercial. Pour réussir dans le monde du capitalisme linguistique, il faut cartographier la langue mieux que n’importe quel linguiste ne sait le faire aujourd’hui. Là encore, Google a su construire une stratégie innovante en développant une intimité linguistique sans précédent avec ses utilisateurs. Nous nous exprimons chaque jour un peu plus au travers d’une des interfaces de Google ; pas simplement lorsque nous faisons une recherche, mais aussi quand nous écrivons un courrier électronique avec GMail ou un article avec Google Docs, quand nous signalons une information sur le réseau social Google+, et même oralement, à travers les interfaces de reconnaissance vocale que Google intègre à ses applications mobiles. Nous sommes des millions chaque jour à écrire et à parler par le biais de Google. C’est pourquoi le modèle statistique multilingue qu’il affine en permanence et vers lequel il tente de ramener chaque requête est bien plus à jour que le dictionnaire publié annuellement par nos académiciens. Google suit les mouvements de la langue minute par minute, car il a le premier découvert en elle un minerai d’une richesse extraordinaire, et s’est doté des moyens nécessaires pour l’exploiter.

La découverte de ce territoire du capitalisme jusqu’ici ignoré ouvre un nouveau champ de bataille économique. Google bénéficie certes d’une avance importante, mais des rivaux, ayant compris les règles de cette nouvelle compétition, finiront par se profiler. Des règles finalement assez simples : nous quittons une économie de l’attention pour entrer dans une économie de l’expression. L’enjeu n’est plus tant de capter les regards, que de médiatiser la parole et l’écrit. Les gagnants seront ceux qui auront pu développer des relations linguistiques intimes et durables avec un grand nombre d’utilisateurs, pour modéliser et infléchir la langue, créer un marché linguistique contrôlé et organiser la spéculation sur les mots. L’utilisation du langage est désormais l’objet de toutes les convoitises. Nul doute qu’il ne faudra que peu de temps avant que la langue elle-même ne s’en trouve transformée.

* “Google Q3 2011: $9.72 Billion In Revenue, $2.73 Billion In Net Income”, TechCrunch, 13 Octobre 2011.

Si vous voulez citer cet article, merci d’utiliser la référence suivante :

Kaplan, F (2011) Vers de la capitalisme linguistique : Quand les mots valent de l’or, Le Monde diplomatique, N 692, Novembre 2011, p.28