Posts Tagged ‘algorithme’

16 des 20 contributeurs les plus actifs sur Wikipedia sont des bots

mai 26, 2015

Première ébauche d’un texte pour le catalogue d’une exposition au Quai Branly. Un travail réalisé avec un de mes doctorants Dana Kianfar, qui travaille sur les algorithmes et le capitalisme linguistique. Les questions plus générale sur les effets de la médiation algorithmiques sur la langue ont été traitée dans Kaplan (2014) et la transformation progressive des livres en machines, thème connexe à celui traité ici est discutée dans Kaplan (2012). Le billet prolonge le travail pionnier de Stuart Geiger dans ce domaine (Geiger 2011). J’ai également parlé de ce sujet sur la RTS 1 lors d’une interview de 10 min à l’émission CQFD. 

16 des 20 contributeurs les plus actifs sur la version anglaise de Wikipedia sont des bots. Cette estimation, a peu près équivalente à celle de Stuart Geiger en 2011, est rapidement obtenue en comparant la page qui classe les contributeurs humains le plus prolifiques avec celle qui propose le même classement pour les algorithmes. Dans ce classement qui mesure l’activité par le nombre d’actions d’édition sur l’encyclopédie en ligne, le premier contributeur humain n’arrive qu’à la douzième position. Ce chiffre varie selon les communautés linguistiques de Wikipedia. Dans le même classement pour la version espagnole de Wikipedia, on ne retrouve que deux bots.

Wikipédia n’est pas simplement le grand oeuvre d’une communauté d’utilisateurs qui, ensemble, aurait décidé de construire une encyclopédie libre et gratuite. C’est aussi le résultat du travail de plusieurs centaines d’algorithmes qui chaque jour mettent en forme, contrôlent, surveillent et réprimandent les contenus écrits. Au fil des années, les hommes ont appris à construire et structurer la connaissance en programmant des règles que les bots se chargeaient d’appliquer. Les bots ont aidé à construire Wikipedia et aujourd’hui, jouent un rôle crucial dans sa maintenance et son évolution. Ce faisant il sont devenus comme une présence, une altérité machinique que les contributeurs de l’encyclopédie en ligne ont accepté avec plus ou moins de facilité. L’histoire de ces premières frictions, la négociation progressive de l’autonomie accordée à ces algorithmes sont les prémisses d’un monde qui vient, où hommes et machines devront apprendre à partager un même espace pour écrire ensemble.

Historiquement,les bots ont joué un rôle important dans la création et le développement de Wikipédia. En février 2002, plusieurs centaines d’articles du « Federal Standard 1037c », un dictionnaire de termes techniques, ont été importés et wikifiés par un algorithme, proposant ainsi la base de nombreuses nouvelles pages que les utilisateurs que les utilisateurs purent ensuite enrichir. À la même période, de nombreux articles du « Easton’s Bible Dictionary », un ouvrage de la fin du XIXe siècle, furent également importés et restructurés pour servir de contenu initial à des pages Wikipedia encore inexistantes. Cette importation a conduit à introduire dans certaines pages de Wikipedia une prose victorienne anachronique, qui fut progressivement assimilée pour se fondre avec l’anglais contemporain. Le même bot importa une grande partie des articles de la version de 1911 de l’Encyclopedia Britanica, à partir d’une copie numérisée par le projet Gutenberg.

Durant ces premières années, les algorithmes se nourrissant des contenus suffisamment anciens pour être passés dans le domaine public ont ainsi contribué à structurer les premiers contenus de Wikipedia lui permettant d’atteindre rapidement une masse critique. Dès que la logique de « template » pouvait être appliquée, des bots ont été utilisés pour produire des articles types. Un algorithme nommé « Ram-bot » produisit ainsi les articles de base pour 30 000 villes américaines en important les données du recensement américain et en les structurant dans un style simple et systématique. Ce squelette textuel fut ensuite étoffé par les contributeurs qui l’enrichirent avec des détails de la géographie et l’histoire locale de chaque ville, expérimentant sans vraiment en avoir conscience une forme d’écriture mixte personne-machine.

Ce procédé fut répété à plusieurs reprises, mais toujours dans des domaines de la connaissance de plus en plus pointus. En 2008, par exemple, un algorithme nommé « Clue-bot II » créa 15 000 petits articles sur les astéroïdes à partir d’une base de données de la Nasa. Ces articles furent à leur tour édités puis traduits par d’autres bots. Malheureusement, la base, assez ancienne, contenait des erreurs et, quand un humain a réalisé la contamination, un processus de correction massive dut être mis en place. Ce type d’accidents a contribué à alimenter la polémique autour des bots et leur rôle positif ou négatif sur la construction et la régulation de l’encyclopédie en ligne.

Aujourd’hui les bots assurent de nombreuses fonctions de maintenance et de réparation, souvent répétitives et consommatrices de temps. Un des algorithmes patrouilleurs les plus sophistiqués s’appelle ClueBot NG. Il identifie et répare les actes de vandalisme, comme l’insertion de propos outrancier sans rapport avec le contenu d’une page donnée. D’autres bots détectent des violations possibles de copyright, tissent des liens entre les pages de différentes versions linguistiques de Wikipédia, bloquent automatiquement les pages qui sont modifiées avec trop d’intensité, corrigent les fautes de syntaxe et d’une manière générale se chargent d’automatiser les règles et normes de bon fonctionnement de l’encyclopédie en ligne. La version anglaise de Wikipédia comptant plus de 4 millions d’articles, dont une partie significative sont régulièrement mis à jour, seule une police algorithmique semble pouvoir veiller sur cet édifice en perpétuelle reconstruction. C’est ce qui a poussé certains éditeurs de Wikipédia à devenir programmateurs de bots, les concevant avant tout comme une forme d’outil d’édition puissant. Ce faisant, ils ont donné naissance à un écosystème complexe, conduisant à des articles systématiquement coproduits par des humains et des machines.

L’ambivalence des bots réside dans leur double nature, à la fois la formalisation informatique d’une règle de comportement et l’agent faisant appliquer cette règle. Une des controverses la plus importantes dans la longue histoire de la négociation de la présence des bots sur Wikipédia est relatée par Stuart Geiger (2011). L’algorithme Hagermanbot ne faisait qu’appliquer une règle acceptée sur Wikipédia. Il identifiait les commentaires sans signature et ajoutait automatiquement l’identité de leur auteur. Personne ne remettait en cause cette règle, mais quand elle fut appliquée systématiquement par l’algorithme, l’action du bot fut perçue comme embarrassante pour certains. Il existait des situations dans lesquelles un auteur pouvait vouloir différer sa signature ou effectivement laisser son commentaire non signé. Certains argumentèrent que la règle des signatures n’était qu’une « guideline » pas une loi dont l’application devait être systématiquement vérifiée par la surveillance policière et violente d’un algorithme.

C’est la différence, discutée par Bruno Latour, entre le gendarme et le « gendarme couché ». Le premier fait appliquer la limitation de vitesse dans une rue à proximité d’une école, mais sait en adapter l’application quand une ambulance doit exceptionnellement passer par ce chemin. Le « gendarme couché », devenu infrastructure urbaine de ralentissement, ne fait pas de distinction et applique la règle communément admise dans tous les contextes, sans discrimination. « Les
 techniques
 agissent
 comme
 des
 transformateurs
 de
 forme,
 faisant
 un
 policier
 d’une
 charge
 de
 béton
 frais,
 donnant
 à
 un
 gendarme 
la
 permanence
 et
 l’opiniâtreté
 de
 la
 pierre » (Latour 2001, p.199).

Alors la règle collectivement négociée devient algorithme et que l’algorithme devient agent qui fait systématiquement appliquer la règle, une force hostile semble menacer l’édifice utopique collectivement construit. Poser la question « Les bots de Wikipédia sont-ils méchants » revient à se demander si Wikipédia est l’archétype d’un collectivisme auto-organisé qui fonctionne, un modèle à imiter pour créer demain des sociétés numériques égalitaires créatrices de biens communs ou si elle préfigure au contraire une algorithmisation massive de la société caractérisée par une surveillance permanente et auto-infligée. L’algorithme s’anthropomorphise quand il devient menaçant, même si on le sait non doté d’une quelconque forme d’autonomie. Contrairement au robot humanoïde (Kaplan 2004), il fait peur non pas parce qu’il commence à ressembler à l’humain, mais parce qu’au contraire, il se montre inflexible, aveugle au contexte, et, qu’il ait raison ou qu’il ait tort, capable de soumettre les hommes aux lois qu’ils ont eux-mêmes créés. L’expérience Wikipédia nous invite à penser ces « autres » qui semblent être devenus nos partenaires, amis ou ennemis, pour organiser la connaissance à l’échelle planétaire.

Geiger, R. Stuart. 2011. “The Lives of Bots.” In Critical Point of View: A Wikipedia Reader, 78–93. Institute of Networked Cultures, Amsterdam. http://papers.ssrn.com/sol3/Delivery.cfm?abstractid=2075015#page=41.

Kaplan, Frédéric. 2004. “Who Is Afraid of the Humanoid? Investigating Cultural Differences in the Acceptance of Robots.International Journal of Humanoid Robotics 01 (03): 465–80. doi:10.1142/S0219843604000289.

Kaplan, Frédéric. 2012. “How Books Will Become Machines.” In Lire Demain. Des Manuscrits Antiques à L’ère Digitale., edited by Claire Clivaz, Jérome Meizos, François Vallotton, and Joseph Verheyden, 25–41. PPUR.

Kaplan, Frederic. 2014. “Linguistic Capitalism and Algorithmic Mediation.” Representations 127 (1): 57–63. doi:10.1525/rep.2014.127.1.57. Latour, Bruno. 2001. L’espoir de Pandore : Pour Une Version Réaliste de L’activité Scientifique. Editions La découverte. https://hal-mines-paristech.archives-ouvertes.fr/hal-00830223.

L’Anglais comme langue pivot ou l’impérialisme linguistique caché de Google Translate

novembre 15, 2014
Depuis quelques mois, j’explore avec Dana Kianfar, un des nouveaux doctorants du DHLAB financé par le Fond National suisse, la logique interne de Google Translate. Nous tentons d’en anticiper les effets culturels dans le cadre du capitalisme linguistique et des nouveaux effets de médiations algorithmiques.

Demandez à Google Translate de traduire cette “Cette fille est jolie.” en italien et vous obtiendrez une proposition étrange : “Questa ragazza è abbastanza.”, littéralement cette fille est “moyenne”. La beauté a été “lost in translation”. Comment un des traducteurs automatiques aujourd’hui les plus performants, capable d’utiliser un capital linguistique unique au monde, des milliards de phrases, peut-il faire une erreur aussi grossière ? La réponse est simple, il pivote par l’anglais. Jolie se traduit par “pretty” et “pretty” par “abbastanza”.

google translate

Une fois compris ce principe, il devient dès lors aisé de produire des phrases traductions extrêmement étranges. L’expression idiomatique “Il peut des cordes” se transforme en une expression très poétique “Piove cani and gatti”. Cette traduction directe de “It rains cats and dogs” est absolument incompréhensible pour un italien.

Il est normal que Google Translate procède de cette façon. Pour produire un traducteur automatique, il est nécessaire de disposer de grand corpus de textes identiques traduits d’une langue à l’autre. Google étant une entreprise américaine, son outil s’est construit sur des paires associant presque toujours l’anglais comme langue pivot. Pour aller du Français vers l’Italien, il faut ainsi, “par construction”, passer par une traduction anglaise intermédiaire.

Le biais culturel d’un tel procédé est évidemment important. Le Français et l’Italien sont des langues relativement proches. En comparaison, l’anglais est une langue particulière, compacte, idiomatique. Projeter vers l’espace anglophone puis reprojeter vers une langue cible induit des effets linguistiques et culturels qu’il faut étudier.

En effet, comme nous l’avons discuté ailleurs (Kaplan 2014), les textes produits algorithmiquement par des traducteurs automatiques ne sont pas nécessairement identifiés comme tels. Ils se présentent au contraire souvent comme des ressources primaires, naturelles et éventuellement prises comme modèle par un certain nombre de lecteurs. “Piove cani e gatti” peut sembler une expression admissible pour un lecteur dont l’italien n’est pas la langue maternelle et a fortiori pour des algorithmes qui étudient la structure de la langue dans le but produire artificiellement de nouveaux textes. Les modèles ainsi induits peuvent dans un second temps être utilisés par des services de médiation textuelle qui proposent par exemple d’autocompléter une phrase que vous êtes en train de taper. Il n’est pas un impensable que, dans quelque temps, un italien commençant une phrase par “Piove …” se voit proposer la continuation “Piove cani e gatti”, une expression qui sans doute n’a jamais été prononcée ou écrite dans toute l’histoire de la langue italienne. Le pivot linguistique vers l’anglais participe à un phénomène de créolisation inédit.

L’impérialisme linguistique de l’anglais a donc des effets beaucoup plus subtils que ne le laisseraient penser les approches qui n’étudient que la “guerre des langues”. Le fait de pivoter par une langue conduit à introduire dans les autres langues des logiques linguistiques propres et donc insensiblement des modes de pensée spécifiques. Il semble crucial d’inventer de nouveaux outils pour détecter et documenter ces nouvelles évolutions linguistiques.

Notons pour conclure que si l’anglais joue un rôle pivot pour les langues “européennes”, d’autres langues ont sans doute le même effet localement pour d’autres bassins linguistiques (Le Hindi par exemple). À l’échelle mondiale, c’est un réseau de chaines de traduction qui est en train de se mettre en place et qui impose parfois pour traduire une expression d’une langue à une autre de pivoter par une série de langues intermédiaires. Quand nous voyons les effets linguistiques d’un de ces pivots, imaginer des séquences de ces transformations linguistiques laisse songeur.

Kaplan, Frederic. 2014. “Linguistic Capitalism and Algorithmic Mediation.” Representations 127 (1): 57–63. doi:10.1525/rep.2014.127.1.57.

Une autre algorithmie de la découverte

mars 21, 2012

La Fondation Cartier organise ce jeudi 22 mars à 19h, une discussion Google Hang-Out sur curiosité et les algorithmes avec 5 ingénieurs de Google, Pierre-Yves Oudeyer et moi-même. 

L’exposition de la Fondation Cartier « Mathématiques, un dépaysement soudain » ferme ses portes cette semaine à Paris. Laurent Bolli et moi-même avons collaboré sur plusieurs projets de l’exposition :

– Le projet, finalement non retenu sous cette forme de la bibliothèque de Gromov (voir mon précédent bille « Replier les textes comme des proteines« )

– Le projet de Takeshi Kitano et David Lynch : La réponse est 2011 (voir également un autre billet sur ce sujet et sur la solution inventée par Quentin Bonnard, un des mes doctorants)

– L’application iPad de l’exposition basée sur le principe mathématique de la curiosité exploré par Pierre-Yves Oudeyer et moi-même il y a quelques années.

Je n’avais pas pris le temps à l’époque d’expliquer le principe original de ce dernier projet.


Cercle de pertinence, cercle de curiosité

L’application présente plusieurs centaines de documents provenant de l’exposition mais aussi des archives de la Fondation Cartier (Contenus sonores, Biographies, Vidéos, Concepts, Images, Evènements). Chaque document est associé à un vecteur N de k paramètres codant un identifiant, son type et des indications sur son contenu. L’espace des documents peut donc être considéré comme un espace de dimension k, relativement grand. L’utilisateur va naviguer dans cet espace grâce à deux algorithmes.

L’interface de l’application est organisée sous la forme de deux cercles concentriques. Le premier cercle de « pertinence » présente les transitions statistiquement les plus communes entre le noeud central N(t) et les autres noeuds de le l’application étant donné le chemin S(t) = Sn(t) = ((N(t), N(t-1)…. N (t-n)) récemment parcouru par l’utilisateur. Le système tente donc de prédire quel sera le prochain noeud à visiter en fonction du parcours des autres utilisateur.  Il s’agit donc d’un système de recommandations assez classique basé la maximisation de la prédiction.  A partir de l’analyse de l’ensemble des chemins des utilisateurs, l’algorithme propose les chemins qu’il a observés comme étant les plus choisis. A chaque choix d’un noeud par l’utilisateur il améliore également son modèle de transition (distribution statistique des transitions à partir d’un chemin donné). Tous les parcours des utilisateurs contribuent donc à affiner ce modèle central.

Le second cercle de « curiosité », l’algorithme propose des noeuds basés sur une adaptation des algorithmes de découverte que nous avons développés Pierre-Yves Oudeyer et moi-même il y a presque dix ans (voir les pages que Pierre-Yves Oudeyer proposent sur ce sujet, un peu plus à jour que les miennes).  Ces algorithmes apprennent un peu comme des enfants (un projet que Turing formulait déjà clairement dans les années 1950s). Ils ne tentent pas de faire des choix en fonction de critères extérieurs (ex: proposer la réponse la plus pertinente pour un utilisateur) mais pour optimiser leur propre apprentissage. A tout moment, ils se posent la question : que dois-je maintenant faire pour un apprendre le plus possible sur l’espace que j’explore ?.

Il est probable que ce soit ce même type de motivation intrinsèque qui pousse par exemple un jeune enfant à jouer avec l’emballage d’un cadeau plutôt qu’avec le jouet qu’il contient. La promesse sensorimotrice de l’emballage étant plus alléchante que celle proposée par le jouet. Nous avons également montré comme ce principe permet de faire émerger des séquences développementale organisée chez un robot apprenant (voir notre article sur ce sujet mais également la video d’AIBO apprenant à marcher grâce à ce type d’exploration ou la salle de jeux pour robot qui nous avions développée avec des designers de l’ECAL pour explorer ce même principe.). A la Fondation Cartier, Pierre-Yves Oudeyer a présenté Ergo-robots, une installation robotique  mise en scène par David Lynch qui permet de découvrir comment se comportent un groupe de robots, motivé par le principe de curiosité.

Les algorithmes de curiosité donnent des effets impressionnants en robotique, mais leur utilité est bien plus large. Ce champ de recherche rejoint d’ailleurs d’autres domaines des statistiques développées en 1972 par Fedorov sous le terme « optimal experiment design » . Des chercheurs en Machine Learning comme Jurgen Schmidhuber ont, dès les années 1990s, commencé à théoriser la pertinence de ces algorithmes pour l’exploration de grands espaces de données. En une vingtaines d’années tout une famille d’algorithmes ont vu le jour, tous construits autour  d’une même intuition : les machines doivent choisir les meilleures actions pour optimiser leur propre apprentissage. 

Un algorithme dont l’apprentissage progresse optimallement

C’est un même principe que nous avons mis en oeuvre pour le second cercle de l’application iPad de la Fondation Cartier. L’algorithme essaie de comprendre la relation entre la présentation de certains documents et le fait qu’ils soient ou non consultés par l’utilisateur dans le contexte d’un chemin de découverte particulier. L’algorithme sait déjà que certains documents sont d’ordinairement choisis (cercle de pertinence) mais il est encore ignorant de la structure de la plus grande partie de l’espace qu’il doit explorer. N’ayant pas une infinité d’essais (puisque chaque essai demande l’intervention d’un utilisateur de l’application), il doit proposer des choix qui lui permettront de progresser optimallement dans son apprentissage.

Plus formellement, il s’agit d’optimiser I(S(t), A(t)),  l’intérêt d’effectuer l’action A(t) (le choix d’un noeud) dans l’état S(t). Cet intérêt peut être approximé par la dérivée de la qualité prédictive. Si la qualité d’une prédiction d’une transition vers un noeud (N+1) est en augmentation (le système est en train de perfectionner son modèle de transition vers noeud à partir du chemin S(t)), ce noeud aura un bon score d’Intérêt).

A chaque interaction l’algorithme propose ainsi dans le cercle de curiosité 14 contenus dont l’intérêt en terme d’apprentissage est optimal. Comme de nouveaux contenus peuvent être rajoutés à l’application, nous avons également introduit un biais pour les noeuds dont l’algorithme sait très peu de chose.  Ceci aura pour effet d’introduire plus souvent dans le cercle de curiosité, les nouveaux noeuds de manière à tester rapidement leur pertinence et leur intérêt.

Jeudi 22 mars à 19h, lors d’un Hang-Out Google+ sur la page de la Fondation Cartier, nous discuterons de toutes ces questions avec cinq ingénieurs de chez GoogleMehyrar Mohri (publications), David Singleton (blog), Aaron Shon (Bayesian cognitive models for imitation), Rich Washington (homepage), Radu – Eosif Mihailescu (blog). Une retransmission simultanée entre Dublin, Zurich, Lausanne, Paris, Bordeaux et les Etats-Unis…

La pollution des ressources linguistiques

mars 18, 2012

En préparation d’un exposé sur le capitalisme linguistique que je donnerai à l’ENSCI le 29 mars, j’explore dans ce billet un aspect important de ce nouvel ordre linguistique où se mélangent les écrits humains et les textes des algorithmes. 

Les nouveaux acteurs du capitalisme linguistique ont besoin d’accéder à des ressources de qualité pour chacun des marchés linguistiques qu’ils visent. Or dans il nous faut distinguer au moins deux types de ressources linguistiques: (a) les ressources primaires produites par des humains (conversations orales ou écrites, contenus de livres scannés, etc.) et (b) les ressources secondaires produites par des machines en général à partir des ressources primaires (traduction automatique, article écrit par des algorithmes, spam). Malheureusement, sans connaître l’origine d’une production, il n’est souvent pas aisé de distinguer entre ressources primaires ou secondaires. Un humain peut dans certains cas faire la différence, mais il est difficile de construire des algorithmes  pour faire automatiquement cette distinction.

Les acteurs du capitalisme linguistique doivent modéliser la langue le plus parfaitement possible. Un acteur comme Google en proposant de multiple interfaces d’expression (Gmail, Google docs, Google +, Service de reconnaissance vocale) et de puissant outils d’accumulation linguistique (Google books, Youtube) a développé un observatoire unique pour construire des modèles statistiques précis de nombreuses langues vivantes. Grâce à ces modèles il peut proposer des outils de correction ou de complétion automatique et lisser la langue pour la faire revenir dans le domaine commercial.(un mot ou une phrase incorrecte ne valent rien car aucune enchère ne peuvent être organisée à leur propos)

Les ressources secondaires sont un danger, une pollution pour ces modèles. Prenons le cas d’un article écrite anglais traduit approximativement en français par un service de traduction. L’article est encore lisible pour un humain qui peut ainsi avoir ainsi une idée de son contenu s’il n’est pas anglophone mais il ne constitue en aucun cas un exemple valide d’une production linguistique en français. Pourtant, dans certains cas, cet article sera la base d’une seconde traduction automatique, par exemple en chinois. A chaque étape sa qualité linguistique se dégrade, pour refléter toujours plus les caractéristiques et les biais de l’algorithme de traduction.

A côté des algorithmes de traductions automatiques, un nombre croissant de textes sont maintenant directement produits par des machines. Ces algorithmes produisent à partir de données structurées des formes narratives variées : Articles longs ou courts, chroniques sportives, tweets. A nouveau, un lecteur averti peut souvent detecter la mécanique sous-jacente et deviner parfois que ces textes ne sont pas écrits par des humains. Leur composition syntaxique et surtout leur positionnement pragmatique sonnent parfois faux, reflétant les biais de l’algorithme qui les compose.

Malheureusement les robots de Google qui archivent inlassablement le web ne font pas la différence entre ces ressources linguistiques dégradées et les ressources primaires. Au fur et à mesure que la quantité de ressources secondaires devient significative par rapport aux ressources primaires, le modèles statistiques peut se modifier pour intégrer le vocabulaire, les formulations et les tournures des algorithmes. Par une retroaction que ne manque pas d’ironie, ce sont ces tournures qui risquent de nous être proposées sous la forme de suggestions ou de corrections. 

Kirti Vashee analyse que c’est essentiellement pour cette raison que Google a décidé de fermer son service de traduction automatique en 2011. En proposant des traductions approximatives qui venaient grossir le rang des ressources linguistiques secondaires, Google polluait sa ressource vitale (« polluting its own drinking water ») en particulier pour des marchés linguistiques où ses modèles n’était peut-être pas encore aussi bons que pour l’Anglais. Rappelons que Google n’est pas dominant partout. En Russie, en Chine, au Japon et en Corée il doit faire face à une concurrence importante respectivement de Yandex, Baidu, Yahoo et NHN. Pour gagner ces marchés, il est contraint d’offrir une qualité de service irréprochable (c’est cette stratégie qui lui a permis à l’époque de battre ces concurrents sur les marchés anglo-saxons et européens)

Google a remplacé son service créateur de ressources secondaires en un service de traduction « on demand » qui garde toujours le texte original de la traduction, pour s’en servir pour la recherche et pour potentiellement améliorer progressivement la traduction proposée au fur et à mesure que les algorithmes de traduction progressent. La modification de ce service de traduction était une opération risquée pour Google dans la mesure où il était utilisé par un très grand nombre d’autres services.En agissant ainsi, Google prend le risque de perdre la confiance des développeurs qui utilise ses API, rappelant qu’à tout moment , la compagnie peut décider de changer les règles du jeu. Si Google a fait ce choix c’est que la question de la pollution des ressources linguistiques est un enjeu majeur pour son modèle commercial.

Mais transformer son service de traduction automatique ne suffira pas à stopper les autres services produisant des textes encores plus dégradés, ni à freiner le développement des textes produits par des algorithmes. Il faut maintenant compter avec l’écriture des machines et tous les hybrides de ce nouvel ordre linguistique. Comme l’explique bien Stuart Geiger, un article de Wikipedia n’est pas que le travail collectif d’un groupe de redacteurs mais également le resultat des productions de bots qui effectuent des travaux syntaxiques spécifiques et des opérations sémantiques systématiques.  Textes humains et machiniques se mélent pour proposer une nouvelle forme d’écriture. Et c’est cette nouvelle écriture que les robots de Google analysent pour ensuite structurer nos propres écrits.

Bookworld : Pourquoi expliciter le réseau interne des livres

mars 16, 2012

La première version de l’application iPad Bookworld est disponible sur l’AppStore depuis une semaine (voir la présentation et l’historique du projet dans mon précédent billet). Le Temps a  fait un bel article dessus. L’application sera également présentée au Salon du Livre de Paris ce samedi. Lorsque nous avons montré pour la première fois l’application il y a quinze jours, de nombreuses personnes m’ont demandé à quoi pouvait bien servir une application dans laquelle chaque livre est une ville. Ceci mérite peut-être en effet une petite explication.

Un livre n’est pas une trottinette

Mon discours sur le potentiel et l’importance de Bookworld rejoint par certains aspects celui que tient Valla Vakili lorsqu’il parle de Small Demons. A l’heure des grandes librairies digitales, comment découvre-t-on un nouveau livre ? Le processus de découverte est aujourd’hui presque entièrement délégué à deux types d’algorithmes basés sur l’analyse de deux types de corrélations statistiques.

Les premiers font du data mining sur les corrélations d’achats. « Ceux qui comme vous ont achète ce livre on aussi aimé celui-là ».

Les seconds font du data mining sur les corrélations d’opinions. « Ceux qui ont aimé ce livre ont aussi aimé celui-là ».

Dans les deux cas, les livres ne sont rien d’autre des identifiants dans une grande base de données de produits. Ils se résument à leur ISBN ou plus généralement à leur SKU. Leur « contenu » est au mieux « taggé », le plus souvent totalement ignoré. Le fait qu’Amazon ait étendu cette même algorithmie commerciale à une myriade d’autres produits est tout à fait révélateur du fait que cette machinerie ne fait aucune différence fondamentale entre un livre et une trottinette.

De plus, dans les deux cas, les statistiques de corrélations tendent à former de grands « hubs » où un petit nombre de livres pivots deviennent des passages obligés. L’algorithmie « homophile » renforce les best-sellers par rétroaction positive et ne favorise pas les chemins de traverses (voir le billet de Hubert Gillaut sur ce point ainsi que les réflexions de Danah Boyd).

Derrière ces choix algorithmiques se cachent donc des enjeux essentiels pour les chemins de la découverte d’objets culturels nouveaux.

Un livre contient lui-même un réseau d’objets culturels

Dans Bookworld, nous considérons qu’un livre est déjà un réseau complexe en tant que tel. Tout livre est une une organisation temporelle et spatiale qui structure un discours sur des personnes, des lieux, des objets (c’est même une des fonctions centrales du livre selon Pascal Robert). C’est pourquoi nous le représentons sous la forme d’une ville, métaphore potentiellement riche pour donner corps à ce réseau d’interaction.

L’application est construite pour que les lecteurs aient envie d’entreprendre ensemble ce travail titanesque qui consiste à document ce réseau, à l’expliciter. Plus il y a d’information sur un livre, plus la ville le représentant devient complexe, plus elle se lie à d’autres livres-villes construisant ainsi petit à petit la topologie de ce monde livresque.

Rob le héros du roman « Haute Fidelité » de Nick Hornby a une chanson pour chaque moment de la vie. Son passe temps favori consiste à classer les musiques (et accessoirement aussi les films) dans des TOP 5 thématiques. Quand je visite dans Bookworld la ville livre correspondant au roman, je découvre ou redécouvre cette constellation de films et de musiques. Au loin je vois d’autres villes-livres qui partagent certaines références en terme de musique, films, etc. des connections parfois insoupçonnées qu’aucun autre système de recommandation artificiel ou humain n’aurait pu trouver s’il a fait l’économie de ce processus cartographique.

La lecture est un processus d’attachement puis d’incorporation

Dans son exposé à Books in Browsers Valla Vakili explique bien que la lecture d’un livre est essentiellement une rencontre entre les référents culturels d’un lecteur et l’univers organisé de référents culturels proposé par une narration. Le personnage que Nick Hornby dessine en creux à partir à partir des objets culturels qu’il aime ou déteste me parle car je me retrouve d’une certaine manière dans ses références ou dans sa relation avec la musique. Ce processus d’attachement est fondamental dans ce qui nous fait aimer un livre. Inversement, quand un livre nous laisse indifférent ce que nous n’avons pas pu réussi à créer ces liens.

Si la rencontre entre le livre et son lecteur se passe bien, ce dernier incorpore, petit à petit, certains référents culturels du livre. Nous les faisons notre. Après ma rencontre avec la Terre du Milieux, les Hobbits ont désormais fait partie de mon monde… Tout comme ce morceau de Marvin Gay que la lecture de « Haute Fidelité » m’a fait écouter pour la première fois. Riches de ces nouveaux référents nous sommes prêts à de nouvelles rencontres livresques qui nous auraient peut-être laissées indifférents quelques semaines plus tôt. La métaphore touristique file toujours aussi bien. Dans le monde des livres aussi, certains itinéraire sont meilleurs que d’autres.

Documenter le contenu des livres ne tient donc pas d’un simple excès encyclopédique. Les liaisons narratives explicitées dans Bookworld ont une pertinence bien différente des corrélations statistiques exploitées par les algorithmes d’Amazon ou d’Apple. Caché dans la structure de ces réseaux que nous nous proposons de collectivement expliciter se cache sans doute une autre algorithmie de la découverte.

Chacun dans sa bulle digitale

novembre 29, 2011

Retour d’une journée d’entretiens à Lyon sur le corps et ses variations. Déjeuner mémorable avec un Michel Serres, pétillant et virtuose, Yves Coppens, beaucoup plus facétieux que je ne l’imaginais, George Vigarello, extraordinaire historien du corps et Patrick Bazin, le nouveau directeur de la BPI plein d’idées pour son institution. Nous avons discuté passionnément du futur du livre et des bibliothèques, de Google, d’une paléontologie des objets techniques, des nouvelles interfaces et du corps qui s’y adapte. Dans le train du retour, j’ai mis au propre ce petit texte sur l’incorporation. Quand nous interagissons avec nos écrans, où sommes-nous ? Incorporés dans un système technique qui ressemble à beaucoup d’autres ? ou dans une bulle fondamentalement différente ?

Voir la video de mon intervention.

Extensions : la tête dans les nuages.

Nous avons fait dans les cinq dernières années une découverte extraordinaire : nous sommes capables de marcher dans la rue tout en interagissant du bout de nos doigts avec notre téléphone portable. Notre inconscient prend en charge toutes les fonctions de navigation et d’évitement d’obstacles qui ont été si longues à acquérir pendant la première année de notre vie, nous permettant ainsi de nous mouvoir dans la complexité de l’espace urbain sans presque jamais quitter l’écran des yeux. Parfois bien-sûr nous rentrons dans un passant, nous trébuchons sur une marche et, à cet instant douloureux, nous redevenons un corps se déplaçant dans l’espace physique urbain. Mais la plupart du temps, nous réussissons ce tour de force d’être à la fois physiquement ici et mentalement ailleurs.

L’interaction avec nos téléphones portables n’est qu’un exemple de notre extraordinaire capacité à nous métamorphoser. Notre peau n’est pas la limite de notre corps. Nous nous baissons intuitivement quand nos portons un chapeau, les femmes adaptent leur marche lorsqu’elles portent des talons hauts. Ceci est également vrai pour des dispositifs plus complexes. Apprendre à conduire une voiture demande de longues heures de pratique. Au début, la voiture est un dispositif en partie imprédictible, une machine aux réactions aléatoires. Puis au fil des heures, la voiture devient une extension de nous-mêmes, comme une seconde peau. Nous avons assimilé sa taille et sa vitesse, le temps qu’il nous faut pour accélérer et freiner. Conduire devient aussi naturel que marcher, une activité inconsciente. Nous pouvons penser à autre chose en le faisant. Certains réussissent même à interagir avec leur téléphone portable en conduisant.

Ce processus général d’incorporationla transformation d’un objet extérieur en une prothèse, est encore mal compris. Nous savons qu’il est lié à notre capacité à parfaitement prédire le comportement de l’objet extérieur. Pour que le marteau devienne une extension de notre main il faut que nous ayons construit un bon modèle de son comportement physique  de manière à pouvoir parfaitement prédire ses réactions. Dès le moment où nous prédisons bien le comportement de nos prothèses, notre attention peut se déplacer ailleurs, sur le clou, par exemple. Quand l’action de planter un clou devient elle-même une routine absolument prédictible, nous pouvons nous concentrer sur le plan général de notre projet, l’action de planter un clou, comme celle de doubler dans le cas de la conduite, devenant alors une étape intégrée ne nécessitant plus toute notre attention. Ce n’est que si un imprévu survient que nous devrons nous désolidariser de notre prothèse, porter à nouveau notre attention sur l’objet lui-même, le considérer de nouveau comme une partie extérieure, et c’est un processus douloureux.

Chaque incorporation correspond à un changement d’espace. Le violoniste apprend d’abord à maîtriser son instrument. Au fil des heures, il l’incorpore et peut être ensuite tout entier concentré sur la mélodie. Puis, au fil des concerts, son attention se porte non plus sur les notes mais sur l’interprétation. Il a de nouveau changé d’espace.

D’autres lieux, régis par d’autres lois. Le jeune enfant venant d’apprendre à marcher quitte l’espace de la maîtrise de son propre corps pour commencer à explorer les lieux qui l’entourent. La maîtrise vocale lui donne accès à la parole. Il sait prononcer les sons, mais il lui faut maintenant les arranger selon les conformations de langue. Puis, plus tard, il lui faudra maîtriser les lois des conversations, un autre espace.

Le stylo s’intègre à notre main quand nous écrivons. Toute notre attention se porte sur l’acte d’écrire. Nous ne pensons ni à notre posture, ni à la page. Nous sommes le texte en train de s’écrire.

Même si nous les incorporons complètement et même si elles deviennent totalement inconscientes, les « interfaces » que nous utilisons pour explorer ces autres espaces influencent de manière importante la nature de nos trajectoires dans les espaces supérieurs. Nietzsche raconte comment utiliser une machine à écrire a profondément changé son écriture jusque là manuscrite. Ses phrases se raccourcissaient, devenaient plus denses.  Aujourd’hui le choix d’un traitement texte particulier, comme celui d’un violon, modèle sans que nous n’en ayons particulièrement conscience notre écriture. Comme le suggère François Bon, nous devrions toujours accorder notre traitement de texte avant de commencer à écrire.

Revenons à nos téléphones portables et réfléchissons à la manière dont nous les manipulons. Comme beaucoup d’autres objets nous utilisons nos doigts et nos yeux. Pour autant ils ne nous offrent pas la richesse sensorimotrice de la plupart des autres objets. Quand nous saisissons un verre nous savons immédiatement à quel point il est plein, si le liquide qu’il contient est chaud ou froid. Nos doigts façonnés par des millions d’années d’évolutions nous communiquent des informations d’une extrême richesse.

Les téléphones portables et maintenant les tablettes nous proposent essentiellement des images protégées par du verre. Certes ces images réagissent à notre toucher, mais notre sens de la vue est absolument nécessaire à l’ensemble des interactions qu’elles proposent. Vous pouvez faire vos lacets sans regarder vos chaussures. Mais vous ne pouvez pas interagir avec votre téléphone ou votre tablette de cette manière.  Cette prédominance du visuel encourage le processus d’immersion, la déconnexion avec le monde physique et social traditionnel. Les téléphones et les tablettes, comme les livres et plus encore que la télévision, sont des interfaces absorbantes.

Absorption : la bulle digitale

Qu’y a-t-il d’aussi fascinant derrière les vitres de ces fenêtres ? Une seule machine, un ordinateur planétaire, une méga-structure technique, un objet-monde comme dirait Michel Serres. Depuis sa création cette machine est porteuse d’une utopie. Grâce à ces fenêtres c’est en apparence toute l’information du monde qui est au bout de nos doigts. La fenêtre nous ouvre à un monde élargi temporellement et spatialement. Nous pourrions non seulement voir tout ce qui ce passe simultanément sur l’ordinateur-monde mais aussi à d’infinies mémoires resurgissant du passé. The « Long Here » and the « Big Now ». Il y a là une extrêmement séduisante promesse.

Notre évolution nous a donné un goût immodéré pour le sucre et le gras, jadis si rare et maintenant si commun. Aujourd’hui nous devons lutter pour apprivoiser cette appétence au risque de devenir obèses. De la même manière, il est possible que nous ayons un appétit naturel pour les informations pertinentes (ce qui est amusant, étonnant, sexuellement intéressant, ce qui se dit sur nous, ce qui nous permet d’apprendre plus, voir le livre de J-L. Dessalles sur cette question). Et nous construisons beaucoup de nos comportements dans le but de rassasier cette curiosité.

Or c’est précisément le modèle commercial qu’exploitent les services les plus importants de l’ordinateur-planétaire : nous proposer des portails d’informations pertinentes de manière à ce que nous découvrions, explorions, produisions au travers d’interfaces de ces services. J’ai discuté ailleurs de cette transition entre une économie de l’attention à une économie de l’expression, dans le contexte du capitalisme linguistique naissant. En nous proposant des interfaces incitant à une intimité linguistique sans précédent, Google peut organiser le marché mondial de la spéculation sur les mots. Comme le disait Andrew Lewis, « Si vous ne payez pas pour quelque chose, vous n’êtes pas le client, vous êtes le produit ». Ici c’est chacune de nos paroles, gestes, comportement qui, explicités par le contact avec l’interface digitale, affine la granularité des espaces commercialement exploitables. Si Google peut réaliser plusieurs dizaines de milliards de chiffre d’affaire simplement en organisant la spéculation linguistique c’est précisément parce que le marché linguistique n’est pas borné à un nombre finis de produits ou d’emplacements, il s’étend au fur et à mesure que la cartographie des mots s’affine et évolue. C’est pourquoi il est si important de capter non pas l’attention, mais l’expression.

Comme l’a bien analysé Eli Pariser dans « The Filter Bubble ». les services de l’ordinateur planétaire sont en compétition les uns avec les autres pour proposer automatiquement les informations qui seront pour nous les plus pertinentes. Or la pertinence est évidemment personnelle, dépendante de nos parcours de vies, de nos goûts esthétiques, de nos tendances politiques, des groupes sociaux au sein desquels nous évoluons.  Le 4 décembre 2009, Google a fait une petite modification à son algorithme de recherche. Il a proposé d’intégrer par défaut dans les critères de sélection une cinquantaine d’éléments dépendant du profil de l’utilisateur. Il peut ainsi me proposer des résultats qui ont plus de chance d’être pertinents (sur lesquels j’ai le plus de chance de cliquer).  Par conséquent, si je ne clique jamais sur certains types d’informations elles apparaîtront moins. Cela veut également dire que vous et moi n’obtiendrons pas les mêmes résultats pour la même recherche.

Imaginez que je cherche une information sur un grand opérateur téléphonique, peut-être obtiendrais-je des informations sur les derniers forfaits pour téléphones portables car dans le passé j’ai souvent cliqué sur ce genre d’information. Mais peut-être que vous obtiendrez des informations sur la vague de suicides dans cette même entreprise car ces questions vous ont intéressées dans le passé. Si j’ai tendance à être de gauche, j’aurais plus de propositions de gauche. Si je m’intéresse au libéralisme, on me proposera plus de libéralisme.

Insensiblement notre point de vue sur le monde quitte l’objectivité initiale de l’algorithme fondateur pour intégrer une subjectivité absolue basée sur une analyse automatique de  nos parcours de vie. Les fenêtres nous donnent accès n’ont pas à un grand univers partagé, mais à des univers parallèles.

Comme pour le capitalisme linguistique, ces dynamiques de personnalisation sont des conséquences logiques des services proposés par la machine monde. C’est précieusement parce qu’il y a trop d’information qu’on nous propose de la filtrer. Il est naturel que les algorithmes rivalisent les uns avec les autres pour nous fournir de l’information toujours plus personnalisée. Ils nous suggèrent quotidiennement le prochain livre à livre, le prochain film à voir, la prochaine musique à écouter, les personnes à suivre sur Twitter et choisissent même pour nous les meilleurs partenaires amoureux. Nous consultons des journaux personnalisés produits automatiquement et reflétant nos intérêts. Bientôt des chaînes de télévisions seront produites sur le même modèle. Partout, les algorithmes choisissent pour nous. De la même manière que Google prolonge nos phrases pour les rendre maximalement exploitable commercialement, il s’agit en parallèle d’anticiper et de régulariser nos propres opinions.

Nous avons déjà fait de Google et de Facebook nos prothèses, comme notre voiture et notre vélo. Nous les conduisons de manière inconsciente, pensant que ce sont des dispositifs techniques comme les autres. Nous ne réalisons pas que nous nous incorporons dans des interfaces qui ne nous appartiennent pas. Elles sont contrôlées par d’autres. Leur géométrie est extrêmement variable,  continuellement optimisée selon des critères définis par des modèles commerciaux qui ont maintenant faits plus que leurs preuves. C’est là la grande différence avec les dispositifs techniques classiques. Quelqu’un d’autre a pris le contrôle de la forme de la voiture.

Le village global malgré ses promesses initiales court le risque de ressembler à un voisinage conformiste. Les images sous le verre ne sont pas nécessairement des fenêtres vers la connaissance universelle, mais plutôt de simples hublots donnant sur notre propre bulle digitale.

Google et le capitalisme linguistique

septembre 7, 2011

Extension du domaine de la lutte. Le vrai et le seul modèle commercial qui fait vivre Google est la spéculation sur les mots. C’est avant tout un algorithme d’enchérissement sur les mots qui a rendu Google riche. Nous pouvons sous cette lumière reinterpréter tous les outils de complétion/correction automatique qui petit à petit tendent à accroître leur contrôle sur la langue elle-même. Ces nouvelles prothèses linguistiques ramènent la langue dans le domaine où elle est le mieux exploitable commercialement. Bienvenue dans le régime du capitalisme linguistique. 

Les enchères sur les mots génèrent des millards

Comme l’expliquait David Rowan dans Wired en aout 2009, l’algorithme d’enchère au cœur du modèle économique de Google fonctionne en 4 étapes.

1. Enchère sur un mot clé. Une entreprise choisit un mot clé (ex: « remboursement de dette ») et fait une proposition de prix. Pour aider les acheteur de mots, Google propose une estimation du montant de l’enchère a proposer pour avoir de bonnes chances d’être dans la première page des résultats proposés. Les acheteurs de mots peuvent aussi cibler leur publicité à des dates ou des lieux spécifiques. Mais attention comme nous allons le voir, le fait d’avoir l’enchère la plus haute de garanti pas que vous serez le premier sur la page.

2. Calcul du score de qualité de la publicité. Google donne un score  de la publicité elle-même sur une échelle de un à dix. Ce score dépend essentiellement de la pertinence du texte de la publicité par rapport à la requête de l’utilisateur, de la qualité de la page vers laquelle la publicité pointe (qualité de son contenu et rapidité de chargement) et du niveau de clics moyen de la publicité (ou d’une publicité ressemblante si cette publicité est nouvelle). En gros, ce score mesure à quel point la publicité fonctionne. L’algorithme exact qui produit ce score de qualité de la publicité, un composant essentiel au calcul du prix final, est secret. Google explique de cette partie de l’algorithme permet de protéger les utilisateurs d’une multiplication de publicités non pertinentes qui pourraient à termes tuer le média lui-même. Plusieurs procès ont néanmoins eu lieu attaquant Google d’abuser de sa position de quasi-monopole dans ce domaine.

3. Calcul du rang. L’ordre dans lequel les publicités apparaissent est ensuite déterminé par une formule relativement simple. Rang = Enchère * Score. Une publicité ayant un bon score de qualité peut ainsi compenser une enchère plus faible et arriver devant.

4. Prix Nouvelle subtilité. Le prix que paît l’entreprise 1 qui a déposé la publicité n’est pas le prix de l’enchère mais le prix de l’enchère 2 juste en dessous de sa propre enchère modulé par la qualité relative entre cette deuxième enchère et celle de l’entreprise. Tout tient dans la formule : P1 = B2 * (Q2 / Q1) où P1 est le prix payé par l’entreprise, B2 est l’enchère la plus haute en dessous de l’enchère de l’entreprise 1, Q1 la qualité de l’enchère 1, Q2 la qualité de l’enchère 2.

Ce jeu d’enchères a lieu à chaque recherche d’un utilisateur.  Sans doute des millions de fois par seconde. Cet algorithme génère des dizaines de milliards de revenu par an. 

Le marché linguistique que Google a créé est déjà global. A ce titre, la bourse des mots qui lui est associé donne une indication relativement juste des grands mouvements sémantiques mondiaux. Comme le souligne Steven Levy dans un autre article de Wired en mai 2009, les fluctuations du marché sont marqués par les changements de saisons (les mots ski et vêtements de montagne ont plus de valeur en hiver, l’été c’est « bikini » et « crème solaire » qui valent cher). Dans le même ordre d’idée, les flux et les reflux de la valeur du mot « or » témoigne de la santé financière de la planète. Google capte les mouvements réguliers de la langue et les exploite commercialement, comme d’autres spécule sur la valeur des matières premières.

Le capitalisme linguistique pousse à la régularisation de la langue

Google a donc réussi a étendre le domaine du capitalisme à la langue elle-même, à faire des mots une marchandise, à fonder un modèle commercial incroyablement profitable sur la spéculation linguistique. L’ensemble des autres projets et innovations technologiques que cette entreprise entreprend doivent être analysés sous ce prisme. Que craignent les acteurs du capitalisme linguistique ? Que la langue leur échappe, qu’elle se brise, se « dysorthographie », qu’elle devienne imprédictible … Quand Google corrige un mot que vous avez mal tapé, il ne fait pas que vous rendre service, il transforme un matériau sans valeur  (un mot mal orthographié) en une ressource économique viable (un mot bien orthographié qui lui rapporte directement de l’argent). Quand Google prolonge une phrase que vous avez commencé à taper, il ne fait pas que vous faire gagner du temps, il vous ramène dans le domaine de la langue qu’il exploite, vous invite à ne pas sortir du chemin statistique tracés par les autres internautes. Les technologies du capitalisme linguistique poussent donc naturellement à la régularisation de la langue. Plus nous ferons appel aux prothèses linguistique que l’entreprise propose laissant les algorithmes corriger et prolonger nos propos, plus cette régularisation sera efficace.

Pas de théorie du complot. Google n’entend pas modifier la langue à dessein. La régularisation que nous évoquons ici est simplement un effet direct de la logique de son modèle commercial. Toutes les technologies intellectuelles ont eu des effets linguistiques collatéraux. La différence est que la langue est pour Google son cœur de métier et que son travail de médiation est déjà globalisé. Si Google finit par être supplanté par un compétiteur actif sur le même modèle, l’effet linguistique global sera sans doute le même. Nous entrons globalement dans le régime du capitalisme linguistique, pour le meilleur et pour le pire.

Interrogeons-nous pour finir sur la manière d’interpréter les avancées de Google dans le monde de l’édition dans cette perspective. Dans le nouveau régime du capitalisme linguistique, ne sera-t-il pas plus avantageux pour un éditeur de proposer ses livres gratuitement en échange d’une part des revenus publicitaires que Google pourra générer avec le contenu de son fond. Dans cette perspective, la potentiel commercial d’un auteur se mesurera essentiellement au regard des effets de spéculations linguistiques qui seront associés aux contenus qu’il propose. Nul doute que cela aura des effets assez immédiats sur son style d’écriture…