Archive for avril, 2012

La construction collective des métadonnées en bibliothèque

avril 28, 2012

Nous avons organisé ce jeudi, avec Alain Jacquesson et Silvère Mercier (blog), une formation pour les bibliothécaires (comme l’an dernier) au Salon du Livre de Genève.  Alain Jacquesson a fait un point complet et critique sur les ressources numériques disponibles aujourd’hui pour les bibliothèques et les centres de documentation en ce qui concerne les revues (NewJour, DOAJ, Seals, Revues.org, CAIRN) et les monographies (Projet Gutenberg, Gallica, Rero.doc, Google Livre, Internet Archive, Hathi Trust). Il a également fait le point sur les nouveaux services de prets (Overdrive, Amazon). Silvère Mercier a proposé un atelier sur les stratégies des médiations numériques en faisant découvrir par la pratique les outils pour proposer du contenu éditorial sous la forme  de « dispositifs ponctuels » (storify, mindmeister, Libraything, scoop.it, Google maps, Dailymontion, Pearltrees, Markup.io, Prezi, etc.) à insérer dans des « dispositifs de flux » (Blog, twitter, profil Facebook, etc.). J’ai pour ma part proposé d’explorer la manière dont on pouvait développer en bibliothèque la lecture sociale et la production collective de métadonnées, une direction encore relativement peu explorée. Le billet ci-dessous reprend en partie mon argumentaire. 

 

 

La bibliothèque est une interface physique 

Une bibliothèque est toujours un volume organisé en deux sous-espaces : une partie publique (front-end) avec laquelle les usages peuvent interagir, une partie cachée (back-end) utilisée pour la logistique et le stockage.  A la Bibliothèque Nationale de France, c’est un système robotisé qui fait la jonction entre les espaces immenses et sous-terrains ouverts au public et les quatre tours qui stockent les livres. L’architecte Dominique Perrault a imaginé une vertigineuse bibliothèque-machine où la circulation des hommes a été pensée symétriquement à la circulation des livres.

Alain Galey discute dans « The Human Presence of Digital Artefacts » la vue séctionnée de la New York Public Library telle quelle apparait sur la couverture du Scientific American le 27 Mai 1911. La bibliothèque est ici sans ambiguïté présentée comme interface physique mettant en contact des lecteurs avec des collections de livres archivés. Au sommet les bibliothécaires gèrent les requêtes et le catalogue et utilisent un système de tubes pneumatiques pour commander les livres stockés dans les étages inférieurs. Les livres, une fois localisés, remontent vers par des mini-ascenseurs.  Presque un siècle avant la bibliothèque Francois Mitterand, la NY Public Library est présentée commune une bibliothèque-machine, préfigurant le rêve de l’open-access des digital humanities.

Dans d’autres grandes bibliothèques et surtout dans tous les centres de documentations de taille beaucoup plus modeste, c’est encore aujourd’hui une logisitique humaine plus ou moins complexe qui organisent les circulations de livres entre le front-end et le back-end. Dans un article du dernier numéro de ligne en ligne, Véronique Poirier décrivait avec poésie l’articulation de ces deux espaces à la BPI.

Tous les matins et chaque mardi, la bibliothèque est fermée au public. Elle se transforme alors en une vaste ruche où se croisent les chariots bleus, rouges, jaunes, verts. Des livres quittent les étagères, d’autres les remplacent. L’espace étant limité, une volumétrie stable (près de 390 000 livres), doit être maintenu grâce à une gestion rigoureuse de l’équilibre entre le nombre d’ouvrages acquis et le nombre de « désherbés ».

Ce souci d’équilibre et de sélection, éléments clés dans la gestion de toutes les bibliothèques et centre de documentation, grand ou petit,  est aussi une des problématiques centrales des interfaces. Celui qui conçoit un site web ou une application iPad se demande également comment organiser au mieux l’espace de navigation et les cheminements des utilisateurs, comment articuler l’expérience « front-end » avec la logistique et le stockage back-end. Mais quand le créateur d’applications doit composer avec une surface de quelques centimètres carrés, le bibliothécaire dispose lui souvent d’un volume articulable en rayonnage, en espace d’échanges, en zones de travail spécialisées.

Durant les dernières années, nous avons vu apparaître de grandes bibliothèques construites selon un autre type d’organisation. Le Rolex Learning Center au sein duquel j’ai la chance d’avoir mon bureau, est organisé selon une logique tout autre et selon un plan qui optimise plus les échanges et les activités autour du livre, que l’accès aux livres eux-mêmes. Cette nouvelle tendance peut-elle servir de modèle directeur pour des bibliothèques de taille plus modeste ?

La tentation de la virtualité 

Avec l’arrivée du numérique, Il est tentant pour la bibliothèque de nier sa dimension physique, de ne devenir qu’une machine à information aux front-ends démultipliés, accessibles par toutes sortes de terminaux et aux back-end entièrement informatisés. On se souvient que Jacques Attali, alors conseiller de Francois Mitterand, avait en son temps critiqué le projet architecturale la bibliothèque-machine de la BNF pour lui opposer l’urgente nécessité d’une BNF directement numérique et algorithmique, accessible de partout et qui serait le meilleur outil possible pour la diffusion de la culture française à travers le monde.

Mais sur ce point, les questions stratégiques et patrimoniales des grandes bibliothèques ne rejoignent pas les questions locales pour nombre de modestes centres de documentation. Les bibliothèques n’ont aujourd’hui que des droits très encadrés pour l’exploitation digitale des livres qu’elles proposent en lecture ou en prêt. Impossible pour elles de construire de nouveaux services en exploitant directement des nouveaux circuits commerciaux de livre numérique « grand public » dans la mesure où la législation leur interdit la diffusion de contenus obtenus « sous le régime réservé à l’acquisition personnelle » (rappelons que les bibliothèques achètent plus cher les livres et les DVDs précisément pour pouvoir les exploiter dans le cadre particulier des services qu’elles proposent). Dans ces conditions, il est peu étonnant que ce soit en ordre dispersé et expérimentant parfois dans les zones grises qui entourent ces nouveaux usages, qu’elles essaient aujourd’hui de proposer certaines offres de prêt numérique complémentaire à leurs services traditionnels.

Dans billet écrit suite à un différent avec une bibliothécaire de Martigues, François Bon rappelait les deux manières de lire du numérique en bibliothèque

a. La bibliothèque acquiert le droit de diffusion un certain nombre de titres à un tarif défini par l’« interprofession » et les diffuse avec des DRM chronodégrable (la lecture n’est autorisée que pendant un certain temps).  En France, c’est la solution adoptée par Numilog basé sur Adobe Digital Reader et un logiciel de lecture particulier type Bluefire par exemple).

b. La bibliothèque acquiert le droit de diffuser en streaming certains contenus à des utilisateurs identifiés (via leur carte d’abonné par exemple). Plusieurs bibliothèques diffusent de cette manière les titres de publie.net

Ces nouvelles formes de prêt numérique sont un enjeu important et transverse sur dans le paysage de la lecture numérique. Il faut suivre avec attention les initiatives canadiennes dans ce domaine  au travers de la plateforme pretnumerique.ca (voir le billet de Clément Laberge) qui combine les usages de types a et b pour éviter que ce marché soit remporté par des fournisseurs externes. En effet, le risque est de voir la bibliothèque se faire l’intermédiaire de solution de prêt proposé par d’autres fournisseurs. La solution Overdrive est par exemple adoptée par un nombre semble-t-il croissant de bibliothèques aux USA. Ces questions sont donc en rapport direct avec la constitution des plateformes interprofessionnelles et de circuits de distribution indépendants des grands libraires digitaux que sont Google, Apple et Amazon.

Néanmoins, penser que l’avenir des bibliothèques se joue uniquement dans le succès ou l’échec de leur virtualisation et la constitution d’archives de contenus « empruntables » est peut-être un pari risqué. En ne portant son attention que sur l’indépendance des circuits de distribution et des services numériques, ne risque-t-on pas de passer à côté de ce qui pourrait être la vraie valeur des bibliothèques dans ce paysage de pratique de lecture en grande mutation ?

Pour Silvère Mercier, les bibliothèques peuvent se différencier en proposant de l’information de qualité, des services de questions-réponses et d’autres activités éditoriales. À côté des organes de presse, elles peuvent proposer une information et des services différents, ancrés dans leur rôle de service publique. C’est une piste riche et passionnante, déjà bien explorée par certaines initiatives locales.

Parmi ces services, il me semble qu’un dispositif particulier mériterait d’être développé de façon plus poussée : la construction et la curation collectives des métadonnées.

La bibliothèque comme lieu de production et de curation collective de métadonnées riches

Une bibliothèque n’est pas qu’une archive de contenus accessibles selon des règles de prêt particulières. C’est aussi et avant tout une interface physique de découverte. Je discutais dans un précédent billet de la pauvreté des interfaces proposées par les grandes libraires numériques. Deux types d’algorithmes statistiques sont utilisés en exploitant soit les corrélations d’achats ( “Ceux qui comme vous ont acheté ce livre ont aussi aimé celui-là”), soit les corrélations d’opinions (“Ceux qui ont aimé ce livre ont aussi aimé celui-là”). Les livres ne sont, dans ce jeu algorithmique, que de simples identifiants, des produits comme les autres.

Une des missions de la bibliothèque est d’organiser une rencontre physique différente entre des lecteurs et des livres. Le bibliothécaire est un match-maker. Il peut travailler à cette mission en utilisant aux mieux les trois atouts qu’il a sa disposition : un espace physique organisable, une équipe compétente et une communauté locale plus ou moins fidèle.

Beaucoup d’exemples tirant profit de ce triangle vertueux pourraient être envisagés, mais dans ce billet je ne développerai qu’une lignée de pratique qui semble pertinente (et relativement nouvelle). Les bibliothèques et les centres de documentations peuvent participer à l’organisation la production et la curation sociale de métadonnées riches.

La production et l’organisation métadonnées ont toujours été au coeur du travail du bibliothécaire. Elles constituent une de ces compétences premières. Plusieurs exemples récents ont montré que dans certaines conditions la production sociale de métadonnées riches était envisageable pour peu que les bonnes boucles d’engagements soient mises en place (voir mes billets Wikipedia est un jeu et Un monde où chaque ville est un livre). En détaillant par exemple des fiches de personnages, de lieux et d’objets, d’auteur sur les livres les plus empruntés et invitant les usages à faire de même, une bibliothèque peut mettre en place une communauté locale de pratique, une sorte de club de lecture qui travaille lui-même à un but plus vaste et organise ses contributions dans un réseau d’autres communautés locales.

Pour cela il faut bien sûr des outils communs et neutres.  Je n’ai pas de doute que des tels outils seront créés dans les prochains mois, car plusieurs dynamiques poussent dans ces directions

— Le développement des humanités digitales et la prise de conscience de leur importance géostratégique (voir mon billet sur cette question)   permettent de dégager d’important fonds de recherche académique dans ces nouvelles directions. Une des missions des humanités digitales est précisément de contribuer à la production d’outils communs et neutres permettant à des communautés de pratiques de s’organiser pour produire des métadonnées riches.

— La prise de conscience simultanée de l’importance historique des bibliothèques dans la constitution du capital linguistique et sémantique (voir mon billet « Le trésor de guerre de Google Books ») et de l’importance de ne pas laisser ce capital entièrement dans des mains privées. Les bibliothèques ne peuvent que dans des conditions particulières numériser et diffuser les livres qu’elles proposent, mais elles peuvent en extraire des informations linguistiques et sémantiques et les rendre accessibles gratuitement comme un bien commun. De la même manière qu’elles ont parfois contribué sans s’en rendre tout à fait compte à la constitution des nouveaux empires du capitalisme linguistique, elles peuvent aussi maintenant jouer un rôle moteur dans constitution d’immenses bases de données libres détaillant le contenu des livres, leurs relations mutuelles et permettant ainsi les bases d’outils de découverte sans précédent.

Une interface physique centrée sur la visualisation et la production de métadonnées

Plutôt que de construire une bibliothèque pensée comme une interface physique à la distribution de livres (le modèle de la bibliothèque machine que nous avons discuté au début de ce billet) nous pourrions envisager d’adapter certains espaces des bibliothèques aux activités de curation collective. Tout pourrait commencer par des visualisations intéressantes. La bibliothèque pourrait par exemple présenter un grand mur une carte des relations entre les auteurs d’un certain pays, la géographie des lieux d’une famille de romans policiers, l’arbre généalogique des personnes d’une saga, etc. Ces données visuelles, ces diagrammes et ces cartes seraient autant d’invitation à découvrir des livres et des auteurs nouveaux.

Dans une seconde étape, le bibliothécaire pourrait inviter les abonnés les plus motivés à participer à ces processus cartographiques. Notre expérience avec Bookworld nous a confirmé que visualisation et participation sont intimement liées. Voir un livre-ville complexe donne envie d’en construire un soi-même. La bibliothèque en mettant en scène et en valeur les productions de certains abonnés pour amorcer des pratiques locales, une forme de nouveaux clubs de lecture, où il ne s’agirait plus tant de critiquer les livres qu’on a lus, mais de travailler ensemble à leur cartographie.

Les métadonnées que les bibliothécaires produisent, structurent et organisent depuis les débuts des pratiques documentaires ont toujours été à la base de l’organisation physique des espaces que les bibliothèques proposent. Pourquoi ne pas continuer dans cette voie en élargissant les pratiques et les services à une communauté locale de lecteurs ?

La poésie des nouvelles écritures algorithmiques

avril 13, 2012

Stéphane Lecorney, qui gère la mise en service et le suivi des nos publications à bookapp.com  me signalait aujourd’hui la forte augmentation des commentaires créés par des bots ou des algorithmes de traduction automatique. L’occasion de voir concrètement les tournures étonnantes de l’écriture algorithmique que j’évoquais dans mon précédent billet

À propos de l’application Type & Walk  + Flashlight qui permet de taper des messages tout en marchant…

Un « utilisateur » nous dit enthousiaste :

« Intuitif à utiliser, des beaux résultats et à nouveau de bonne humeur. Merci qui a fait la! c’est vraiment cool et recommande. »

Un autre digital native, qui visiblement partage certaines bizarreries de langage avec le premier :

« Il m’aide introduire le texte horizontale et verticale, envoyer des messages SMS, envoyer d’e-mail, envoyer des messages sur Twitter et Facebook… assez amusant, je vous remercie! »

Un peu plus bas, un autre utilisateur affirme sans hésitation :

« Je pense donc que ce programme très transparent! »

Un autre s’embrouille dans les personnes (c’est vrai que c’est dur quand on est une machine)

« J’AIME cette demande et il a recommandé à plusieurs amis »

Etonnement, aucune critique négative…

Si la poésie consiste, comme l’argumentait Jean Cohen, à casser la langue pour faire ressortir un autre sens que le sens premier, les nouvelles écritures algorithmiques inaugurent de longues heures de lectures poétiques (que nous le souhaitions ou non).

Nos langues à l’heure du capitalisme linguistique

avril 12, 2012

Invité par Bernard Stiegler aux journées préparatoires des entretiens du nouveau monde industriel, j’ai proposé une extension de mes réflexions initiales sur le capitalisme linguistique et explorant la manière dont ce nouveau régime économique pouvait transformer la langue. La publication des slides a rapidement provoqué des réactions sur le réseau dont notamment un intéressant rebond par Olivier Ertzscheid. Sur la suggestion d’Hubert Guillaud, j’ai écrit l’article suivant pour Internet Actu

Faire de chaque mot une marchandise

Google a construit son succès puis sa richesse autour de deux algorithmes.
Le premier permet de classer les ressources du web. Le second organise des enchères sur des mots clés. La combinaison de ces deux idées a permis à Google d’organiser un formidable marché de la langue et de donner naissance à un nouveau régime économique : le capitalisme linguistique.

Rappelons les principes simples de ce second algorithme qui permet de fixer la valeur de chaque mot. Un annonceur fait une enchère sur un mot clé (par exemple “vacances”) en donnant le prix maximum qu’il serait prêt à payer pour un clic. Google donne un score de qualité à la publicité mesurant son efficacité. L’algorithme exact qui produit le score de qualité de la publicité reste secret et modifiable à loisir par Google. Le rang est déterminé par le produit de l’enchère et du score. En cas de clic, l’entreprise paie un prix basé sur l’enchère juste en dessous de sa propre enchère modulé par la qualité relative entre cette deuxième enchère et celle de l’entreprise.

Ce jeu d’enchères a lieu des millions de fois par seconde, à chaque requête d’un utilisateur. Si on considère qu’il constitue la principale source de revenus de Google, nous pouvons estimer qu’il génère un chiffre d’affaires d’environ 40 milliards par an. C’est cette énorme et continuelle source de financement qui permet à Google sa politique de recherche et développement ambitieuse, et notamment l’acquisition de grandes ressources linguistiques constituant un capital de plus en plus vaste. Un projet aussi incroyable que Google Books ne représente annuellement qu’une petite portion de ce chiffre d’affaires (1,5 % selon Alain Jacquesson dans son livre Google Livres et le futur des bibliothèques numériques).

Dans ces conditions, il est pertinent d’analyser les autres services que Google propose au travers de ce prisme. Quand vous tapez le mot “vacen”, le moteur de recherche vous propose en temps réel des complétions qui non seulement corrigent la faute que vous étiez sur le point de commettre, mais également prolongent ces premières lettres par une suite de mots statistiquement probable. En proposant ce service, Google ne fait pas que vous rendre service, il transforme un matériau sans valeur en une ressource économique directement rentable. Un mot mal orthographié est en fait sans valeur économique, car peu de personnes feront des enchères à son sujet, une suite de mots statistiquement probables et souvent recherchés constitue au contraire l’assurance d’une enchère et donc d’un gain immédiat pour Google. Il s’agit pour Google de vous ramener le plus souvent possible dans le domaine de la langue qu’il exploite.

De l’économie de l’attention à l’économie de l’expression

En première approximation, nous voyons déjà comment les technologies du capitalisme linguistique poussent à la régularisation de la langue, étendant continuellement le domaine de la langue statiquement régulière et commercialement exploitable. Plus nous ferons appel aux prothèses linguistiques, laissant les algorithmes corriger et prolonger nos propos, plus cette régularisation sera efficace. Dans les dernières années, Google a multiplié la diversité de ces prothèses. Nous nous exprimons chaque jour un peu plus au travers d’une des interfaces de Google ; pas simplement lorsque nous faisons une recherche, mais aussi quand nous écrivons un courrier électronique avec GMail, un article avec Google Docs, nous signalons une information sur le réseau social Google+ et même oralement, à travers les interfaces de reconnaissance vocale que Google intègre à ses applications mobiles.

Avec le capitalisme linguistique, nous quittons une économie de l’attention pour entrer dans une économie de l’expression. L’enjeu n’est plus tant de capter les regards, que d’être un médiateur de la parole et l’écrit. Les gagnants seront ceux qui auront pu développer des relations linguistiques intimes et durables avec un grand nombre d’utilisateurs, pour modéliser et infléchir la langue, créer un marché linguistique contrôlé et organiser la spéculation sur les mots.

En étendant le domaine commercial de la langue au-delà du traditionnel domaine des noms de marques, le capitalisme linguistique est susceptible de provoquer des évolutions linguistiques complexes. Ces effets vont au-delà de régularisations statistiques induites par les nouvelles prothèses linguistiques.

Le “Flash Crash” du 6 mai 2010 a fait prendre conscience de l’omniprésence des algorithmes dans la finance. En quelques minutes le Dow Jones a plongé de 1000 points pour se ressaisir presque aussitôt. Après presque deux ans d’enquête sur ce mini-Krach, la chaine automatique qui a conduit à ces effets est encore mal identifiée. Peut-être ne saura-t-on jamais ce qui s’est vraiment passé ? L’essentiel des transactions est aujourd’hui réalisé par des ordinateurs et le courtage à “haute fréquence”, où chaque microseconde compte, est devenu la norme. Le système complexe résultant de ces milliers d’algorithmes est aussi difficile à comprendre et à modéliser qu’un environnement météorologique.

Le capitalisme linguistique, nouvelle étape du capitalisme ?

La finance n’est pas un cas à part. Dès que les systèmes culturels proposent des fonctions précises à optimiser, les algorithmes deviennent des alternatives pertinentes à l’action humaine. Dès que le nombre d’actions décidées par des algorithmes devient significatif par rapport aux actions humaines, la forme des systèmes culturels change profondément. Comme dans le domaine capitalisme financier, les algorithmes sont devenus des acteurs majeurs du capitalisme linguistique.

Toute prothèse linguistique peut être utilisée par un “bot” plutôt qu’un humain. Il nous fait donc désormais distinguer deux types de ressources linguistiques : (a) les ressources primaires produites par des humains (conversations orales ou écrites, contenus de livres scannés, etc.) et (b) les ressources secondaires produites par des machines en général à partir des ressources primaires (traduction automatique, articles écrits par des algorithmes, spam).

Malheureusement, sans connaître l’origine d’une production, il n’est souvent pas aisé de distinguer entre ressources primaires ou secondaires. Un humain peut dans certains cas faire la différence, mais il est difficile de construire des algorithmes pour faire automatiquement cette distinction. Rappelons que les acteurs du capitalisme linguistique doivent modéliser la langue le plus parfaitement possible. C’est leur capital. Google voit donc les ressources secondaires comme un danger, une pollution pour ses modèles.

Faites l’expérience : prenez une phrase en Français, traduisez-la automatiquement en Anglais par un algorithme, puis en Espagnol, puis de nouveau en Français. Le résultat sera certainement très différent de l’original. Même dans les cas où les algorithmes évitent les erreurs grossières de traductions, ils infléchissent la syntaxe pour proposer des phrases certes compréhensibles, mais qu’aucun humain n’aurait jamais formulées de cette manière.

Nos langues sont désormais optimisées par et pour les machines

Rappelons qu’un nombre croissant de textes sont maintenant directement produits par des machines. Un lecteur averti peut souvent détecter la mécanique sous-jacente et deviner parfois que ces textes ne sont pas écrits par des humains. Leur composition syntaxique et surtout leur positionnement pragmatique sonnent le plus souvent faux, reflétant les biais de l’algorithme qui les compose. Néanmoins, ces textes sont optimisés pour l’univers linguistique qu’ils investissent. Le même contenu peut donner lieu à différentes formes : articles longs ou courts, chroniques sportives, tweets, message vocal. Il peut être exprimé en optimisant son efficacité pour les moteurs de recherche (SEO) : choix de mots particuliers, de tournures statistiques optimales. Comme en finance, les algorithmes sont sans doute meilleurs que les hommes pour produire des stratégies optimales dans le milieu économique du capitalisme linguistique.

Les algorithmes qui archivent inlassablement le web ne font pas facilement la différence entre ces ressources linguistiques dégradées et les ressources primaires. Au fur et à mesure que la quantité de ressources secondaires devient significative par rapport aux ressources primaires, les modèles statistiques peuvent se modifier pour intégrer le vocabulaire, les formulations et les tournures des algorithmes. Par une rétroaction qui ne manque pas d’ironie, ce sont ces tournures qui risquent de nous être proposées sous la forme de suggestions ou de corrections.

Pour lutter contre cette “pollution” croissante, Google a modifié en 2011 son service Google Translate. Comme l’explique Kirti Vashee dans un billet très complet sur cette question, Google a remplacé son service créateur de ressources secondaires en un service de traduction “on demand” qui garde toujours le texte original de la traduction, pour s’en servir pour la recherche et pour potentiellement améliorer progressivement la traduction proposée au fur et à mesure que les algorithmes de traduction progressent.

Cela ne suffira pas. Il faut maintenant compter avec l’écriture des machines et tous les hybrides de ce nouvel ordre linguistique. Rappelons que sur les 30 meilleurs éditeurs de Wikipedia, les 2/3 sont des bots (voir la passionnante discussion de Stuart Geiger sur ces questions – “The Lives of Bots” in Wikipedia : A Critical Point of View. 2011 [.pdf]). D’ici deux ans, une proportion significative des messages sur les réseaux sociaux seront peut-être produits par des bots (voir de dossier“Socialbots : Voices for the Fronts” par Hwang, Pearce et Nanis dans le numéro de mars 2012 d’Interactions).

Ainsi, textes humains et algorithmiques se mêlent pour proposer une nouvelle forme d’écriture. Et c’est cette nouvelle écriture que d’autres algorithmes analysent pour ensuite structurer nos propres productions linguistiques. Avec le capitalisme linguistique, la langue elle-même se transforme pour intégrer les biais linguistiques des machines et les contraintes de l’économie linguistique planétaire. Nous assistons peut-être une nouvelle phase de “grammatisation” de la langue, une nouvelle rétroaction de la technologie et de l’économie sur la langue naturelle. Dans un temps intermédiaire apparait quelque chose comme une lingua franca, un pidgin ou un créole, dont la syntaxe et le vocabulaire sont liés aux capacités linguistiques des machines et aux valeurs marchandes des mots. Il nous faut maintenant porter toute notre attention sur cette nouvelle “créolisation”.

Si notre langue se transforme, si nos enfants lisent un nombre croissant de textes coécrits par des rédacteurs humains et algorithmiques, comment, à leur tour, écriront-ils, parleront-ils, penseront-ils ?