Posts Tagged ‘standardisation’

Le premier browser a failli être un livre électronique

juin 8, 2012

Deux représentations régulées, le livre et l’encyclopédie se livrent une guerre sans précédent depuis près de 500 ans. Retour sur un de ces épisodes « où l’histoire peut basculer » relaté par Tim Berners-Lee dans Weaving the web

En septembre 1990, Robert Caillaud et Tim Berners-Lee se rendent à l’European Conference on Hypertext Technology à Versailles pour présenter le projet du World Wide Web élaboré quelques mois plus tôt au CERN. Ils cherchent une technologie qui pourrait jouer le rôle de navigateur pour du contenu hypertexte. Plusieurs produits présentés pourraient tout à fait faire l’affaire. Owl Ltd commercialise un produit appelé Guide qui permet de consulter des documents organisés sous la forme d’un hypertexte. C’est exactement ce que cherche Tim et Robert. Mais les dirigeants de Owl ne sont pas intéressés. Ils ne voient pas l’intérêt de connecter leur système à l’Internet.

Tim Berners-Lee a lors une autre idée : utiliser la technologie Dynatext développée par Electronic Book Technology. Cette entreprise avait été fondée par Andy Van Dam de la Brown University, un des premiers chercheurs à avoir utilisé le terme electronic book. Mais l’équipe d’Electronic Book Technology pensait que le contenu d’un livre devait être compilé (comme un programme informatique) et ne pouvait pas être interprété à la volée. Le livre était un contenu fermé et clos. Ils ne prenaient pas au sérieux Tim Berners-Lee quand il suggérait que des pages pourraient être envoyées directement via le web et affichées immédiatement sur un écran d’ordinateur. Ils pensaient également qu’il était crucial qu’une base de données centrale assure qu’aucun lien hypertexte ne soit cassé. Leur vision du futur consistait en la transmission de contenus consistent, des livres entiers.

Tim lui imaginait un chantier permanent, un monde en constante évolution : Le livre contre l’encyclopédie.

Et c’est ainsi que, contraint et forcé, Tim Berners-Lee commença à travailler sur un autre navigateur.

Les trois futurs des livres-machines

février 10, 2012

Je participe ce lundi 13 Février à une conférence débat au Centre Pompidou sur l’évolution machinique du livre organisée par Xavier de la Porte et Hubert Guillaud. Je me réjouis de la discussion avec Etienne Mineur et Alain Giffard sur ces questions. En préparation à cette rencontre j’ai rédigé ce billet qui résume une partie de mes réflexions sur les trois devenir machiniques possibles pour le livre. 

L’erreur la plus commune dans les discussions au sujet du futur du livre imprimé consiste à placer le débat sur les avantages et les défauts respectifs du papier et du digital. Il me semble qu’il ne sert à rien d’opposer deux expériences de lecture. Quelques dizaines d’années après l’invention de Gutenberg, les livres imprimés ressemblaient à si méprendre à leurs homologues papier. L’expérience utilisateur était la même. Pourtant quelque chose de fondamental avait changé dans leur mode de production.

Il est donc crucial de sentir les grandes tendances technologiques qui silencieusement sont en train de tracer les futurs possibles pour le livre. Dans ce billet, je propose de replacer l’évolution des livres dans le cadre plus général d’une théorie de l’évolution des représentations régulées. Une représentation régulée est une représentation dont la production et l’usage est soumis à un ensemble de règles. Un annuaire, une table de compte, un arbre généalogique, un diagramme de production, une carte d’une région, une encyclopédie, une feuille Excel, une présentation PowerPoint sont autant d’exemple de représentations régulées. La plupart des représentations régulées tendent vers plus de régulations au fil du temps (il y a des exceptions comme l’expression poétique qui au contraire tend vers la dérégulation).

Le processus général de cette régularisation est la transformation de conventions en mécanismes. Cette mécanisation procède en deux étapes successives :
(1) La mécanisation des règles de production
(2) La mécanisation des règles d’usage.

Au travers de cette double mécanisation les représentations régulées finissent par devenir de véritables machines.

Comment les cartes sont devenues des machines ?

Au XIVe siècles il y avait encore très peu de règles sur la manière de dessiner une carte géographique. Comme on peut le voir sur cette carte, aucune des conventions maintenant classiques (échelle, orientation vers le nord) n’était à cette époque encore en place. 150 ans plus tard, comme le montre cette carte du XVIe siècle tout ces éléments sont maintenant en place. Un véritable savoir-faire tend pour la mesure que pour la représentation s’est constitué. La carte, encore entièrement faite à la main s’est standardisée. Prenons maintenant cette carte du XXIe siècle montrant la profondeur des océans. Sa production n’inclut presque plus aucun processus manuel. Elle a été entièrement mécanisée. La mécanisation des règles de production est maintenant complète, mais son usage est encore régie par des conventions.

Le passage des cartes traditionnelles à des systèmes d’information géographique comme Google maps illustre la seconde phase du processus de mécanisation. Cette seconde mécanisation a quatre conséquences remarquables :
1. En devenant machine, la carte a internalisé ses propres usages. Les cartes machines sont plus puissantes que les cartes traditionnelles mais toutes les opérations possibles avec elles sont spécifiées à l’avance. Vous ne pouvez pas vous servir d’une carte machine comme parapluie ou paquet cadeau ! Ce passage est celui de l’outil à la machine. Vous pouvez vous servir d’un marteau comme presse papier, un usage non conventionnel. Impossible de faire cela avec une presse industrielle.
2. En devenant machines, les cartes tendent à s’agréger ensemble pour ne devenir qu’une seule carte. Il s’agit sans doute d »une propriété générale : Au fur et à mesure que les représentations régulées deviennent plus régulières, elles tendent à s’agréger sous la forme de systèmes unifiés. C’est un cas particulier du processus de concrétisation étudié par Gilbert Simondon.

3. En devenant machines, les cartes tendent à perdre leur stabilité pour ne devenir qu’un instant de pause dans un flux perpétuel. Google maps est fondamentalement une vidéo que nous consultons sur pause.

4. En devenant machines, les cartes changent de modèle commercial. Les services cartographiques sont proposés gratuitement mais en échange de la récupération des traces et des ajouts des utilisateurs. Leur valeur d’usage a augmenté et en même temps leur valeur d’échange pour l’utilisateur est devenue nulle. Ceux qui proposent ces services gratuits accumulent du capital linguistique et sémantique, lui-même monnayable.

Ce qui s’est passé pour les cartes s’est également passé pour plusieurs autres représentations régulées, comme l’évolution des tableaux en tableurs.

Que peut-on en déduire pour l’évolution du livre imprimé ?

Les livres sont des représentations régulées. Leur production a déjà été entièrement mécanisée. Il y a donc une pression forte pour à présent mécaniser leur usages conventionnels et en faire des machines complètes. Par analogie, nous devrions nous attendre à observer 4 bouleversements :

1. La transition du livre outil au livre machine intégrant sa propre interactivité.
2. L’agrégation de tous le livres-machines en l’équivalent d’un seul grand livre.
3. L’évolution du livre comme document stable en un document dépendant du temps.
4. L’arrivée d’un nouveau modèle commercial où  l’usage des livres aura plus de valeur d’échange que les livres eux-mêmes.

Certes un livre n’est pas vraiment comme une carte. Une carte est une représentation régulée de dimension 2. Un livre est un volume, une conteneur, une représentation régulée de dimension 3. Le livre peut accueillir des représentations de dimensions 2 : texte mise en page, cartes, diagramme, arbres, tables, etc. Parce qu’il est un volume fermé, le livre offre une solution pour organiser un discours dans l’espace. Il a une fonction “architecturante” permettant d’accueillir les narrations riches et les démonstrations complexes.

Chaque genre de livres est associé à des règles de structuration conventionnelles. La première mécanisation du livre commençant avec l’imprimerie a transformé ces règles en mécanismes. L’informatisation n’a fait que prolonger cette mécanisation en permettant une gestion souple de ces modèles structurels. En principe, la seconde étape du processus de mécanisation, la transformation des usages en mécanismes, devraient donner encore plus de pouvoir à l’auteur-architecte.

Mais comme les cartes, en devenant machines, les livres tendent à s’agréger en un seul grand livre, perpétuellement remanié. Ce grand livre-machine n’est rien d’autre que l’Encyclopédie. Depuis le XVIIIe siècle, l’Encyclopédie et le Livre sont porteurs de valeurs opposées. Le livre se définit par sa clôture, l’Encyclopédie est toujours en expansion. Le Livre se prête aux parcours linéaire, l’Encyclopédie suit une logique d’accès aléatoire. Fonction architecturante contre fonction totalisante, le Livre structure un discours quand l’Encyclopedie essaie d’englober le monde. Le Livre compose quand l’Encyclopédie décompose.

Dès ses premières incarnations éditoriale, L’Encyclopédie s’est trouvée à l’étroit sous forme de volumes imprimés. Dès qu’elle l’a pu l’encyclopédisme s’est incarné dans les technologies du réseau. L’ordinateur mondial qui s’est constitué avec le web est basé sur les principes et les motivations de l’encyclopédisme. Son action de description/décomposition s’est appliquée à l’ensemble de la culture.

L’Encyclopédie décompose tous les objets structurés. Elle extrait leur “contenu” et en fait un réseau. Les albums sont devenus des ensembles de chansons. Les journaux des ensembles d’articles. Elle fera des livres la même chose : une collection de pages, une collection de mots.

Les trois futurs des livres-machines

Percevant cette dynamique globale, nous pouvons voir se dessiner trois futurs pour les livres-machines

A. Les livres deviennent des ressources standardisées dans le système encyclopédique global

B. Les livres se réinventent sous la forme d’applications fermées et immersives

C. Après les écrans, les livres papiers deviennent des interfaces structurantes pour accéder à l’ordinateur planétaire.

A. L’Encyclopédie

Ce scénario correspond à la tendance dominante. Les livre sont déjà en train de devenir des ressources standardisées. Cette standardisation opère sur trois niveaux

– Des formats standards pour décrire le contenu d’un livre se mettent en place : ePub, TEI. A partir de ces descriptions standardisées, il est possible de produire plusieurs mises en pages selon les interfaces de lecture utilisées.

– La décomposition se poursuit au plan sémantique. Les textes et les images utilisées peuvent elles aussi être associés à “noeuds sémantiques” bien définis (des lieux bien définis, des personnes bien définies, des citations bien définies). Ces noeuds sémantiques servent de pivots entre les livres standardisés. D’autres types de modélisations plus ou moins sophistiquées sont également tentées, l’objectif étant d’accumuler du capital sémantique.

– La décomposition se poursuit en incluant l’usage des livres. De nouveaux formats ouverts sont aujourd’hui à l’étude pour décrire les chemins de lecture, les notes, les prêts de livres entre lecteurs. Toute la trajectoire de vie d’un livre standardisé va elle-même être décrite de manière standard. Ces “reading analytics” vont sans doute constituer un minerai de valeur exploitable économiquement.

Cette standardisation sur trois niveaux est couplée à une “digitalisation” massive. Le terme “digitalisation” décrit en fait une extraction et standardisation du contenu de millions de livres. Ces livres deviennent des données d’une immense base de données qui intègre également de nombreuses autres informations sur nos pratiques de lecteur et plus généralement sur nos vies.
L’absorption du Livre par l’Encyclopédie inaugure l’âge des lectures industrielles, pour reprendre le terme d’Alain Giffard.

B. Les applications

Alternative à l’encyclopédisme, les applications retrouvent la forme close des livres qui en faisait des îles, des réservoirs d’innovation. Les applications offrent plus de contrôles à leurs concepteurs, permettent l’utilisation des dernières ressources techniques (multitouch, GPS, accéléromètre), permettent des utilisations non connectées, peuvent inclure des vidéos, des simulations, des jeux et sont encore peu standardisées.

Les applications sont des conteneurs qui peuvent inclure des médias de dimensions 4. Elles peuvent offrir des services similaires à celles d’un site mais sont animées par une logique différente : fermeture et contrôle, la logique du livre.

Beaucoup critiquent leur fermeture en argumentant sur les bases de l’idéologie de l’Encyclopédie: ouverture, échange, partage. En l’absence de standard, le contenu des applications pourrait être difficile à lire dans quelques années.  Mais protégées par leur carapace, les applications permettent véritablement d’explorer la seconde phase de mécanisation du livre, les différentes manières dont le livre peut internaliser ses propres interactions. Les auteurs et les éditeurs peuvent concevoir de manière beaucoup plus précise l’expérience qu’ils souhaitent offrir à leurs lecteurs : des livres de cours plus pédagogiques, des romans plus immersifs, des guides voyages plus contextuels, des magazines plus divertissants, des articles plus érudits…  mais aussi des types de livres complètement nouveaux … des livres qui changent selon le moment et l’endroit où on les lit, des livres qui apprennent au fur et à mesure qu’ils sont lus et tous les autres possibles qu’offrent les livres algorithmiques.

Malheureusement, les nouveaux contenus peuvent être longs et difficiles à produire, ne fonctionner que sur les machines les plus récentes. Les éditeurs n’ont pas les budgets pour se lancer dans des créations ambitieuses. Comme ce fut le cas avec le CD-rom, ces obstacles  pourraient mettre en péril cette lignée dans l’évolution du livre.

C. Le papier comme interface

Il y une troisième voies qu’explore actuellement des artistes-ingénieurs comme Etienne Mineur ou des chercheurs dans le cadre des premières recherches sur le Paper Computing. Le papier et livre sont des interfaces extraordinaires qui peuvent maintenant être utilisées pour contrôler avec précision n’importe quel système informatique. Ils constituent peut-être l’avenir de nos écrans tactiles. Un livre relié permet d’organiser une séquence d’activités dans le temps et l’espace. Loin d’un recul, ce serait le retour de la fonction « architecturante » et des qualités ergonomiques du codex.

Dans cette approche, non seulement le livre papier ne va pas disparaître, mais il pourrait bien devenir une interface privilégiée pour d’autres activités que la lecture. Demain, nous pourrons choisir notre musique grâce à des livres, programmer notre télévision grâce à des livres, obtenir des informations sur Internet grâce à des livres. Un des avenir du livre papier pourrait donc être de devenir une interface efficace, bon marché, facile à produire et durable pour le monde numérique.

Ceux qui croient que l’avenir du livre passe nécessairement par les écrans font probablement un rapprochement trop rapide avec l’évolution récente du monde de la musique. Certes, nous assistons aujourd’hui à la constitution de très grandes bibliothèques de livres numérisés qui font penser aux « bibliothèques musicales » qui sont aujourd’hui très répandues. Mais la mort programmée du CD, support « classique » de la musique il y a encore quelques années, et l’avènement des baladeurs numériques, n’annoncent pas forcément par une analogie simpliste, la mort du livre et l’avènement des « liseuses ». Que le CD disparaisse à plus ou moins brève échéance n’a aucune importance : c’est un objet aujourd’hui dépassé, qui n’a pas d’existence autre que de se faire lire par une machine. Au contraire du CD, le livre est un objet-interface qui dispose d’un grand nombre d’atouts. Autonome et léger, il offre des possibilités interactives très intéressantes. Par exemple, nous sommes capables en quelques dizaines de secondes de retrouver un mot dans un dictionnaire parmi des dizaines de milliers. Difficile, sans clavier, de retrouver un morceau sur votre balladeur avec une bibliothèque de cette taille. De même, nous pouvons parcourir rapidement la structure d’un livre pour acquérir une première idée, superficielle certes mais tout de même précieuse, de ce qu’il contient. Impossible de faire de même avec les fichiers de son ordinateur personnel. Ces atouts permettent de penser que le livre, en tant qu’interface, a encore de beaux jours devant lui et qu’il est probablement même capable d’investir de nouveaux territoires pour le moment dominés par les interfaces électroniques — clavier et souris et interaction tactiles qui sont aujourd’hui nos modes d’accès par défaut vers les informations numérisées.

Nuançons néanmoins cet enthousiasme en rappelant que cette approche est aujourd’hui essentiellement encore du domaine de la recherche et de l’expérimentation, quand parallèlement le processus de transformation des livres en une immense encyclopédie mondiale tourne à plein régime, supposant, à tord ou à raison, que les pages des livres se liront préférentiellement sous la forme d’images derrières des vitres.

Prédictions faciles

Voici donc esquissés trois futurs des livres-machines. Est-ce que c’est trois systèmes industriels cohabiteront ? Tentons quelques prédictions faciles. Les publications les plus proches de la logique de l’Encyclopédie seront les premiers entièrement machinisés, intégrant l’ordinateur planétaire. Cela concerne typiquement les Encyclopédies, dictionnaires, publications scientifiques, livres de cuisines, guides de voyages … Les publications les plus lointaines de la logique de l’Encyclopédie resteront sous format papier, augmenté ou non, et exploreront en parallèle les machinisations sous forme d’applications. Nous pensons ici surtout aux livres pour enfants et aux romans.

Certains éditeurs vont réaliser qu’ils ne publient pas simplement des livres ou des magazines mais qu’ils gèrent en fait des corpus encyclopédiques. Ils vont les exploiter numériquement en explorant de nouveaux modèles commerciaux, sans doute à terme basé sur la gratuité. D’autres se spécialiseront dans une industrie multimédia de qualité, assez proche dans sa logique économique du monde du cinéma, mêlant potentiellement papier et digital. Ce seront probablement eux les véritables explorateurs des nouvelles potentialités du livre devenu machine.

L’improbable résurrection d’HTML

janvier 18, 2012

HTML n’aurait pas du survivre au 21ème siècle. Dès 1998, les puissants de l’Internet voulaient laisser mourir cette langue préhistorique et ils avaient des arguments de poids. Pour le World Wide Web Consortium (W3C), le futur langage du web serait une modernisation d’XHTML, une langue claire, précise et sans ambiguïté. Mais dans un recoin du cyberspace, un groupe de rebelles croyait encore au vieux langage des débuts du web. Contre l’avis des sages, ils continuèrent à l’améliorer. Voici l’histoire d’HTML5, avant qu’Hollywood ne l’adapte en film

La standardisation du web et des contenus de l’Internet (livres, films, images, etc.) est un des enjeux centraux pour le futur de la culture. Nombreux sont ceux qui défendent coûte que coûte les standards, les présentant comme les nécessaires garants de l’interopérabilité et la pérennité des données. Sans standardisation point de salut. Le combat rhétorique et technique autour l’ePub s’inscrit dans ce débat. Mais de ce point de vue l’histoire d’HTML5 est riche d’enseignements.

Prenez un navigateur des plus récents, Chrome ou Firefox par exemple. Tentez de charger une des toutes premières pages de web qui, par oubli ou coquetterie, serait restée identique à ce qu’elle était à l’époque. Miracle ! Ça marche. Pourtant ni Chrome, ni Firebox n’existaient quand cette page a été écrite. Les premières règles d’écriture, simples et flexibles, d’HTML ont traversé le temps et les modes. Une telle compatibilité dans le temps est suffisamment rare dans le monde de la technologie pour être soulignée. Les choses auraient d’ailleurs pu tourner très différemment.

Acte I : HTML face au processus de standardisation
A la fin des années 1990, HTML était fortement critiqué. En plus d’être vieux, il n’était pas un « beau » langage. Sa syntaxe n’était pas vraiment stricte. Le problème venait du fait que certaines expressions mal formées étaient malgré tout comprises par les navigateurs. HTML était comme une langue orale et vivante, tolérante aux fautes de grammaire, ouverte à de nouvelles conventions. Mais ce manque de rigueur était devenu intolérable pour certains informaticiens. Le web était maintenant quelque chose de sérieux. Comme dans toute industrie qui se respecte, il lui fallait de vrais standards. Ainsi naquit XHMTL 1.0, un langage XML qui reprenait les conventions d’HTML mais qui en faisaient des règles strictes, validables automatiquement. Grâce à XHMTL, un éditeur de page web comme Dreamweaver pouvait avertir le programmeur imprudent s’il s’écartait de la juste syntaxe. XHTML permettait de garantir qu’une page serait correctement interprétée par tous les navigateurs qui implémentaient le nouveau langage. Les développeurs professionnels applaudirent. C’était fini le temps du grand « n’importe quoi ». Les choses sérieuses allaient pouvoir commencer.

Au départ, ce fut un succès. XHTML devint le standard des programmeurs web sérieux. Mais les moins sérieux découvrirent vite une chose que les sages du W3C auraient aimé cacher. En pratique, la plupart des navigateurs acceptaient aussi les syntaxes qui ne suivaient pas strictement les règles de XHTML. Ils connaissaient la loi mais ne faisaient pas la police. En fait, vous pouviez garder vos vielles et mauvaises habitude de programmation HTML, tout marchait nickel ! Voilà qui était embêtant pour les défenseurs de la rigueur.

Les sages du W3C décidèrent de durcir le ton et proposèrent XHTML 2, une version plus rigoureuse et moins tolérante. Dans cette seconde version, ils remirent en cause les premières bases d’HTML (ex: les balises <h1>,<h2> … ) pour proposer de meilleures solutions plus élégantes et efficaces (ex : une unique balise <h> dont la signification change selon sa position dans l’arbre constitué par une page). Magnifique… seul souci, il fallait que tout le monde réapprenne à écrire des pages web convenables, mais il fallait aussi réadapter toutes les pages existantes.

Acte 2 : HTML résiste et prouve sa vigueur comme langue vivante 

En 2004, alors que le processus de standardisation battait son plein, un groupe de programmeurs prit un point de vue opposé. Plutôt que de s’attarder sur la pureté du langage, ils s’attaquèrent à compléter les pièces manquantes du puzzle technique que représente une application web. Plutôt que d’inventer le langage qui devrait remplacer HTML, ils travaillèrent à étendre, progressivement, par ajouts successifs, les capacités du vieux langage. Leur philosophie était « construisons ce dont nous avons besoin, les standards suivront ».

En 2007, le vent avait tourné.  L’enthousiasme de la communauté était maintenant du côté des travaux de ces rebelles, pragmatiques et respectueux du passé. Revirement rarissime, le W3C décida finalement de ne plus soutenir XHTML 2 et de commencer à formaliser un nouveau standard HTML5. Sauf qu’HTML5 n’était pas un langage unifié mais une collection d’outils, de conventions et librairies.  Personne ne s’accordait d’ailleurs sur ce que l’on devait exactement  inclure dans HTML5.

La tentative de standardisation d’HTML5 n’empêcha pas les rebelles de continuer à faire progresser le langage selon leur philosophie. Pour éviter la confusion, ils affirmèrent qu’ils ne travaillait plus sur HTML5, mais tout simple sur HTML, une langue vivante qui comme toute langue vivante ne peut cesser d’évoluer de changer, toujours en avance sur le dictionnaire des académiciens.

L’histoire d’HTML est celle de la victoire de la pratique sur la règle. Selon cette philosophie de l’innovation, jamais une page HTML ne sera déclarée obsolète. Jamais un page HTML ne sera forcée de contenir un numéro de version. Jamais les développeurs web ne devront remettre à jour leur anciennes pages. Jamais HTML ne devra attendre une nouvelle version pour inclure des innovations. Les fonctionnalités d’HTML les plus récentes ne seront peut-être pas « supportées » dans un premier temps par tous les navigateurs mais si elles sont vraiment pertinentes et intéressantes, les navigateurs s’adapteront et les standards finiront par les officialiser.

La victoire d’HTML sur les processus standardisation conduit à une philosophie de l’innovation inédite dans l’écosystème si complexe de l’ordinateur planétaire. Quelques principes de base. Ne casser pas l’existant. Laisser les utilisateurs explorer les meilleures routes et bétonner ensuite les plus empruntées. Préférer toujours les solutions pratiques aux solutions belles. A méditer …

Ceux qui veulent en savoir plus sur HTML5 et son histoire pourront consulter l’excellent « Missing Manual » de M. MacDonald, dans lequel j’ai largement puisé pour écrire ce billet.

La standardisation du livre : en théorie et en pratique

octobre 25, 2011

Je donne cette semaine un cours sur la standardisation de la chaîne du livre. L’histoire du livre est finalement l’histoire d’une succession de processus de standardisation et les guerres économiques actuelles sont en grande partie des guerres de standards. L’idée d’orienter ce cours autour de cette question m’a été donnée par la lecture du dernier livre de Milad Doueihi, Pour un humanisme numérique, dans lequel il articule l’idée que le plus important dans l’évolution vers le Cloud Computing est l’instauration de ce qu’il appelle le Nuage « standard ».

Le cours s’organise en quatre parties.

La première partie  donne un panorama du processus de standardisation du livre, d’un point de vue historique d’abord (rejoignant mes précédentes présentations sur les représentations régulées et le devenir machinique du livre) puis aborde les questions actuelles sur la guerre des plate-formes (Google, Apple, Amazon et surtout Adobe qu’on oublie trop souvent) et des formats. Je finis en montrant comment la standardisation qui s’applique sur trois niveaux (le formatage du texte, sa description sémantique et la description des trajectoires de lecture et de partage qui lui sont associés) donne naissance à des continents documentaires et à de services inédits.

La seconde partie se focalise sur XML, comme instrument fluide du processus de standardisation. Il s’agit d’une introduction destinée à ceux qui n’en maîtrisent pas encore les principes (graphistes, éditeurs, etc.). L’objectif est de comprendre à quoi sert XML et quelle est son originalité en particulier comment il permet de négocier des standards et de les réviser au fil du temps.

Les troisième et quatrième parties sont des travaux pratiques. Nous verrons d’abord comment partir d’un même fichier XML pour d’une part alimenter une mise en page InDesign et d’autre part produire automatiquement une animation Flash parlante. Nous terminerons par le processus inverse, l’extraction du contenu d’un fichier PDF pour produire du XML bien formé dans le but par exemple de créer un fichier ePub (comme nous l’avions fait au Salon du Livre pour les éditeurs et les bibliothécaires).