Accueil
 chercher             Plan du site             Info (English version) 
L'histoire de XML s'écrit en ce moment même. XMLfr vous aide à la suivre et à en dégager les tendances.Les listes de discussions XMLfr sont à votre disposition pour réagir sur nos articles ou simplement poser une question.Si vous ètes passionnée(e) par XML, pourquoi ne pas en faire votre métier ?XMLfr n'est heureusement pas le seul site où l'on parle de XML. Découvrez les autres grâce à XMLfr et à l'ODP.Les partenaires grâce auxquels XMLfr peut se développer.Pour tout savoir sur XMLfr.XMLfr sans fil, c'est possible !Pour ceux qui veulent vraiment en savoir plus sur XML.L'index du site.
 Manifestations XML francophones et internationales.L'actualité des affaires et stratégies XML.L'actualité des technologies XML.Les nouveautés et l'actualités de notre site.Pointeurs sur l'actualité XML sur d'autres sites, en français comme en anglais.


Web 2.0, risques et perspectives

Répondez à cet article.

Un an après ma première intervention sur le Web 2.0 à sparklingPoint et la publication de mon article Web 2.0 mythes et réalités, j'ai retrouvé l'ambiance conviviale de sparklingPoint pour faire le point sur les évolutions du Web 2.0, ses risques et ses perspectives.

Eric van der Vlist, Dyomedea (vdv@dyomedea.com).
vendredi 1er décembre 2006

Table des matières

Retour sur le Web 2.0

Confirmations

Bureautique

Modèle économique

Data lock-in

Tendances et perspectives

Outils de développement

L'entreprise 2.0

Web 3.0

Références

Et sur XMLfr

Retour sur le Web 2.0

La définition du Web 2.0 telle que je l'ai esquissée il y a un an est désormais assez généralement admise. Le Web 2.0 est une évolution du Web comportant trois dimensions :

  1. Une dimension dite « sociale » qui transforme le Web en média à double sens dans lequel une part importante du contenu est produit par les utilisateurs.
  2. Une dimension architecturale : le Web devient une plateforme autonome. Le Web 2.0 est indépendant des plateformes matérielles et logicielles, ses applications tournent partout et les données ne sont plus cachées mais disponibles sur le Web.
  3. Une dimension technique : le Web 2.0 fait appel à des technologies classiques qui sont désormais mûres et mieux maîtrisées (HTTP, (X)HTML, CSS, XML, ...) suivant une combinaison connue sous le nom d'Ajax.

Ces trois dimensions sont liées : les dimensions architecturale et technique sont nécessaires pour que les utilisateurs participent de manière massive au contenu du Web 2.0 et la dimension technique est également nécessaire à ce que le Web puisse être considéré comme une plateforme.

Confirmations

Je ne pense pas que le Web 2.0 ait évolué de manière marquante en 2006. Par contre, il est indéniable que le concept et le terme se sont banalisés. Les journaux spécialisés mais également plusieurs grands quotidiens et hebdomadaires généralistes ont publiés des articles et des dossiers spéciaux au phénomène et le terme revient souvent dans les chroniques des chaînes radio et télévision. L'année 2006 est donc une année de consolidation au cours de laquelle nous avons pu prendre un peu de recul ce qui permet de préciser plusieurs des points relevés l'année dernière.

Bureautique

Nous nous interrogions sur l'impact du Web 2.0 sur les applications bureautiques. Les applications Web 2.0 n'ont pas atteint le niveau de fonctionnalités des applications bureautiques classiques, mais elles s'en approchent suffisamment pour que Microsoft ait pris la menace au sérieux et promis une version Web de sa suite Microsoft Works.

Cela illustre une tendance de fond. Les développeurs d'applications Web ont pris confiance dans les capacités des technologies Web standards à supporter des applications complexes et peu d'applications semblent aujourd'hui pouvoir rester hors de leur portée.

Modèle économique

Nous nous interrogions également sur le modèle économique du Web 2.0 et le risque d'une nouvelle bulle économique. 2006 a démontré, s'il était encore permis d'en douter, que le modèle économique dominant du Web 2.0 est la publicité. A quelques rares exceptions parmi lesquelles ont trouve des sites à but non lucratif (Wikipédia), des sites marchands (Amazon, eBay, ...) et des sites payants (LinkedIn, Viaduc, ...), les revenus des sites Web 2.0 sont des revenus publicitaires.

Les régies publicitaires ont toujours été confrontées à une pénurie d'espaces publicitaires. Que l'on prenne l'exemple de la presse, de la télévision ou de l'affichage, les supports disponibles sont limités par des contraintes physiques, réglementaires ou financières. Les pages du Web 2.0, créées par les utilisateurs avec un coût de revient minime pour les exploitants des sites constituent au contraire une réserve de supports qui semble inépuisable. On comprend donc que le Web 2.0 représente un nouvel Eldorado pour le marché de la publicité.

Certains analystes ont vu dans le rachat de YouTube par Google pour 1.65 milliards de dollars la preuve que l'on était bien en présence d'une « bulle 2.0 ». Remarquant avec raison que les technologies utilisées par YouTube n'apportaient rien à Google, ils y ont vu une indication que Google s'était laissé berné par l'image d'une étoile du Web 2.0. Si l'on rapproche ce rachat des contrats d'achat d'espaces publicitaires passés par Google pour des montants du même ordre de grandeur avec MySpace et AOL, l'opération prend toutefois un caractère beaucoup plus classique et raisonnable. Il s'agissait de racheter le propriétaire d'un vaste espace publicitaire non encore exploité avant qu'il ne soit racheté par des concurrents.

Data lock-in

Les utilisateurs des sites Web 2.0 commerciaux sont donc doublement importants pour ces sites : ils créent le contenu qui sert de support publicitaire et ils sont les cibles des campagnes publicitaires. Il est donc doublement important de les retenir et la dimension architecturale du Web 2.0 facilite une fidélisation un peu forcée que Tim O'Reilly qualifiait de « data lock-in » bien avant de parler de Web 2.0.

Rappelons que l'analyse de Tim O'Reilly veut qu'après des phases de « hardware lock-in » où la plateforme était matérielle et de « software lock-in » où la plateforme était logicielle nous entrons dans une phase de « data lock-in » où la plateforme est le Web.

Le terme « data lock-in » est moins souriant que le terme « Web 2.0 » ce qui explique sans doute qu'il soit beaucoup moins populaire. Le data lock-in n'en est pas moins une face cachée de la plupart des sites Web 2.0.

Le Web est devenu la plate-forme et les données sont sur le Web mais cela ne veut pas dire que chacune des données est partout sur le Web. Au contraire, la plupart des données sont enfermées dans des sites qui ne les distillent qu'au compte goutte et d'une manière qui freine leur réutilisation.

Près de neuf ans après la publication de la recommandation XML 1.0 qui se voulait « un SGML fait pour le Web », le volume des informations disponibles sous forme XML est négligeable par rapport au nombre des pages Web.

Des facteurs technologies sont en partie responsable de la lenteur de cette percée et les technologies Ajax utilisées par le Web 2.0 sont une réponse à ces problèmes, mais le principal frein est la nécessité d'éviter une fuite des données.

Cette attitude n'est pas nouvelle et il est commun d'entendre parler de la transformation de documents XML en documents (X)HTML pour présentation sur le Web comme d'un « pare-feu sémantique ».

Les données qui échappent à cette règle sont celles qui sont susceptibles d'être utilisées dans des « mashups » dont on espère qu'ils apporteront plus de trafic qu'ils n'en draineront. C'est le cas des flux de « syndication » qui peuvent amener leurs utilisateurs à lire des pages du site d'origine.

La vigilance des utilisateurs face au data lock-in est donc, plus que jamais, nécessaire.

Tendances et perspectives

Ces considérations ne sont que des confirmations des points évoqués l'année dernière. N'y a t'il donc vraiment rien de nouveau à mentionner?

2006 a été l'année de nouveaux « buzzwords » liés au Web 2.0 et trois d'entre eux méritent notre attention.

Outils de développement

Le premier, « Ruby on Rails » (RoR pour ses intimes) est un environnement de développement, de test et de déploiement pour applications Web 2.0. L'engouement pour RoR a été tel qu'il a fait passer le langage de scripts qu'il utilise (Ruby) du statut de quasi inconnu à celui de nouvelle coqueluche des développeurs d'applications Web.

Ruby est certes un bon langage de programmation, mais il ne semble pas avoir de qualités vraiment prépondérantes par rapport à des langages tels que Python ou Perl dont il est relativement proche. Ce sont donc essentiellement les qualités de l'environnement RoR qui expliquent son succès.

Ces qualités sont liées à ses principes de base : éviter les répétitions (en anglais « don't repeat yourself » ou « dry ») et privilégier les conventions sur les déclarations. Le premier signifie par exemple qu'il ne sera pas nécessaire de répéter les informations présentes dans les schémas d'une base de données relationnelles dans le code d'une application. Le second que les mécanismes dérivant les informations présentes dans ces schémas pour générer le code s'appuieront d'avantage sur des conventions (et notamment des conventions de nommage) que sur des fichiers de configuration complexes. De même, il est possible de générer du code JavaScript à partir de sources Ruby.

Tout cela vise bien entendu à limiter la complexité du développement des applications Web 2.0 qui nécessitent la connaissance d'un nombre impressionnant de technologies et langages informatiques. Cette complexité est d'ailleurs la motivation de mon livre Web 2.0 « Professional Web Programming »!

Le succès de RoR ne doit pas faire oublier les nombreux environnements qui suivent des principes similaires avec d'autres langages de programmation. On trouve ainsi par exemple plusieurs environnements de développement pour applications Web 2.0 en Python.

En Java, le vénérable J2EE prend même des accents RoR surtout lorsqu'on le couple avec JSF (Java Server Faces). Les puristes pourront lui reprocher de souvent privilégier les fichiers de configuration, mais la tendance est également à éviter les répétitions notamment au moyen d'annotations Java et JSF tend à proposer de développer les applications Web 2.0 comme des applications classiques (SWING en l'occurrence). C'est également l'approche du « Google Web Kit », toujours en Java.

Cette tendance marque l'avancée des méthodes de développement « procédurales » dans le domaine du développement Web. Ces méthodes présentent l'avantage d'être relativement bien comprises. On peut par contre se demander si des méthodes plus « déclaratives », où l'on décrirait ce que l'on veut obtenir plutôt que de décrire comment le résultat escompté doit être obtenu, ne sont pas mieux adaptées au développement d'applications Web.

Les langages de programmations déclaratifs ne sont pas nouveaux comme en témoigne Prolog, un des premiers langages déclaratifs, conçu aux débuts des années 70. S'ils sont généralement considérés comme étant plus complexes et moins bien maîtrisés que les langages procéduraux, XSLT, qui suit également une logique déclarative, a néanmoins prouvé qu'ils pouvaient avoir leur mot à dire dans certains domaines et cela pourrait bien également être le cas pour le développement d'applications Web 2.0.

Les sites Web statiques sont développés de manière déclarative et XSLT mais également (X)HTML et CSS suivent des logiques déclaratives en décrivant les pages. Enrichir cela pour décrire des applications Web 2.0 côté client et serveur semble donc naturel et c'est ce que permet de faire XForms.

Développée à l'origine comme une spécification plutôt destinée à être implémentée au niveau des navigateurs Web, XForms s'impose en effet de plus en plus comme un langage de définition d'interfaces utilisateurs pouvant être implémentée en mode client/serveur. Dans ce cas, des pages XHTML/Ajax standards sont générées à partir des descriptions XForms et elles peuvent être exécutées à partir de n'importe quel navigateur.

Cette opposition frontale entre méthodes de développement procédurales et déclaratives était particulièrement visible lors de la conférence XTech 2006 au printemps dernier et il est encore trop tôt pour savoir l'issue de cette confrontation.

L'entreprise 2.0

Le deuxième buzzword est « enterprise 2.0 », un terme qui désigne les utilisations du Web 2.0 en entreprise. J'ai apporté ma contribution à ce buzzword en publiant un billet web sur le sujet avant qu'il ne soit si médiatisé mais je pense que nous avons tort de limiter cette appellation aux applications du Web 2.0 telles que nous le voyons sur le World Wide Web.

L'application immédiate des succès du Web 2.0 à l'entreprise, du Wiki au carnet Web en passant par les sites de « tagging » et de partage d'information ouvre des perspectives intéressantes en matière de gestion des connaissances.

C'est un enjeu fondamental en entreprise, mais il reste encore trop souvent au stade de projet et le Web 2.0 risque de toucher les systèmes informatiques des entreprises de manière plus directe et brutale.

La dimension sociale du Web 2.0 consiste, nous l'avons vu, à faire participer tout les utilisateurs au contenu d'un site. En entreprise, cette dimension sociale s'étend bien au delà des applications qui ont réussi sur le Web et la majeure partie du système d'information repose sur son alimentation par ses utilisateurs.

Un système de relation client développé comme une application Web et déployée sur l'intranet d'une entreprise mériterait donc parfaitement le label « Web 2.0 » et il en va de même de la plupart des grandes applications de l'entreprise.

Cette perspective est loin d'être utopique puisque nous avons vu en parlant des applications bureautiques que rares sont les applications qui semblent aujourd'hui hors de portée des techniques standards du Web 2.0. En quoi peut-elle être intéressante pour les entreprises?

Si je m'intéresse beaucoup aux technologies Web, je travaille également pour de grands comptes et je suis surpris de l'ampleur du fossé qui s'est creusé entre les développements Web et l'informatique d''entreprise.

Nous trouvons d'un côté une informatique faisant appel à des standards ouverts, des technologies essentiellement Open Source, des méthodologies « agiles » et souvent des langages de scripts à typage dynamique et d'un autre côté une informatique beaucoup plus lourde utilisant beaucoup de logiciels et formats propriétaires, des langages à typage statique et des méthodes plus classiques.

Ces différences de méthodes et de technologies a bien entendu des incidences sur les coûts et les délais.

Elles ont longtemps été justifiées par le fait que le Web est un univers qui évolue très vite et qu'il faut pouvoir développer des applications quasiment jetables dans un délai très court. L'entreprise étant réputée plus stable cherchait à assurer le long terme et la pérennité de ces informations. De plus, l'entreprise est le domaine des applications « critiques » qui doivent fonctionner 24h/24 et 7j/7 dans des conditions de performance extrêmes et des charges importantes sous peine de paralyser l'entreprise. Le Web est souvent vu au contraire comme plus accessoire et ses utilisateurs réputés plus tolérants aux problèmes techniques.

En sommes nous encore là avec le Web 2.0?

La disponibilité des grands sites Web a de quoi faire pâlir tout service informatique d'entreprise. Ces sites servent des nombres d'utilisateurs qui sont plusieurs ordres de grandeurs au dessus des nombres d'utilisateurs de l'informatique d'entreprise. Ils brassent des volumes de données qui n'ont rien à envier à ceux que l'on traite en entreprise. Et contrairement à ce que l'on a pu penser, des études de comportement récentes montrent qu'un pourcentage très élevé d'utilisateurs Web quittent un site Web lorsque que les temps d'attente sont augmentés ne serait-ce que de quelques dizaines de millisecondes.

A l'inverse, le monde de l'entreprise a perdu beaucoup de stabilité et de réorganisations en rachats en passant par les externalisations, le paysage de bien des entreprises est devenu aussi changeant que celui du Web.

S'il se confirme que les technologies et méthodes du Web 2.0 permettent d'obtenir à moindre coût des performances et une fiabilité supérieures à celles de l'informatique d'entreprise traditionnelle, on peut donc imaginer que quelque soient les barrières qui se sont constituer pour en faire deux mondes distincts, l'entreprise migrera tôt ou tard de manière massive vers une informatique interne de type Web 2.0.

A quand la première comptabilité 2.0 « sur des rails », c'est à dire développée avec Ruby on Rails?

Web 3.0

Le troisième et dernier « buzzword » que je souhaite aborder pour conclure est la notion de « Web 3.0 ».

Le terme « Web 2.0 » a été vu dès son origine comme artificiel et provocateur : qui peut donc se permettre d'attribuer des numéros de versions au Web et qui défini, parmi toutes les évolutions d'un Web toujours bouillonnant, ce que l'on met sous un numéro de version?

Comme je l'avais expliqué l'année dernière, c'est la raison pour laquelle j'ai mis longtemps à m'intéresser au Web 2.0. C'est aussi la raison pour laquelle des personnalités aussi importantes que Tim Berners-Lee continuent à nier l'existence d'un Web 2.0.

Je pense qu'à partir du moment où il y a un large consensus pour utiliser un terme pour désigner un ensemble assez cohérents de tendances, il serait dommage de ne pas utiliser ce terme et que le terme Web 2.0 est entré dans les usages.

Le caractère un peu provocateur du terme Web 2.0 a poussé les esprits critiques à utiliser le terme Web 3.0 dès que le terme Web 2.0 a commencé à être largement utilisé, souvent comme une boutade pour prouver que le Web 2.0 était dépassé dès sa naissance.

Dans un premier temps, chacun a mis ce qu'il pensait novateur dans la définition du Web 3.0. Les choses ne sont pas encore complètement décantées et Wikipedia a pour le moment supprimé toutes les propositions de création de pages sur ce sujet. La tendance actuelle semble pourtant être d'assimiler le Web Sémantique au Web 3.0.

J'avais listé, l'année dernière, les technologies du Web Sémantique comme étant les grandes absentes du Web 2.0. J'ai également eu l'occasion de dire dès 2001 dans un entretien à 01 Informatique ma conviction que, sous une forme ou une autre, le Web Sémantique finirait par voir le jour parce qu'il correspond à un besoin réel et à un enjeu critique pour le développement du Web.

Je le pense toujours, mais je ne pense pas que l'appeler Web 3.0 contribue à clarifier le débat. La notion de « Web Sémantique » me semble assez largement indépendante de la notion de « Web 2.0 ». Le Web Sémantique vise à identifier le sens des ressources du Web et toutes les combinaisons sont possibles : les sites Web 1.0 et Web 2.0 peuvent être sémantiques ou non. Je vois mal expliquer qu'un site est Web 3.0 mais pas Web 2.0!

Certains, peut-être pour éviter cet écueil, ajoute une dimension « usage » à cette définition. Faisant référence à la vision de Tim Berners-Lee pour qui le Web Sémantique permettra le développement d'agents intelligents capables d'utiliser le Web avec nous et même pour nous, ils annoncent que le Web 3.0 sera un Web faisant une large place à une utilisation par des programmes.

Au Web 2.0 social et créé par des humains succéderait en quelque sorte un Web 3.0 déshumanisé utilisé par des robots exploitant sa sémantique...

A l'année prochaine pour faire le point sur le Web 4.0!

Références

  1. The Birth of XML (en anglais par Jon Bosak)
  2. Le web sémantique verra le jour, avec ou sans RDF (interview par 01 Informatique)
  3. Web 2.0 et entreprises 1.0 (billet web)

Et sur XMLfr

  1. Web 2.0 : mythe et réalité

Copyright 2006, Eric van der Vlist


 

Mots clés.



L'histoire de XML s'écrit en ce moment même. XMLfr vous aide à la suivre et à en dégager les tendances.


Les documents publiés sur ce site le sont sous licence "Open Content"
Conception graphique
  l.henriot  

Conception, réalisation et hébergement
Questions ou commentaires
  redacteurs@xmlfr.org