Upload
others
View
0
Download
0
Embed Size (px)
Citation preview
Sylvain CHAUSSARD Promotion 2006/2007
Mémoire de fin d’études INA
Diplôme Universitaire en Marketing et Distribution dans l’industrie audiovisuelle européenne
Le Web 2.0 au service du cinéma
Résumé
En moins de quinze ans, le Web a grandit d’un petit groupe de scientifiques du CERN jusqu’à
un espace global d’information de plus d’un milliard d’utilisateurs dans le monde1.
Actuellement, nous sommes en train de revenir aux racines du Web, car il sert à nouveau
d’outil de lecture et d’écriture et plus généralement d’édition de contenus tout en entrant dans
une nouvelle phase plus sociale et participative. Ces tendances laissent à penser que le Web
est en train d’entrer dans une deuxième phase, une version nouvelle et améliorée du Web.
Pour l’industrie du cinéma, il est temps de s’adapter et d’évoluer afin de continuer à se
développer. Ce mémoire expliquera les nouvelles technologies Web ainsi que les plus récents
services et applications, tels que les blogs, wikis, tags, et autres podcasts, en essayant de
comprendre l’intérêt et l’engouement autour de ces services et comment l’industrie
cinématographique peut se servir de ces outils pour améliorer la promotion des films.
Ce mémoire permettra d’établir l’intérêt du Web 2.0 et de montrer qu’il ne propose pas
seulement une palette de nouvelles technologies et de services, même si c’est un aspect
capital. Le Web 2.0 comporte des idées importantes qui changent complètement la manière
dont les gens interagissent entre eux. Mais il est aussi intéressant de noter que ces idées ne
sont pas nécessairement des acquis du Web 2.0. Ils reflètent plutôt une forme de réflexion à
propos du « pouvoir » de ce réseau dû aux effets que peuvent impliquer un milliard
d’utilisateurs en ligne que ce soit au niveau macro ou micro. Sir Tim Berners-Lee, le co-
créateur du World Wide Web maintient d’ailleurs que le Web 2.0 n’est qu’une extension du
principe original du Web qui ne justifie pas un nom spécial. Ces idées seront ensuite mis en
relation avec le cinéma pour montrer qu’il peut être associé à toutes les grandes évolutions du
Web.
De plus les entreprises sont désormais très impliquées et concernées par ces évolutions du
Web et influencent ou agissent sur le Web, ce qui a des implications pour le contrôle des
données publiques ou privées, comme on a pu le voir pour les réseaux de pair à pair (peer-to-
peer) ou les réseaux de contenu généré par les utilisateurs (user generated content).
1 Selon l’évaluation de l'Internet World Stats de Mars 2007, il y aurait 1,1 milliard d’internautes dans le monde
2
SOMMAIRE
Introduction p.4
I) Web 2.0 ou Web 1.0 : telle est la question ? p.6
II) Les nouveautés du Web 2.0 p.91) Les blogs p.92) Les wikis p.123) Les tags et marques-pages p.134) Le partage de données p.145) Les podcasts p.146) Les flux RSS et la syndication de contenus p.157) Les applications et services Web les plus récents p.16
III) Les grandes idées du Web 2.0 p.171) Le contenu généré par les utilisateurs p.172) Tirer parti de l’intelligence collective p.183) La puissance des données p.234) L’architecture de la participation p.245) Les effets de réseau, la loi des puissance et la longue traîne p.26
IV) Les applications Web 2.0 au service du cinéma p.321) Les blogs et les profils p.322) Les wikis p.333) Les tags p.344) Le partage de données p.365) Les podcasts p.376) Les flux RSS p.377) Les applications et services Web les plus récents p.38
V) Les grandes idées du Web 2.0 liées au cinéma p.391) Le contenu généré par les utilisateurs p.392) Tirer parti de l’intelligence collective p.403) La puissance des données p.404) L’architecture de la participation p.425) Les effets de réseau, la loi des puissance et la longue traîne p.43
VI) Le futur du Web 2.0 p.441) Le Web 2.0 et le Web sémantique p.452) La science du Web p.493) Le développement continu du Web en tant que plateforme p.504) La vie privée et la sécurité p.505) Le Web 2.0 et la SOA p.516) La bulle 2.0 ? p.527) Et le Web 3.0 ? p.54
Conclusion p.55
Annexes p.57
3
Introduction
A la fin de l’année 2006, la personnalité de l’année du
magazine « Time » était : « You » (Toi/Vous). Sur la
couverture du magazine, en dessous du nom du journal, on
découvrait une photo d’un ordinateur avec un miroir à la
place de l’écran2, qui ne reflétait pas seulement le visage du
lecteur mais aussi le sentiment que 2006 était l’année du
Web, à travers une nouvelle version d’un Web créé par
l’utilisateur lui-même. Mais notre perception du Web est-elle
suffisamment claire et affûtée ? Y’a-t-il vraiment matière
derrière la nouvelle appellation de Web 2.0 ? Est-ce une révolution sociale ? Est-ce d’ailleurs
simplement une révolution ou une évolution ?
Dans la première partie de ce mémoire, nous rappellerons le contexte historique, créé par Sir
Tim Berners-Lee d’après sa vision d’un espace d’information unique, global et collaboratif.
Elle contraste avec celle de Tom O’Reilly, qui tente de comprendre les différentes voies dans
lesquelles les connaissances à propos de ces technologies et l’adoption de celles-ci peuvent
aider à faire des prédictions sur les marchés technologiques.
La majorité des articles qui parlent du Web 2.0 sont focalisés sur les applications et services
tels que les blogs, le partage de vidéo et les contenus générés par les utilisateurs, les réseaux
sociaux et le podcasting – un Web plus social et impliquant pour l’utilisateur dans lequel les
personnes contribuent autant qu’ils consomment. Dans une deuxième partie, nous évoquerons
ces différents services qui sont basés sur la technologie et utilisent des concepts du Web qui
ont été retravaillés, notamment sur la base de la collaboration en ligne. Mais est-ce bien ça le
Web 2.0 ? En fait, nous pouvons argumenter que ces applications et services sont des
manifestations du développement continu du Web. Si nous nous focalisons sur le terme
« Web 2.0 » et la façon dont il est utilisé, nous pouvons remarquer qu’il sert de terme
ombrelle pour tenter d’expliquer le patchwork d’idées à propos des nouveaux services Web et
du contexte technologique qui les avait produites.
2 L’ordinateur présenté en couverture du Time a les contours d’un lecteur vidéo qui s’avère être celui du site YouTube (on peut donc penser à une utilisation du mot « You » à double sens)
4
Dans une troisième partie, nous articulerons les grandes idées basées sur le concept original
de Tim O’Reilly3, ce qui nous aidera à expliquer et comprendre pourquoi le Web 2.0 a eu un
impact aussi énorme. Ces idées expliquent plus que la formation d’un réseau global
d’information, elles font référence à l’aspect social du réseau. Les mots collaboration,
contribution et communauté sont donc à l’ordre du jour et certains pensent même qu’un
« nouveau construit social est en train de se créer »4, juste devant nos yeux aujourd’hui. Mais
ces idées ont tout de même besoin de la technologie pour se construire à travers le
fonctionnement d’applications basées sur le Web.
La quatrième partie reprendra les nouveautés du Web en montrant comment elles peuvent être
mises au service du cinéma et de la promotion des films. Les blogs, wikis et autres flux RSS
sont indispensables non seulement aux sites Internet axés sur le cinéma mais aussi aux
distributeurs qui souhaitent assurer l’engouement autour des films qu’ils proposent.
Dans une cinquième partie, nous analyserons l’impact des grandes idées du Web 2.0 mises en
relation avec le cinéma et les contenus audiovisuels, ou comment la vidéo est devenu un
contenu majeur du net et les nouveaux modes de distribution que cela augure déjà.
Enfin, nous tenterons de construire une vision de ce que pourra être le Web de demain.
Quelles seront les technologies qui affecteront la prochaine phase du Web en matière de
développement ? Et de quoi sera fait ce qu’on pourrait appeler le Web 3.0 ?
3 O’REILLY, T. 2005, What is Web 2.0 : Design Patterns and Business Models for the Next Generation of
Software. Site Internet : http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html?page=1 4 Le Web social (Augmented social network) est un terme inventé en 2003 par PlanetWork. Site Internet : http://asn.planetwork.net/
5
I) Web 2.0 ou Web 1.0 : telle est la question ?
Est-ce une révolution dans la manière d’utiliser le Web ? Est-ce une nouvelle bulle Internet ?
Les réponses divergent selon les répondants. En effet, l’approche du développeur Web peut
être différente de celle du marketeur ou encore de l’économiste. La réponse la plus courte
pour beaucoup, est de faire référence à un groupe de technologies qui ont été associées aux
termes : blogs, wikis, podcast, RSS, etc. et qui facilitent un Web plus social ou chacun est
capable de créer ou de voir l’information sur un espace global. La réponse la plus longue est
beaucoup plus compliquée et tire ses idées dans l’économie, la technologie et l’idée nouvelle
d’une société connectée. Pour certains financiers cependant, il est simplement temps
d’investir à nouveau dans la technologie après la crise de la bulle Internet.
Pour l’inventeur du Web, Sir Tim Berners-Lee, il y a comme un goût de déjà-vu à propos de
ce nouveau Web 2.0. Il révélait d’ailleurs lors d’une interview pour un podcast diffusé sur le
site IBM et dans laquelle on lui demandait ce qui était différent dans le Web 2.0 :
« Rien n’est différent. Le Web 1.0 permettait déjà de connecter les gens entre eux. C’était un
espace interactif. Je pense que le Web 2.0 est plus un problème de jargon puisque personne
ne sait vraiment de quoi il s’agit. Si le Web 2.0 est pour vous représenté par les blogs et
autres wikis, c’est un réseau de personne-à-personne et c’est ce que permettait déjà le Web
depuis longtemps. En fait, vous savez, ce Web 2.0 utilise les normes qui ont été produites par
tous ces gens travaillant sur le Web 1.0 »5.
Pour comprendre l'attitude de Sir Berners-Lee, on a besoin d’un regard en arrière vers
l'histoire du développement du Web, qui est exploré dans son livre Weaving the Web (1999).
Sa vision originale était déjà basée sur un espace de travail collaboratif où tout et tout le
monde était connecté dans un « unique espace global d'information » (p. 5) et le point crucial
de cette discussion était que « chacun serait capable d’établir des documents et de donner des
informations dans cet espace ». Le premier projet de développement était Enquire, un projet
rudimentaire de gestion, développé dans les années 80, lorsque Berners-Lee travaillait au
5 Interview du 22 Août 2006, une retranscription du podcast est disponible ici : http://www-128.ibm.com/developerworks/podcast/dwi/cm-int082206.txt
6
CERN6, qui permettait de lier ensemble des pages de notes et de les éditer mais aussi de les
modifier. Une série de développements technologiques et de logiciels a permis la création du
World Wide Web et un navigateur ou le client Web pourrait voir et réviser des pages
d’informations marquées (HTML). Toutefois il était compliqué d’éditer du texte sur ce
modèle ce qui laissa penser aux gens que le Web était un médium pour lequel seul un nombre
de personnes restreint pouvait publier des informations.
Ce terme de Web 2.0 a été officiellement donné en 2004 par Dale Dougherty, le vice-
président de O’Reilly Media Inc. pendant une discussion d’équipe sur une conférence qui
devait avoir pour thème le futur du Web. L’équipe cherchait à saisir l’impression du moment
qui montrait que « bien loin de s'être effondré, le Web n'avait jamais été aussi important et
que nombre de nouveaux sites et applications à caractère innovant apparaissaient avec une
régularité déconcertante. De plus, les quelques sociétés qui avaient survécu à l'hécatombe
semblaient avoir quelque chose de commun »7. Ainsi, il est important de noter que le terme
n'a pas été forgé dans le but de définir un groupe identifié de technologies, mais de façon bien
plus floue.
Le créateur de l’entreprise, Tim O’Reilly lui-même, fit suivre à cette discussion le désormais
célèbre article : « What is Web 2.0: Design Patterns and Business Models for the Next
Generation of Software » (2005), soulignant en détail ce que la compagnie entendait par le
terme « Web 2.0 ». Il est important de noter que cet article était un essai qui permettait de
faire ressortir certaines caractéristiques spécifiques qui pourraient ensuite être utilisées pour
identifier des entreprises particulièrement innovantes du Web, qui contrôlaient de manière
unique et difficile à recréer leurs données, ce qui est considéré en marketing comme un
facteur clé de succès puisque les concurrents ne peuvent plus recréer ces données. L’article
identifiait aussi certaines caractéristiques qui sont désormais associées aux technologies de
développement « social », comme la participation, l’utilisateur qui génère du contenu, etc.
Comme Tim Berners-Lee l’a montré, la capacité d'exécuter cette technologie est entièrement
basée sur les soi disantes « normes Web 1.0 », comme nous le verrons par la suite. Dans cette
perspective, le « Web 2.0 » devrait être vu comme la conséquence d'un Web mieux abouti.
Cette distinction est la clé de la compréhension pour connaître les limites entre le Web - vu
6 Conseil européen pour la recherche nucléaire7 O’REILLY, T. 2005, What is Web 2.0 : Design Patterns and Business Models for the Next Generation of Software. Site Internet : http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html?page=1
7
Web 1.0 Web 2.0
DoubleClick Google AdSenseOfoto FlickrAkamai BitTorrentMp3.com NapsterBritannica Online WikipediaSites perso BlogsSpéculation sur les noms de domaines Optimisation pour moteurs de recherchePages vues Coût au clicScreen scraping Services webPublication ParticipationSystème de gestion de contenu WikisArborescence Tags Rigidité du contenu Syndication de contenu
comme un ensemble de technologies - et le Web 2.0 – un ensemble de résultats permis par ces
technologies. La compréhension de cette distinction nous aide à penser plus clairement aux
questions laissées de côté tant par les technologies que par leurs résultats et cela nous aide à
mieux comprendre ce qui est ou non le Web 2.0. Pour être capable de discuter des issues du
Web 2.0, nous devons savoir quels outils peuvent avoir un intérêt et dans quel sens nous
devons agir.
Par exemple, Tim O’Reilly, dans son article, identifie ce qu’il considère être des
caractéristiques des entreprises Web 1.0 qui ont été couronnées de succès et les compare aux
nouvelles applications les plus intéressantes. Il fait cela pour développer une étude de marché
et tester si en effet une entreprise est Web 1.0 ou Web 2.0. Voici ci-dessous et à titre
d’exemple la liste qu’il repris dans son article.
Il est très important pour lui de différencier les applications parce que le Web 2.0 est devenu
un mot à la mode en marketing et si répandu que les sociétés le disent sans compréhension
réelle de ce que cela signifie (O’Reilly, 2005a, p.1). Nous allons donc voir dans la partie
suivante, des applications et services dits « Web2.0 ».
8
II) Les nouveautés du Web 2.0 :
Il y a déjà un certain nombre de services Web et d’applications qui montrent les fondations du
Web 2.0 et qui sont déjà utilisés en tant que tels. Ce ne sont pas vraiment des technologies à
ce titre, mais des services (ou des processus utilisateur) construits en utilisant certaines
fonctions technologiques et autres standards « open source » qui permettent de reconstruire en
permanence Internet et le Web.
Ceux-ci incluent blogs, wikis, services de partage multimédia, syndication des contenus,
podcasts et les services de tag des contenus. Beaucoup de ces applications Web sont
relativement mures, ayant été utilisées depuis un certain nombre d'années, bien que de
nouvelles caractéristiques et des capacités soient ajoutées régulièrement. Il est intéressant de
noter que beaucoup de ces plus nouvelles technologies profitent des services existants. Dans
la partie suivante, nous présenterons et reconsidérons ces services communément utilisés afin
d’obtenir une vue d’ensemble nécessaire à l'établissement de bases communes qui serviront
dans la suite du mémoire.
1) Les blogs :
Le terme web-log ou blog a été inventé par Jorn Barger en 1997 et fait allusion à la page Web
simple qui se compose de brefs paragraphes, appelés « posts », Selon Wikipedia, « un blog est
un site Web constitué par la réunion de posts classés par ordre chronologique. Chaque post
(appelé aussi note ou article) est, à l'image d'un journal de bord ou d'un journal intime, un
ajout au blog ; le blogueur y délivre un contenu souvent textuel, enrichi d'hyperliens et
d'éléments multimédias, sur lequel chaque lecteur peut généralement apporter des
commentaires pour donner son opinion, des informations et créer son propre journal ». Ces
posts sont rangés chronologiquement avec le plus récent en premier, dans le style d’un journal
en ligne. La plupart des blogs permettent aussi aux visiteurs d'ajouter un commentaire en
dessous de chaque post.
9
A Yale, le professeur légal universitaire, Yochai Benkler, appelle une « conversation
pondérée » la façon dont un auteur primaire et un groupe de donateurs de commentaire
secondaires communiquent. Cela contribue aussi au sens d’immédiateté du blog, puisque les
blogs permettent aux individus d'écrire sur leurs pages Web selon le mode journalistique –
chaque heure, chaque jour, chaque semaine - alors que la page Web classique qui l'a précédé a
eu tendance à être mise à jour moins souvent. Selon Benkler, c’est « moins un équivalent de
reportages qu’un essai »8.
Chaque post est bien sûr tagué avec un ou plusieurs mots clés ce qui permet au post d’être
classé dans une catégorie par le système afin que quand le post vieillit, il puisse être classé
dans un menu avec différents thèmes9. Le fait de cliquer sur la description d'un post, ou le tag
(qui est affiché au-dessous du post), donnera une liste d'autres posts du même auteur.
Le lien est aussi un aspect important du blog puisqu’il approfondit la nature de
« conversation » de la blogosphère et son immédiateté. Il facilite aussi le recouvrement des
données et le référencement de l’information sur différent blogs, mais certains de ces liens ne
sont pas sans problèmes inhérents :
- Le permalien (ou permalink) : est un URL permanent qui est généré par le système de blog
et appliqué à un post particulier. Si l’article est déplacé dans la base de données, par exemple,
pour l’archiver, le permalien restera toujours inchangé. Si le post est renommé ou si le
contenu est changé de quelque manière que ce soit, le permalien restera inchangé : il n’y a pas
de contrôle et l’utilisation des permaliens ne garantit donc pas le contenu d’un post.
- le rétrolien (ou trackback) : l'auteur d'un blog A peut établir un rétrolien vers un billet d'un
blog B en faisant, dans un de ses propres billets sur son blog A, un lien vers l'URL du billet du
blog B. Si le blog B gère les rétroliens, il est automatiquement indiqué dans le billet sur le
blog B que le blog A y fait référence. Le lecteur du billet sur le blog B peut alors découvrir le
blog A et s'y rendre, grâce à ce lien automatique. De même, l'auteur du blog B est mis au 8 Benkler Y. 2006, The Wealth of Networks : how social production transforms markets and freedom 9 Le contenu des blogs est régulièrement changé et le dernier article est mis en tête de la page d’accueil. Cela explique que retourner sur la page d’accueil d’un blog après plusieurs semaines ou mois pour trouver un contenu particulier est difficile. Le développement de permaliens était une façon de déjouer le problème mais il a ses propres problèmes.
10
courant que l'auteur du blog A s'intéresse à son contenu ; le système de rétroliens est parfois
qualifié de « social » car il permet des rencontres virtuelles10.
- blogoliste (ou blogroll) : est une liste de liens vers d’autres blogs qu’un blogueur trouve
utiles ou intéressants. Cette fonction est similaire à celle appelée « bookmark » ou
« favourite ».
Avec les techniques de syndication de contenu, tels que les flux RSS, il est possible d'inclure
directement certains billets sur son propre blog. D'autre part, un flux RSS (appelé aussi fil
RSS) rassemblant les derniers billets ou commentaires est mis à disposition des visiteurs, de
façon à leur permettre de tenir à jour leur lecture de manière rapide au moyen d'un logiciel
appelé aggrégateur.
Les blogs tenus par des adolescents sont très nombreux en France (près de dix millions de
blogs sur Skyblog11), et plus généralement sur le Web. Le nombre de gens qui font du
« blogging » a explosé et on donne désormais le terme de blogosphère à la communauté qui
s’est formé autour du blog pour exprimer le fait qu’un monde unique se créait autour des
blogueurs et de leur environnement. Dans sa diversité, la blogosphère est composée de
communautés de blogs qui réunissent des individus aux mêmes tendances politiques, aux
mêmes passions... Ces communautés de blogs se lient entre elles grâce à des liens hypertextes.
Avec les avancées technologiques, le blog a pu évoluer en intégrant du contenu multimédia et
on parle désormais de photoblogs, de vidéoblogs et désormais le blogueur peut intégrer du
contenu directement depuis son mobile ou sa webcam. Mais les raisons pour lesquelles les
gens créent des blogs, font que le style (littéraire, revendicateur, informationnel, divertissant
ou type sms) et la manière (personnelle ou professionnelle) dont ils bloguent sont très
différents.
La possibilité d'accueillir sur son blog des régies d'annonces en ligne (comme Adsense) ou
des liens commerciaux (affiliation Amazon) permet au blogueur de générer des revenus.
Ainsi, par exemple, un blog qui traite de littérature peut rediriger ses lecteurs vers des
librairies en ligne. Des annuaires de blogs fonctionnant éventuellement en tant qu'aggrégateur
Web personnel sont souvent financés par ces services de marketing.10 Définition de l’encyclopédie Wikipédia. Site Internet : http://fr.wikipedia.org/wiki/R%C3%A9trolien 11 Source : 2007, Site Internet : www.skyblog.com
11
Une autre façon de générer des revenus est d'écrire des articles et des avis sur divers produits
(sites, logiciels, téléphones, etc.), à la demande des entreprises. Les entreprises ne sont pas
toujours intéressées pas un avis positif, mais par la génération de trafic vers le site et la
diffusion d'un buzz à propos de leur produit. Certains sites offrent un service d'intermédiaire
entre les entreprises et les rédacteurs de blogs à cette fin12.
2) Les Wikis :
Selon Wikipédia, un wiki est un système de gestion de contenu qui rend les pages Web
librement modifiables par tous les visiteurs autorisés. On utilise les wikis pour faciliter
l'écriture collaborative de documents avec un minimum de contraintes. Le wiki a été inventé
en 1995 par Ward Cunningham, pour une section d'un site sur la programmation informatique
qu'il a appelée WikiWikiWeb. Le mot « wiki » vient de l’expression hawaiien « wiki wiki »,
qui signifie rapide. Créée en 2001, l'encyclopédie Wikipédia est devenue le plus visité des
sites Web écrits avec un wiki. Son succès populaire a fait comprendre que le wiki, en tant
qu’outil colaboratif qui facilite la production d’un travail de groupe, est bien compris. Les
pages d’un wiki sont d’ailleurs éditables grâce à un bouton et l’utilisateur peut facilement
modifier le contenu d’une page en ligne pour changer, ajouter ou supprimer du contenu. Les
liens hypertexte sont aussi très utilisés dans les systèmes de wikis afin d’obtenir une
navigation fluide entre les pages.
Les wikis ont aussi généralement une fonction d’historique qui permet d’examiner les
versions précédentes d’une page. Une fonction de rollback permet de restaurer les versions
précédentes si le contenu est plus pertinent. La force du wiki étant bien sûr la facilité
d’utilisation des fonctions et la flexibilité ainsi que l’accès ouvert à tous qui permettent de
créer un espace de travail collaboratif.
Il y a malgré tout d’indéniables problèmes pour des systèmes qui allouent un tel niveau
d’ouverture et les wikis ont aussi souffert de problèmes dû à l’édition d’articles vandales ou
12 Marché de la gestion de blogs selon l’encyclopédie Wikipédia. Site Internet :
http://fr.wikipedia.org/wiki/Blog
12
de publicité camouflée13. Cependant, les modérateurs des wikis travaillent à modifier ces actes
pour les rectifier le plus vite possible. Comme le disait Jonathan Schwartz, patron de Sun en
Août 2005 : « Trust is the currency of the participation age » (La confiance est la devise
(monnaie) de l’ère collaborative).
3) Les tags et marques-pages sociaux :
Un tag est un mot-clé donné pour définir
une vidéo, une photo, un site Web ou un
post. La description n’est pas formelle et
classique mais plutôt libre, c’est pourquoi
un « nuage de tags » est souvent utilisé
pour représenter les différents mots-clés
utilisés sur un site Web, par exemple. Les
mots les plus utilisés apparaissent ici dans des caractères de plus grande taille.
Concrètement, plus un mot clef est cité dans un article ou dans le site en cours, plus il
apparaîtra en gros dans le nuage de mots clefs. L’ordre alphabétique est respecté pour
repérer plus facilement les mots les plus populaires.
Les concepts du tag et du bookmark (expliqué ci-dessous) ont été développés par de
nombreux sites Web comme Flickr (photos), YouTube (vidéos) ou Wikio (articles)… On
remarque donc que ce concept est applicable à de nombreux sites différents.
Initiés par des sites Web tels del.icio.us, les marque-pages sociaux (ou bookmark) permettent
à un utilisateur de sauvegarder ses pages favorites directement sur les serveurs du site de
marque-page social. L'utilisateur ne classe pas ses favoris via un système d'arborescence de
son navigateur, mais grâce au recours à des tags. L'aspect social de ces sites se justifie par le
fait que par défaut, les marque-pages de chaque utilisateur sont visibles par tout le monde. On
peut ainsi, en faisant une recherche sur les tags, rechercher les sites Web les plus populaires
13 Le journal Le Monde a publié un article le 2 Novembre 2007 sur la responsabilité de Wikipédia. Site internet : http://www.lemonde.fr/web/article/0,1-0@2-651865,36-973824@51-974025,0.html
13
dans une catégorie, ou voir les domaines de préférence d'une personne par l'observation de
son nuage de tags et ainsi trouver les liens les plus intéressants concernant un sujet.
4) Le partage de donnés :
Un des plus grand secteur de croissance est celui des services qui facilitent non seulement le
stockage mais aussi le partage du contenu multimédia. Les exemples sont bien connus et
incluent YouTube ou Dailymotion pour le partage de vidéos, Flickr pour les photographies ou
Odeo pour les podcasts. Ces services qui sont rapidement devenus très populaires et qui ont
désormais une audience confortable sur la toile prennent l’idée d’un Web éditable et ou les
utilisateurs ne sont pas seulement consommateurs mais aussi contributeurs actifs, en cela
qu’ils produisent eux-mêmes du contenu pour le mettre en ligne. En octobre 2006,
Médiamétrie estimait les créateurs de contenus en France à 3,1 millions de personnes tandis
qu’on comptait 14,8 millions de contributeurs14. C’est donc des millions de gens qui
participent maintenant à l’expansion du contenu sur Internet en partageant et en procédant à
l’échange et à la diffusion massive de vidéos, photos et autres podcasts. Ce développement a
été rendu seulement possible grâce à l’adoption étendue de caméras ou d’appareils photos
numériques, de téléphones portables avec fonction photo et vidéo ou même de webcams plus
performantes.
5) Les podcasts :
Les podcasts sont des enregistrements audios ou vidéos de discussions, interviews et
conférence, émissions, bandes-annonces ou vidéos d’utilisateurs qui peuvent être lues sur un
ordinateur ou transférées vers un lecteur portable (iPod, Archos, Creative, etc.). Le logiciel
14 Etude Médiametrie sur le Web 2.0, Octobre 2006. Cette étude analyse les usages Internet des individus âgés de 15 ans et plus, considérés comme « internautes assidus », c’est-à-dire se connectant tous les jours ou presque. Cette catégorie représente 17,7 millions de personnes, soit 72% de la population internaute de référence.Site Internet : http://b-r-ent.com/files/2006_10_05_MonNumeriqueweb2_0_1.pdf
14
iTunes est d’ailleurs le plus grand diffuseur de podcasts avec plus de 83 000 références en
octobre 2006 selon un article paru sur le blog de Christophe Schmidt15.
Du côté utilisateur, un podcast est mis à jour de la même façon qu’un flux RSS classique. Par
l'entremise d'un abonnement aux flux RSS, le podcasting permet aux utilisateurs d'automatiser
le téléchargement d'émissions audio ou vidéo pour leur baladeur numérique ou leur ordinateur
personnel en vue d'une écoute immédiate ou ultérieure. L’utilisateur reçoit donc des
informations sur les nouveaux podcasts dès leur mise en ligne. Sur iTunes, par exemple, une
fois qu’on est connecté à un podcast, on a les dernières mises à jour de celui-ci et les
nouveautés vidéos ou audio disponibles. Le podcast se différencie de la diffusion télévision,
radio, non pas par un mécanisme centralisé qui enverrait un flux vers ses auditeurs (push),
mais par l'action des auditeurs qui vont chercher eux-mêmes les fichiers podcastés (pull).
C'est donc aux auditeurs que revient le rôle de créer leur propre liste de lecture par leurs
différentes souscriptions. Le téléchargement des programmes, issus des multiples sources
qu'ils ont choisies, est alors automatique.
6) Les flux RSS et la syndication de contenus :
Le flux RSS (Really Simple Syndication), cité précédemment, est un format qui permet aux
utilisateurs d’apprendre, à partir des mises à jour, le contenu de sites Internet qui utilisent ce
genre de flux, les blogs ou les podcasts, sans être obligé d’aller visiter les pages Web
d’origine. Au lieu de cela, les informations du site Internet (typiquement le titre et le résumé
ainsi que le nom du site Internet) sont recueillies par un flux RSS et envoyées à l’utilisateur
dans un processus nommé « mise en syndication ».
Pour être capable d’utiliser un flux, l’utilisateur doit installer un aggrégateur
de contenu. Les navigateurs (comme Mozilla Firefox) ou des pages
personnalisables (comme Netvibes). Dès que cela est fait, l’utilisateur doit
décider quels flux RSS il veut recevoir et y souscrire. Le logiciel du client
15 Site Internet : http://christophe.schmitt.free.fr/dotclear/index.php?2006/10/10/1228-itunes-store-83-000-podcasts-au-compteur#unit_long1228
15
vérifiera alors périodiquement le contenu et effectuera des mises à jour pour que l’utilisateur
reste informé des nouveautés.
Techniquement, le RSS est un format de données à base de XML qui permet d’échanger des
fichiers à partir de sites Internet qui contiennent des informations sur la publication et des
résumés des contenus du site. Le dernier format en date est le RSS 2.0 qui permet de créer des
flux RSS automatiquement à partir des blogs. Pour chaque post, on retrouve donc un bouton
qui permet de syndiquer son contenu en un simple clic.
7) Les applications et services les plus récents du Web 2.0 :
Comme nous l’avons vu, une multitude de services technologiques sont souvent décrits
comme dépendant du concept de Web 2.0. Durant ces derniers mois, pourtant, il y a eu une
explosion d’idées nouvelles, avec des start-up développant des applications nouvelles pour
développer les services existants. Certains seront certainement plus pertinents que d’autres et
prendront plus d’importance par la suite. Toutefois, il y a un tel déluge de nouveaux services
qu’il est souvent difficile de garder la trace de ce qui est créé, et plus encore de savoir ce qui
risque de se développer. Il faut donc garder à l’esprit que ces applications sont encore
émergentes pour la plupart et ne concernent qu’un faible pourcentage de la population sur
Internet.
Pour savoir si ces nouveaux services, applications et outils sont vraiment intéressants, il est
nécessaire de les mettre en rapport avec les grandes idées développées dans le chapitre
suivant. Ensuite, quand un nouveau service est disponible, le mieux est de le classer dans la
catégorie à laquelle il appartient16.
16 Sur le site Internet, eConsultant, on retrouve une classification des services et des sites Web 2.0.Site Internet : http://www.econsultant.com/
16
III) Les grandes idées du Web 2.0 :
Comme nous avons pu le souligner dans la première partie, il y a une spéculation considérable
au sujet du Web 2.0 et les différents avis fusent pour définir ce que serait ou non le Web 2.0
selon eux. Nous essayerons ici de montrer les principes de base et les grandes lignes pour
évoquer, dans la mesure du possible, les différents courants de pensée qui commencent à se
développer. En analysant l’histoire d’Internet, il est possible de faire des hypothèses pour
comprendre la vitesse à laquelle le réseau s’est développé et ce qui a contribué à sa chute avec
l’explosion de la bulle Internet. C’est non seulement important pour éviter que le phénomène
se reproduise mais aussi pour avoir une compréhension plus réaliste du rôle que le Web 2.0
pourrait jouer par la suite. Dans ce chapitre, nous retrouverons les grandes idées du Web 2.0,
basées sur celles d’O’Reilly, qui peuvent nous aider à expliquer et comprendre pourquoi le
Web 2.0 a eu un impact si énorme. Dans ces idées, il y a quelque chose de plus important que
la construction d’un espace global d’information, c’est l’aspect social du réseau. La
collaboration, la contribution et la communauté sont devenues des valeurs fondamentales du
Web. Pourtant il est important d’admettre que ces idées ne sont pas nécessairement nées
grâce au Web 2.0 mais sont en fait, les effets directs ou indirects du pouvoir du réseau : les
conséquences, que ce soit au niveau micro ou macro, qu’un milliard d’internautes peuvent
produire.
1) Le contenu généré par les utilisateurs :
« J’imaginais l’espace d’information comme quelque chose auquel l’accès est immédiat et
intuitif, non seulement à regarder mais aussi à créer »17.
« Ne déteste pas le média, deviens le média »18.
Au cours des années 80, l’adage punk « je peux le faire » a permis à des milliers de jeunes de
créer des groupes locaux et d’écrire et d’éditer des fanzines. Les mœurs de la génération
17 Tim Berners Lee, 1999, Weaving the Web p.16918 Eric Boucher (alias Jello Biafra) chanteur des Dead Kennedys, 2000, Become the Media
17
actuelle sont comparables : ils créent leurs vidéos et leurs blogs. Avec quelques clics de
souris, un utilisateur peut envoyer une vidéo ou une photo depuis son appareil numérique sur
son « espace média personnel » (blog, site personnel ou communautaire…) et taguer les mots-
clés pour rendre le contenu disponible au monde entier. En parallèle, les individus créent des
blogs et collaborent pour créer de l’information à travers les wikis. Tous ces outils ont permis
d’écarter les barrières d’entrée pour marcher dans les traces de la révolution des années 80 qui
permettait d’imprimer du papier grâce aux premières imprimantes laser mises au point par
Apple. Désormais la production est transférée vers le Web, le support papier n’est alors plus
utile.
L’attention des médias concernant le Web 2.0 s’est focalisée sur la création de contenu par
l’utilisateur (User Generated Content). L’intérêt des médias pour ce sujet vient du fait que les
médias eux-mêmes subissent une période de profonds changements dus notamment aux
évolutions du Web, et en particulier à la nouvelle capacité des téléspectateurs à contribuer aux
programmes, journaux et autres sites Web. L’adoption étendue d’appareils photo numériques,
téléphones, webcams bon marché et de bonne qualité a contribué à une augmentation du
« journalisme citoyen » et des « appels à témoin », utilisés précédemment par les journalistes
dans les programmes télé ou les articles de presse pour étayer les news. Beaucoup
d’organisations médiatiques entreprennent d’ailleurs d’importantes révisions dans la façon de
produire leur contenu en permettant au public d’avoir un rôle plus important.
Le journal The Sun par exemple fournit désormais un numéro de téléphone pour envoyer des
messages et photos d’actualité. Le Monde multiplie les blogs d’actualité et de politique.
Ohmy News, en Corée du Sud profite d’une « armée » de cinquante mille journalistes
citoyens dont les news sont relues par une équipes de cinquante journalistes professionnels.
Pendant ce temps, la BBC travaille sur un système d’archives qui permet aux utilisateurs de
voir et d’utiliser des documents d’archives de la télévision pour réaliser leur propre contenu.
C’est pourquoi beaucoup pensent que nous entrons dans une ère nouvelle dans laquelle les
infos deviennent plus une conversation et un débat qui comprend les professionnels mais
aussi les utilisateurs. La perception du public est donc en train de changer et l’autorité en
matière de connaissances est très certainement en train de basculer des professionnels vers les
citoyens.
18
Mais pourquoi les gens se livrent-ils à la production de telle manière ? Chris Anderson a dit :
« les motifs de la création ne sont pas les mêmes à la tête qu’à la base »19. En effet, les motifs
qui poussent quelqu’un de façon indépendante ne sont pas les mêmes que ceux d’un groupe. Il
explique aussi que les gens sont guidés tout d’abord par un intérêt monétaire mais que
finalement c’est la réputation qui compte.
Pour certains, l’augmentation constante de la capacité des individus à se livrer à la création et
à la manipulation d’outils numérique est une évolution encourageante, alors que d’autres
s’inquiètent de l’issue de ces changements. En effet, la perte de structure et d’autorité qui
s’exerce sur un journal revisité à travers des flux RSS est conséquente puisque les flux sont
seulement organisés de façon temporelle. Il n’y a donc pas d’articles à la Une et le travail du
rédacteur en chef est alors lui-même faussé. Toutefois certains journaux comme le 20 Minutes
en ont tiré partie sur leur site Internet20 en mettant les news dans leur ordre chronologique, du
plus récent au plus ancien. Enfin certains se demandent si cette participation est si importante
qu’on le croit. En effet, plus de dix des 13 millions de blogs de Blogger, un fournisseur de
blogs important, sont inactifs selon Charles Mann21, qui ajoute que « l’énorme masse de blogs
inactifs est une raison d’être sceptique concernant la croissance de la blogosphère ».
2) Tirer parti de l’intelligence collective :
Dans l’article, The Cornucopia of the Commons, Dan Bricklin référence trois manières
différentes d'élaborer une base de données importante. La première est de payer des gens pour
faire le travail22. La deuxième, inspirée par la communauté Open Source, est de confier cette
tâche à des volontaires. Toutefois, Napster a mis en place une troisième méthode. Comme
Napster mettait automatiquement chaque musique téléchargée sur un serveur, chaque
utilisateur contribuait à construire cette base de données partagée. La même démarche a été
19 Anderson Chris, 2006, The Long Tail: Why the Future of Business Is Selling Less of More20 Site Internet : www.20minutes.fr 21 Mann Charles, 2006, Spam + Blog = Trouble in Wired. Site Internet : http://www.wired.com/wired/archive/14.09/splogs.html 22 C’est le cas pour le site AlloCiné, qui possède sa propre rédaction pour écrire ses articles et fiches sur les films, séries et célébrités. Site Internet : www.allocine.com
19
suivie par tous les autres services de partage de fichiers peer-to-peer (de particulier à
particulier)23.
Tim O’Reilly précisait dans son article : « le premier fait marquant de cette nouvelle façon de
créer une base de données est que chaque action des utilisateurs ajoute de la valeur », que ce
soit par leurs commentaires, leurs notations, ou la création de contenus. Comme nous l’avons
déjà évoqué « les utilisateurs construisent un système qui s’améliore au fur et à mesure que
les gens l’utilisent ».
A) Le bon sens des foules :
The Wisdom of Crowds (ou Le bon sens des foules) est le titre d’un livre écrit par James
Surowiecki, un chroniqueur du New Yorker. Il expose dans son livre trois différents types de
problèmes (appelés cognition, coordination et coopération) et manifeste comment ils peuvent
être résolus plus efficacement par des groupes opérant dans des conditions spécifiques que par
le membre le plus intelligent de ce groupe. Il est important de noter que ce livre a beaucoup
influencé la réflexion sur le Web 2.0 et beaucoup d’auteurs ont adapté les idées de Surowiecki
avec certaines observations portées sur les applications Web. Tim O’Reilly, notamment a
fourni un exemple dans son article « What is Web 2.0 » : en effet le « page rank » de Google
est plus pertinent que la lecture individuelle de tous les articles se rapportant au sujet. C’est
l’idée qu’en agissant de façon indépendante mais au final collectivement, la foule trouvera
mieux la réponse la plus juste que n’importe quel individu. L’autre effet intéressant de ce bon
sens est que l’internaute a travers les liens sur lesquels il clique mais aussi ceux qu’il créé sur
son espace (site Web ou blog), attire d’autres internautes et les entraîne à cliquer sur les liens
qu’il a placé et donc à en faire voir le contenu à encore plus d’utilisateurs. L’effet de foule
démultipliera bien sûr le résultat et permettra d’avoir des liens qui seront au final très cliqués,
grâce à une action virale de forte envergure. Cela explique d’ailleurs pourquoi les sites Web
2.0 ne font pas de publicité : c‘est parce qu’ils savent très bien que l’information passera
mieux d’utilisateur à utilisateur. D’où l’adage de Tim O’Reilly : dans l'univers Web 2.0,
« l'implication des utilisateurs dans le réseau est le facteur-clé pour la suprématie du
marché ».
23 O’Reilly, 2005, What Is Web 2.0 : Design Patterns and Business Models for the Next Generation of
Software
20
B) Le crowdsourcing :
Selon Wikipedia, le crowdsourcing est un néologisme conçu en 2006 par Jeff Howe et Mark
Robinson, rédacteurs au Wired magazine. Il consiste à « utiliser la créativité, l'intelligence et
le savoir-faire d'un grand nombre d'internautes en les rémunérant à moindre coût ». Le site
iStockphoto, par exemple, référence un grand nombre de photos d’utilisateurs, qui sont
vendues à un tarif très bas dont une partie est reversée ce même utilisateur. A son niveau le
plus simple, le crowdsourcing tire parti de la popularité du multimédia et des sites de partage
de données (ou UGC) comme Flickr ou YouTube pour créer une deuxième génération de sites
comme Shutterstock ou Fotolia. Les agences agissent donc comme intermédiaires entre les
producteurs de contenus amateurs et les personnes qui souhaitent acheter du contenu. Même
si la rémunération est faible pour les créateurs, le fait d’avoir été choisi parmi la masse
l’emporte et favorise l’estime de soi.
Ce type de crowdsourcing est en train de reprendre petit à petit le travail des professionnels de
la création depuis quelques temps déjà. Les photographes en particulier ont souffert de ce
phénomène car les sites Internet représentent une concurrence des plus compétitive avec des
bases de données qui s’étoffent de plus en plus. Il est désormais difficile de travailler
autrement que sur commande.
Un autre phénomène du crowdsourcing, explique Howe, est celui qui, pendant les cinq
dernières années, a permis aux entreprises InnoCentive et YourEncore, de correspondre avec
des scientifiques indépendants et chercheurs amateurs grâce à leurs sites Internet. Ils ont
réussi par ce moyen à relever les défis du développement en faisant gagner au meilleur
utilisateur un prix d’une dizaine de milliers de dollars.
Plus récemment, une start-up canadienne « Cambrian House » a utilisé le crowdsourcing en
demandant aux internautes de suggérer des idées qui étaient ensuite votées pour décider quel
serait le prochain axe de développement. On en revient donc au modèle de Surowiecki, qui
montrait que l’idée de la foule serait meilleure que celle du meilleur des individus.
21
C) La folksonomie : les individus qui agissent individuellement produisent des résultats
collectifs
Le terme folksonomie (ou folksonomy) a été inventé par Thomas Vander Wal , dont les idées
sur la folksonomie sont basées, d’une part, sur son expérience de création de systèmes de
taxinomie (classification des informations dans une architecture structurée) dans les
environnements commerciaux. Il s’était rendu compte que les résultats étaient souvent faibles
car les gens n’arrivaient pas à deviner le bon mot-clé, alors que la folksonomie permet de
créer ses propres mots-clés (ou tags) dans une architecture déstructurée qui évolue en fonction
des idées du plus grand nombre d’utilisateurs, une sorte de « logique générale ». La
folksonomie ayant souvent été mal interprétée, en voici la définition de son auteur : « la
folksonomie est le résultat du fait de taguer de manière libre et personnelle des informations et
des contenus (n’importe quoi avec une URL) pour son propre compte. Le fait de taguer dans
un environnement social (partagé et ouvert aux autres) fait évoluer les résultats de façon
collective ».
Thomas Vander Wal insiste ici sur le fait que la folksonomie est un acte individuel, même s’il
est fait dans un environnement social ouvert à de nombreux utilisateurs. Ce détail est très
important car il permet de montrer que c’est bien avec ses propres mots que l’utilisateur va
créer son mot-clé. L’auteur ajoute que la valeur d’une folksonomie est créée par trois
éléments clés : la personne qui tague, l’objet tagué, et le mot-clé étant attaché à cet objet. Le
principe est qu’avec deux de ces éléments-clés, on peut retrouver le troisième. Il fournit un
exemple sur del.icio.us qui démontre que si vous connaissez l’Url de l’objet (c’est-à-dire sa
page Web) et que vous avez un mot-clé pour cette page, vous pouvez trouver d’autres
individus qui utilisent le même mot-clé pour le même objet. Cela peut donc aider à trouver
d’autres personnes qui ont des intérêts semblables ou partagent le même vocabulaire et c’est
un des points essentiels de ce que Vander Wal considère être la valeur ajoutée de la
folksonomie par rapport à la taxinomie. Autrement dit, des groupes de personnes avec un
vocabulaire semblable peuvent fonctionner comme une sorte de « filtre humain » entre eux.
Une autre caractéristique de la folksonomie est que les mots-clés doivent être produits à
plusieurs reprises pour avoir un sens commun et des tendances émergentes. C’est le nombre
de gens qui contribuent qui créé des opportunités et permet de discerner des informations
22
contextuelles quand les mots-clés sont agrégés. L’auteur décrivait la taxinomie comme des
sentiers créés par des pionniers alors que la folksonomie ressemblerait plus aux chemins créés
par les moutons dans les montagnes, qui sont formés au cours du temps, et que les bergers et
leurs bêtes sont arrivés à creuser au cours du temps et que désormais de nombreuses
personnes empruntent.
3) La puissance est dans les données :
Dans l’ère de l’information, nous produisons et profitons des quantités de données en
constante croissance. Certains craignent que ce raz-de-marée de données cause notre noyade.
Beaucoup de sociétés Web 2.0 tentent d’en offrir le plus grand nombre et estiment que dans
l’univers émergent du Web 2.0, c’est une des valeurs fondamentales. Dans son article, Tim
O’Reilly discute du rôle que les données et leur gestion ont joué pour des entreprises comme
Google, en soutenant que pour ces services, « la valeur du logiciel doit être proportionnelle à
la taille et au dynamisme des données qu’il aide à diriger ». Ces entreprises ont des
compétences en gestion de base de données et réseaux et elles ont surtout développé la
capacité de collecter ces données et de les mettre en ordre à une échelle gigantesque.
Un article du magazine Wired24 a mis l’accent sur les efforts de Google concernant la collecte
et le traitement de l’information et sur l’ouverture d’un nouveau parc de serveurs en Oregon,
aux Etats-Unis, tout près des réserves d’énergie hydro-éléctrique, qui sont les moins cher.
Google possède désormais une base de données totale qui se compte en petabytes (1 million
de gigabytes soit 1015 bytes). Google sous estimant fréquemment les chiffres, on estime cette
base de données entre 20 et 200 petabytes alors que Google utilisait 2 petabytes en 2006.
Cette base de données est chaque jour augementée de plusieurs terabytes d’information.
La plupart de ces données sont collectées depuis les utilisateurs et ensuite agrégées. C’est un
effet secondaire et automatique de l’utilisation ordinaire de services Internet importants et
d’applications comme Google, Amazon ou Ebay. Dans un sens, ces services apprennent à
chaque fois qu’ils sont utilisés. Pour exemple, Amazon enregistrera le choix d’un livre acheté,
24 Gilder George, Octobre 2006, The Information Factories Site Internet : http://www.wired.com/wired/archive/14.10/cloudware.html
23
le combinant avec des millions d’autre choix pour aider à fournir ensuite des
recommandations ciblées.
Anderson dans son ouvrage « The Long Tail : How endless choice is creating unlimited
demand », paru en 2006, appelle ces entreprises des « aggrégateurs de longue traîne » qui
profitent du bon sens du consommateur collectivement en regardant la manière de consommer
de millions d’entre eux. Ces données sont rendues disponibles par les développeurs, qui
peuvent les recombiner de différentes façons. Grouper des applications qui prennent une
quantité de chemins d’informations différents à partir de services 2.0, cela s’appelle des mash-
ups. Les cartes géographiques Google (Google Maps) sont souvent utilisées par d’autres
services comme les base de données photos par exemple, ce qui sert à les localiser sur une
carte. Le service Google Housingmaps.com permet de combiner les cartes Google avec
Craiglist, un service de location et vente de biens immobiliers.
La plupart de ces services ont rendu la vie plus facile sur le Web (qui peut imaginer la vie
sans Google maintenant ?) mais il y a un côté plus obscur. En effet on peut se poser certaines
questions : qui possède les données ? Ces données sont de plus en plus vues comme quelque
chose qui peut être reproposé, reformaté, et réutilisé. Mais quelles en sont les implications
pour la vie privée ? La mission de Google est d’organiser les informations du monde, et
partiellement cela comprend le monde de chacun et c’est là tout le problème. Certains
soutiennent qu’une composante clé du Web 2.0 est le processus de libération des données
dans un processus d’exposition et de reformatage, par les techniques d’open API ou de mash-
ups25. D’autres en revanche n’en sont pas si sûrs. Tim O’Reilly consacre d’ailleurs une partie
de son article à la course qui se livre pour posséder certaines classes de données : lieu et
identité, calendrier des évènements publics, identifiants de produits et noms d’espace.
4) L’architecture de la participation :
C’est un concept subtil qui décrit plus que les idées de collaboration ou de production de
contenus par les utilisateurs. L’importance de la participation est très forte, mais son
architecture l’est tout autant. Pour le comprendre, il suffit de regarder le manque
25 Miller Paul., 2005, Web 2.0 : Buiding the new library. Site Internet : http://www.ariadne.ac.uk/issue45/miller/
24
d’architecture du site Internet www.myspace.com qui inquiète d’ailleurs ses propres
dirigeants. L’importance égale de ces deux termes montre qu’au niveau fondamental, la façon
dont un service est conçu peut améliorer et faciliter la participation massive des utilisateurs.
A un niveau plus sophistiqué, l’architecture de la participation a un intérêt quand l’utilisation
normale d’une application ou d’un service permet son amélioration. Pour l’utilisateur, c’est un
effet secondaire invisible, comme nous l’avons vu précédemment, mais en fait, le système a
été conçu pour prendre en compte les actions des utilisateurs et les utiliser pour s’améliorer,
comme c’est le cas d’une recherche Google.
Il est écrit dans l’article de Tim O’Reilly que l’importance de la décentralisation grâce à
laquelle le logiciel BitTorrent fonctionne, c’est-à-dire que c’est le réseau de téléchargeurs qui
fournit la bande passante et les données à d’autres utilisateurs pour que plus il y a de
personnes qui participent, plus il y a de ressources disponibles sur le réseau pour tout le
monde. O’Reilly conclut que « BitTorrent démontre ainsi que la clé du principe du Web 2.0
est que plus il y a de personnes qui utilisent le service, plus il s’améliore. Il y a donc une
architecture implicite de la participation. Le service agit donc comme un chef de gare qui
raccorde ses wagons entre eux et en exploitant le pouvoir des utilisateurs eux-mêmes ».
Ce concept antidate toutes les discussions à propos du Web 2.0, car il tire ses racines des
communautés de développement de logiciels open source. De telles communautés se sont
organisées pour ôter les barrières à la participation et créer ainsi un marché plus libre et ouvert
aux suggestions et aux nouvelles idées. Ce même argument est maintenant appliqué aux
services basés sur le Web.
Les plus réussis semblent être ceux qui encouragent la participation de masse et fournissent
une architecture (avec des outils faciles à utiliser) pour réduire les difficultés liées à la
participation. Comme concept du Web 2.0, cette idée d’ouverture va au-delà de l’idée de
logiciel open source qui permettait d’ouvrir le code aux développeurs. Ici on ouvre la
production de contenu à tous les utilisateurs et il est permis de réutiliser ce contenu sous
forme de mash-ups.
25
5) Les effets de réseau, la loi des puissances et de la longue
traîne :
« Réflechissez profondément à la façon dont Internet fonctionne, et créez des systèmes et des
applications qui l’utilisent de façon intelligente, libérée des contraintes de l’ère de
l’ordinateur, et vous serez sur le bon chemin 26».
Tim O’Reilly
Le Web est un réseau de nœuds liés (des documents HTML reliés par des liens hypertexte) et
il est construit sur les technologies et protocoles Internet (TCP/IP, routeurs, serveurs, etc.) qui
forment un réseau de télécommunications. Il y a plus d’un milliard de personnes en ligne et
maintenant que ces technologies sont arrivées à maturité et que nous nous rendons compte de
leur importance et de leur échelle, les implications liées au travail sur ces réseaux
commencent à être explorées en détail. En comprenant la topologie du Web, sa forme et
l’inter connectivité deviennent importantes.
Il y a deux concepts clés sur les implications du Web 2.0 qui ont un rapport entre eux. Le
premier est concerne la taille d’Internet et l’ajout de nouveaux utilisateurs d’un service au
réseau. Ce phénomène est appelé l’effet de réseau. Le deuxième concept est la loi des
puissances et ses implications pour le Web, ce qui nous conduit à une discussion sur l’effet de
la longue traîne. Au cœur du commentaire de O’Reilly sur l’importance d’Internet en tant que
réseau, il y a la conviction qu’en comprenant ces effets à l’échelle du réseau et en travaillant
sur l’effet de longue traîne, on pourra savoir qui sont les gagnants du Web 2.0.
A) L’effet de réseau :
L’effet de réseau est un terme économique utilisé pour décrire l’augmentation en valeur des
utilisateurs existants d’un service dans lequel « plus ils interagissent avec d’autres personnes,
plus il y a de personnes qui utilisent ce service »27. C’est l’effet le plus employé pour décrire
l’augmentation dans l’usage d’un système de télécommunications, raccordé à des utilisateurs
26 O’Reilly Tim, 2006, Web 2.0 : Compact definition. Site Internet : http://radar.oreilly.com/archives/2006/12/web_20_compact.html 27 Klemperer, 2006, Network effects and switching costs.
26
de plus en plus nombreux. Quand un nouvel utilisateur téléphonique rejoint le réseau, c’est vu
non seulement comme un avantage individuel, mais les autres utilisateurs en profitent aussi
indirectement puisqu’ils peuvent désormais appeler un nouvel utilisateur. De telles théories ne
sont pas confinées aux télécommunications, et sont, par exemple, largement adaptables aux
produits technologiques et à leurs marchés. Il y a un parallèle évident avec le développement
de technologies de logiciels sociaux comme MySpace ou Facebook – ou l’arrivée d’une
personne nouvelle sur un réseau social profite aussi aux autres utilisateurs. Dès que l’effet de
réseau commence à se mettre en place et que les gens commencent à se rendre compte de la
popularité d’un service, un produit décolle souvent très rapidement sur son marché. C’est le
cas de Facebook en ce moment
Pourtant cela peut aussi enfermer les gens sur un produit. Un exemple très largement cité est
celui du succès de Microsoft Office. Comme de plus en plus de personnes ont profité d’office
(et ont compris qu’ils pourraient partager leurs documents avec de plus en plus de gens, il est
devenu beaucoup plus difficile d’échanger un autre document car cela voudrait dire qu’on
pourrait le partager avec un nombre restreint de personnes.
Une des conséquences de l’effet de réseau est que des produits moins bons peuvent quelque
fois être largement choisis et même, adoptés de façon universelle. C’est ce qui s’était passé
avec le format VHS qui avait supplanté le Betamax. Bien que les économistes fournissent des
arguments nuancés quand au détail, c’est un moteur puissant pour commercialiser le produit
dans le long terme si celui-ci est rapidement adopté. C’est ce qui a causé une compétition
intense entre produits émergents sur les marchés en phase de croissance. Le phénomène social
du bouche-à-oreille et la tendance humaine de se rassembler autour du plus grand nombre
jouent un rôle important28.
Comme Internet est, dans le fond, un réseau de télécommunications, il est donc soumis à
l’effet de réseau. Dans le Web 2.0, de nouveaux services dépendent énormément de l’effet de
réseau en raison de leur nature sociale. Effectivement, on peut comprendre que l’effet de
réseau est même leur raison d’être. En effet pourquoi rejoindre Facebook, si ce n’est pour
retrouver autant d’autres personnes que possible dans le but de se faire de nouveaux amis avec
les mêmes intérêts ou de retrouver ses amis du monde réel dans un espace commun ? Même
28 Klemperer, 2006, Network effects and switching costs.
27
pour les entreprises, il est parfois plus facile de créer un rendez-vous ou de partager un
document commun sur Facebook que de le faire grâce à l’intranet, les systèmes de messagerie
ou autres, c’est pourquoi les entreprises qui demandent à leur salariés de se mettre sur ce
réseau sont de plus en plus nombreuses.
B) L’importance de l’effet de réseau : la loi de Metcalfe :
Quelle est l’importance de l’effet de réseau ? Peut-on évaluer sa taille ? Cela peut avoir une
incidence sur la façon dont sont conçues les systèmes basés sur le Web, mais également parce
que les business models basés sur les nouvelles technologies et le Web 2.0 considèrent que cet
effet de réseau est important.
Robert Metcalfe, inventeur de l’Ethernet, proposa dans les années 70, une théorie sur l’effet
de réseau. D’après lui, « l’utilité d’un réseau de télécommunications tel qu’Internet est
proportionnelle au carré du nombre de ses utilisateurs ». L’idée première de Metcalfe était de
conceptualiser le fait suivant : « alors que le coût d’un réseau augmente de façon linéaire
(proportionnel à N), l’utilité pour les consommateurs augmente en fonction du carré (N²). Il y
a donc un point d’intersection ou les deux courbes se coupent, à partir duquel l’utilité
dépassera largement les coûts.
Bien qu’à l’origine ce constat était plus une formulation empirique du phénomène qu’une
réelle loi mathématique, elle a été confirmée en 1993 par George Gilder29, un journaliste
scientifique influent durant l’avènement d’Internet dans les années 90. Cependant, les récents
travaux de recherche ont contesté cette loi et les théories qui en ont découlées. Briscoe avance
que cette thèse est en fait incorrecte et que : « l’utilité d’un réseau de taille N est
proportionnelle à la fonction N log(N) »30. Une telle croissance, bien que forte, est beaucoup
plus modeste, que le carré de Metcalfe. Briscoe a ensuite expliqué que : « une grande partie de
la différence entre la valeur artificielle et la valeur réelle créée par Internet peut être expliquée
par la différence entre la fonction carré plus optimiste de Metcalfe et la fonction plus modérée
N log(N) ». Ce phénomène explique la montée en puissance d’Internet dans les années 90
29 Gilder Georges, 2006, The information factories, Wired. Site Internet : http://www.wired.com/wired/archive/14.10/cloudware.html 30 Briscoe, 2006, Metcalfe’s law is wrong. Site Internet : http://spectrum.ieee.org/jul06/4109
28
mais aussi l’éclatement de la bulle. Le fait, que certaines personnes considèrent encore que la
loi de Metcalfe est fondée pourrait provoquer la même réaction avec une bulle 2.0.
Expliquons maintenant pourquoi l’effet de réseau a plus de chance d’être proportionnel à N
log(N) : la clé pour comprendre cela est de bien se rendre compte que le terme d’utilité (ou
valeur) a été défini par Briscoe de façon assez vague. Comment expliquer que l’utilité ou la
valeur du réseau augmente quand une nouvelle personne s’y connecte ou qu’un nouveau site
est créé ? Pour le comprendre, il faut s’intéresser à la forme du Web et au rôle des fonctions
de puissance qui y agissent.
C) Quelle est la forme du Web : le rôle des fonctions puissance :
En plus des effets classiques des réseaux télécoms, il y a aussi des effets spécifiques au Web
liés aux interconnexions entre les différents contenus : chaque fois qu’un utilisateur contribue
à travers les blogs ou les autres services 2.0, l’effet de réseau s’accroît. Cet effet de réseau
entraîne l’amélioration continue des services et applications Web 2.0.
Dans la section précédente nous avons vu que Briscoe avançait que la taille de l’effet de
réseau était proportionnelle à N log(N) plutôt qu’à N² (Metcalfe). En d’autres termes, si on
ajoute une personne au réseau ou qu’un nouveau site se créé, cela ne donne pas une unité
d’utilité en plus à chaque personne du réseau mais l’utilité varie selon ce que les personnes
qui participent au réseau vont faire du nouvel arrivant (par exemple, les contacts mails qui
sont utiles pour vous ne le sont pas pour tout le monde). Comme cette utilité relative est
représentée par une distribution de loi de puissance, il peut être prouvé mathématiquement
que l’effet de réseau peut être proportionnel à N log(N).
Une distribution de loi de puissance est représentée par une courbe décroissante caractérisée
par un très petit nombre d’évènements très probables et un très grand nombre d’évènements
peu probables. Par exemple, la probabilité de trouver dans une phrase les mots « et » ou « le »
contre la probabilité de trouver le mot « anticonstitutionnellement »31. De telles distributions
de probabilités ont ce que l’on appelle une « longue traîne » (de l’anglais Long Tail). La
courbe s’approche de zéro sans jamais l’atteindre quand son abscisse tend vers l’infini.
31 Benkler, 2006, The wealth of networks : how social production transforms markets and freedom
29
La recherche sur les effets de réseau et la topologie du Web montrent que cette formule ne
s’applique pas uniquement aux effets de réseaux mais également à la forme du Web (la
manière dont les contenus sur Internet sont inter reliés grâce aux liens hypertextes) et à
l’architecture matérielle des routeurs.
D) La longue traîne :
L’expression longue traîne a été employée pour la première fois en 2004 par Chris Anderson32
pour décrire une partie du marché des entreprises telles qu'Amazon ou Netflix. Le concept
s’applique donc aux réseaux mais aussi aux produits. Anderson démontre les implications
économiques et sociales que la longue traîne engendre.
Pour aider à comprendre ce
concept, Anderson utilise
l’exemple de la vente
d’albums sur Internet. Si on
considère le nombre d’albums
vendus, les quelques albums
les plus populaires seront
vendus en masse alors que
tous les autres produits seront
vendus en quantité moindre.
On retrouve donc, en rouge,
les albums les plus populaires classés au Hit parade et qui passent à la radio. Alors que quand
on va vers la droite de la courbe, celle-ci chute brutalement suivant la loi de puissance. Cette
loi n’est vraie que s’il n’y a pas de barrière artificielle qui empêche les gens d’acheter les
albums les moins populaires. Exemple : les magasins de disques ne stockent généralement
que les albums les plus populaires et limitent l’effet de longue traîne. Sur Internet, ce
problème de stockage est moins important. Plus on avance vers la droite de la traîne, plus les
32 Anderson Chris, 2004, The long Tail, Wired. Site Internet : http://web.archive.org/web/20041127085645/http://www.wired.com/wired/archive/12.10/tail.html
30
ventes sont marginales, elles tendent même vers zéro. Cependant, les économistes ont
remarqué que même les produits les moins populaires font des ventes : ce sont les niches de
fin de traîne. Ce qui a étonné les économistes, c’est que le nombre total de ventes en fin de
traîne représente une valeur substantielle. D’après Anderson, dans la distribution
traditionnelle, les nouveaux albums représentent 63% des ventes en 2005 alors qu’en ligne le
pourcentage est inversé (36%). Amazon a profité de cet effet de longue traîne pour réussir et
Wikipédia en est aussi un excellent exemple. Leur base de données contient des milliers
d’articles supplémentaires comparé à ce que pourrait contenir n’importe quelle encyclopédie.
E) Les implications de la topologie du Web :
Comprendre la forme du Web et les implications des distributions des lois de puissance a, en
général, d’importantes conséquences dans la manière d’utiliser le Web et le développement de
technologies basées sur Internet. Cela a également des implications dans le rôle et la direction
que va prendre le Web 2.0, dans lequel les connexions sociales entre personnes sont
primordiales.
D’après Chris Anderson, nous allons vers une culture et une économie dans laquelle le
nombre de personnes que l’on retrouve dans les niches de la longue traîne importe réellement
tant ils sont nombreux. L’un des moteurs de la création de contenus de niche est la
démocratisation des outils de production. Le nombre d’albums sortis en 2005 a augmenté de
36% dont 300 000 morceaux gratuits, dont la plupart ont été produits par des amateurs et
uploadés sur MySpace. Cela démontre bien le fait que de consommateurs passifs, les
individus deviennent des producteurs actifs et que le productivisme décrit par l’écrivain Doc
Searls envahit notre culture.
Ais ce qui concerne l’industrie de la musique peut aussi bien être adapté à celle du cinéma.
C’est pourquoi dans les deux parties suivantes nous étudierons ce qu’internet peut apporter en
terme de nouvelles applications et services mais aussi selon les grandes idées du Web 2.0 à
l’univers du cinéma pour la commercialisation des films en salles ou en dehors.
31
IV) Les applications Web 2.0 au service du cinéma :
Dans la partie suivante, nous étudierons des exemples de fonctionnalités Web développés sur
le thème du cinéma. Les sites Internet liés au cinéma s’étant ouverts à l’utilisation de la vidéo,
largement utilisée sur le Web grâce aux débits et à l’espace qui s’accroissent pour chaque
internaute, ainsi que l’utilisation plus répandue de caméras, appareils photos, webcams et
autres téléphones portables permettant de créer ses propres vidéos. Le cinéma est aussi un
loisir populaire et partagé en groupe. Des communautés de cinéphiles se sont donc
naturellement formées et après l’ère des forums et des chats, nous passons à celle des profils
et des blogs.
1) Les blogs et profils :
Les blogs permettent notamment de donner son point de vue personnel et c’est à ce titre qu’ils
ont une réelle utilité dans le monde du cinéma, car chacun peut ainsi donner ses critiques de
films, s’exprimer sur ses goûts et les partager. Leur utilisation permet d’échanger, en montrant
des photos ou vidéos, en créant des articles sur les synopsis des films, les critiques des
derniers films vus par le blogueur, les stars du cinéma, etc. Pour les distributeurs, c’est bien
sûr un moyen de faire de la publicité autour des films à moindre frais (si les blogs sont lus).
Toutefois, cela peut avoir un impact négatif si les critiques sont trop vives, car elles pourraient
desservir le film. Certains blogueurs influents peuvent notamment être invités à des
évènements (avant-première, conférence de presse) par les distributeurs car ils pourront
ensuite communiquer autour du film. Que ce soit sur Skyblog (ou certains blogs peuvent être
axés sur le cinéma et les stars) ou sur AlloCiné, l’intérêt pour les sites Internet est d’accroître
le nombre de pages vues (grâce au contenu rédigé par les blogueurs) et de visiteurs (venant
pour lire les articles des blogs). Cela permet de créer sur le site une base de données ne
pouvant être copiée par d’autres sites. Dans le cas d’AlloCiné, l’intérêt est majeur puisqu’il
est aussi de donner envie d’aller au cinéma. Grâce aux blogs, AlloCiné se créé donc une
communauté de blogueurs passionnés de cinéma, accroît le nombre de pages vues et de
visiteurs du site et communique sur les films sans avoir à créer de contenus.
32
Les profils ont un intérêt différent : en plus de créer une base de données difficilement
imitable par les concurrents comme pour les blogs, ils permettent de collecter des
informations personnelles sur les goûts des visiteurs. Le but n’est pas seulement de prendre
des informations sur les goûts cinéma des visiteurs mais aussi sur sa situation, son réseau
d’amis… Avec les données ainsi collectées, la communication promotionnelle sur les films
peut être ciblée sur des groupes bien précis de spectateurs déjà en affinité avec le sujet, le
ciblage comportemental étant à priori le nerf de la guerre de la publicité sur Internet dans les
années à venir. Les profils sont d’ailleurs d’actualité en ce moment puisque le site
communautaire Facebook a été valorisé à 15 milliards de dollars. Ce sujet étant toutefois très
récent, aucune publicité basée sur les informations prises dans les profils n’a encore été testée,
on ne peut que deviner les possibilités offertes. Pour un distributeur, l’intérêt sera bien sûr de
cibler des visiteurs ayant vu et apprécié des films similaires au cinéma, de trouver des moyens
pour que ces visiteurs échangent ensuite sur le film avec leur communauté d’amis. Les
campagnes devraient bien sûr gagner en efficacité si le ciblage est affiné. Pour AlloCiné ou
Flixster, par exemple, on retrouve dans la page profils les goûts cinématographiques des
personnes enregistrées à travers leurs notes et critiques, leurs commentaires. Le principe étant
comme sur Amazon de pouvoir communiquer sur le principe : « vous avez aimé le film
Robots, vous aimerez le nouveau film Wall-E » car ce sont deux dessins animés au sujet
similaire ou « vous avez aimé Star Wars Episode 1 et 2, ne manquez pas la sortie de Star
Wars 3 ». Le site Internet pourra aussi envoyer d’autant plus d’informations sur un film si le
visiteur a déjà une affinité particulière pour celui-ci.
2) Les wikis :
Les wikis représentent une base de données formidables d’informations sur le cinéma. C’est
d’ailleurs un portail à part entière sur Wikipédia33. Une fois de plus, ce sont les visiteurs qui
créent le contenu et peuvent accumuler les informations autour du film : synopsis, secrets de
tournage, date de sortie, casting… C’est donc un nouveau moyen pour le distributeur de créer
de la visibilité autour du film. Le wiki étant encore à ses prémices, il pourrait encore évoluer
notamment sur les films en laissant le soin aux internautes d’ajouter des articles d’actualité
33 Site internet : http://fr.wikipedia.org/wiki/Portail:Cin%C3%A9ma
33
(rumeurs de tournage, nouveaux acteurs ajoutés au casting, évènement sur le tournage, etc…)
afin de donner un renouveau d’intérêt pour le film en question.
Les sites Internet dédiés au cinéma ont bien sûr intérêt à exploiter les informations des
différents wikis existants ou à créer le leur afin de créer un maximum de contenus autour des
films et en profitant de la connaissance de leurs visiteurs sur les films. Les communautés de
fans autour de certaines sagas comme Star Wars ou Harry Potter représentent d’ailleurs une
véritable mine d’or pour accumuler des contenus riches et variés (personnage, univers du film,
analyse) qui différent des contenus classiques (synopsis, casting, date de sortie). On retrouve
notamment sur Wikipédia bon nombre d’articles qui détaillent la chronologie, les planètes,
les organisations ou encore l’évolution de l’univers de la Guerre des étoiles34 ou les
professeurs, les animaux magiques et les moyens de transport de l’univers d’Harry Potter35.
Au-delà des informations liées au film, il est aussi intéressant de regrouper des informations
sur les genres, courants et techniques cinématographiques, l’histoire et les métiers du cinéma,
les lieux de tournages, etc. Par ce biais, le contenu créé sur les wikis est souvent
complémentaire et plus détaillé que celui des sites Internet dédiés au cinéma.
3) Les tags :
Les tags sont désormais utilisés sur les sites Internet dédiés au cinéma comme IMDb36 ou
AlloCiné37. Toutefois on remarque que leur utilisation est différente. Sur IMDb, par exemple,
les tags sont des mots-clés qui peuvent reprendre un aspect seulement mineur du film, voire
une allusion. Un film dont le thème principal n’est pas les super-héros mais qui y fait une
référence - ne serait-ce que dans un dialogue - peut avoir un tag super-héros. IMDb référence
donc dans ses tags tous les films plus ou moins liés au mot-clé. On retrouve donc certaines
aberrations comme le film « Zorro » dans les super-héros. Cela permet tout de même de
connaître tous les films qui ont un lien (plus ou moins proche) avec le tag. Il est ensuite
possible de trier les films par date, notation ou ordre alphabétique. De plus, le nuage de tags
sur IMDb permet d’affiner sa recherche en croisant des tags. Par exemple, on peut, grâce à 34 Site internet : http://fr.wikipedia.org/wiki/La_Guerre_des_%C3%A9toiles 35 Site Internet : http://fr.wikipedia.org/wiki/Harry_potter 36 Exemple de tag « superhero » sur IMDb. Site Internet : http://french.imdb.com/keyword/superhero/ 37 Exemple de tag « super-héros » sur AlloCiné.Site Internet : http://www.allocine.fr/tags/default_gen_tag=super%2Dh%E9ros&filtre=film.html
34
une démarche en entonnoir, trouver tous les films liés aux super-héros, puis choisir seulement
ceux qui parlent d’élasticité. On arrive alors sur une liste de films dont les super-héros sont
élastiques. On pourrait encore choisir parmi la liste de tags seulement ceux qui parlent d’une
relation entre frère et sœur38. Cette recherche croisée des tags est très intéressante puisqu’elle
permet d’avoir plusieurs mots-clés afin de préciser sa recherche dans une base de données très
vaste.
AlloCiné fonctionne de manière différente : le parti pris éditorial est de recenser sous un mot-
clé les films dont le thème central est lié à ce mot-clé. Par exemple, le tag super-héros ne
recense que des films de super-héros et non les films qui y font seulement allusion. Quelqu’un
qui chercherait à voir tous les films dont le thème principal est Halloween cliquera donc sur le
tag du même nom sans avoir besoin d’affiner sa recherche. On lui donne ensuite la possibilité
de trier les tags selon certains critères : meilleurs films, prochainement, en salles afin qu’il
puisse faire son choix.… Au-delà des thèmes du film, les tags sur AlloCiné peuvent aussi
faire référence aux auteurs ou acteurs des films. On retrouvera ainsi « les essentiels de Matt
Damon » ou ceux de Woody Allen. L’application tags étant récente sur AlloCiné, aucune
rubrique dédiée et aucun nuage de tags n’ont encore été créés sur ce site. Il est donc
nécessaire pour trouver un tag d’être déjà sur la fiche d’un film ou d’un série. Le but final
étant de faire découvrir un maximum de films aux spectateurs, de faire revivre le fond de
catalogue et d’être référencé sur les moteurs de recherche pour des thèmes et plus seulement
des noms de films.
Ces deux approches bien que très différentes sont néanmoins complémentaires. La
« démarche en entonnoir » proposée par IMDb pourrait d’ailleurs être adaptée au modèle
d’AlloCiné. Les possibilités concernant les tags sont donc larges, même dans le milieu du
cinéma, les tags étant aussi associés aux articles sur AlloCiné39 comme c’est le cas sur les
blogs. Pourtant si les utilisateurs peuvent proposer d’ajouter un film à un tag, une
confirmation de l’équipe rédactionnelle est nécessaire. D’autre part, un utilisateur ne peut
créer de tags. La solution serait qu’ils puissent en proposer et que ceux-ci soient confirmés par
l’équipe de rédaction avant leur mise en ligne.
38 Site Internet : http://french.imdb.com/keyword/superhero/elasticity/brother-sister-relationship/ 39 Sur chaque article de la homepage on retrouve des tags en corrélation. Site Internet : www.allocine.com
35
4) Le partage de données :
Comme nous l’avons vu précédemment, le partage de données se développe à vitesse lumière,
particulièrement sur les vidéos avec des sites comme YouTube, qui sont actuellement en plein
essor. Alors que l’industrie du cinéma se battait contre toute mise en ligne de films, la
popularité des sites de partages de données a permis de repenser le modèle économique afin
que les ayant droits puissent être rémunérés. Des sites comme Dailymotion cherchent
d’ailleurs à protéger les contenus40 pour pouvoir ensuite signer des partenariats avec les
distributeurs ou les chaînes de télévision (ou les syndicats audiovisuels, notamment l’USPA)
et ajouter ainsi de nombreux contenus à leurs catalogue. Le problème majeur du partage de
données avec les internautes étant celui de la propriété puisque la majorité des contenus
déposés sur ces plates-formes le sont sans accord de leurs auteurs que ce soit pour la vidéo ou
la bande son. Les sites cherchent donc désormais à signer des accords pour régulariser leur
position et les ayant droits à trouver d’autres moyens de faire des profits. La solution la plus
en vogue est celle du partage des revenus (ou revenue sharing) qui permet de partager les
revenus générés par la publicité du site Web41. Les ayant droits profitent donc de la visibilité
du site et de son espace de stockage tandis que le site Internet profite de l’audience pour
mettre de la publicité dont il a partagera les revenus avec les ayant droits (après avoir payé ses
coûts d’hébergement et de bande passante) selon les termes d’un accord passé au préalable.
Pour ce qui est du partage de revenus avec les utilisateurs, le cofondateur de YouTube, Chad
Hurley, a annoncé en Janvier dernier que la plateforme de partage de vidéos, rachetée par
Google pour 1,65 milliards de dollars, allait commencer à partager une partie de ses recettes
publicitaires avec les internautes. Ces revenus récompenseront une forme de "créativité" et
seront versés uniquement aux contributeurs qui détiennent le copyright des vidéos publiées en
ligne.
40 L’accord que Dailymotion a passé avec l’INA via l’utilisation de la technologie va permettre d’assurer la protection des contenus aux ayants droits. Site Internet : http://www.lemonde.fr/web/article/0,1-0@2-3236,36-972324@51-969846,0.html 41 Le site internet L’Internaute a publié un article sur le revenue sharing et ses modèles. Site Internet : http://www.journaldunet.com/diaporama/070226-partage-revenus-contributeurs/
36
5) Les podcasts :
Le podcasting est très utilisé pour le cinéma puisqu’il permet entre autre de voir des bandes-
annonces de films. AlloCiné en a d’ailleurs fait une spécialité puisqu’il diffuse les bandes-
annonces notamment sur iTunes ainsi que son émission quotidienne sur l’actualité du cinéma
(La Minute). Les mises à jour hebdomadaires mises en place le mercredi permettent de coller
à l’actualité cinéma et aux sorties de films. L’utilisateur qui souhaite avoir les nouveautés de
chaque semaine n’à qu’à s’inscrire au podcast pour récupérer le contenu. Le flux RSS mis en
place permet de le tenir informé sans qu’il soit obligé d’aller rechercher les infos. Pour ceux
qui préfèrent le fonctionnement classique, ils n’ont qu’à se rendre sur la page du podcast et
regarder les bandes-annonces qu’ils souhaitent. Une fois de plus, le modèle économique est
basé sur la publicité diffusée en début de bande-annonce. La diffusion des contenus multi-
canaux étant encore l’argument majeur pour communiquer vers la plus large audience. De
plus, de nombreux sites Internet reprennent les informations disponibles sur iTunes et listent
les podcasts par catégorie pour créer une base de donnée des podcasts référencés, ce qui
augmente encore la diffusion42.
6) Les flux RSS :
Les flux RSS sont aussi utilisés dans la promotion de films ou sur les sites dédiés au cinéma.
Ils permettent, tous comme les podcasts de coller à l’actualité. Pour des sites comme AlloCiné
ou IMDb, ils peuvent reprendre les dernières news cinéma. L’intérêt pour l’utilisateur est de
retrouver toutes les informations qu’il souhaite au moment ou elles sont créées afin de ne pas
revenir sur le site si l’actualité n’a pas changé depuis son dernier passage. On retrouve aussi
dans les flux RSS d’AlloCiné les vidéos des sorties en salles ainsi que l’émission La Minute.
Ces flux sont ensuite disponibles sur des sites Internet comme Netvibes ou iGoogle ce qui
permet d’étendre une fois de plus les moyens de communication que ce soit sur les films ou le
site Internet et d’augmenter l’audience.
42 Site internet : http://www.touslespodcasts.com/annuaire/culture/cinema/
37
7) Les applications et services Web les plus récents :
Comme on l’a vu dans les exemples précédents, toutes sortes d’applications et de services
estampillés Web 2.0 et qui ont un rapport avec le cinéma se sont développés. Ce domaine
étant si vaste, on peut donc penser que chaque nouvelle application du Web 2.0 pourra être
développée pour communiquer autour du cinéma.
Prenons l’exemple récent des mash-ups. Toutes sortes d’applications ont été créées qui
utilisaient ce principe. Une application liée au cinéma pourrait par exemple être développée
qui permettrait de voir les lieux de tournages de tous les films à travers la planète. Il serait
alors facile pour les passionnés de s’y rendre ou de voir des photos et vidéos de l’endroit lors
du tournage. Il existe aussi sur AlloCiné une fonction plan qui référence toutes les salles de
cinéma à proximité de chez soi.
L’exemple de Facebook est aussi très intéressant puisque de nombreux sites profitent de
l’importance de ce nouveau réseau social pour créer des applications. Flixster, le site
communautaire sur le cinéma propose notamment le « never ending quiz » qui est un
questionnaire sans fin sur le cinéma ou encore de comparer ses goûts en matière de films à
ceux de ses amis sur Facebook. Il reprend donc le principe des applications créées sur son site
mais les mets à disposition sur un autre afin de gagner en visibilité et en audience.
Toutes sortes d’applications peuvent donc être créés sur Internet au service du cinéma. Nous
allons voir dans la partie suivante comment elles correspondent aussi aux grandes idées
développées sur le Web 2.0.
38
V) Les grandes idées du Web 2.0 liées au
cinéma :
Nous avons précédemment développé les grandes idées du Web 2.0 liées aux concepts de
O’Reilly. Tous comme les applications, ces grandes idées peuvent être liées au cinéma. Nous
analyserons donc dans cette partie ces concepts en les rapprochant de l’univers du cinéma. Le
Web étant devenu un média de contenus audiovisuels, les films sont considérés et échangés en
tant que tels. Il est donc important de repréciser si l’industrie du cinéma a suivi (ou même
déclanché) les mouvements du Web 2.0 et de quelle façon. Le contenu généré par les
utilisateurs que nous allons traiter dans la partie suivante en est d’ailleurs un parfait exemple.
1) Le contenu généré par les utilisateurs :
Comme nous l’avons vu dans la partie précédente le contenu généré par les utilisateurs à
travers les blogs, les wikis, ou encore le partage de données à un fort intérêt pour la
communication dans le domaine du cinéma. Mais c’est sur le partage de vidéos que son
intérêt devient différent. En effet, si l’on retrace l’historique de YouTube43, on constate que le
site s’est fait connaître parce qu’il avait diffusé des vidéos d’une émission de télévision très
connue aux Etats-Unis mais aussi de nombreux films. Le contenu généré par les utilisateurs
n’était alors qu’un moyen détourné de mettre à disposition des films dont ils n’avaient pas les
droits, à l’instar des réseaux peer-to-peer. Le contenu n’étant pas généré mais seulement
envoyé par les utilisateurs. Mais les sites de partage de vidéos devenant très populaires grâce
à cela, ils ont permis à des utilisateurs anonymes d’avoir de la visibilité. Si le contenu est bon,
il pourra être regardé par des millions d’utilisateurs. Parmi les dix vidéos les plus regardées de
YouTube, on retrouve notamment à la première place et avec 65 millions de vues, la captation
amateur d’un spectacle, à la cinquième place un court métrage et à la sixième un amateur
jouant de la guitare chez lui et enregistré à la webcam. Ces créations n’auraient bien sur pas
eu une telle visibilité sans une plateforme pour les relayer. YouTube a d’ailleurs annoncé qu’il
43 Site Internet : http://fr.wikipedia.org/wiki/YouTube
39
rémunérerait par le partage des revenus publicitaires certains amateurs dont les pages sont très
visitées. L’industrie cinématographique, notamment celle du court-métrage tente de profiter
de cette opportunité pour gagner en visibilité et trouver une nouvelle forme de revenus. On
retrouve d’ailleurs sur la chaîne cinéma de Dailymotion de nombreux courts-métrages mis en
avant44. Le contenu généré par les utilisateurs est donc un bon moyen pour arriver à une
exhaustivité des contenus sur le net.
2) Tirer parti de l’intelligence collective :
Les critiques et notations en ligne sont de plus en plus répandues sur les sites Web 2.0,
notamment les sites marchands comme Amazon. Le site cinéma ne font pas exception à la
règle puisque chacun peut désormais noter les films qu’il a vu. Ainsi les spectateurs peuvent
retrouver sur les sites AlloCiné, IMDb ou encore Flixster le point de vue des internautes et
leurs critiques de films. De même que les critiques presse, ces critiques sont intéressantes car
elles permettent de connaître l’avis d’un très grand nombre de spectateurs. Sur le site
AlloCiné, par exemple, on retrouve dans la rubrique « les meilleurs films 2007 » des films qui
ont eu un excellent bouche-à-oreille comme « Ratatouille » (plus grand nombre d’entrées en
salle cette année avec 7,5 millions) ou des films sleepers, c’est-à-dire des films qui ont été
diffusés dans un nombre de salles restreints mais qui sont restés longtemps en salles du fait de
leur qualité et du bouche-à-oreille. On retrouve ainsi « La vie des autres » à la première
position du classement (film primé dans les plus grands festivals) ou « Persepolis ».
3) La puissance est dans les données :
Après avoir expliqué le phénomène d’intelligence collective, nous allons voir comment elle
peut être intelligemment utilisée par les entreprises pour définir les utilisateurs. Le système de
notation d’AlloCiné va plus loin en permettant aussi de comparer ses goûts
cinématographiques avec ceux des autres membres. On pourra ainsi savoir si un de ses amis a
les mêmes goûts filmographiques ou non. A terme le but est de pouvoir lire des critiques en
44 Site Internet : http://www.dailymotion.com/fr/cluster/shortfilms/featured
40
sachant si les personnes qui les ont écrites ont les mêmes goûts que soi. On a donc bien un
système ou l’intelligence collective est exploitée et ou le contenu est utilisé pour inciter les
personnes à aller au cinéma. Un spectateur doit pouvoir savoir à l’avance grâce aux notations
et critiques de ses pairs, si le film qu’il va aller voir lui plaira. On arrive donc à un niveau
comportemental ou on connaît non seulement les goûts de la personne mais où on peut aussi
prédire ses choix. Flixster et AlloCiné ont ainsi des moteurs de recommandations. Ils
permettent, une fois que vous avez notés quelques films, de comparer vos goûts avec ceux de
l’ensemble des internautes et de prédire une note pour des films que vous n’avez pas vus ou
notés. Vous pouvez ainsi savoir à l’avance si vous aimerez un film ou non. Plus vous notez de
films et plus les prédictions s’affinent et de la même manière plus les internautes notent de
films et plus la base de données devient riche et peut prédire des comportements avec
précision. L’étape suivante de ces prédictions de comportements pourrait être d’offrir la
possibilité aux distributeurs de films de cibler leurs campagnes sur des personnes qui sont
plus en affinité avec leur film.
Facebook va encore plus loin dans l’accumulation de données, puisqu’il regroupe des
informations très complètes sur les profils de chaque utilisateur et recense aussi les données
d’applications tierces comme le moteur de notation de films de Flixster (système similaire
celui d’AlloCiné). Toutes ces données peuvent ensuite être exploitées pour catégoriser les
personnes et leurs comportements afin d’affiner d’éventuelles campagnes publicitaires. A
terme, le distributeur souhaitant toucher les 15-24 ans technophiles et ayant une affinité pour
les mangas touchera ainsi sa cible.
L’importance des données ne concerne pas que les utilisateurs et leurs comportements (bien
que ce soit le nerf de la guerre pour les campagnes publicitaires des prochaines années), elle
concerne aussi les contenus photo, vidéo ou autres qu’ils apportent aux plateformes. Ce qui
fait désormais l’importance d’une plateforme est sa base de données. Les sites Internet ont
compris que l’apport de contenus créés par l’entreprise ne suffisait pas à sa croissance. En
faisant contribuer les utilisateurs au contenu, les sites Internet 2.0 multiplient les possibilités
d’augmenter leurs contenus. C’est ce qui a permis l’essor de sites de partages vidéo comme
Youtube et Dailymotion. Après une déferlante de piratage ou les internautes postaient des
contenus dont ils n’avaient pas les droits, l’offre tend à se légaliser. Les majors de l’industrie
musicale comme les distributeurs de films proposent désormais de mettre leurs contenus en
ligne et les signatures d’accords s’enchaînent. De l’utilisateur qui poste du contenu depuis sa
41
webcam à l’extrait exclusif du dernier spider-man, tous les contenus sont sur les plateformes.
On retrouve donc l’effet de longue traîne ou 100% du public trouvera 100% de l’offre qu’il
recherche. Les différentes plateformes tentent maintenant de se démarquer en ayant la base de
données la plus fournie, que ce soit du contenu professionnel ou amateur. Les vidéos venant
d’un très grand nombre d’utilisateurs, il devient très difficile pour les concurrents de créer la
même base de données ce qui est une puissante barrière à l’entrée de ces marchés.
4) L’architecture de la participation :
Toutefois la participation et l’intelligence des utilisateurs et une base de données grandissante
ne suffisent pas toujours à développer un site Web 2.0 : une architecture riche est nécessaire.
A l’instar du modèle de Google étudié précédemment, YouTube propose à l’utilisateur des
vidéos en adéquation avec sa recherche (que ce soit par le titre ou les tags) puis adapte les
vidéos proposées en fonction de la vidéo que vous regardez. Par exemple, si on lance une
vidéo dans YouTube, la liste des vidéos similaires évolue à chaque fois en fonction, pour
s’ajuster au mieux et proposer des résultats en cohérence avec les goûts de chaque utilisateur.
Selon le parcours de l’internaute, les propositions seront donc différentes. L’intérêt des
plateformes est bien sûr que le visiteur consomme un maximum de vidéos selon ses goûts
personnels.
L’architecture de participation de Joost, la webTV basée sur le peer-to-peer, est aussi
intéressante puisque cette plateforme utilise la bande passante des utilisateurs pour diffuser les
programmes. Chaque utilisateur a donc plusieurs parties du programme sans l’avoir dans son
intégralité afin d’éviter le piratage. De son côté Joost économise ainsi desffrais astronomiques
de bande passante. On y trouve désormais une base de données conséquentes de programmes
audiovisuels et de films. Paramount Pictures a notamment créé une chaîne ou l’on peut voir
une partie de son catalogue de films en français. On peut désormais voir les films Jackass,
Zoolander ou encore Star Trek sur Internet en toute légalité.
42
5) Les effets de réseau, la loi des puissances et la longue
traîne :
Comme nous l’avons plus tôt, la base de données des sites Internet est un atout majeur. Pour
comprendre son intérêt dans l’industrie cinématographique, il faut analyser son public et sa
diversité. En effet le public des salles de cinéma représente déjà un réseau en soi. Il est donc
intéressant pour des sites comme AlloCiné ou Flixster d’en faire des utilisateurs de leurs sites
afin d’améliorer leurs moteurs de notation et de recommandation de films mais aussi afin
qu’ils puissent communiquer entre eux via les profils, les blogs, les commentaires, les forums,
etc. Plus il y a d’utilisateurs qui interagissent entre eux et plus il y a de nouveaux utilisateurs
du service. Les sites de cinéma ont donc tout intérêt à agrandir leur réseau, et ce, au-delà du
public cinéma. En effet, même si le public cinéma est la principale cible, d’autres publics
regardent des films à la télévision, en DVD, VOD ou maintenant sur Internet sans se rendre
pour autant au cinéma. Ils partagent donc l’univers cinéma au sens large et peuvent être
ajoutés au réseau, ce qui permettra de l’agrandir et de l’améliorer.
Dans l’industrie cinématographique, au-delà de l’effet de réseau on retrouve celui de la
longue traîne, puisqu’il s’agit d’un marché ou se confronte une offre et une demande. Les
sites Internet ont donc tout intérêt à proposer 100% de l’offre afin de satisfaire 100% de la
demande. Les films qui ne sortent pas au cinéma ou en DVD peuvent ainsi sortir sur Internet,
dématérialisés de tout support. Les sous-genres de films pourraient ainsi trouver leur public et
favoriser la demande.
Tous ces exemples nous ont montré qu’Internet est un moyen formidable pour communiquer
sur les films mais aussi pour développer l’industrie cinématographique à l’extérieur des salles
à travers un média riche et en constante évolution qui apporte des solutions à tous types de
produits. Dans ce contexte, quelles seront les évolutions du Web ?
43
VI) Le futur du Web 2.0 :
En moins de quinze ans, le Web a grandit d’un petit groupe de scientifiques du CERN jusqu’à
un espace global d’information de plus d’un milliard d’utilisateurs dans le monde.
Aujourd’hui, le Web est en train de retourner à ses propres racines en tant qu’outil de lecture
et d’écriture mais aussi d’entrer dans une phase plus sociale, communautaire et participative.
Mais quelle sera la prochaine étape ? Alors que le Web 2.0 est déjà presque opérationnel,
certains se demandent déjà à quoi ressemblera le Web 3.0.
Tout d’abord, il est important d’expliquer la marche globale de son développement. Le très
grand nombre de données et de contenus générés par les utilisateurs va sans aucun doute
s’accroître au fur et à mesure que les internautes découvriront de nouvelles idées. L’ampleur
de ce développement augmentera suivant l’effet de réseau alors que de plus en plus
d’utilisateurs se joindront au réseau et que les utilisateurs existants profiteront des services
Web 2.0. Toutefois cet effet sera modéré par la lassitude des personnes et au fur et à mesure,
un temps de disponibilité en baisse. C’est déjà le cas pour un très grand nombre de blogs qui
sont créés et abandonnés rapidement. Les processus de production qui permettent de générer
ce genre de contenu en ligne deviendront de plus en plus sophistiqués avec l’arrivée de
logiciels plus puissants et faciles d’utilisation45, les mash-ups, ainsi que les appareils
numériques.
Cependant, cela posera des problèmes importants en terme de protection de la propriété
intellectuelle. D’autre part, le trop-plein d’information risque d’avoir des effets notoires sur
bon nombre de personnes. Avec tant d’accès possibles à l’information (blogs, wikis, flux
RSS, etc.), les utilisateurs pourraient se sentir perdus au milieu d’une jungle vivante et
évolutive d’information.
La multiplication d’informations et de données personnelles (photos, musiques, vidéos, livres,
films, voyages, etc.) sous forme de catalogue sera probablement l’une des tendances
majeures. Selon Borgman, « une partie du contenu sera auto produite mais la plupart sera
45 Cerf, 2007, An information avalanche
44
collectée grâce au téléchargement ou importée grâce à des liens. Les individus souhaiteront
vraisemblablement manipuler le contenu de ces catalogues et ainsi initier un processus
innovant »46. Ce type de collections, signature personnelle de l’utilisateur, pourra être partagé
ou échangé avec d’autres membres du réseau. Ces collections seront les archives personnelles
de leurs auteurs et deviendront, en ce sens, capitales. Un historique de cet espace personnel
permettra aux autres utilisateurs de suivre la démarche entreprise par son auteur et d’accorder
plus ou moins de crédit aux informations présentées.
Selon Morville, « l’ensemble des documents numériques, comme les photos ou les documents
Word par exemple, sera enrichi d’un historique »47.
Dans les années à venir, l’ordinateur personnel sera plus un moyen de se connecter à des
services et logiciels en ligne plutôt que d’utiliser des outils et ressources locales. Cette
tendance sera exacerbée par le fait que le réseau sera disponible partout et tout le temps.
Enfin, nous observerons un changement dans la manière dont les personnes interagissent entre
elles, ce que Nigel Shadbolt appelle « la fabrique des gens connectés », grâce à ces nouvelles
technologies et la création de nouvelles communautés sociales dans lesquelles nous
partageons des informations et mettons en oeuvre des comportements collectifs. Les
conséquences sociologiques du Web deviennent de plus en plus importantes et cela sera, sans
aucun doute, la principale tendance à long terme. L’institut Internet de l’université d’Oxford a
montré dans une étude de 2005 qu’une personne sur cinq avait déjà rencontré une nouvelle
personne ou s’était fait un ami en ligne48.
1) Le Web 2.0 et le Web sémantique :
Au début de ce mémoire, nous avons abordé les deux théories principales (celle de Tim
Berners Lee et celle de Tim O’Reilly) qui permettent de comprendre les différences entre la
technologie Web et les idées sur le Web 2.0. Cependant, il y a aussi un autre débat à propos
46 Borgman, 2003, Personal digital libraries : creating individual spaces for innovation.Site internet: http://www.sis.pitt.edu/~dlwkshop/paper_borgman.html47 Morville, 2006, Ambiant Findability48 Dutton, 2005, Oxford Internet Report : The Internet in Britain.
45
des développement Web : il concerne la relation entre les idées sur le Web 2.0 et le Web
sémantique.
La première parution a propos du Web sémantique a été faite par Tim Berners Lee dans un
article du Scientific American49. Il étudiait des outils permettant de traiter les données en
réalisant des actions de notre part. Toutefois, il reste une confusion sur ce qu’est précisément
le Web sémantique et son but, plus ou moins éloigné des aspects commerciaux. Pour Tim
Berners-Lee, c’est l’essence même du passage des documents aux données – la transformation
d’un espace se composant de documents texte « humainement lisibles » à un espace
d'information dans lequel les données lisibles sont lues par des machines, et reformatées avec
une réflexion, puis elles sont échangées et suivies. Pourtant, jusqu'au présent, même les
partisans de Berners-Lee soutiennent que cette vision ne s’est pas encore réalisée (Shadbolt,
2006) bien que les technologies et les applications commencent maintenant à apparaître.
Il y a débat entre les adeptes du Web 2.0, les fidèles des logiciels sociaux et les partisans du
Web sémantique (Morville, 2006). Comme nous avons vu dans la partie sur les folksonomies,
la discussion reste ouverte entre ceux qui préfèrent un vocabulaire formel et contrôlé (les
ontologies50) et ceux qui préfèrent la nature plus informelle des marque-pages sociaux.
Une question qui a déterminé le développement du Web sémantique est le besoin de
développer des ontologies pour une multitude de domaines, qui utilisent des ressources
considérables. Mais entre les partisans des ontologies, folksonomies, logiciels sociaux et
autres, Morville dit que « ces communautés doivent collaborer de plus près, peut-être dans
une approche de commune ».
Effectivement, Mika soutient que : « bien que le Web Sémantique soit envisagé comme un
système d'ordinateur à ordinateur, le processus de création et de maintien est le lien social,
particulièrement en ce qui concerne la création d'ontologies. Par exemple, Nickles argumente
pour inclure des informations sur les attitudes sociales et les opinions controversées dans le
Web afin d’aider son développement.
49 Berners Lee, Tim, 2005, The Semantic Web, Scientific American. Site Internet : http://www.sciam.com/article.cfm?articleID=00048144-10D2-1C70-84A9809EC588EF21&sc=I100322 50 En informatique, une ontologie est un ensemble structuré de concepts permettant de donner un sens aux informations (Wikipédia).
46
Nous étudierons ici les différents axes de développement du Web sémantique et ses
utilisations à travers les services et applications du Web 2.0.
A) Les wikis sémantiques :
C’est un domaine de recherche en développement, mais les chercheurs essayent de trouver
des moyens d’annoter le contenu des wikis avec des informations sémantiques51. Comme le
dit Oren, « le wiki sémantique permet aux utilisateurs de faire une description des choses dans
le langage classique à la manière de Wikipédia, et aussi d’annoter ces pages avec des
informations sémantiques en utilisant des langages formels tels que le RDF ou l’OWL »52. Un
certain nombre de moteurs sont développés pour soutenir ce concept, comme Platypus ou
SemperWiki53. Toutefois, il existe une alternative avec OntoWiki54, qui exploite une
architecture de participation pour permettre aux utilisateurs de travailler en collaboration.
B) Les blogs sémantiques :
Les blogs peuvent devenir plus qu’un outil de publication facile à utiliser. Leur capacité à
produire des flux RSS directement exploitables signifie qu’ils peuvent aussi être utilisés pour
distribuer des résumés de leurs contenus qui seront lus par des machines. Cela permettra de
faciliter l’agrégation d’informations semblables provenant d’un certain nombre de sources55.
Traditionnellement, ces flux sont utilisées pour les titres de post des blogs, mais en combinant
les idées du Web sémantique avec les logiciels de blogging, il devient possible de développer
une nouvelle gestion de l'information ou le contenu des posts est lui aussi analysé. Par
exemples les données sémantiques RDF peuvent être utilisées pour représenter et exporter des
métadonnées56 blog, qui peuvent alors être traitées par un autre ordinateur. À la longue,
51 Site Internet : http://www.semwiki.org/ 52 Oren, 2006, How semantic make better Wikis. Site Internet : http://www2006.org/programme/files/xhtml/p171/pp171-oren/pp171-oren-xhtml.html 53 Site Internet : http://www.semperwiki.org/ ; http://platypuswiki.sourceforge.net/whatis/index.html 54 Site Internet : http://iswc2006.semanticweb.org/items/Auer2006ys.pdf Voici comme exemple, un prototype de OntoWiki : http://3ba.se/ 55 Cayzer Steve, 2004, Semantic Blogging: Spreading the Semantic Web Meme, Site Internet : http://jena.hpl.hp.com/~stecay/papers/xmleurope2004/040420_semblog_draft10.html 56 Selon Wikipédia, une métadonnée est une donnée servant à définir ou décrire une autre donnée quel que soit son support (papier ou électronique).
47
inclure ces informations sémantiques, permettra de créer des requêtes pour connaître l’avis de
toute la blogosphère sur un sujet précis.
C) Le bureau sémantique :
Il est envisagé qu'en combinant les idées du Web Sémantique et des services Web 2.0 avec les
applications traditionnelles de bureau et les données qu’elles contiennent (comme les fichiers
de traitement de texte, les courriers électroniques et les photos) sur votre ordinateur, on
facilitera une manière de travailler plus personnelle. En théorie, cela devrait créer des
informations plus concentrées et une certaine gestion des connaissances qui permettra de
partager les données entre différentes applications. Le travail de recherche est à un stade
élémentaire, mais IBM travaille QEDWiki, un cadre wiki-fondé d'applications pour le travail
en collaboration permettant la création de mash-ups pour les entreprises en utilisant
notamment des widgets car pour IBM « les utilisateurs créent la valeur »57. La stratégie de
Google à travers ses logiciels de partage des données (la fonction Document partagé58) est
aussi orientée sur ce point.
D) Les ontologies et folksonomies :
Plusieurs personnes travaillent sur ces domaines avec des approches différentes. Patrick
Schmitz a notamment présenté dans ses recherches un modèle basé à la fois sur les ontologies
et les folksonomies et permettant de faire ressortir des processus statistiques à partir du
langage (sous la forme d’écrit dans les blogs, par exemple). Son but est de développer un
système qui cumule la flexibilité des mots-clés (tags) avec la faculté des ontologies pour les
recherches et le parcours des interfaces59.
Une proposition de Dave Beckett est « d’utiliser le contexte social dans lequel les étiquettes
sont créées en séparant l’outil qui créé les mots clés de celui avec lequel ils sont utilisés ». Il
propose aussi que « des pages Wiki soient créées pour des tags et que les utilisateurs puissent
57 Présentation de ce concept en vidéo sur YouTube. Site Internet : http://www.youtube.com/watch?v=ckGfhlZW0BY58 Site Internet : http://www.google.fr/intl/fr/options/ 59 Schmitz Patrick, 2006, Inducing ontology from Flickr tags, Conférence www20006.Site Internet : http://www.ibiblio.org/www_tagging/2006/22.pdf
48
éditer le contenu de la page en cliquant sur le tag60, ainsi la page wiki devient le tag ». Cela
permet ensuite aux utilisateurs de retrouver le contenu qu’ils cherchent grâce à la sémantique
et les utilisations grandissantes permettront de trouver le tag le plus approprié pour arriver sur
un sujet. Pour exemple, on ne sera plus obligé de slalomer entre la version française et la
version anglaise pour trouver un mot sur Wikipédia. Les tags permettront de retrouver
directement dans sa langue l’article lié au mot recherché qu’on l’ait mis en anglais ou en
français61.
Pour les sites de marque–pages sociaux (bookmarking) comme Del.icio.us l’un des problèmes
majeurs est de savoir comment classer au mieux la liste grandissante des liens. Lors de la
conférence www2006 à Edinburgh, Dominic Benz a avancé une idée pour classer
automatiquement les marque-pages. Il a proposé un système qui tient compte de la façon dont
l'utilisateur a trié ses marque-pages dans le passé et comment d'autres utilisateurs aux intérêts
semblables ont, eux aussi, classé leurs marque-pages. Autrement dit, il s’agit de trouver un
utilisateur semblable qui a déjà classé et mémorisé un marque-page pour en tirer une
recommandation62.
2) La science du Web :
La science du Web est une discipline émergeante, proposée en 2006 par Tim Berners-Lee et
ses collègues de l'Université de Southampton et du MIT (Massachusetts Institute of
Technology). Son but est de comprendre la croissance du Web, sa topologie, ses tendances
afin de développer de nouvelles approches scientifiques pour mieux l'étudier. On a en effet
découvert que le développement du Web se conformait à une série de processus universels qui
gouvernent bon nombre de phénomènes dits complexes : par exemple, il adopte la structure
des réseaux en « petits mondes » caractérisés par la fameuse règle des six degrés de séparation
de Stanley Milgram, un type de topologie qu’on trouve autant dans certains phénomènes
chimiques et physiques qu’au cœur des organismes vivants ; les biologistes, voient eux dans
60
61 Beckett Dave, 2006, Semantics through the tag, Conférence Xtech.Site Internet : http://xtech06.usefulinc.com/schedule/paper/135
62 La version pré-alpha peut être téléchargée ici : http://www.informatik.uni-freiburg.de/cgnm/software/caribo/index_en.html
49
le Web un possible écosystème numérique , ces « petits mondes » évoluant en général sous la
contrainte d’une forme de sélection darwinienne. Les sociologues et les psychologues, quant à
eux, étudient les usages du réseau et les comportements qui en découlent.
La science du Web entend synthétiser tout cela en une unique discipline, pas seulement pour
accroître notre compréhension, mais aussi pour améliorer les choses. Pour Berners Lee, en
effet, cette nouvelle science aura un rôle bien plus important que la simple recherche
théorique : « nous avons créé le Web, et nous avons pour devoir de le comprendre »,
explique-t-il.
Comme il l’explique dans l’article63 : « La science du Web ne se limite pas à décrire le Web
tel qu’il existe. Elle a pour but la création de nouvelles infrastructures et protocoles, et de
comprendre la société qui les utilise (…). La science du Web a pour objet de construire de
nouveaux outils puissants pour l’humanité, et de le faire avec les yeux ouverts ».
3) Le développement continu du Web en tant que
plateforme :
Dans les années à venir un nombre croissant d’outils permettra d’utiliser le Web en tant que
plateforme. Un bon exemple de ce développement est l’application Parakey64, qui est
actuellement développé par le co-fondateur de Mozilla Firefox, Blake Ross. Il fournira à la
façon d’un navigateur, la possibilité d'accéder aux contenus de votre ordinateur de bureau et
de les manipuler afin de permettre à vos amis, avec votre permission, d’y avoir accès. En fait,
cette application Web transformera votre ordinateur en serveur local.
4) La vie privée et la sécurité:
63 Tim Berners Lee, 2006, Creating a science of the Web, publié dans Science Magazine. Site Internet : http://www.aktors.org/publications/selected-papers/2006-2007/14-16.pdf 64 La définition de Parakey sur Wikipedia : http://en.wikipedia.org/wiki/Parakey
50
Beaucoup de discussions surviennent autour de la provenance des informations, la légalité, la
vie privée et la sécurité des données sur le Web. Les informations que les gens sont prêts à
poster - avec souvent, les détails les plus intimes de leur vie et les photos qui auraient
seulement été vues et connues par un poignée d'amis il y quelques années - changent la nature
de la vie privée. Il y a aussi un danger grandissant dû au volume d'informations disponibles
sur le Web car il devient de plus en plus difficile de déterminer si les informations trouvées
sont exactes et de source fiable. D’autre part, l’optimisation croissante des moteurs de
recherche et les intrusions dans la vie privée65, le postage abusif de liens et le spamming des e-
mails contribuent à augmenter les craintes.
Il y a un très grand nombre de spams et de filtres e-mail sur le marché et malgré les efforts, ils
restent inadéquats. Brondsema et Schamp disent que ces filtres devraient utiliser les données
récoltées par les réseaux sociaux, ce qui est le cas pour leur logiciel Konfidi66.
Une autre proposition de Jean Camp est que les modèles informatiques devraient être plus
fondés sur le comportement humain et tenir compte du travail dans les sciences humaines à ce
propos. Le « Net trust system » qu’elle a créé utilise les réseaux sociaux et permet de collecter
des informations67. Une barre d'outils insérée dans le navigateur fournit des informations sur
la loyauté du site Internet visionné, basées sur la connaissance et les estimations obtenues tant
d'un réseau social d'amis que de collègues mais aussi de tierces personnes (comme les
associations de consommateurs, ebay ou PayPal). Ce sont les personnes qui confirment ou
infirment la fiabilité d’un site Internet.
5) Le Web 2.0 et la SOA :
L'Architecture Orientée Service (SOA) est une approche architecturale dans laquelle les
services de logiciels extrêmement indépendants deviennent interopérables. Les architectures
SOA ont été popularisées avec l'apparition de services Web en e-commerce. On peut citer la
SNCF, qui a mis en place une architecture de type SOA pour son système de réservation
(recherche d'horaire, demande de tarif, réservation...) qui prend en charge à la fois les 65 Sur Google Mail, le contenu des e-mails est analysé pour faire de la publicité en fonction des thèmes abordés66 http://konfidi.org/wiki/Main_Page 67 http://www.ljean.com/NetTrust/
51
terminaux des guichets des agences et gares, et les sollicitations de son site Web de
commande en ligne.
Une discussion autour d'une synergie potentielle entre les technologies Web et la SOA est
désormais ouverte et certains soutiennent que la réunion de l’expérience utilisateur fournie par
les technologies Web avec les technologies SOA pourrait donner d’excellents résultats. Les
mash-ups Web 2.0 peuvent d’ailleurs être considérés comme similaires aux applications
composites SOA (voir le schéma ci-dessous).
6) La bulle 2.0 ? :
« Je ne suis pas si sûr que nous ne verrons pas une autre bulle financière ».
Howard Rheingold
« Quand les gens me disent : c'est un Web 2.0 application, j’ai envie de vomir ».
Guy Kawasaki
52
Quand Howard Rheingold, l’auteur de livres à
succès notamment sur les « SmartMobs »,
s'inquiète au sujet d'une autre bulle Web et
d'un potentiel éclatement, il est intéressant
d’analyser son point de vue. Effectivement,
aucune explication quant au Web 2.0 ne serait
complète sans une référence à la montée en
puissances des intérêts et des investissements
pour une nouvelle génération d'entrepreneurs
du Web et de jeunes start-ups développant des
applications Web et des logiciels sociaux. La
société Stabilo Boss a d’ailleurs créé deux
mosaïques qui montrent le très grand nombre
de marques 2.068. Si autant de temps, de
ressources et de données sont investies dans
ces nouvelles applications, il arrivera un
moment ou celles-ci ne seront plus soutenues
par leur communauté ou couvertes par
d’autres compagnies, plus puissantes. La
plupart de ces applications ne sont pas open
source, mais de petites start-ups qui
recherchent le soutien d’entreprises puissantes
et cela signifie qu’il y a du souci à se faire
quant à leur durée de vie.
68 Retrouvez l’image sur flickr avec les liens cliquables. Site Internet : http://flickr.com/photos/stabilo-boss/101793494/
53
7) Et le Web 3.0 ?
Lors de la conférence WWW2006 à Édimbourg, quand TechWatch a demandé ce que pourrait
être le Web 3.0, Tim Berners-Lee a déclaré qu'il pensait que la prochaine étape impliquerait
probablement l'intégration d’images vectorielles extensibles (Scalable Vector Graphic, ou
SVG). Ce concept est d’ailleurs basé sur le Web sémantique dont nous avons parlé
précédemment. Ted Nelson, l’inventeur du lien hypertexte a lui, développé un système du
nom de FloatingWorld. Il permet d’afficher les documents, en créant des liaisons entre eux, en
trois dimensions. Ted a récemment parlé d’adapter ce concept à un système de réseau social
tridimensionnel.
De son côté, IBM a annoncé que la société débloquerait 100 millions de dollars en 2007 et
2008 sur les projets collaboratifs développés lors de la « InnovationJam » à laquelle
participaient 150 000 personnes de 104 pays différents. Les idées principales étaient le
système de paiement en ligne des soins médicaux, des services 2.0 accessibles aux PME, des
services de traduction en temps réel, mettre de l’intelligence dans les réseaux, l’Internet en
3D, la possibilité de mettre toutes ses données en ligne sur un espace personnel facile
d’utilisation, des services bancaires à distance, des systèmes informatiques de transit des
données (pour les municipalités et services publics), un système de santé électronique et
disponible sur le Web, des innovations écologiques et environnementales69.
Toutefois, le concept de Web 2.0 ayant été inventé à posteriori pour mettre un nom sur les
évolutions du Web, il est possible que les évolutions futures ne puissent pas être anticipées à
l’avance non plus. Il est donc plus raisonnable d’évoquer les pistes sans affirmer de théories,
le Web pouvant encore nous réserver bien des surprises.
69IBM Invests $100 Million in Collaborative Innovation Ideas Site Internet : http://www-03.ibm.com/press/us/en/pressrelease/20605.wss
54
Conclusion
Dans ce mémoire, nous avons analysé le Web 2.0, ses applications et ses effets, en tentant de
le rationaliser, car son impact est très puissant. Le Web est un ensemble complexe, en
constante évolution et c’est pourquoi il est difficile d’en donner une vision d’ensemble claire
et durable.
Cependant, on peut identifier certains points de base essentiels à propos du Web 2.0.
Premièrement, le Web 2.0 représente plus qu’un ensemble de technologies et de services
pratiques, aussi importants qu’ils puissent être. Il représente une série de grandes idées qui
sont en train de faire évoluer la façon dont les gens interagissent entre eux. Deuxièmement, il
est aussi important d'admettre que ces idées ne sont pas la base de la création du Web 2.0,
mais qu’elles sont en fait les effets directs ou indirects du pouvoir du réseau : des effets au
niveau micro et macro qu'un milliard d'internautes produisent. C’est sans doute pourquoi Tim
Berners-Lee maintient que ce Web 2.0 est juste une extension des idées originelles du Web et
que cela ne justifie pas de nom spécial. Toutefois, le fait que les entreprises commerciales
commencent à affirmer une façon de penser et d’agir sur Internet signifie que nous devons au
moins être plus conscients des influences qui sou tendent le Web. Les start-ups ont tendance à
échouer ou être rachetées par les trois plus grandes entreprises du Net : Google, Yahoo et
Microsoft. Pour les entreprises liées au cinéma, il s’agit de continuer à relever les défis du
Web en s’adaptant à chacune de ses évolutions pour améliorer la promotion des films et
trouver de nouveaux modes de diffusion.
Enfin, il est important de regarder les implications de Web 2.0. Premièrement, le pouvoir de la
foule deviendra plus important car le Web facilite les communautés et les groupes. L'identité
en ligne et la vie privée deviennent d’ailleurs source de tension et de conflits. Deuxièmement,
la croissance du contenu généré par les utilisateurs, l'augmentation de l'amateurisme et la
culture du « do it yourself » amène un changement sur la répartition des connaissances, les
élites, le statut et la hiérarchie. Pour le domaine cinématographique, cela représente
l’exhaustivité des contenus et des créateurs. Enfin, la propriété intellectuelle et les droits
d’auteurs risquent d’engendrer de profondes questions pour savoir ce qui est public ou non et
réussir à préserver les œuvres audiovisuelles en leur trouvant de nouveaux modèles
économiques. L'affrontement de sociétés sur la propriété des énormes quantités de données
55
que le Web 2.0 produit et les nouvelles façons de l'agréger et de le traiter permettra seulement
à certaines de profiter de l’intelligence collective pour en tirer un avantage concurrentiel en
créant des bases de données difficiles à recréer.
56
Annexes
Anderson 2004, The long Tail, Wired. Site Internet : http://web.archive.org/web/20041127085645/http://www.wired.com/wired/archive/12.10/tail.html
Anderson 2006, The Long Tail: Why the Future of Business Is Selling Less of More
Beckett 2006, Semantics through the tag, Conférence Xtech.Site Internet : http://xtech06.usefulinc.com/schedule/paper/135
Benkler 2006, The Wealth of Networks : how social production transforms markets and freedom
Berners-Lee 1999, Weaving the Web
Berners Lee 2005, The Semantic Web, Scientific American. Site Internet : http://www.sciam.com/article.cfm?articleID=00048144-10D2-1C70-84A9809EC588EF21&sc=I100322
Berners Lee 2006, Creating a science of the Web, publié dans Science Magazine. Site Internet : http://www.aktors.org/publications/selected-papers/2006-2007/14-16.pdf
Borgman 2003, Personal digital libraries : creating individual spaces for innovation.Site internet: http://www.sis.pitt.edu/~dlwkshop/paper_borgman.html
Briscoe 2006, Metcalfe’s law is wrong. Site Internet : http://spectrum.ieee.org/jul06/4109
Cayzer 2004, Semantic Blogging: Spreading the Semantic Web Meme, Site Internet : http://jena.hpl.hp.com/~stecay/papers/xmleurope2004/040420_semblog_draft10.html
Cerf 2007, An information avalanche
Devaux 2007, Rémunération des contributeurs : les modèles qui marchentSite Internet : http://www.journaldunet.com/diaporama/070226-partage-revenus-contributeurs/
Dutton 2005, Oxford Internet Report : The Internet in Britain.
Foucart 2007, Wikipédia, ni coupable ni responsable, paru dans le journal Le Monde.Site internet : http://www.lemonde.fr/web/article/0,1-0@2-651865,36-973824@51-974025,0.html
Fraissard 2007, Les vidéos auront une empreinte sur DailymotionSite Internet : http://www.lemonde.fr/web/article/0,1-0@2-3236,36-972324@51-969846,0.html
57
Gilder Octobre 2006, The Information Factories Site Internet : http://www.wired.com/wired/archive/14.10/cloudware.html
Klemperer 2006, Network effects and switching costs.
Loughran 2007, IBM Invests $100 Million in Collaborative Innovation Ideas Site Internet : http://www-03.ibm.com/press/us/en/pressrelease/20605.wss
Mann 2006, Spam + Blog = Trouble in Wired. Site Internet : http://www.wired.com/wired/archive/14.09/splogs.html
Miller 2005, Web 2.0 : Buiding the new library. Site Internet : http://www.ariadne.ac.uk/issue45/miller/
Morville 2006, Ambiant Findability
O’Reilly 2005, What is Web 2.0 : Design Patterns and Business Models for the Next Generation of Software. Site Internet : http://www.oreillynet.com/pub/a/oreilly/tim/news/2005/09/30/what-is-web-20.html?page=1
O’Reilly 2006, Web 2.0 : Compact definition. Site Internet : http://radar.oreilly.com/archives/2006/12/web_20_compact.html
Oren 2006, How semantic make better Wikis. Site Internet : http://www2006.org/programme/files/xhtml/p171/pp171-oren/pp171-oren-xhtml.html
Schmitz 2006, Inducing ontology from Flickr tags, Conférence www20006.Site Internet : http://www.ibiblio.org/www_tagging/2006/22.pdf
Schmitt 2006, iTunes Store : 83 000 podcasts au compteurSite Internet : http://christophe.schmitt.free.fr/dotclear/index.php?2006/10/10/1228-itunes-store-83-000-podcasts-au-compteur#unit_long1228
58