ZEROSECONDE.COM: mai 2011 (par Martin Lessard)

ZEROSECONDE.COM

Impacts du numérique sur la communication, notre société, nos vies.

De l’utilité des bibliothèques publiques dans le futur

«La bibliothèque du futur continuera de rester un lieu. Mais un lieu où les gens viennent pour travailler ensemble et se coordonner et inventer des projets qui valent la peine de monter ensemble. Assistés des bibliothécaires qui comprennent comment attacher le tout, qui peuvent lier les domaines de connaissance avec ces travailleurs du savoir et rendant possible cette connexion.»


Citation librement traduite de ma part d'un extrait de Seth’s Blog: The future of the library (repéré chez Patrick M. Lozeau)



Interface web [4]: filtrage sociale

Dernier de 4 brefs billets sur les approches successives que je perçois dans l'évolution de la gestion des interfaces web depuis 20 ans.

Il faut lire avant Gérer l'interface web : 4 approches successives où je mets en contexte l'idée qu'il y a finalement une histoire de la gestion de l'interface.

Dans Interface web [1]: je résume les premières années (1990-1999) où l'interface web se résumait à tout mettre à l'écran pour le remplir le plus possible.

Dans Interface web [2]: je poursuis avec la période 2000-2004 qui est celle de l'explosion du souci ergonomique et de la convivialité.

Dans Interface web [3]: je continue avec la période 2005-2009 qui est celle de la tendance à l'uniformisation.

Aujourd'hui, je termine avec l'irruption des réseaux sociaux.

2010-... Réseaux et médias sociaux

Malgré tout le bon soin que l'on peut apporter à son site, son interface, son contenu et son indexation, votre usager restera toujours submergé par tous les autres contenus existants sur le web -- sollicité par tous ces choix.

Dans notre monde en proie à la surabondance de l'information, il devient impossible de faire des choix rationnels tout le temps. On se base souvent sur des choix émotionnels. Quoi de plus émotionnel que la confiance avec ses pairs?

Face à ce trop-plein de choix et les réseaux sociaux sont utilisés comme solution pour permettre de partager des adresses, des contenus, des informations avec des proches et des gens de confiance.

Le tri social

Pourquoi trier soi-même quand notre réseau nous filtre les meilleurs contenus?

Une grande part des découvertes et des recommandations se font maintenant à partir des médias sociaux. Toute stratégie de présence web aujourd’hui doit prendre en compte d’une façon ou d’une autre ces nouvelles plateformes.

Mettre en ligne de l’information n’est plus suffisant. La valeur d'e l'information réside plutôt dans sa mise en contexte (en fonction des autres, des évènements, des tendances) dans un flux constant et mouvant.

Une interface de site web reste importante, mais il fait partie d'une constellation numérique constituée d'avant-postes que sont devenues les plateformes de médias sociaux. Or, les interfaces de ces plateformes, on ne les contrôle pas.

À voir comment ces interfaces sont parfois dures à saisir, impropres à la consommation, désespérantes à utiliser, on se demande si la qualité d'une interface est toujours importante et si ce n'est pas l'utilité du site qui compte le plus.

Les «curateurs»

D'aucuns se demandent si un site web, voir un blogue est encore utile à l'ère des réseaux sociaux. Ce serait une erreur d'abandonner son site web. Mais il est clair que l'architecture de l'information doit maintenant prendre en compte le flux de circulation entre ces plateformes.

Ce que certains appellent les «curateurs» du web, ces intermédiaires qui trient les bons grains de l'ivraie, sont des agents qui font circuler l'information, des petits bouts d'information.

Régis Barondeau, dans une discussion, signale même «la possibilité émergente pour les utilisateurs d'intervenir (selon leurs permissions) sur le contenu et la structure d'un site. On devrait pouvoir l'inscrire dans la curation sociale».

Alors la super architecture de l'information devrait-elle prendre la «curation» en compte?

On pourrait retourner cette question autrement: «comment bâtir et structurer un site web pour qu'il soit découpé et répandu en 1000 morceaux sur internet?»

--

Ce fut un bref tout d'horizon. Je suis preneur pour des améliorations.

Source image


Interface web [3] : uniformisation grandissante

Je poursuis aujourd'hui mon bref tour des 4 approches successives que je perçois dans l'évolution de la gestion des interfaces web.

Dans Gérer l'interface web : 4 approches successives je mets en contexte l'idée qu'il y a finalement une histoire de la gestion de l'interface.

Dans Interface web [1]: je résume les premières années (1990-1999) [qui aurait pu être 1993-1998, si on veut suivre la logique de Marc Poulin] où l'interface web se résumait à tout mettre à l'écran pour le remplir le plus possible.


Dans Interface web [2]: je poursuis avec la période 2000-2004 [ou 1999-2004, si on veut toujours suivre la logique de Marc Poulin] qui est celle de l'explosion du souci ergonomique et de la convivialité

Dans ce billet-ci, j'aborde la période 2005-2009.


2004-2009 -Modèles, portabilité et standardisation

La normalisation s’est donc imposée inexorablement. Dans cette phase, autour de 2005-2009 disons, les sites ont commencé à se ressembler davantage les uns les autres. Les gabarits (templates) ont fait leur première apparition et finiront par prendre de plus en plus de place avec l'émergence de ce qui se nommera le « web 2.0 », puis l'adoption des médias sociaux.

On cherche moins à réinventer la roue (en ajoutant telle ou telle particularité «révolutionnaire») et on commence à choisir à la carte les fonctionnalités même si elles ne correspondent pas tout à fait à ce que l’on recherche (tant qu’elles « font la job ») afin d’accélérer la construction du site et qu’il soit plus compatible.

La standardisation a aussi touché des objets informationnels de plus en plus granulaires. Le concept de portabilité des micro-informations (RSS, Widget, podcast audio et vidéo) a pris son essor. À quoi bon laisser du contenu emprisonné sur son site (surtout si personne ne le trouve) alors qu’il est possible de le faire voyager?

« Porter » son contenu ailleurs permet de le disséminer sur le web et, au final, répond au but premier de toute présence en ligne, votre visibilité numérique.

Le web c'est plus que du design

On prenait conscience, enfin, que la construction d’un site web commande une stratégie fondée sur l’usager et ses besoins, mais aussi en fonction d'un objectif et des mesures

La réflexion première à propos d’un site web consiste à déterminer quelles sont les actions que l’on souhaite voir l’usager accomplir sur le site. « Quels sont ses objectifs? » Acheter, s’abonner, améliorer l’image de marque, informer, réduire les coûts, etc.?

Les sites web sont entrés de plain-pied dans les plans stratégiques des entreprises. On commence à mesurer, analyser, évaluer le retour sur investissement (acquisition, visites, téléchargement, etc.) de cette «présence» sur le web.

Pendant cette phase, le web est définitivement entré dans la vie courante, avec la connexion haute vitesse implantée presque partout et perçue comme un besoin essentiel de base.

Ne pas être sur le web équivaut vraiment, alors, à devenir invisible.

--

D'accord avec ce que j'ai écris?

Demain je vais clore sur la période qui s'ouvre [2010-...] qui concerne l'impact majeur des réseaux sociaux.

Source image

Interface web [2] : préoccupation de l'usager

Dans le cadre d'une conférence sur l'Architecture de l'information que je donne à l'EBSI ce matin, je partage quelques idées sur l'évolution des interfaces web.


J'esquisse entre autres une hypothèse qu'il émerge en ce moment une «super architecture de l'information» qu'on pourrait définir ainsi, après discussion avec Patrick M. Loizeau comme «une approche centrée sur l'ingénierie des relations entre les diverses instances informationnelles» , de l'expérience usager (humain-machine) aux flux des communications de cybercommerce (machine-machine) en passant par des règles d'affaires (business rules).

Mais avant, je veux voir comment a évolué la préoccupation de l'interface web au cours des 20 dernières années.

Dans «Gérer l'interface web : 4 approches successives» j'émets l'idée qu'il y a 4 approches successives.

La première a été abordé hier et au fond, elle correspond à une approche naïve de tout mettre à l'écran et de laisser l'usager se débrouiller: Interface web [1]: les premiers dix ans (1990-1999)

complexité

2000-2004 Deuxième approche: Ergonomie et convivialité

Autour du crash des technos, la réflexion sur les interfaces web fut consacrée à l’ergonomie, question de mieux servir un usager moins ébahi par le fait de « tout trouver au même endroit », comme à la première époque

Quelque part entre 2000 et 2005, à tâtons au début, et de façon plus structurée par la suite, on a réfléchi à l’ergonomie des processus en fonction de l’aisance maximale des usagers.

On a eu droit du même coup à plusieurs refontes de design, enclenchées par les passages successifs du flambeau à l’interne: des webmestres aux designers, relayés ensuite par les dirigeants du marketing avant d’être évincés eux-mêmes par les gens de communication.

De toute façon, lentement et inexorablement, les stratèges ont pris le contrôle, qu’ils se trouvent aux commandes du marketing ou des communications.

Visibilité

Dans le sillage du succès de Google (1999-2000), des spécialistes en référencement («SEO») ont émergé du fond de ce qui sera appelé plus tard le « web 1.0 » pour « répandre la bonne nouvelle » : il fallait construire les sites pour les faire repérer le plus facilement possible par les moteurs de recherche (« findability »).

Sortir premier sur une recherche assurait cette visibilité numérique devenue vitale pour exister sur Internet.

En même temps ont aussi émergé les spécialistes en « convivialité », c’est-à-dire en ergonomie d’interface. Leur obsession porte sur l’expérience utilisateur et on parle d’eux comme des experts UX (« User eXperience »).

« On n’utilise une information que si on la trouve ». En premier dans les moteurs de recherche, puis sur le site. L’ergonomie et la convivialité sont devenues à ce moment des caractéristiques essentielles de tout site web.

Personnalisation

C’est aussi l’apparition de la « personnalisation » pour réduire la surcharge cognitive, des animations Flash pour « entertainer » l’usager, et du gestionnaire de contenu (CMS) pour les mises à jour plus faciles et rapides. On explorait encore pour savoir ce qui plairait le plus à l’usager, pour le garder sur son site.

Avec cette expansion chaotique, on a aussi pris conscience d’une réalité incontournable qui s’impose toujours aujourd’hui comme un jugement implacable : l’usager passe plus de temps sur les autres sites que sur le vôtre (il n’a donc pas le temps d’apprendre votre façon originale d’organiser l’information).

Une conformité aux standards qui se développent devient alors nécessaire.

--

Avez-vous quelques choses à rajouter ou à corriger à ce résumé?

En discutant avec Marc Poulin, il aurait tendance à faire coïncider la précédente période entre 1993 (arrivée de Mosaïc) et 1998 (livre de Morville). Ce qui veut dire que cette période-ci, dans ce billet, serait 1998-2004. J'aurais tendance à acquiescer. Mais je pense que se laisser un battement d'un an (1999) n'est pas trop exagéré...

Au prochain billet, je vais regarder l'époque 2005-2010...

Source image

Interface web [1] : les premiers dix ans

Dans le cadre d'une conférence sur l'Architecture de l'information que je donne à l'EBSI ce mois-ci, je partage quelques idées sur l'évolution des interfaces web.

Lire avant: Gérer l'interface web : 4 approches successives
complexité

1990-1999 Première approche: les débuts des interfaces et des arborescences

Il est bon de se rappeler que la première « mode » sur les sites web, dans les dix premières années, a été de construire des sites aux interfaces surchargées, « bruyantes » et « animées ».

Il faut se mettre en contexte. On accédait pour la première fois à une énorme quantité d’information, facilement, et ce à partir du même endroit : l’écran de son ordinateur.

On est porté à l’oublier, mais avant l’arrivée d’Internet et surtout l’éclosion de Google au début de la dernière décennie, il a toujours été relativement difficile de chercher et de trouver de l’information.

Il fallait savoir où se trouve l’information, puis s’y déplacer ou téléphoner.

Avec le web, les internautes ont pour la première fois fait l’expérience de tout avoir à portée de main.

Il est donc un peu normal que le premier réflexe ait été de tout mettre à l’écran, pour montrer justement que « tout » était là.

Tout au même endroit

Les premiers sites étaient aussi laids les uns que les autres, surchargés et difficiles à naviguer. Remettons-nous encore dans l’esprit de l’époque. Quand chercher hors web est long et fastidieux, que les « sites soient laids » devient un moindre mal si l’on tombe sur une mine d’information.

Le souci des « webmestres » consistait tout simplement à « rendre accessible » tout ce qui était accessible. Les premiers usagers étaient tout simplement grisés par la « quantité » d’information qui leur était livrée en quelques clics.

Une fois passée la nouveauté, il a bien fallu que soit posée la question de l’architecture de l’information : comment organiser le tout de façon cohérente? Ce fut le début de la réflexion sur l’interface-écran et la structure de navigation à l’intérieur de l’information.

Jongler avec l'information

Il a fallu équilibrer ce qui est visible à l’écran (en montrer juste assez, mais pas trop) et l’arborescence du site pour s’y mouvoir intuitivement en profondeur (en cacher juste assez, mais pas trop).

Aujourd’hui, nous affrontons quotidiennement la surabondance d’information, et la notion même de chercher hors du web est devenue quasi « anachronique ». Alors on choisit le chemin de moindre résistance : s’il est difficile de trouver une information particulière sur un site, on va la chercher sur un autre. Point final.

--

Que pensez-vous de ce résumé? Demain je jette un coup d'oeil sur la période 2000-2005.

Source image

Gérer l'interface web : 4 approches successives

Comment mettre tout au même endroit et sur un même écran? Les sites web ont tout de même évolué depuis l’arrivée du Web, mais au niveau de la gestion de l'interface, nous sommes arrivés à un plateau.

Ile déserteJe développe en ce moment une conférence pour l'EBSI dans le cadre de leur université d'été sur l'architecture de l'information.

J'ai donné pendant quelques années (2007-2010) des cours sur le sujet à l'Université du Québec à Montréal. Mais c'était axé interface web principalement. En invitant des experts du domaine à venir parler à mes étudiants à l'automne dernier, il m'est apparu clair que l'architecture doit englober un flux d'information beaucoup plus vaste que le site web.

Super architecture de l'information

J'aborde entre autres, dans ma conférence de L'EBSI, cette notion de super architecture de l'information qui me semble émerger depuis deux ou trois ans...

Une super architecture de l'information devrait inclure les brochures, l'accès et la disposition en magasin, les communications publiques, la publicité...

Tout est relié et travailler les flux d'information dans un site web (pensons cybercommerce par exemple) doit se faire en connaissant le flux général des règles d'affaires complètes de la compagnie. Et ces règles d'affaires ne peuvent pas être éloignées du marketing et du service à la clientèle. Ni de l'aménagement intérieur d'un commerce.

Comment a évolué l'architecture web depuis 20 ans

J'en suis à ces réflexions quand je me suis dit qu'il fallait que je mette par écrit, une fois pour toutes, question de clore mon approche limitative de l'architecture de l'information limitée à l'ergonomie d'interface web, les principales étapes de l'évolution de l'interface web.

Pour simplifier, je réduis en quatre moments les changements survenus sur la façon de gérer l'information sur les interface depuis le début du web.

1990-99: Tout au même endroit. Accéder à l'information était tout ce qu'il fallait.

2000-04: Convivialité de l’utilisateur. Faciliter le travail de recherche devient l'enjeu majeur

2005-09: Modélisation et portabilité. Il faut optimiser le temps de maintenance

2010-...: « Curations » sociales. Les usages gèrent eux-mêmes ce qu'ils trouvent important

Ces quatre billets précisent ma pensée en ce qui concerne comment la gestion de l'information dans les interfaces web ont évolué en fonction du contexte...


Les médias sociaux à Moncton

Je donne une formation sur les médias sociaux dans un contexte d'affaires à l'éducation permanente à l'Université de Moncton vendredi prochain. Il reste encore des places.

Cette formation se veut une séance de réflexion pour comprendre comment développer une vision cohérente des médias sociaux, adaptée au milieu d'affaires.

S'il vous manque des morceaux pour saisir l'ensemble du portrait, j'y propose une carte du territoire des usages des nouveaux outils.

Souvent, il nous manque la confiance nécessaire pour bâtir une stratégie sur les médias sociaux. Cette confiance est minée parce qu'on a l'impression que ça nous dépasse. Mais en fait, c'est le manque de temps qui nous fait peur.

Les réseaux sociaux sont loin d'offrir un retour sur l'investissement immédiat auquel on pourrait s'attendre avec la pub traditionnelle par exemple. Il faut alors explorer les autres avenues, pas toujours commerciales, pour y trouver une valeur pour soi, ses employés et son entreprise

Le programme est ici

- Portrait de l'univers des réseaux sociaux : Définition du web 2.0, synthèse des usages, sa culture, ses codes
- Les outils : Points distinctifs de Linkedin, Facebook, Twitter, YouTube, Foursquare et les blogues
- Les trois stratégies d'une participation en ligne: écoutez, repérez, participez
- Différences B2C et B2B: construction de la crédibilité en ligne
- Cas concrets

Mise à jour
Intéressé à discuter web et ses impacts? je serai au Palais Chrystal entre 5 et 7. Laissez-moi savoir ici: http://on.fb.me/isPX8p

Tuer la une

Et dire que si c'était sur Twitter, les bien pensants diraient que les réseaux sociaux ne sont qu'un ramassis d'insanités:


(Mais contrairement à un gazouillis, on ne peut pas l'effacer...)

Les talibans sur Twitter

La mutation de l'écosystème médiatique a été un pas plus loin: le mouvement extrémiste taliban d'Afghanistan a officiellement un fil sur Twitter, @alemarahweb qui publie plusieurs messages par jour, dont quelques-uns en anglais (Source the Guardian).


Ile déserte


On les imaginait comme des luddites qui évitent comme la peste les technologies modernes, et occidentales, incluant les lecteurs de cassette et les postes de télévision.


Comment dire. Le village global commence à être très petit....


On le sait peu, mais les talibans se sont mis en fait depuis déjà quelques années à utiliser la technologie moderne pour faire circuler leur information. Dès 2008, des experts avaient annoncé qu'ils avaient bâti un réseau sophistiqué d'échange d'information (source Reuter).


Qu'ils soient sur Twitter n'est qu'une suite logique, quoique surprenant (Twitter a montré certains atomes crochus avec le gouvernement américain (voir mon billet en 2009).


Le Klout Score de talibans


On se demande si les talibans vont chercher à appliquer des recettes pour augmenter leur nombre de followers. Il y a certainement des spécialistes en médias sociaux qui sauront leur donner des tuyaux.


Sur Klout, l'outil qui prétend mesurer l'influence sur les médias sociaux, les talibans possèdent un score de 28.


Klout considère @alemarahweb comme de type "Explorer", c’est à dire:


«You actively engage in the social web, constantly trying out new ways to interact and network. You're exploring the ecosystem and making it work for you. Your level of activity and engagement shows that you "get it", we predict you'll be moving up.»


Avec une telle précision dans les analyses, pourquoi avoir besoin de la CIA?



Le pacte de silicone

Je crois qu'il n'y a que les étudiants qui pensent qu'on ne les voit pas. L'accès à un ordinateur doit-il être autorisé aux étudiants dans un cours?

Réponse 1: Bien sûr que non! Ils s'en servent pour se distraire.

Réponse 2: Bien sûr que oui! Ils sont majeurs et vaccinés.

Dans tous les cas, le résultat est le même. À de rares exceptions près, les étudiants qui ont un ordi ouvert devant eux sont complètement distraits par tout ce que le web peut offrir.

C'est comme tenter de donner un cours juste à côté d'une fête foraine. Autrement dit, vous avez perdu leur attention définitivement.

Bien sûr, bien sûr, cette génération est multitâche, n'est-ce pas? Ils sont capables d'en prendre, si? Je défie mes étudiants de commenter pour me dire que l'ordi et celui de leurs voisins servaient juste à prendre des notes ;-)

Justement, Olivier Ertzscheid a trouvé une voie de juste milieu. Un genre de pacte de silicone.


Olivier Ertzscheid, maître de conférences en sciences de l'information: Voilà donc le contrat que j'ai décidé de passer avec mes étudiants :

L'utilisation d'un micro-ordinateur pendant mes cours est autorisée aux conditions suivantes :

- m'envoyer, à la fin du cours, un mail contenant (en fichier attaché) la prise de note du cours.

- accepter, si la prise de note est jugée correcte, qu'elle soit (anonymisée puis) versée sur le blog du cours pour pouvoir être ainsi utile à d'autres (éventuellement absents ce jour-là ou momentanément distraits - car comme le rappelait Lao-Tseu-Point-Com, "point n'est besoin d'être connecté pour être distrait")

- accepter que l'utilisation du portable pour le prochain cours soit soumise à une autorisation préalable en fonction du résultat de la prise de note transmise lors du cours précédent.

À lire sur le blogue d'Olivier Ertzscheid


Le surplus cognitif libéré par l'absence de multitâche permettra au professeur (en échange d'un surplus de travail, notons-le) de prodiguer, suggère Olivier, un complément d'enseignement tout à fait pertinent:

- qui d'enrichira le blogue du cours,

- qui sensibilisera par la pratique à une certaine idée du "collectif" / "partage" / "travail collaboratif",

- qui permettra de "mesurer" les points du cours qui passent bien et ceux qui ne passent pas

- qui valorisera le travail de certains étudiants.

Ce dernier point est plus difficile, puisque le «contrat» indique une anonymisation des notes...

Défi

Il fait le pari que le nombre d'ordi va diminuer. Peut-être a-t-il raison.

Ce que je crois qui risque plus d'arriver, c'est une interrogation sur la notion même de prise de note: si quelques uns, et des meilleurs, font la prise de note, pourquoi, diront-ils, le faire soi-même. Le blogue du cours aura capté l'essentiel, avec l'aval du prof.

La question n'est pas aussi niaise qu'elle paraît... Elle fait écho à toute la question de l'enseignement à l'ère d'internet...

Source image

Tweets de crédibilité: le cas de Ben Laden

Dès l'annonce par la maison blanche d'une conférence de presse impromptue la maison blanche, la machine à rumeur s'est emballées sur Twitter: pourquoi le président Obama voulait parler à la nation à 22 h 30, heure du pacifique?

(image: UOL, Brésil) Rapidement, des rumeurs se sont emparées des médias sociaux. De quoi, de qui allait parler le président américain? De la Libye? de Kaddafi? De Ben Laden? Toutes les options étaient ouvertes.

Comme on peut s'en douter, Twitter a été le canal, encore une fois, d'où est sortie le scoop. Ben Laden venait d'être tué.

Les grands médias ont confirmé peu de temps après. Juste avant qu'Obama l'annonce en direct à la télé.

Un tweet, encore

Un tweet plus crédible fut repéré et retweeté: celui de @Keithurbahn, qui travaillait avec Donald Rumsfeld, le secrétaire à la défense, qui annonçait la mort de Ben Laden.
http://twitter.com/#!/keithurbahn/status/64877790624886784

Au même moment, on découvrait que Sohaib Athar (@ReallyVirtual sur Twitter) avait blogué en direct, sans le savoir, les événements qui se passaient dans sa ville, Abbottabad, où a lieu l'attaque, ce qui rendait plus crédible la situation.



Les nouvelles circulent définitivement plus vite sur Twitter que dans n’importe quel autre média. Ce qui est intéressant à noter ici, c'est  que ni Keithurbahn ni ReallyVirtual n'ont (n'avaient) pas  de grosse audience. Leurs scores PeerIndex sont respectivement de 5 et de 15 au moment d'écrire ces lignes.

Comment peut-on, en l'absence d'autorité comme les grands médias, faire confiance au réseau?

La crédibilité ne vient pas des outils, mais bien d'un réseautage hors ligne.

Ceux qui ont relayé Keith Urbahn savent qui il était et pourquoi sa réputation l'empêchait de lancer une rumeur dans le vide.

Ceux qui ont découvert Sohaib Athar et l'ont relayé pouvaient bien voir que son compte-rendu des événements devançait le début des rumeurs.

C'est comme si une chaîne de crédibilité à grande échelle s’était créée via des relais, qui eux avaient une crédibilité dans leur entourage.

Les outils de mesure de popularité ne sont pas des garants pour la dispersion du scoop. J'avais regardé sommairement peerindex (ici) et klout (ici) pour voir ce qu'ils pouvaient nous offrir pour s'y retrouver dans le tsunami d'information. Intéressant, sans plus.



Ce que vous voyez en haut (source) c'est le flot des tweets à propos de la mort de Ben Laden. Un usager ressort du lot, outre KeithUrbahn, c'est le compte Brianstelter. Avec Un peerIndex de 75, on pourrait penser que c'est la raison de son rayonnement. Mais il plus probable de dire que le fait qu'il soit journaliste au New York Times a joué davantage.

Au jeu de l'influence, le capital de crédibilité qu'on a hors ligne est une monnaie forte, très forte.

Lire aussi:

Twitter just had its CNN moment

Lessons from the Bin Laden coverage, par Frédéric Filloux

Les USA diffusent des vidéos de Ben Laden pour le démythifier, Rue89

Google & The Death Of Osama Bin Laden

Osama Bin Ladens Death in Infographics – Gallery, Visual Journalism

J'aime...les élections

Marie-France Bazzo écrivait ce matin : «J'assume et je réitère: De + en+, on vote avec légèreté et incompétence citoyenne. À ts les paliers de gouvernance. #VoteFB»

Le vote de lundi soir en a laissé plus d'un avec un mal de crâne pour expliquer ce qui s'était passé. Faut-il réformer les élections?

À la blague, sur le blogue Triplex de Radio-Canada je proposais mardi des solutions 2.0 pour moderniser les élections dans une démocratie accro aux réseaux sociaux.
  • Mettre des « J’aime » à côté du nom des candidats,
  • Permettre de retweeter son choix, 
  • Distribuer les sièges au Parlement en fonction du nombre de membres des pages Facebook des partis. 
  • Et pourquoi pas? Permettre d’adhérer à plus d’un groupe.
1 vote vaut 1000 like

Pour horripiler les bien-pensants et conforter les dénigreurs des médias sociaux, imaginons ce que Élection Canada pourrait faire pour attirer les électeurs à s'intéresser à la politique à l'ère du 2.0.

Le vote secret? Tellement 2 mai 2011. Non, on rend tout public, c'est tellement plus in:

Pour amener les électeurs sur le lieu de vote, tous les moyens sont bons:


Ou alors on vote dans le confort de Facebook et on connait instantanément les résultats:

Une fois au pouvoir, il y a bien des widgets qui permettraient de créer une démocratie participative. Google Shared Spaces offre un bon point de départ:


Jeu sérieux

Oui, la politique est un jeu sérieux et les médias sociaux ressemblent plus à une foire où règnent la franche camaraderie et parfois la fange immonde. C'est la même différence entre un entraîneur sportif et un gérant d'estrade.

On parle, on s'agite et on dit tout haut ce qu'on pense. Espérant secrètement que les autres vont mettre nos idées en action.

Oui, le web a donné à tous la possibilité d'exercer une forme de pouvoir (un «cinquième pouvoir»?), mais un pouvoir qui confronte davantage et joue sur le terrain des médias  (ce « quatrième pouvoir »).

Le Web 2.0 a-t-il changé la politique ? Indirectement. Il a changé les médias, qui eux ont un pouvoir sur la politique. Mais il l'a en même temps fragmenté les médias, qui se trouvent affaiblis face aux politiques.

Et il n'y a que les élitistes qui se drapent dans la bonne conscience pour refuser la démocratisation des médias comme une bonne chose. Internet a tout au plus brassé la cage, changé la donne, redistribué les cartes.

Et pendant un temps, on va vivre ce que procure le web 2.0, un sentiment de pouvoir. Mais illusoire. Car oui, Facebook nous a habitués avec ces « j'aime...», le sentiment d'être en élection perpétuelle et que nos «votes« seraient pris en compte.

Les marchants en prennent compte. Mais pas en politique. En politique, ce sont ceux qui se battent qui dirigent.

Il n'y a pas une page Facebook, qu'importe le nombre d'abonnés, qui va influencer un projet de loi, un comité, une assemblée. La décision appartient à ceux qui s'impliquent, pas à ceux qui s'abonnent.

Converse toujours, tu m'intéresses

L'influence 2.0 se vérifie toutefois au niveau des opinions. Ou plutôt de la circulation des opinions. D'opinions moins mainstream. C'est l'endroit pour émettre librement une opinion et voir si du monde mord à l'hameçon.

C'est parfait pour consolider ses appuis et préparer ses arguments. Mais ça reste des paroles. Pas des actes. Dans ce sens, le «cinquième pouvoir » et le «quatrième » ne font qu'un. On agite des drapeaux, on signale, on informe.

La médiatisation en continu de la rumeur publique offre un instantané des réactions du peuple pour des institutions aux rythmes sommes toutes plus lents. Mais elle ne garantit pas son intégration dans le processus décisionnel.

Car l'action doit venir des gestes concrets: s'impliquer dans des comités, défendre, envers et contre tous, son idée, la peaufiner et la solidifier. Convaincre à chaque échelon. Et se battre encore même quand tout est gagné.

Alternatives électorales

La consternation face aux résultats de lundi dernier se résume bien dans ce qu'exprime Marie-France Bazzo: le peuple voterait à la légère. Soit. Peut-être qu'il y a matière à réflexion. Des pistes alternatives pour modifier le processus électoral existent...

La démocratie directe: avec l'arrivée d'internet, c'est probablement plus que jamais techniquement possible. Qu'elle soit souhaitable est une autre paire de manche. (lire Les enjeux de la démocratie électronique, Hermès 2000.)

La sortition: c'est un procédé où les représentants sont tirés au hasard. Quand on y pense sérieusement,  comme on a pu le voir lundi, les résultats ont été aussi aléatoires. (plus de détails).

Modes de scrutin: on pourrait aussi changer de mode de scrutin : de scrutin majoritaire uninominal à un tour à celui à deux tours, ou à la proportionnelle, ou mixte. Chacun a ses avantages et ses inconvénients. (lire Les différents modes de scrutin et leurs effets). Dans un pays de patchwork, ce n'est pas un changement évident...

Je reste convaincu que la désaffection des urnes (40% des Canadiens en droit de voter n'ont pas exercé leur droit) reste le plus grave problème. S'il y a un réel problème, il est là.

Et si avec les médias sociaux, la population a commencé à participer, c'est au final une bonne nouvelle. L'intention est là...

Palmarès Wikio Québec Mai 2011

Non je ne parle pas des élections (mais j'en parle ici). J'ai les résultats du palmarès Wikio de ce mois-ci!

Les blogues les plus populaires du Québec Mai 2011.

1 (1) TECHNO Blog Marketing Web 2.0 et Techno (M)
2 (4) ACTU Le blogue de Jean-François Lisée (M)
3 (2) TECHNO Descary.com (M)
4 (3) BOUFFE les gourmandises d'isa (F)
5 (8) BOUFFE Le palais gourmand (F)
6 (5) BOUFFE Les plats cuisinés de Esther B (F)
7 (6) ACTU Blogue Patrick Lagacé (M)
8 (16) FAMILLE ANTONI, BORYS & CIE (F)
9 (7) ACTU Poste de veille (M)
10 (11) BOUFFE Les mille et un délices de Lexibule (F)
11 (12) TECHNO Michelle Blanc (F)
12 (20) ACTU Richard Therrien (M)
13 (9) ACTU Richard Hétu (M)
14 (13) TECHNO DominicArpin.ca (M)
15 (10) TECHNO Bibliomancienne (F)
16 (-) BOUFFE Tchoubi (F)
17 (-) FAMILLE leboableu (F)
18 (-) TECHNO marevueweb
19 (-) TECHNO Go-referencement.org
20 (-) CINÉ Hollywood, P.Q.

Classement réalisé par Wikio
Le chiffre entre correspond à la position du mois dernier. La lettre entre parenthèses correspond au sexe du blogueur quand ce n'est pas un blogue collectif (comme go-référencement) ou que je n'ai pas trouvé l'identité.

Comme Marie (que j'ai mis dans Techno, pour me faire étriper) l'a remarqué le mois dernier, je constate qu'il y 8 blogues d'hommes et 9 blogues de femmes: s'il y a parité sur le nombre, les hommes ont surtout des blogues sur la techno ou suivant l'actualité, et les femmes surtout des blogues famille ou bouffe.

Les élections ont fait monté Jean-François Lisée au somment, mais Vincent Abry reste toujours accroché en position numéro 1 depuis des mois.

La série de blogues bouffe et famille qui sont dans le peloton de tête ont probablement bénéficié des effets Pâques ou cabane à sucre.

Et vous, qu'en pensez-vous?