30 août 2005
2
Epic
Petit flash sur lequel je viens de tomber. Parfois une fiction vaut bien mille thèses...
EPIC (8 minutes): par Robin Sloan et Matt Thompson.
Sur le thème du Web 2.0 et de l'auto-publication / l'auto-filtration de l'information.
PS: voir la nouvelle version à jour EPIC 2015
26 août 2005
2
Les blogs corporatifs étudiés par la Deutsche Bank
“Blogs - The new formula for the corporate communications?” (PDF)
(Version originale allemande / Auf Deutsch - PDF).
Un excellent (et crédible) tour d'horizon de la chose. Jusqu'à maintenant, surtout les petites entreprises ou les mégacompagnies s'étaient lancées dans l'aventure. Les compagnies entre ces deux pôles ont maintenant un document pratique et précieux pour réfléchir sérieusement sur la question.
Le document de 8 pages classe de façon éclairante les différents blogs corporatifs sur un tableau très clair. J'ai retrouvé une version plus à jour du classement des blogs corpos sur le site (www.meinungmacherblog.de) de l'auteur du tableau, Ansgar Zerfaß. Il contient un type de blog supplémentaire (Carnet à thèmes / Themen-blogs). (Le tableau est en allemand - référez-vous au PDF anglais si vous ne comprenez pas tous les mots.)
(Cliquez pour agrandir)
La conclusion se termine sur un long commentaire qui mérite d'être cité:
"Two questions are possible (and both must be answered!). The first (the one I would ask): So what?"; and the second (which is typically German): And now?"
(C'est moi qui souligne)
So what? : "(...)So what should we do? Get going! Be bold. Activate, access, act rather than react, create rather than repair. Set the agenda rather than having it set for you. Be a motivator, not a censor. Consider blogging to be a mindset, a philosophy of life. Be an entrepreneur, not a taskmaster. Let the genie out of the bottle."
And Now? : "(...) Let s face it without experience in the blog swarm we won t accomplish anything. If we don t skilfully exploit the opportunities and carefully avoid the pitfalls of the new medium, we will be lost. We need to develop a blog culture (just as we need to develop an email culture and a mobile culture, because both are sorely lacking)."
"Feedback culture must become second nature to us (...)"
Venant de la Deutsche Bank, voilà un point de vue qui décoiffe...
Le cluetrain manifesto commencerait-il à faire effet?
(English version of this post)
Libellés :
Blog corporatif
23 août 2005
0
Décès du professeur Jean-Pierre Desaulniers
Électrochoc ce soir, j'apprends que Jean-Pierre Desaulniers nous a quitté la semaine dernière (jeudi 18 août 2005). Sans bruit. Comme ça.
D'abord une petit entrefilet dans La Presse de dimanche, puis une brève lundi dans Le Devoir et finalement un bel hommage de Josée Boileau (dans l'édition d'aujourd'hui du Devoir). Peut-être un message laconique de l'Université, évidemment. Mais c'est tout. Sans bruit je vous dit.
Desaulniers était titulaire d'un doctorat en sociologie de l'Université de Tours et d'une maîtrise en anthropologie de l'Université de Montréal, et était professeur au Département des communications de l’Université du Québec à Montréal depuis 1975. J'ai été son étudiant à la fin des années 80 début 90. Son éloquence appelait l'émulation.
Il est principalement reconnu pour ses analyses sur production télévisuelle québécoise et particulièrement sur l'histoire des téléromans.
Une lumière s'est éteinte. Mais pourquoi si peu de bruit?
La culture de masse nous aliènerait-elle? Le star system contribue-t-il plutôt à nous pervertir? Jean-Pierre portait un regard beaucoup plus nuancé.
Un esprit vif vient de tirer sa révérence. Le cancer nous l'a enlevé à 59 ans. Adieu.
Pistes:
L'art de s'entretuer pour oublier que l'on meurt - Loft Story, ou la dernière scène (article de Desaulniers dans Le Devoir du 17 octobre 2003
Du rêve à la téléréalité (entrevue avec Desaulniers dans Le Sélection, septembre 2004)
Pour une critique du star system
Livres:
Le Phénomène Star Académie (2004)
De La famille Plouffe à La petite vie: Les Québécois et leurs téléromans (1996) (lire article dans le Devoir)
Mine de rien. Notes sur la violence symbolique (1982) (avec Ph. Sohet)
Connexes:
Le téléroman québécois : une aventure américaine De Roger De La Garde, qui parle entre autres des théories de Desaulniers.
D'abord une petit entrefilet dans La Presse de dimanche, puis une brève lundi dans Le Devoir et finalement un bel hommage de Josée Boileau (dans l'édition d'aujourd'hui du Devoir). Peut-être un message laconique de l'Université, évidemment. Mais c'est tout. Sans bruit je vous dit.
Desaulniers était titulaire d'un doctorat en sociologie de l'Université de Tours et d'une maîtrise en anthropologie de l'Université de Montréal, et était professeur au Département des communications de l’Université du Québec à Montréal depuis 1975. J'ai été son étudiant à la fin des années 80 début 90. Son éloquence appelait l'émulation.
Il est principalement reconnu pour ses analyses sur production télévisuelle québécoise et particulièrement sur l'histoire des téléromans.
"Jean Pierre Desaulniers fut le premier universitaire -- et encore l'un des rares -- à essayer de comprendre la télévision populaire plutôt que de la juger. Sous son regard méthodique, Les Tannants, La Petite Vie, Star Académie n'étaient plus objets de moquerie, mais révélateurs d'une société dont nous faisons tous partie."La veille de son décès encore, il publiait dans le Devoir un article qui illustre le ton qu'il employait pour expliquer les mythes contemporains : L'affaire Michaëlle Jean: tout excuser pour un conte de fées (cache sur Vigile.net). Éblouissant : "Elle va accrocher des boutons, des rubans et distribuer des milliers de dollars à des milliers de personnes. (...) On est toujours dans la commandite, mais redevenue légitime et protocolaire."
Josée Boileau (le Devoir)
Une lumière s'est éteinte. Mais pourquoi si peu de bruit?
"Contrairement à la France, le Québec ne connaît pas le star system intellectuel. Pas de Sartre ou Beauvoir ici, ou d'Aron, de Bourdieu, Lacan -- ni de BHL, de Ferry, de Cyrulnik, de Badinter, d'Onfray. Ici, la timidité devant les débats d'idées -- qui sont bien autre chose que l'échange d'opinions à l'emporte-pièce -- ne favorise pas la mise en valeur de ceux qui portent une pensée forte et originale. Alors Vacher* le philosophe essayiste, Desaulniers l'analyste de la télévision, Hentsch* le philosophe politique, sont des noms qui parlent peu, ou pas du tout, au grand public. Et pourtant, leur oeuvre aura été marquante."
Josée Boileau (le Devoir)
* Tous deux décédés aussi cet été, sans aucun écho dans le public.
La culture de masse nous aliènerait-elle? Le star system contribue-t-il plutôt à nous pervertir? Jean-Pierre portait un regard beaucoup plus nuancé.
"Au Québec, il n'y a pas de vrai star system mais bien un système de vedettariat. Chez nous, les gens populaires sont en réalité des vedettes plutôt que des stars, puisqu'il existe ici un phénomène de proximité. La star occupe un créneau divin tandis que la vedette est beaucoup plus proche des gens. Le cinéma, par exemple, fabrique des stars. La télé, elle, produit des vedettes.
[Les vedettes servent ] à donner des références, des pivots, des modèles et des antimodèles. (...) Les artistes servent donc à faire de la communauté, le star system fabrique de la culture. Et à quoi sert la culture ? À reconstruire des liens au sein de la société."
Pour une critique du star system, entrevue avec Jean-Pierre Desaulniers (2002)
Un esprit vif vient de tirer sa révérence. Le cancer nous l'a enlevé à 59 ans. Adieu.
Pistes:
L'art de s'entretuer pour oublier que l'on meurt - Loft Story, ou la dernière scène (article de Desaulniers dans Le Devoir du 17 octobre 2003
Du rêve à la téléréalité (entrevue avec Desaulniers dans Le Sélection, septembre 2004)
Pour une critique du star system
Livres:
Le Phénomène Star Académie (2004)
De La famille Plouffe à La petite vie: Les Québécois et leurs téléromans (1996) (lire article dans le Devoir)
Mine de rien. Notes sur la violence symbolique (1982) (avec Ph. Sohet)
Connexes:
Le téléroman québécois : une aventure américaine De Roger De La Garde, qui parle entre autres des théories de Desaulniers.
Mon zoo de spam
J'ai tout à coup une poussé de "comment spam" sur mon blog. Étrange que Blogger/ blog*spot ne puisse pas les détecter.
Les spammeurs n'attaquent heureusement que le premier post du blog.
Alors je fais ce petit billet pour les attirer et les attrapper!
Venez visiter mon zoo de spam en cliquant sur le lien de commentaire. Peut-être verrez-vous des spécimens rares. (ou rien du tout si la vague est terminée).
(Ce post s'auto-détruira dans 15 jours) j'ai trouvé l'insecticide anti-comment-spam (voir le premier commentaire). Je garde le post pour la postérité.
Les spammeurs n'attaquent heureusement que le premier post du blog.
Alors je fais ce petit billet pour les attirer et les attrapper!
Venez visiter mon zoo de spam en cliquant sur le lien de commentaire. Peut-être verrez-vous des spécimens rares. (ou rien du tout si la vague est terminée).
non-peer review
Un billet caustique de Marc-André a signaler à propos du filtrage collaboratif. Serions-nous arrivé à l'ère du nivellement par le milieu?
En parlant de Wikipedia il dit : "(...) celui qui a étudié la question plus à fond (dans une structure officielle ou non) aura beaucoup plus de difficulté à défendre sa position devant un jury de non-pairs, et ce, à répétition."
Source image
J'avais écris précédemment : "La blogosphère est un vivier de théories profanes. Internet génère la construction et le partage d'une connaissance profane qui n'a pas reçu l'aval d'une institution légitimante. Un savoir émerge et elle se crée ses propres outils d'autolégitimation."(source).
Wikipedia serait un bien meilleur exemple de territoire où la "masse" s'approprie la "connaissance".
Ce vivier propose un monde où le savoir est confronté de facto à un "non-peer review". La revue des non-pairs. N'importe quel quidam peut dire donner son point de vue. Je dis quidam car dans un monde de peer-review, il faut appartenir à l'institution ET être expert reconnu du domaine d'expertise pour avoir le droit de donner son point de vue. Le droit s'acquérait par la construction d'une légitimité académique (principalement).
Évidemment, ce dont parle Marc-André c'est que la compétence d'un spécialiste dans sa sphère de spécialité n'entraîne plus une déférence. Sur Wikipedia, par exemple, il devra la défendre à chaque fois son expertise pour convaincre qu'il a raison (il ne peut pas nécessairement se cacher derrière son diplôme). On arrive a des situations cocasses où l'expert peut perdre patience devant l'acharnement de quidams haut en gueule et leur laisser la place.
J'avais déjà signalé l'épisode où un wikipédiste insistait mordicus pour inscrire dans la bio d' Umberto Eco un fait si anodin qu'il m'apparaissait odieux d'en parler sur une page de deux écrans de long. Le fait mérite sa place dans une note de bas de page dans une biographie posthume exhaustive de 1200 pages seulement, afin de bien noyer l'anecdote. Mais voilà, sur Wikipedia, la verrue s'y retrouve maintenant.
J'y vois deux notions à retenir : dans cet espace de non-peer review, avec la production du folk knowledge, il y aura retour évident de la rhétorique comme arme argumentative (avec ses avantages et ses inconvénients) et la reconnaissance que l'exercice de l'autorité cognitive sur Internet s'applique de façon différente. Ce dernier point m'intéresse particulièrement.
Nous sommes confronté dorénavant à s'adapter au fait que 99,99% de nos connaissances (actuels et à venir) proviendront de second-hand knowledge : nous connaîtrons les choses à travers les expériences des autres et non plus particulièrement à travers la nôtre (first-hand knowledge.)
PS: 23 août
Liens intéressants:
Peer and non-peer review de Andrew Odlyzko (Digital Technology Center)University of Minnesota.
More on blogging referee reports and hacking peer review de Sébastien Paquet.
Blogs, Science and Peer Review.
En parlant de Wikipedia il dit : "(...) celui qui a étudié la question plus à fond (dans une structure officielle ou non) aura beaucoup plus de difficulté à défendre sa position devant un jury de non-pairs, et ce, à répétition."
Source image
J'avais écris précédemment : "La blogosphère est un vivier de théories profanes. Internet génère la construction et le partage d'une connaissance profane qui n'a pas reçu l'aval d'une institution légitimante. Un savoir émerge et elle se crée ses propres outils d'autolégitimation."(source).
Wikipedia serait un bien meilleur exemple de territoire où la "masse" s'approprie la "connaissance".
Ce vivier propose un monde où le savoir est confronté de facto à un "non-peer review". La revue des non-pairs. N'importe quel quidam peut dire donner son point de vue. Je dis quidam car dans un monde de peer-review, il faut appartenir à l'institution ET être expert reconnu du domaine d'expertise pour avoir le droit de donner son point de vue. Le droit s'acquérait par la construction d'une légitimité académique (principalement).
Évidemment, ce dont parle Marc-André c'est que la compétence d'un spécialiste dans sa sphère de spécialité n'entraîne plus une déférence. Sur Wikipedia, par exemple, il devra la défendre à chaque fois son expertise pour convaincre qu'il a raison (il ne peut pas nécessairement se cacher derrière son diplôme). On arrive a des situations cocasses où l'expert peut perdre patience devant l'acharnement de quidams haut en gueule et leur laisser la place.
J'avais déjà signalé l'épisode où un wikipédiste insistait mordicus pour inscrire dans la bio d' Umberto Eco un fait si anodin qu'il m'apparaissait odieux d'en parler sur une page de deux écrans de long. Le fait mérite sa place dans une note de bas de page dans une biographie posthume exhaustive de 1200 pages seulement, afin de bien noyer l'anecdote. Mais voilà, sur Wikipedia, la verrue s'y retrouve maintenant.
J'y vois deux notions à retenir : dans cet espace de non-peer review, avec la production du folk knowledge, il y aura retour évident de la rhétorique comme arme argumentative (avec ses avantages et ses inconvénients) et la reconnaissance que l'exercice de l'autorité cognitive sur Internet s'applique de façon différente. Ce dernier point m'intéresse particulièrement.
Nous sommes confronté dorénavant à s'adapter au fait que 99,99% de nos connaissances (actuels et à venir) proviendront de second-hand knowledge : nous connaîtrons les choses à travers les expériences des autres et non plus particulièrement à travers la nôtre (first-hand knowledge.)
PS: 23 août
Liens intéressants:
Peer and non-peer review de Andrew Odlyzko (Digital Technology Center)University of Minnesota.
More on blogging referee reports and hacking peer review de Sébastien Paquet.
Blogs, Science and Peer Review.
22 août 2005
7
Post before processing
C'est la moitié des interviewés, d'après un sondage (juin 2005) de Nielsen/NetRatings (PDF), qui n'ont jamais entendu parlé du RSS. L'acronyme RSS reste aussi mystérieux que celui du HTML il y a 10 ans.
Il y a donc 2 raisons possibles pour expliquer ce manque d'intérêt:
La nouvelle logique de publication
Il y a 10 ans, la montée des moteurs de recherche s'est bâtie sur l'augmentation fulgurante du nombre de pages web. Les annuaires ne pouvaient tout simplement plus suivre. Les moteurs de recherches ont alors pris le relais.
Aujourd'hui, avec la montée des blogues, c'est l'agrégateur de fils web qui devient l'outil privilégié pour combattre l'avalanche d'information. (Les versions d'agrégateurs d'aujourd'hui sont peut-être encore archaïques, mais nous n'en sommes qu'au début.)
Pourquoi?
Parce que nous sommes entrée dans une ère où, grâce aux nouvelles technologies, la logique traditionnelle de publication selon l'offre et la demande fait place à un "post before processing".
"Post before processing"
Le "propriétaire" publie (post) une information sans se soucier de son problème d'identification du "public-cible" (à qui écrit-on?, comment adapter son niveau de langage?, qu'est-ce qui les intéresse?).
C'est au "destinataire" que revient le problème de discerner (process) parmi les divers "sources" d'information possible celle la plus appropriée selon ses besoins.
Inverser la problématique, c'est s'offrir le pouvoir de l'automatiser. Il sera toujours plus facile pour un internaute qui recherche une information d'en déterminer sa pertinence qu'un producteur de contenu de faire le tri lui-même.
On publie en premier, on voit ensuite comment traiter l'information: "post before processing".
Applicable dans la vraie vie?
En entreprise, la gestion des connaissances en serait facilité. En donnant le réflexe (ou l'obligation -selon Martin Rouleaux Dugage) aux employés de mettre par écrit la plupart de leurs connaissances acquises en entreprise (compte rendu de réunion, d'échange épistolaire, etc), il est possible (peut-être avec beaucoup de difficulté au début) de retrouver ou de croiser des informations pertinentes - du moins plus facilement que si cette dite information n'était pas archivée).
Dans le secteur académique, il permettrait de faire circuler les étincelles qui donne souvent flamme aux grandes idées. Nos amis d'Opossum en auraient sûrement long à dire.
Dans ces deux cas, il est essentiel, pour que la dissémination de l'information puisse fonctionner, qu'un puissant filtre réduise au minimum le temps d'accès et de recherche à l'information pertinente.
Et naturellement, dans le cas des blogues, post before processing semble être la norme. Les plus prolifiques sont de redoutables machines à relais : peu de process, beaucoup de posts... J'avais soumis sur ce carnet un billet questionnant l'idée d'être un relais versus un filtre. ( "I can post better than anybody who can post faster, and I can post faster than anybody who can post better." source)
Alors il est où cet outil qui nous permettera de mieux filtrer?
Une vague de fond?
En faisant ma recherche sur Google, "post before processing" ne donnait même pas 100 résultats. Or, un nombre particulièrement élevé de sites militaires américains apparaissaient dans le haut de la page des résultats. Le Department of Defense américain (DoD) semble voir dans le réseau une solution pour s'adapter aux problèmes actuels :
Cette approche semble provenir du fascinant document : Power to the edge sur un des site du DoD (via Martin Roulleaux Dugage) : "Power to the edge is the correct response to the increased uncertainty, volatility, and complexity associated with military operations. This is not a problem that is unique to the military domain,but it is an integral part of the transition from the Industrial Age to the Information Age."(page 30)
À croire ce qui est écrit, si cette application peut fonctionner pour les militaires, on peut s'attendre à voir des développements majeurs dans ce domaine pour le secteur civil dans quelques années. Après tout, le protocole de communication sur Internet vient bien d'eux (DARPA est le centre de recherche du DoD).
Alors, à ce moment le grand public aura accès à des outils peut-être encore plus performants que le RSS et les agrégateurs actuels. Alors mieux vaut tout de suite s'y habituer...
Donc, si je comprends bien, sur les 50% qui "connaissent" l'acronyme RSS :
Use of RSS Feeds, June 2005
Survey Response Percent of Respondents
4.9% :: I use feed aggregation software to monitor RSS feeds for blogs
6.4% :: I use a feed aggregating Web site to monitor RSS feeds for blogs
23.0% : I’ve heard of RSS and know what it does but don’t use RSS feeds
15.7% : I’ve heard of RSS but don’t know what it does
50.0% : I’ve never heard of RSS before today
Source Nielsen/NetRatings (PDF)
Via SearchEngineWatch
31,4 % (15,7% du total) ne savent pas ce que le RSS fait! (à ces gens je conseille ce billet : comprendre le RSS)C'est à dire : connaître le RSS ce n'est pas l'adopter. Étonnant. Surtout quand on sait l'avantage évident qu'il procure à celui ou celle qui veut suivre une multitude de blogues à la fois.
46% (23.0% du total) n'utilise pas le RSS, même s'ils en connaissent les avantages.
12,8% (6,4% du total), seulement, l'utilise vraiment.
Il y a donc 2 raisons possibles pour expliquer ce manque d'intérêt:
a- Ils ne lisent pas suffisamment de blogues pour avoir besoin de les suivre via un agrégateurDans le deuxième cas, il faut croire qu'ils vont tôt ou tard étouffer sous l'avalanche de billets. Sans RSS, c'est comme écouter la télévision sans téléguide : on est à la merci de ce qui passe au moment où on ouvre le poste. C'est à dire manquer 99% des choses intéressantes...
b- Ils ne savent même pas ce qu'est un agrégateur (connaître le RSS ne veut pas dire que l'on sait comment installer ou utiliser un agrégateur - à ces gens je conseille ce billet pour comprendre la Trinité "carnet - fil web - aggrégateur").
La nouvelle logique de publication
Il y a 10 ans, la montée des moteurs de recherche s'est bâtie sur l'augmentation fulgurante du nombre de pages web. Les annuaires ne pouvaient tout simplement plus suivre. Les moteurs de recherches ont alors pris le relais.
Aujourd'hui, avec la montée des blogues, c'est l'agrégateur de fils web qui devient l'outil privilégié pour combattre l'avalanche d'information. (Les versions d'agrégateurs d'aujourd'hui sont peut-être encore archaïques, mais nous n'en sommes qu'au début.)
Pourquoi?
Parce que nous sommes entrée dans une ère où, grâce aux nouvelles technologies, la logique traditionnelle de publication selon l'offre et la demande fait place à un "post before processing".
"Post before processing"
Le "propriétaire" publie (post) une information sans se soucier de son problème d'identification du "public-cible" (à qui écrit-on?, comment adapter son niveau de langage?, qu'est-ce qui les intéresse?).
C'est au "destinataire" que revient le problème de discerner (process) parmi les divers "sources" d'information possible celle la plus appropriée selon ses besoins.
Inverser la problématique, c'est s'offrir le pouvoir de l'automatiser. Il sera toujours plus facile pour un internaute qui recherche une information d'en déterminer sa pertinence qu'un producteur de contenu de faire le tri lui-même.
On publie en premier, on voit ensuite comment traiter l'information: "post before processing".
Applicable dans la vraie vie?
En entreprise, la gestion des connaissances en serait facilité. En donnant le réflexe (ou l'obligation -selon Martin Rouleaux Dugage) aux employés de mettre par écrit la plupart de leurs connaissances acquises en entreprise (compte rendu de réunion, d'échange épistolaire, etc), il est possible (peut-être avec beaucoup de difficulté au début) de retrouver ou de croiser des informations pertinentes - du moins plus facilement que si cette dite information n'était pas archivée).
Dans le secteur académique, il permettrait de faire circuler les étincelles qui donne souvent flamme aux grandes idées. Nos amis d'Opossum en auraient sûrement long à dire.
Dans ces deux cas, il est essentiel, pour que la dissémination de l'information puisse fonctionner, qu'un puissant filtre réduise au minimum le temps d'accès et de recherche à l'information pertinente.
Et naturellement, dans le cas des blogues, post before processing semble être la norme. Les plus prolifiques sont de redoutables machines à relais : peu de process, beaucoup de posts... J'avais soumis sur ce carnet un billet questionnant l'idée d'être un relais versus un filtre. ( "I can post better than anybody who can post faster, and I can post faster than anybody who can post better." source)
Alors il est où cet outil qui nous permettera de mieux filtrer?
Une vague de fond?
En faisant ma recherche sur Google, "post before processing" ne donnait même pas 100 résultats. Or, un nombre particulièrement élevé de sites militaires américains apparaissaient dans le haut de la page des résultats. Le Department of Defense américain (DoD) semble voir dans le réseau une solution pour s'adapter aux problèmes actuels :
"True transformation can only be achieved by transforming the way we communicate, by making the network work for us, and by taking full advantage of information age technologies to ensure that our warfighters have immediate and direct access to the information they need."
John P. Stenbit dans un article sur le site du DoD
(si la DoD retire l'article voir ma cache)
"Post before processing means that access to data for disparate needs is not delayed by unnecessary processing. Everyone is a provider and consumer of information. As a provider, they have the responsibility to post data before they use or manipulate it; as a consumer they will have the technical capability to securely access the data they are cleared to access when they want it and in the format they need."
John P. Stenbit au Congrès américain - source : Net-centric trailblazer (PDF)
Cette approche semble provenir du fascinant document : Power to the edge sur un des site du DoD (via Martin Roulleaux Dugage) : "Power to the edge is the correct response to the increased uncertainty, volatility, and complexity associated with military operations. This is not a problem that is unique to the military domain,but it is an integral part of the transition from the Industrial Age to the Information Age."(page 30)
À croire ce qui est écrit, si cette application peut fonctionner pour les militaires, on peut s'attendre à voir des développements majeurs dans ce domaine pour le secteur civil dans quelques années. Après tout, le protocole de communication sur Internet vient bien d'eux (DARPA est le centre de recherche du DoD).
Alors, à ce moment le grand public aura accès à des outils peut-être encore plus performants que le RSS et les agrégateurs actuels. Alors mieux vaut tout de suite s'y habituer...
14 août 2005
0
Les nouveaux Gatekeepers
L'expression "GateKeepers" concerne, dans le domaine de la communication, ces gens qui filtrent pour nous l'information (sélection, tri, résumé, etc) : les journalistes sont des gatekeepers.
Jon Garfunkel propose un long essai sur le sujet : The New Gatekeepers
"To read the headlines, or the bloglines, one might get the sense that the bloggers have arrived on the scene to challenge the "gatekeepers" of the big media. This is an essay in eight parts to examine this theme"
Garfunkel part d'un principe simple : "People are always looking for good ideas to transmit to other people, and ideas, it could be said, are looking for the right sort of people to transmit themselves." Autrement dit des personnes portent le rôle de "connecteurs". Les bloggeurs semblent être ces nouveaux connecteurs...
À tort ou à raison, les blogueurs sont appelés à jouer un rôle dominant dans la gestion du flot d'information de demain. Vérité auto-révélatrice? C'est aussi eux qui critiquent la "vieille garde" (les universitaire et les journalistes) ne l'oublions pas. Sont-ils en train de convaincre leur audience de les considérer comme les nouveaux "gatekeepers" (en dénigrant les anciens)?
Garfunkel réfléchit sur la question. Il s'interroge sur qui sont ces bloggeurs, quelles sont leurs valeurs et quelle est la problématique de l'engouement populaire autour des blogs.
"The old gatekeepers and the new gatekeepers are not the same. Both, after all, influence what we watch and read. The difference is that the old gatekeepers do so by restricting information. The new gatekeepers do so by manipulating information cascades."
Les bloggeurs envahissent un nouvel espace, ils ne remplacent pas les anciennes institutions. Mais une "nouvelle offre" se présente, qui fait ombrage aux anciens gatekeepers. Mais la quantité d'information ur Internet est telle qu'il deviendra nécessaire d'augmenter le nombre de gatekeepers.
“The fundamental problem with an information cascade is that after a certain point it becomes rational for people to stop paying attention to their own knowledge.”
Est-ce la seule raison pour expliquer la montée des blogs? Garfunkel souligne que les "email forward" sont de toute façon la principale méthode de dissémination de l'information sur Internet. Les blogs correspondent tout simplement à la suite logique (et pratique) de cette avalanche d'information : ils laissent des traces! Il n'y a pas moyen de retracer une information par courriel, or dans la blogosphère, la retraçabilité permet de créer de la crédibilité. Les bloggeurs citent leur source.
Les bloggeurs prendront leur place. Tant mieux. Mais je crois que ce qui sera intéressant à observer c'est comment les "anciens" gatekeepers vont réagir pour conserver leur rôle. À suivre...
Jon Garfunkel propose un long essai sur le sujet : The New Gatekeepers
"To read the headlines, or the bloglines, one might get the sense that the bloggers have arrived on the scene to challenge the "gatekeepers" of the big media. This is an essay in eight parts to examine this theme"
Garfunkel part d'un principe simple : "People are always looking for good ideas to transmit to other people, and ideas, it could be said, are looking for the right sort of people to transmit themselves." Autrement dit des personnes portent le rôle de "connecteurs". Les bloggeurs semblent être ces nouveaux connecteurs...
À tort ou à raison, les blogueurs sont appelés à jouer un rôle dominant dans la gestion du flot d'information de demain. Vérité auto-révélatrice? C'est aussi eux qui critiquent la "vieille garde" (les universitaire et les journalistes) ne l'oublions pas. Sont-ils en train de convaincre leur audience de les considérer comme les nouveaux "gatekeepers" (en dénigrant les anciens)?
Garfunkel réfléchit sur la question. Il s'interroge sur qui sont ces bloggeurs, quelles sont leurs valeurs et quelle est la problématique de l'engouement populaire autour des blogs.
"The old gatekeepers and the new gatekeepers are not the same. Both, after all, influence what we watch and read. The difference is that the old gatekeepers do so by restricting information. The new gatekeepers do so by manipulating information cascades."
Les bloggeurs envahissent un nouvel espace, ils ne remplacent pas les anciennes institutions. Mais une "nouvelle offre" se présente, qui fait ombrage aux anciens gatekeepers. Mais la quantité d'information ur Internet est telle qu'il deviendra nécessaire d'augmenter le nombre de gatekeepers.
“The fundamental problem with an information cascade is that after a certain point it becomes rational for people to stop paying attention to their own knowledge.”
Est-ce la seule raison pour expliquer la montée des blogs? Garfunkel souligne que les "email forward" sont de toute façon la principale méthode de dissémination de l'information sur Internet. Les blogs correspondent tout simplement à la suite logique (et pratique) de cette avalanche d'information : ils laissent des traces! Il n'y a pas moyen de retracer une information par courriel, or dans la blogosphère, la retraçabilité permet de créer de la crédibilité. Les bloggeurs citent leur source.
Les bloggeurs prendront leur place. Tant mieux. Mais je crois que ce qui sera intéressant à observer c'est comment les "anciens" gatekeepers vont réagir pour conserver leur rôle. À suivre...
06 août 2005
0
Le problème du filtrage de l'information sur Internet
Tiré de text-e, un colloque entièrement virtuel consacré à explorer l'impact de l'Internet sur la lecture, l'écriture et la diffusion du savoir. Le colloque s'est déroulé du 15 octobre 2001 jusqu'à fin mars 2002. Un peu vieux mais toujours pertinent : les conséquences de la perte de l'intermédiaire dans l'accès aux informations)
Par Umberto EcoUmberto Eco refuse ensuite la possibilité d'automatiser la fonction du filtre : un moteur de recherche ne fera pas le travail que font les experts.
(Mise en page et ajout du gras par moi)
[Le problème du filtrage de l'information sur Internet ?]
C'est le problème fondamental du Web. Toute l'histoire de la culture a été celle d'une mise en place de filtres. La culture transmet la mémoire, mais pas toute la mémoire, elle filtre. Elle peut filtrer bien, elle peut filtrer mal, mais s'il y a bien quelque chose qui nous permet d'interagir socialement, c'est que nous avons tous eu, plus ou moins, les mêmes filtres. Après, le scientifique, le chercheur peuvent mettre en cause les filtres, mais ceci est une autre histoire.
Avec le Web, tout un chacun est dans la situation de devoir filtrer seul une information tellement ingérable vu son ampleur que, si elle n'arrive pas filtrée, elle ne peut pas être assimilée. Elle est filtrée par hasard, par conséquent quel est le premier risque métaphysique de l'affaire ? Que l'on aille au-devant d'une civilisation dans laquelle chacun a son propre système de filtre, c'est-à-dire que chacun se fabrique sa propre encyclopédie. Aujourd'hui, une société avec cinq milliards d'encyclopédies concurrentes est une société qui ne communique plus.
De plus, les filtres auxquels nous nous référons résultent de la confiance que nous avons mise dans la dite « communauté des savants » qui, à travers les siècles, débattant entre eux, a apporté la garantie que le filtrage a été, à tout le moins, plutôt raisonnable, tandis qu'on peut imaginer ce que pourrait donner le filtrage individuel fait par n'importe qui, par exemple par un garçon de quatorze ans. Nous pourrions nous trouver, de ce fait, face à une concurrence d'encyclopédies dont certaines seraient délirantes. [...]
(source)
Deux groupes de filtrage pourraient exister selon lui :
- le premier s'exprime de l'intérieur du Web, mais comment fait le novice pour repérer le site d'experts ?
- le second s'exprime de l'extérieur, par exemple dans une revue ou un quotidien, mais alors comment s'assurer que le matériel imprimé soit à la disposition du plus grand nombre d'usagers?
Ce troisième "groupe de filtrage" implique un type de pensée qui "refuse les catégories fortes et le légitimations totalisants", qui a renoncé à une fondation "unique, dernier, normatif " (dans le sens qu'emploierait par Gianni Vattimo pour sa "pensée faible" (Il pensiero debole).
Umberto Eco pensait en terme d'autorité traditionnelle. Son point de vue est loin d'être discrédité, mais finalement un nouveau modèle de légitimation se met en place pour "valider" l'information. Apparemment, les institutions perdent leur force légitimante sur le web car elles ne peuvent y garantir leurs continuités et leurs identités.
La "démocratisation" de l'accès à la connaissance (via la folksonomy notamment) ordonnera une nouvelle façon de gérer l'avalanche d'information; mais créera-t-elle une société qui ne pourra plus communiquer? La communication de masse a du pain sur la planche...
---
Compléments (dernière mise à jour 26 août 2005)
- Info sur le Collaborative filtering
- "Théorème de la compétence collective" (PDF) -Université Libre de Bruxelles
- Le management de l'intelligence collective d'Olivier Zara
- Autorité cognitive : Sept thèses sur le sens commun
- Problèmes de légitimation (EN) (tiré du livre d'Habermas)
- Il faut sauver la communication de Dominique Wolton
- Introduction :Problèmes et enjeux de l’évaluation de l’information sur Internet d'Alexandre Serres (URFIST Bretagne-Pays de Loire, Avril 2002)
04 août 2005
0
État de la blogosphère
"What a shock, then, to witness the near-instantaneous rise of 50 million blogs, with a new one appearing every two seconds. There - another new blog! One more person doing what AOL and ABC - and almost everyone else - expected only AOL and ABC to be doing. These user-created channels make no sense economically. Where are the time, energy, and resources coming from?The audience. "
Source: Wired 13.08
Sifry de Technorati vient de sortir son troisième état de la Blogosphère :
- The blogosphere continues to double about every 5.5 months
- A new blog is created about every second, there are over 80,000 created daily
- About 55% of all blogs are active, and that has remained a consistent statistic for at least a year
- About 13% of all blogs are updated at least weekly