OWNI http://owni.fr News, Augmented Tue, 17 Sep 2013 12:04:49 +0000 http://wordpress.org/?v=2.9.2 fr hourly 1 Internet se fera sonder en profondeur http://owni.fr/2012/01/19/mesure-internet-inria-metroscope-qos/ http://owni.fr/2012/01/19/mesure-internet-inria-metroscope-qos/#comments Thu, 19 Jan 2012 11:09:58 +0000 Andréa Fradin http://owni.fr/?p=91343

Prendre le pouls d’Internet : c’est l’objectif que se sont fixés les scientifiques de l’Institut de la recherche en informatique et en automatique (Inria). Le projet intitulé “Métroscope” entend mettre en place un véritable “observatoire scientifique du réseau”, au service des chercheurs mais aussi des institutions et des citoyens.

Car si Internet a envahi le quotidien des Français, il existe assez peu de données permettant de comprendre ce qu’il se passe en son sein. En scrutant les entrailles du réseau, l’Inria pourra en déterminer les propriétés, en définir la qualité, guetter l’apparition de nouveaux usages. Permettant de répondre à des questions fondamentales ou futiles. Genre : “mais pourquoi ça rame ce soir ?” Le tout dans un esprit d’indépendance. Explications et présentation de cette nouvelle vigie avec Luc Saccavini, ingénieur de recherche à l’Inria, et principal responsable technique du futur observatoire d’Internet.

En quoi consiste le projet Metroscope ?

Inria a la volonté de mettre en place un observatoire scientifique de l’Internet. Cette volonté s’est concrétisée par le montage d’un consortium autour du projet Métroscope pour réunir l’ensemble des principaux acteurs français intéressés par un tel projet et organiser la recherche d’un financement.

La démarche principale consiste en la mise en place d’une plate-forme au service des scientifiques dans un premier temps, mais également des citoyens et des pouvoirs publics dans un second temps. Une équipe technique, de trois à cinq ingénieurs sera nécessaire pour déployer et maintenir l’outil opérationnel. L’objectif est aussi de fédérer une communauté de scientifiques autour de la plate-forme. Il devrait y avoir cinq équipes de recherche d’Inria, ainsi que six à sept partenaires : des universités, des organismes privés, des constructeurs, l’Arcep (Autorité de régulation des communications électroniques et des postes).

La plate-forme devra être ouverte et neutre : aucun intérêt particulier ne la porte si ce n’est l’intérêt scientifique. La demande de financement dans le cadre de l’appel à projets Équipements d’excellence “Equipex” de fin 2011 n’a pas été retenue, mais le projet demeure et une prochaine réunion entre les partenaires permettra de déterminer la suite à y donner.

Concrètement, que va observer Metroscope sur Internet ?

Avec cet observatoire l’Inria a comme objectif cible de pouvoir mener des observations “en tout point” (petits et grands sites, liens spécifiques, utilisateurs finaux, etc) et “de toute nature” (mesures techniques, d’usages, etc). Par exemple sur les aspects qualité de service d’Internet : regarder les propriétés d’un trafic, savoir le caractériser, déterminer le temps de réponse d’un site, la perte de paquets pour tel ou tel usage sur Internet… Ce qui permet par exemple de définir ce qu’il faut faire pour sur-dimensionner un “tuyau” – même si cette image du réseau peut mener à des erreurs d’interprétation. L’idée est d’obtenir des mesures précises dans le temps. Des données techniques fines s’appuyant sur des métriques bien standardisées (métriques IPPM notamment). Mais ce n’est qu’un aspect de l’observation.

Nous avons aussi réussi à impliquer des chercheurs en sciences humaines sur la plate-forme, afin d’étudier également les usages d’Internet. Nous disposons déjà de pas mal de données là-dessus : ce qui nous intéressera surtout ici sera l’évolution des usages, des services, des protocoles, et leurs détournements éventuels. Certains services, certains protocoles y mènent : il y a donc un véritable besoin. Par exemple le mail est devenu une façon de transporter des documents, alors qu’à l’origine c’était uniquement un moyen pour échanger des messages. L’étude des protocoles existant et nouveaux est intéressante car certains se rapprochent de l’organisation de la vie, des cellules…

Un bon exemple qui se rapproche de ce qu’on veut faire est Caida, aux États-Unis, qui publie des études sur Internet, ainsi que de nombreuses visualisations. D’autres initiatives, comme PlanetLab Europe au sein de celle, plus large, de OneLab, existent déjà et déploient des sondes pour observer le réseau.

Boîte noire

Comment mesure-t-on Internet ?

L’idée est de mesurer plus de choses, au plus d’endroits possibles, avec la plus grande précision possible. Nous allons déployer différents types de sondes pour observer le réseau. Par exemple, des sondes logicielles, qui sont soit actives (elles émettent du trafic) soit passives (elles observent le trafic). Ces sondes logicielles (de type OneLab) sont entièrement configurables pour permettre d’accueillir des campagnes de mesures spécifiques à un programme de recherche. D’autres sondes (de type Etomic) permettront l’observation du débit à un grain temporel très fin, sous la micro-seconde.

Certaines sondes permettront l’observation d’un service particulier. C’est le cas des sondes qui seront déployées par l’Afnic (Association Française pour le Nommage Internet en Coopération), l’un des partenaires du projet, pour observer le trafic DNS. D’autres sondes seront déployées chez des internautes volontaires pour participer à des campagnes de mesures.

Pour étudier le réseau dans sa globalité, il faut l’observer à l’échelle mondiale. Allez-vous placer des sondes au niveau des points d’échanges internationaux ?

On aimerait bien. Mais c’est quasiment impossible. La charte des points d’échanges internationaux insiste sur la neutralité des opérateurs de ces points d’échanges. Ils ne communiquent pas les informations sur les conditions de trafic (matrice des flux par exemple). Il s’agit d’informations technico-commerciales particulièrement sensibles. Pour le moment, c’est donc hors de portée.

Du coup, Metroscope sera un observatoire de l’Internet français ?

Le déploiement des sondes se fera principalement en France. Mais le déploiement de sondes de type OneLab dans le cadre du projet PlanetLab qui dispose déjà de sondes à l’international donnera des possibilités d’observations sur tout l’Internet. Enfin, il est dans nos objectifs de travailler avec des consortiums européens équivalents pour avancer vers une observation européenne, puis mondiale.

Les opérateurs juges et parties du net

Les opérateurs juges et parties du net

Le régulateur des télécoms cherche à déterminer la qualité du réseau français. Pour mettre en place le dispositif de ...

Sujet sensible

Certains disent qu’il n’est pas possible de “mesurer” Internet…

Dire qu’on ne peut pas faire quelque chose consiste à ne jamais rien faire. Ce projet d’observatoire est difficile donc c’est scientifiquement intéressant. Et au terme des recherches, plusieurs réponses peuvent être apportées ! Le chantier peut être trop complexe et oui, on dira alors que c’était trop difficile. Mais on peut aussi faire une partie du chemin, apporter des éléments de réponse à la question de la mesure d’Internet.

Quelles précautions avez-vous prévues pour encadrer ces mesures et l’utilisation des données récoltées ?

La mesure d’Internet est un sujet plus que sensible, ce qui explique la gouvernance extrêmement précise de l’observatoire. Au-delà d’un comité exécutif et d’un comité de direction classiques, nous avons aussi un comité scientifique et un comité éthique. Le premier donne accès ou non à la plate-forme et à ses résultats en fonction de la nature des requêtes des scientifiques. L’équipement est utilisé en priorité par les chercheurs d’Inria et de ses partenaires scientifiques, mais d’autres, extérieurs au projet, pourront y accéder s’ils en font la demande et si celle-ci est validée.

Avec le comité éthique, nous nous assurons que l’Observatoire n’est pas une boîte noire incontrôlée. Son spectre est très large : au même titre que le comité scientifique, il examine les demandes d’accès à la plate-forme des chercheurs extérieurs, en déterminant les conditions dans lesquelles ils peuvent ou non utiliser ces données. C’est la caution de vigilance et de transparence : si on installe une sonde chez un utilisateur, il faut qu’il sache ce qu’on va en faire, et ce qui sera fait des données récoltées.

Un être vivant

L’Arcep réfléchit à une méthode de mesurer de la qualité d’accès à Internet. Êtes-vous associé au groupe de travail ?

L’Arcep compte parmi nos partenaires et nous sommes déjà associés à la réflexion en tant qu’experts extérieurs. Nous avons été invités aux réunions de travail au côté des opérateurs, des équipementiers, des associations d’usagers et d’autres personnalités extérieures. Cela fait partie des missions d’Inria en tant qu’organisme de recherche public.

La situation sur le terrain est un peu contradictoire entre les fournisseurs de contenus et les fournisseurs d’accès. La volonté de l’Arcep d’établir sur une base scientifique la mesure de la qualité d’accès à Internet est positive, mais encore une fois, le terrain est difficile. Il faut trouver les bonnes méthodes : le régulateur nous a demandé de les y aider.

L’Arcep se dirigerait vers une solution uniquement tournée vers la pose de sondes matérielles chez l’utilisateur. Que pensez-vous de ce choix et des autres solutions écartées ?
L’Internet illimité au purgatoire

L’Internet illimité au purgatoire

L'idée de brider Internet était promise aux enfers. À en croire les opérateurs, en particulier Orange, le projet aurait ...

La solution offerte par le site Grenouille est bien, elle a le mérite d’exister depuis très longtemps et d’être facile à déployer [ndlr : le site propose une "météo du net" afin de "publier en temps réel les performances des différentes offres d'accès haut débit."]. L’inconvénient est que la mesure de la qualité d’accès à Internet dépend de l’activité du poste de travail de l’utilisateur. A côté, la sonde matérielle est une bonne idée. Reste à se poser les questions des conditions de déploiement, du panel représentatif d’utilisateurs et des mesures à effectuer.

Il y a donc des chances que vous mesuriez la qualité de l’accès à Internet sous la tutelle de l’Arcep ?

On a proposé notre aide pour opérer des sondes directement à partir de notre plate-forme. Si nous obtenons le financement, c’est une option que nous allons ouvrir.

L’Arcep veut fixer à terme un “niveau de qualité suffisant” à Internet. Une bonne idée ?

C’est une bonne chose de vouloir fixer ce niveau de qualité suffisante. Mais le problème du réseau c’est qu’il est un être vivant : il est difficile de reproduire un instant donné d’Internet. Mais ça ne veut pas dire que l’on ne peut pas, commencer par faire des comparatifs entre opérateurs est déjà une première étape possible.

De plus, le concept de “niveau de qualité suffisant” permettra de constater certaines pratiques sur le réseau. Prenons un scénario : si un FAI a un lien financier avec un producteur de contenu, il peut être tenté de jouer sur la qualité de service pour favoriser ce site en particulier auprès des utilisateurs. Ces choses seront visibles et accessibles.

De même, dans d’autres cas de figure, les opérateurs peuvent à tord être mis en cause : ils peuvent fournir une très bonne qualité de service, sans que l’utilisateur en profite, parce que le biais est introduit ailleurs (poste de travail, serveur applicatif, autre FAI). Les FAI craignent de se faire accuser à tort de diminuer la qualité de service. Avec cette mesure, l’idée est de fournir un tableau de bord avec l’accord de l’Arcep, des opérateurs et du grand public. Des données agrégées, synthétiques et reproduites dans le temps.

La gouvernance d’Internet reste un sujet ouvert. Internet n’a ni centre, ni patron, même si des géants existent. On peut donc constater ces scénarios s’ils se produisent. Quelque part, l’observation d’Internet relève d’une question citoyenne. Et les opérateurs y ont tout intérêt.

Free, SFR, Orange et Bouygues en autocontrôle

Free, SFR, Orange et Bouygues en autocontrôle

Accorder à Orange, Free, SFR et Bouygues le luxe de devenir les seuls juges de la qualité de leurs offres d'accès à ...

“Il y a de quoi faire en sorte que les réseaux ne soient pas saturés”

Pensez-vous qu’il y a un risque de voir les opérateurs faire pression sur la mesure pour orienter les résultats ?

Inria s’occupe de science. Si l’Arcep accepte notre aide, on ne recherchera évidemment aucune mainmise. Surtout dans ce domaine; l’observation d’Internet est très difficile. Il est important que cet instrument reste transparent, ouvert, bien géré, et qu’il serve l’expérimentation scientifique.

Nous aidons l’Arcep à réfléchir à la mesure de la qualité d’accès à Internet, à la neutralité des réseaux. Mais notre implication reste au conditionnel.

Pour justifier les entorses à la neutralité des réseaux, les opérateurs évoquent souvent une “saturation” de leur infrastructure. Les mesures de l’Observatoire permettront-elles de vérifier si cet argument est une réalité ?

Cette question relève plus de l’opinion que de Metroscope. Ce que je peux dire, c’est que la montée en puissance des équipements est continue depuis vingt ans. On parle de “saturation”, de bande passante “limitée”… Ce que j’observe, et m’en appuyant aussi sur des analyses prospectives menées sur l’évolution des industries électroniques (rapports de l’ITRS par exemple), c’est que cette montée en puissance n’est pas finie. Chaque fois qu’un facteur 10 est franchi dans la performance des équipements, c’est très cher au départ, puis ça diminue très vite.

Autrement dit, dans la technologie comme dans l’économie, il y a de quoi faire en sorte que les réseaux ne soient pas saturés. On peut s’appuyer sur un cas très précis : Renater (Réseau national de télécommunications pour la technologie l’enseignement et la recherche). L’échelle est certes réduite à la communauté académique (1000 établissements) mais Renater peut être vu comme un morceau significatif d’Internet. Le budget de financement est constant depuis longtemps. Nous n’avons jamais été dans une situation de devoir l’augmenter alors que les débits ont été très fortement augmentés. Autrement dit, il n’y a aujourd’hui aucun argument technologique ou financier qui indique qu’on ne puisse pas continuer à accompagner la montée de la demande en bande passante avec les équipements actuels.


Image par Anthony Mattox (cc) via Flickr

]]>
http://owni.fr/2012/01/19/mesure-internet-inria-metroscope-qos/feed/ 4
Unité! http://owni.fr/2011/05/31/unite-molle-gramme-syseme-international-medecine-biologie/ http://owni.fr/2011/05/31/unite-molle-gramme-syseme-international-medecine-biologie/#comments Tue, 31 May 2011 14:18:06 +0000 boree http://owni.fr/?p=35033 Lorsque j’étais étudiant, j’ai appris que nous devions utiliser les unités du Système International (SI) pour les résultats biologiques. Que c’était le moyen d’unifier les données internationales afin d’échapper aux particularités locales. Que ce système était légal en France depuis 1961 et que la Société Française de Biologie Clinique l’avait adopté depuis 1978.

On pourrait croire que c’est un truc qui a été fait pour les Anglais vu que le système métrique est quasiment universel. Et qu’il est lui-même fondé sur des bases rationnelles, comme l’avaient rêvé ses concepteurs lors de la Révolution française. Mais c’est plus compliqué que ça parce que le gramme ou le mètre font eux-mêmes partie des unités de base du Système International.

Donner un résultat en “grammes par litre” est donc bien une expression de type “SI”. Mais elle est beaucoup trop simple et compréhensible du commun des mortels. Du coup, ce n’est pas drôle.

“Vous reprendrez bien 1 mole de sucre ?”

Ces nouvelles unités de mesure sont donc vraisemblablement sorties du cerveau de chimistes pour lesquelles le raisonnement en “moles” doit avoir du sens même si ça n’en a strictement aucun pour M. Tout-le-monde. “Vous me mettrez aussi 3 moles de sucre, Mme l’épicière.

Mais, soit. Puisque nous évoluons dans la mondialisation, adoptons cette langua franca biologique. Finis les grammes par litre. Bienvenue aux millimoles par litre.

Le problème, c’est que ce n’est pas aussi simple. Déjà, parce qu’il y a d’autres unités qui viennent se mêler à ça. Pour les ions, on peut aussi parler en milliEquivalents (mEq) qui dépendent de la charge électrique. Souvent 1 mEq = 1 mmol. Mais pas toujours. Pour le calcium, 1 mmol = 2 mEq. Ça amuse les chimistes.

Et puis, il y a aussi, les “Unités” pour les enzymes et pour certaines hormones. Mais pas pour toutes.

En matière d’unification, on repassera…

Pour certaines données, ça ne pose pas trop de soucis, on est à peu près tous sur la même longueur d’onde. Ainsi, pour le sodium ou le potassium, on parle tous en mEq. Pour l’hémoglobine, tout le monde en France en est resté aux grammes. Pour la glycémie aussi, en-dehors de quelques acharnés.

Pour d’autres, c’est un joyeux bazar. Lorsque j’ai un confrère hospitalier en ligne et qu’on parle du taux de créatinine, ça donne souvent ça :

- Il a 12 mg de créat.
- Ça fait combien, ça ?
- Euh… 106 µmol.
- Ah, ok.

Et là, je ne parle que des Français entre eux. Quand mes patients anglais me parlent de leur glycémie à « 6,2 », je vois à peu près ce que ça fait. Mais quand un patient hollandais m’a dit que sa dernière hémoglobine était « à 7 », j’ai cru que je devais appeler le 15…

Manque « d’unités », donc.

Mais il y a encore plus amusant. Histoire d’être originaux (et de garder leur clientèle), les laboratoires d’analyse français aiment bien avoir leurs petites coquetteries. Dans mon coin, quand un laboratoire me dit que les globules blancs de mon patient sont à 7 550 par mm3, le labo d’à côté trouvera plus chic de me dire qu’ils sont à 7,55 Giga par litre.

Quand l’un va me répondre “Protéinurie : 170 mg / l”, l’autre me dira “Protéinurie : 0,17 g / l”.

Le souci, c’est qu’aujourd’hui, la plupart des logiciels médicaux permettent d’intégrer automatiquement les résultats de prise de sang dans les dossiers des patients. Avec ça, on peut faire en deux clics de jolis tableaux qui permettent de voir les évolutions sur la durée. Du coup, quand le patient change de laboratoire, ces tableaux, ça devient un peu n’importe quoi.

Et, comme on peut toujours faire pire… Chaque laboratoire a ses propres normes. Pour le laboratoire X, la “norme” de la créatinine, c’est entre 7,4 et 13,7. Pour le labo Y, c’est de 7 à 12. Et pour le laboratoire Z, c’est entre 4 et 14.

Donc quand on a un patient qui avait un résultat à 12,5 chez Y et qui a maintenant un résultat à 14 chez Z, c’est plus ? C’est moins ? Pareil ? Qu’est-ce qui est dans les normes, qu’est-ce qui n’y est pas ?

Déterminer des normes

Tout ceci m’emmerde car ça nous complique la vie. A l’heure où nous avons des logiciels médicaux qui présentent des tas de possibilités pour améliorer le suivi de nos patients, ces singularités sont ingérables.

Alors, moi je veux bien faire des efforts. Si demain, on me dit qu’il faut que je donne mes glycémies en mmol, je ferai l’effort intellectuel, je m’adapterai. Je ne trouverai pas forcément ça très parlant pour les patients, sans aucun intérêt pour le clinicien que je suis, mais d’accord. Ça me prendra sûrement un petit moment, mais je m’y ferai. Comme, petit à petit, j’ai fini par oublier les francs pour raisonner en euros.

Mais, comme pour le changement de monnaie, comme pour les unités de poids avant la Révolution, on n’y arrivera jamais si chacun continue à faire sa petite tambouille dans son coin.

Moi, ce que j’aimerais, ce serait qu’on enferme tous les biologistes de France ou d’Europe dans un grand hangar. Qu’on les y enferme et qu’on ne les laisse sortir que lorsqu’ils se seront mis d’accord une bonne fois sur quelle unité de mesure et quelles normes pour quelle donnée. Et qu’ensuite on s’y tienne en arrêtant rapidement les systèmes de « double affichage ».

Ces gens là ont bien des syndicats et des sociétés savantes dont l’utilité dépasse peut-être les négociations tarifaires. Je ne vois pas pourquoi ils ne pourraient pas arriver à ça.

Et s’ils n’en sont pas capables parce que leurs petits intérêts particuliers et leurs confortables habitudes les en empêchent… Eh bien ! Il y a la loi pour ça.

P.S. En attendant le grand soir, je me suis fais un petit tableau Excel pour pouvoir plus aisément « traduire » les valeurs biologiques les plus courantes. Je vous l’offre !


Article initialement publié sur “Le blog de Borée” sous le titre “Unité !”.

Photos Flickr Paternité par Kitkor, PaternitéPas d'utilisation commercialePas de modification par adamrhoades et PaternitéPas d'utilisation commercialePartage selon les Conditions Initiales par mars_discovery_district.

]]>
http://owni.fr/2011/05/31/unite-molle-gramme-syseme-international-medecine-biologie/feed/ 5
Nos vies gérées par les données http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees/ http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees/#comments Thu, 08 Jul 2010 14:01:59 +0000 Hubert Guillaud http://owni.fr/?p=21513 Nous prenons des décisions avec des informations partielles. Souvent, nous ne savons pas répondre aux questions les plus simples : où étais-je la semaine dernière ? Depuis combien de temps ai-je cette douleur au genou ? Combien d’argent dépensé-je habituellement chaque jour ?…

Pour répondre à cela, certains documentent leurs existences pour obtenir des informations précises et concrètes sur leur quotidien, comme c’est le cas de Robin Barooah, un concepteur de logiciel de 38 ans, qui vit à Oakland, Californie. Barooah a ainsi décidé de se désintoxiquer du café. Pour cela, il s’est rempli une grande tasse de café et a décidé d’enlever 20 ml par semaine. Cela lui a pris 4 mois.

Si vous voulez remplacer les aléas de l’intuition par quelque chose de plus fiable, vous devez d’abord recueillir des données. Une fois que vous connaissez les faits, il est possible de mieux les gérer.

Ben Lipkowitz documente également sa vie via son agenda électronique. Il sait ce qu’il a mangé, ce qu’il a dépensé, les livres qu’il a lus, les objets qu’il a achetés, le temps qu’il passe à nettoyer son appartement… Mark Carranza détaille également son existence depuis ses 21 ans, en 1984, via une base de données qui recueille désormais plusieurs millions d’entrées (voir notamment cette intervention pour le Quantified Self). La plupart de ses pensées et actions sont ainsi documentées.

lesjourneesdeBenLipkowitz

Les journées de Ben Lipkowitz

Je me mesure, donc je suis

“Ces gens semblent avoir un comportement anormal. Aberrant. Mais pourquoi ce qu’ils font nous semble si étrange ?”, se demande Gary Wolf dans un passionnant article pour le New York Times (dont cet article n’est en grande partie qu’une traduction). Dans d’autres contextes, il est normal de récolter des données. C’est le cas des managers, des comptables… Nous tolérons bien souvent les pathologies de la quantification, parce que les résultats s’avèrent puissants. Enumérer les choses permet d’accomplir des tests, des comparaisons, des expériences. Les documenter permet d’amoindrir leur résonnance émotionnelle et de les rendre intellectuellement plus traitables. En sciences, en affaire, et dans la plus grande part des secteurs, les chiffres, carrés et justes, l’emportent.

Pendant longtemps, le domaine de l’activité humaine a semblé à l’abri. Dans les limites confortables de la vie personnelle, nous utilisons rarement la puissance du nombre. Les techniques d’analyse, si efficaces, sont laissées au bureau à la fin de la journée et reprises le lendemain. Imposé à soi ou à sa famille, un régime d’enregistrement objectif semble ridicule. Un journal est respectable, mais une feuille de calcul est effrayante.

Pourtant, les nombres s’infiltrent dans le domaine de la vie personnelle. Mesurer son sommeil, son exercice physique, son humeur, sa nourriture, sa sexualité, sa localisation, sa productivité, son bien-être spirituel semble de plus en plus affiché et partagé. Sur MedHelp, un des plus grands forums internet pour l’information de santé, quelque 30 000 nouveaux projets personnels sont ainsi documentés par les utilisateurs chaque mois. Foursquare, et son million d’utilisateurs, permets à ses usagers de construire automatiquement le journal détaillé de leurs mouvements et de les publier. La Wii Fit, qui permet entre autres de mesurer ses activités corporelles, a été vendue à plus de 28 millions d’unités.

quantifiedselfmeeting

Image : cliché d’une réunion du Quantified Self.

Gary Wolf rappelle que depuis deux ans il anime avec Kevin Kelly le Quantified Self, un site web et des réunions régulières sur le sujet de la documentation de soi, qui l’a amené à se demander si l’autosuivi était une conséquence logique de notre obsession à l’efficacité (voire notre édito sur le sujet : “Finalement, documentez-moi !”). Mais cette recherche d’efficacité implique des progrès rapides vers un but connu. Or, pour beaucoup de gens qui documentent leur existence, “l’objectif est inconnu”. Si beaucoup commencent à le faire avec une question précise à l’esprit, la plupart continuent parce qu’ils croient que cette documentation de soi fait surgir des chiffres qu’ils ne peuvent se permettre d’ignorer, y compris des réponses à des questions qu’ils n’ont peut-être pas encore pensé à se poser.

La montée des capteurs de soi

Cette autodocumentation est un rêve d’ingénieur. Pour comprendre comment les choses fonctionnent, les techniciens sont souvent douloureusement conscients du mystère du comportement humain. Les gens font des choses pour des raisons insondables. Ils sont opaques à eux-mêmes. Les formes de l’auto-exploration de soi (psychanalyse notamment) passent par les mots. Les traceurs explorent une autre voie. “Au lieu d’interroger leurs mondes intérieurs par la parole et l’écrit, ils utilisent les nombres.”

Pour cela, il faut prendre en compte quatre changements importants. Les capteurs électroniques sont devenus plus petits, plus accessibles et de meilleure qualité. Les gens ont eu accès à des dispositifs de calculs puissants et facilement inscriptibles (notamment via leurs mobiles). Les sites sociaux ont montré qu’il n’était pas anormal de partager ces données. Enfin, nous avons commencé à apercevoir la montée d’une superintelligence mondiale dans les nuages (l’informatique en nuage est l’infrastructure de la Machine unique de Kevin Kelly).

Les méthodes d’analyses familières sont désormais enrichies par des capteurs qui surveillent notre comportement, par des processus d’autosuivis plus séduisants et significatifs… qui nous rappellent que notre comportement ordinaire contient d’obscurs signaux quantitatifs qui peuvent être utilisés pour documenter nos comportements. Ainsi Ken Fyfe, l’un des pionniers des dispositifs de surveillance biométrique vestimentaire, rappelle que dans les années 90, quand un coureur voulait avoir des informations sur la mécanique de leurs performances (rythme, cadence…), il devait se rendre dans un laboratoire pour que sa performance soit enregistrée. Désormais, il suffit d’un téléphone mobile ou d’une puce dotée d’accéléromètres et de GPS, pour connaître ces informations, comme le font tous ceux qui utilisent ces outils pour surveiller leurs résultats sportifs. “L’expertise dont vous avez besoin consiste dans le traitement du signal et l’analyse statistique des résultats”, explique James Park, cofondateur de Fitbit, un capteur de mouvement. Philips commercialise désormais DirectLife, Zeo un petit capteur qui capte les signaux électriques du cerveau pendant votre sommeil. L’accéléromètre de Ken Fyfe, développé par Dynastream, est utilisé dans les montres d’Adidas et Polar et mesure également la pression artérielle, le niveau de glucose, le poids, le sommeil… Nike+ commercialisé depuis 2006 a été adopté par 2,5 millions de coureurs.

zeo

Image : Le Zeo et un exemple de mesure de sommeil obtenu depuis cet appareil.

Le rêve de Ken Fyfe est de démocratiser la recherche objective sur les sujets humains. Le coeur de ce laboratoire personnel est désormais le téléphone portable, qui nous enveloppe d’un nuage de calculs, couplé aux sites sociaux. “Les gens se sont habitués à partager”, explique David Lammers-Meis, qui dirige la conception des produits de remise en forme de Garmin, la firme spécialisée dans l’intégration de GPS. “Plus ils veulent partager, plus ils veulent avoir des choses à partager.” Même si on n’a rien à dire on veut avoir quelque chose à partager. 1,5 million de personnes utilisent Mint, leur permettant de partager leurs dépenses pour mieux les maîtriser.

Maîtriser les machines qui nous mesurent

Les manies de quelques geeks sont en passe de paraître normales. Pour Gary Wolf, l’une des raisons pour lesquelles l’autosuivi se répand au-delà de la culture technique qui lui a donné naissance réside dans le fait que dans notre quête à nous comprendre, nous souhaitons récupérer une partie du pouvoir de contrôle et de documentation de nous-mêmes que nous confions aux machines.

Sophie Barbier, une enseignante de 47 ans résidant à Palo Alto, a ainsi commencé à partager les données de ses parcours cyclistes (temps, distance, fréquence cardiaque). Puis elle a commencé à noter son humeur, son sommeil, sa capacité de concentration, sa consommation de caféine… Elle a pris un complément alimentaire, le tryptophane, pour faire disparaître ses insomnies et s’est rendu compte qu’il avait aussi un effet sur sa capacité de concentration. Seth Roberts, professeur de psychologie à l’université de Californie a ainsi développé un logiciel de mesure de la performance cognitive, qui, couplé à un système d’autosuivi pour adapter son régime alimentaire, lui a permis de démontrer que le beurre a contribué a améliorer ses performances cognitives.

Bien sûr, ces auto-expériences ne sont pas des essais cliniques. Le but n’est pas de comprendre quelque chose au sujet des êtres humains en général, mais de découvrir quelque chose sur vous-même. Leur validité est circonscrite, mais elle peut s’avérer pertinente. En général, lorsque nous essayons de changer une habitude, un comportement, on improvise, on oublie nos résultats ou on modifie les conditions sans même mesurer très bien les résultats. Bien sûr, les erreurs sont possibles : il est facile de confondre un effet transitoire avec un effet permanent ou manquer un facteur caché qui influence vos données et leurs conclusions… “Mais une fois que vous démarrez la collecte de données, l’enregistrement des dates, les conditions de basculement d’avant en arrière tout en gardant un registre précis des résultats, vous gagnez un avantage énorme par rapport à la pratique normale”.

“L’idée que notre vie mentale est affectée par des causes cachées est un des piliers de la psychologie”, estime Gary Wolf. “Ce n’est pas seulement le cadre de nos pensées qui nous échappe : nos actions aussi” Terry Paul a développé un outil qui mesure le développement du langage des enfants par le suivi de nos échanges conversationnels avec lui, en traduisant les bruits de l’environnement d’un bébé par des données. Son moniteur – le Lena – est utilisé par la recherche universitaire. Pour beaucoup de parents, il ressemble à un cauchemar de surveillance névrotique : qui voudrait d’un enregistreur numérique qui vous note sur la façon dont vous parlez à votre enfant ? Pourtant, les parents sous-estiment le rôle du langage préverbal sur le développement de leur enfant. .

“Nous ne nous apercevons pas de ce que nous faisons parce que nous sommes motivés à ne pas nous en apercevoir”, explique encore Gary Wolf. Shaun Rance a ainsi commencé à suivre sa consommation d’alcool il y a deux ans, après que son père ait reçu un diagnostic de cancer du foie en phase terminale. Il ne s’est pas engagé à arrêter de boire, il a commencé à compter, en utilisant le site anonyme DrinkingDiary. Par ce biais, il a aiguisé sa conscience du problème, a augmenté sa maîtrise de soi et a réduit sa consommation d’alcool. Il ne peut plus se mentir à lui-même ou sous-estimer sa consommation. Il ne ment pas à la machine, car il n’a pas de raison de le faire.

drinkingdiary

Image : Drinking Diary, le journal de votre alcoolémie.

Pour Dave Marvit, vice-président des laboratoires Fujitsu aux Etats-Unis, où il dirige un projet de recherche sur l’autosuivi, si nous avions un signal doux sur la quantité de sucre dans notre sang, changerions-nous notre façon de manger ? La colère, la joie, notre énergie ou la baisse de forme de notre métabolisme sont des matériaux de notre vie quotidienne. Peut-on ramasser ces signaux faibles pour en faire un levier de nos comportements ? Margaret Morris, psychologue et chercheuse chez Intel a récemment publié une série d’essais utilisant le téléphone mobile pour faire du suivi d’émotion. A plusieurs moments dans la journée, le téléphone des utilisateurs sonnait pour leur réclamer de documenter leur humeur. L’un des utilisateurs s’est ainsi rendu compte que son humeur massacrante commençait chaque jour à la même heure. Les données l’ont aidé à voir le problème et il a introduit une pause dans son emploi du temps pour faire le vide du stress accumulé.

L’insupportable objectivité des machines

Pour Gary Wolf, beaucoup de nos problèmes viennent du simple manque d’instruments pour les comprendre. Nos mémoires sont pauvres, nos préjugés nombreux, notre capacité d’attention limitée. Nous n’avons pas de podomètres à nos pieds, d’alcootest dans notre bouche ou un moniteur de glucose dans nos veines – enfin, pas encore. Il nous manque l’appareil psychique et physique pour faire le point sur nous-mêmes. Et pour cela, nous avons besoin de l’aide des machines. Mais cette surveillance par les machines ne fait pas tout. Alexandra Carmichael, l’une des fondatrices du site d’autosuivi CureTogether, a récemment évoqué sur son blog pourquoi elle avait cessé son suivi. “Chaque jour, mon estime de soi était liée aux données”. La quarantaine de données d’elle-même qu’elle suivait n’a pas résisté à sa volonté et à son amour-propre.

C’était comme un retour à l’école” reconnaissait-elle. “Les traceurs électroniques n’ont pas de sentiments. Mais ils sont de puissants miroirs de nos propres valeurs et jugements. L’objectivité d’une machine peut sembler généreuse ou impitoyable, tolérante ou cruelle.

curetogether

Image : CureTogether, mesurer sa santé.

Cette ambivalence est également à prendre en compte. Le programme de désaccoutumance au tabac mis au point par Paypal Kraft, chercheur norvégien à l’université d’Oslo, a implémenté dans son programme un droit à l’erreur. Quand les gens avouent avoir repris une cigarette, un message les encourage à réessayer, sans les culpabiliser. Même si cet exemple ne trompe personne, les recherches en interaction homme-machine montrent que lorsque les machines sont dotées de caractéristiques émotionnelles, d’empathie, elles sont aussi capables de nous rassurer.

Jon Cousins, développeur logiciel, a construit un système d’autosuivi de sentiments – Moodscope – suite à un diagnostic en 2007 de trouble affectif bipolaire. Utilisé par quelque 1000 personnes, le logiciel envoie automatiquement un mail avec les résultats d’humeur à quelques amis. Désormais, ses amis savent pourquoi il a parfois un comportement étrange. Quand son résultat n’est pas bon, ses amis peuvent l’appeler ou le réconforter par mail, ce qui suffit souvent à le faire se sentir mieux. Moodscope est un système mixte dans lequel la mesure est complétée par la sympathie humaine. L’autosuivi peut sembler parfois narcissique, mais il permet aussi aux gens de se connecter les uns aux autres de façon nouvelle. Les traces de nous-mêmes que laissent ces nouvelles métriques sont comme les pistes de phéromones des insectes : ces signaux peuvent nous conduire vers des gens qui partagent nos préoccupations.

Souvent les pionniers de l’autosuivi ont le sentiment d’être à la fois aidés et tourmentés par les systèmes qu’ils ont construits. Gary Wolf lui-même a expérimenté ce suivi pour mesurer finement son temps de travail. L’outillage a montré que ses journées étaient un patchwork de distraction, agrémenté de quelques rares moments d’attention (moins de trois heures par jour). Après avoir digéré l’humiliation de ce constat, il s’en est servi comme d’une source de perspective critique, non pas sur la performance, mais sur ce qu’il était important de mesurer. Le standard de l’expérience humaine universelle n’existe pas, rappelle-t-il. Les outils de mesure permettent aussi de personnaliser et d’adapter les soins, régimes et diagnostic à son état précis. Et de citer un dernier exemple, celui de Bo Adler, un informaticien des laboratoires Fujitsu souffrant d’apnée du sommeil. Les docteurs souhaitaient lui faire subir une opération chirurgicale, comme ils le font dans la plupart des cas critiques d’apnée du sommeil. Mais Adler n’a pas voulu.

Ceux qui mesurent leur santé savent mieux adapter leurs entraînements sportifs ou leurs régimes à leur condition physique ou à leurs objectifs. Ils connaissent mieux leurs forces et leurs faiblesses. L’autosuivi n’est pas tant un outil d’optimisation que de découverte de soi. Et leur effet le plus intéressant pourrait bien être de nous aider à réévaluer ce que “normal” veut dire, conclut Gary Wolf.

__

Billet originellement publié sur InternetActu.

Crédit Photo CC Flickr : Aussie Gall.

]]>
http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees/feed/ 61
Nos vies gérées par les données http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees-2/ http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees-2/#comments Thu, 08 Jul 2010 14:01:59 +0000 Hubert Guillaud http://owni.fr/?p=21513 Nous prenons des décisions avec des informations partielles. Souvent, nous ne savons pas répondre aux questions les plus simples : où étais-je la semaine dernière ? Depuis combien de temps ai-je cette douleur au genou ? Combien d’argent dépensé-je habituellement chaque jour ?…

Pour répondre à cela, certains documentent leurs existences pour obtenir des informations précises et concrètes sur leur quotidien, comme c’est le cas de Robin Barooah, un concepteur de logiciel de 38 ans, qui vit à Oakland, Californie. Barooah a ainsi décidé de se désintoxiquer du café. Pour cela, il s’est rempli une grande tasse de café et a décidé d’enlever 20 ml par semaine. Cela lui a pris 4 mois.

Si vous voulez remplacer les aléas de l’intuition par quelque chose de plus fiable, vous devez d’abord recueillir des données. Une fois que vous connaissez les faits, il est possible de mieux les gérer.

Ben Lipkowitz documente également sa vie via son agenda électronique. Il sait ce qu’il a mangé, ce qu’il a dépensé, les livres qu’il a lus, les objets qu’il a achetés, le temps qu’il passe à nettoyer son appartement… Mark Carranza détaille également son existence depuis ses 21 ans, en 1984, via une base de données qui recueille désormais plusieurs millions d’entrées (voir notamment cette intervention pour le Quantified Self). La plupart de ses pensées et actions sont ainsi documentées.

lesjourneesdeBenLipkowitz

Les journées de Ben Lipkowitz

Je me mesure, donc je suis

“Ces gens semblent avoir un comportement anormal. Aberrant. Mais pourquoi ce qu’ils font nous semble si étrange ?”, se demande Gary Wolf dans un passionnant article pour le New York Times (dont cet article n’est en grande partie qu’une traduction). Dans d’autres contextes, il est normal de récolter des données. C’est le cas des managers, des comptables… Nous tolérons bien souvent les pathologies de la quantification, parce que les résultats s’avèrent puissants. Enumérer les choses permet d’accomplir des tests, des comparaisons, des expériences. Les documenter permet d’amoindrir leur résonnance émotionnelle et de les rendre intellectuellement plus traitables. En sciences, en affaire, et dans la plus grande part des secteurs, les chiffres, carrés et justes, l’emportent.

Pendant longtemps, le domaine de l’activité humaine a semblé à l’abri. Dans les limites confortables de la vie personnelle, nous utilisons rarement la puissance du nombre. Les techniques d’analyse, si efficaces, sont laissées au bureau à la fin de la journée et reprises le lendemain. Imposé à soi ou à sa famille, un régime d’enregistrement objectif semble ridicule. Un journal est respectable, mais une feuille de calcul est effrayante.

Pourtant, les nombres s’infiltrent dans le domaine de la vie personnelle. Mesurer son sommeil, son exercice physique, son humeur, sa nourriture, sa sexualité, sa localisation, sa productivité, son bien-être spirituel semble de plus en plus affiché et partagé. Sur MedHelp, un des plus grands forums internet pour l’information de santé, quelque 30 000 nouveaux projets personnels sont ainsi documentés par les utilisateurs chaque mois. Foursquare, et son million d’utilisateurs, permets à ses usagers de construire automatiquement le journal détaillé de leurs mouvements et de les publier. La Wii Fit, qui permet entre autres de mesurer ses activités corporelles, a été vendue à plus de 28 millions d’unités.

quantifiedselfmeeting

Image : cliché d’une réunion du Quantified Self.

Gary Wolf rappelle que depuis deux ans il anime avec Kevin Kelly le Quantified Self, un site web et des réunions régulières sur le sujet de la documentation de soi, qui l’a amené à se demander si l’autosuivi était une conséquence logique de notre obsession à l’efficacité (voire notre édito sur le sujet : “Finalement, documentez-moi !”). Mais cette recherche d’efficacité implique des progrès rapides vers un but connu. Or, pour beaucoup de gens qui documentent leur existence, “l’objectif est inconnu”. Si beaucoup commencent à le faire avec une question précise à l’esprit, la plupart continuent parce qu’ils croient que cette documentation de soi fait surgir des chiffres qu’ils ne peuvent se permettre d’ignorer, y compris des réponses à des questions qu’ils n’ont peut-être pas encore pensé à se poser.

La montée des capteurs de soi

Cette autodocumentation est un rêve d’ingénieur. Pour comprendre comment les choses fonctionnent, les techniciens sont souvent douloureusement conscients du mystère du comportement humain. Les gens font des choses pour des raisons insondables. Ils sont opaques à eux-mêmes. Les formes de l’auto-exploration de soi (psychanalyse notamment) passent par les mots. Les traceurs explorent une autre voie. “Au lieu d’interroger leurs mondes intérieurs par la parole et l’écrit, ils utilisent les nombres.”

Pour cela, il faut prendre en compte quatre changements importants. Les capteurs électroniques sont devenus plus petits, plus accessibles et de meilleure qualité. Les gens ont eu accès à des dispositifs de calculs puissants et facilement inscriptibles (notamment via leurs mobiles). Les sites sociaux ont montré qu’il n’était pas anormal de partager ces données. Enfin, nous avons commencé à apercevoir la montée d’une superintelligence mondiale dans les nuages (l’informatique en nuage est l’infrastructure de la Machine unique de Kevin Kelly).

Les méthodes d’analyses familières sont désormais enrichies par des capteurs qui surveillent notre comportement, par des processus d’autosuivis plus séduisants et significatifs… qui nous rappellent que notre comportement ordinaire contient d’obscurs signaux quantitatifs qui peuvent être utilisés pour documenter nos comportements. Ainsi Ken Fyfe, l’un des pionniers des dispositifs de surveillance biométrique vestimentaire, rappelle que dans les années 90, quand un coureur voulait avoir des informations sur la mécanique de leurs performances (rythme, cadence…), il devait se rendre dans un laboratoire pour que sa performance soit enregistrée. Désormais, il suffit d’un téléphone mobile ou d’une puce dotée d’accéléromètres et de GPS, pour connaître ces informations, comme le font tous ceux qui utilisent ces outils pour surveiller leurs résultats sportifs. “L’expertise dont vous avez besoin consiste dans le traitement du signal et l’analyse statistique des résultats”, explique James Park, cofondateur de Fitbit, un capteur de mouvement. Philips commercialise désormais DirectLife, Zeo un petit capteur qui capte les signaux électriques du cerveau pendant votre sommeil. L’accéléromètre de Ken Fyfe, développé par Dynastream, est utilisé dans les montres d’Adidas et Polar et mesure également la pression artérielle, le niveau de glucose, le poids, le sommeil… Nike+ commercialisé depuis 2006 a été adopté par 2,5 millions de coureurs.

zeo

Image : Le Zeo et un exemple de mesure de sommeil obtenu depuis cet appareil.

Le rêve de Ken Fyfe est de démocratiser la recherche objective sur les sujets humains. Le coeur de ce laboratoire personnel est désormais le téléphone portable, qui nous enveloppe d’un nuage de calculs, couplé aux sites sociaux. “Les gens se sont habitués à partager”, explique David Lammers-Meis, qui dirige la conception des produits de remise en forme de Garmin, la firme spécialisée dans l’intégration de GPS. “Plus ils veulent partager, plus ils veulent avoir des choses à partager.” Même si on n’a rien à dire on veut avoir quelque chose à partager. 1,5 million de personnes utilisent Mint, leur permettant de partager leurs dépenses pour mieux les maîtriser.

Maîtriser les machines qui nous mesurent

Les manies de quelques geeks sont en passe de paraître normales. Pour Gary Wolf, l’une des raisons pour lesquelles l’autosuivi se répand au-delà de la culture technique qui lui a donné naissance réside dans le fait que dans notre quête à nous comprendre, nous souhaitons récupérer une partie du pouvoir de contrôle et de documentation de nous-mêmes que nous confions aux machines.

Sophie Barbier, une enseignante de 47 ans résidant à Palo Alto, a ainsi commencé à partager les données de ses parcours cyclistes (temps, distance, fréquence cardiaque). Puis elle a commencé à noter son humeur, son sommeil, sa capacité de concentration, sa consommation de caféine… Elle a pris un complément alimentaire, le tryptophane, pour faire disparaître ses insomnies et s’est rendu compte qu’il avait aussi un effet sur sa capacité de concentration. Seth Roberts, professeur de psychologie à l’université de Californie a ainsi développé un logiciel de mesure de la performance cognitive, qui, couplé à un système d’autosuivi pour adapter son régime alimentaire, lui a permis de démontrer que le beurre a contribué a améliorer ses performances cognitives.

Bien sûr, ces auto-expériences ne sont pas des essais cliniques. Le but n’est pas de comprendre quelque chose au sujet des êtres humains en général, mais de découvrir quelque chose sur vous-même. Leur validité est circonscrite, mais elle peut s’avérer pertinente. En général, lorsque nous essayons de changer une habitude, un comportement, on improvise, on oublie nos résultats ou on modifie les conditions sans même mesurer très bien les résultats. Bien sûr, les erreurs sont possibles : il est facile de confondre un effet transitoire avec un effet permanent ou manquer un facteur caché qui influence vos données et leurs conclusions… “Mais une fois que vous démarrez la collecte de données, l’enregistrement des dates, les conditions de basculement d’avant en arrière tout en gardant un registre précis des résultats, vous gagnez un avantage énorme par rapport à la pratique normale”.

“L’idée que notre vie mentale est affectée par des causes cachées est un des piliers de la psychologie”, estime Gary Wolf. “Ce n’est pas seulement le cadre de nos pensées qui nous échappe : nos actions aussi” Terry Paul a développé un outil qui mesure le développement du langage des enfants par le suivi de nos échanges conversationnels avec lui, en traduisant les bruits de l’environnement d’un bébé par des données. Son moniteur – le Lena – est utilisé par la recherche universitaire. Pour beaucoup de parents, il ressemble à un cauchemar de surveillance névrotique : qui voudrait d’un enregistreur numérique qui vous note sur la façon dont vous parlez à votre enfant ? Pourtant, les parents sous-estiment le rôle du langage préverbal sur le développement de leur enfant. .

“Nous ne nous apercevons pas de ce que nous faisons parce que nous sommes motivés à ne pas nous en apercevoir”, explique encore Gary Wolf. Shaun Rance a ainsi commencé à suivre sa consommation d’alcool il y a deux ans, après que son père ait reçu un diagnostic de cancer du foie en phase terminale. Il ne s’est pas engagé à arrêter de boire, il a commencé à compter, en utilisant le site anonyme DrinkingDiary. Par ce biais, il a aiguisé sa conscience du problème, a augmenté sa maîtrise de soi et a réduit sa consommation d’alcool. Il ne peut plus se mentir à lui-même ou sous-estimer sa consommation. Il ne ment pas à la machine, car il n’a pas de raison de le faire.

drinkingdiary

Image : Drinking Diary, le journal de votre alcoolémie.

Pour Dave Marvit, vice-président des laboratoires Fujitsu aux Etats-Unis, où il dirige un projet de recherche sur l’autosuivi, si nous avions un signal doux sur la quantité de sucre dans notre sang, changerions-nous notre façon de manger ? La colère, la joie, notre énergie ou la baisse de forme de notre métabolisme sont des matériaux de notre vie quotidienne. Peut-on ramasser ces signaux faibles pour en faire un levier de nos comportements ? Margaret Morris, psychologue et chercheuse chez Intel a récemment publié une série d’essais utilisant le téléphone mobile pour faire du suivi d’émotion. A plusieurs moments dans la journée, le téléphone des utilisateurs sonnait pour leur réclamer de documenter leur humeur. L’un des utilisateurs s’est ainsi rendu compte que son humeur massacrante commençait chaque jour à la même heure. Les données l’ont aidé à voir le problème et il a introduit une pause dans son emploi du temps pour faire le vide du stress accumulé.

L’insupportable objectivité des machines

Pour Gary Wolf, beaucoup de nos problèmes viennent du simple manque d’instruments pour les comprendre. Nos mémoires sont pauvres, nos préjugés nombreux, notre capacité d’attention limitée. Nous n’avons pas de podomètres à nos pieds, d’alcootest dans notre bouche ou un moniteur de glucose dans nos veines – enfin, pas encore. Il nous manque l’appareil psychique et physique pour faire le point sur nous-mêmes. Et pour cela, nous avons besoin de l’aide des machines. Mais cette surveillance par les machines ne fait pas tout. Alexandra Carmichael, l’une des fondatrices du site d’autosuivi CureTogether, a récemment évoqué sur son blog pourquoi elle avait cessé son suivi. “Chaque jour, mon estime de soi était liée aux données”. La quarantaine de données d’elle-même qu’elle suivait n’a pas résisté à sa volonté et à son amour-propre.

C’était comme un retour à l’école” reconnaissait-elle. “Les traceurs électroniques n’ont pas de sentiments. Mais ils sont de puissants miroirs de nos propres valeurs et jugements. L’objectivité d’une machine peut sembler généreuse ou impitoyable, tolérante ou cruelle.

curetogether

Image : CureTogether, mesurer sa santé.

Cette ambivalence est également à prendre en compte. Le programme de désaccoutumance au tabac mis au point par Paypal Kraft, chercheur norvégien à l’université d’Oslo, a implémenté dans son programme un droit à l’erreur. Quand les gens avouent avoir repris une cigarette, un message les encourage à réessayer, sans les culpabiliser. Même si cet exemple ne trompe personne, les recherches en interaction homme-machine montrent que lorsque les machines sont dotées de caractéristiques émotionnelles, d’empathie, elles sont aussi capables de nous rassurer.

Jon Cousins, développeur logiciel, a construit un système d’autosuivi de sentiments – Moodscope – suite à un diagnostic en 2007 de trouble affectif bipolaire. Utilisé par quelque 1000 personnes, le logiciel envoie automatiquement un mail avec les résultats d’humeur à quelques amis. Désormais, ses amis savent pourquoi il a parfois un comportement étrange. Quand son résultat n’est pas bon, ses amis peuvent l’appeler ou le réconforter par mail, ce qui suffit souvent à le faire se sentir mieux. Moodscope est un système mixte dans lequel la mesure est complétée par la sympathie humaine. L’autosuivi peut sembler parfois narcissique, mais il permet aussi aux gens de se connecter les uns aux autres de façon nouvelle. Les traces de nous-mêmes que laissent ces nouvelles métriques sont comme les pistes de phéromones des insectes : ces signaux peuvent nous conduire vers des gens qui partagent nos préoccupations.

Souvent les pionniers de l’autosuivi ont le sentiment d’être à la fois aidés et tourmentés par les systèmes qu’ils ont construits. Gary Wolf lui-même a expérimenté ce suivi pour mesurer finement son temps de travail. L’outillage a montré que ses journées étaient un patchwork de distraction, agrémenté de quelques rares moments d’attention (moins de trois heures par jour). Après avoir digéré l’humiliation de ce constat, il s’en est servi comme d’une source de perspective critique, non pas sur la performance, mais sur ce qu’il était important de mesurer. Le standard de l’expérience humaine universelle n’existe pas, rappelle-t-il. Les outils de mesure permettent aussi de personnaliser et d’adapter les soins, régimes et diagnostic à son état précis. Et de citer un dernier exemple, celui de Bo Adler, un informaticien des laboratoires Fujitsu souffrant d’apnée du sommeil. Les docteurs souhaitaient lui faire subir une opération chirurgicale, comme ils le font dans la plupart des cas critiques d’apnée du sommeil. Mais Adler n’a pas voulu.

Ceux qui mesurent leur santé savent mieux adapter leurs entraînements sportifs ou leurs régimes à leur condition physique ou à leurs objectifs. Ils connaissent mieux leurs forces et leurs faiblesses. L’autosuivi n’est pas tant un outil d’optimisation que de découverte de soi. Et leur effet le plus intéressant pourrait bien être de nous aider à réévaluer ce que “normal” veut dire, conclut Gary Wolf.

__

Billet originellement publié sur InternetActu.

Crédit Photo CC Flickr : Aussie Gall.

]]>
http://owni.fr/2010/07/08/nos-vies-gerees-par-les-donnees-2/feed/ 1
Médiamétrie, les docteurs Mabuse de l’audience dans le collimateur http://owni.fr/2010/03/01/mediametrie-les-docteurs-mabuse-de-l%e2%80%99audience-dans-le-collimateur/ http://owni.fr/2010/03/01/mediametrie-les-docteurs-mabuse-de-l%e2%80%99audience-dans-le-collimateur/#comments Mon, 01 Mar 2010 15:21:24 +0000 Emmanuel Torregano (électron libre) http://owni.fr/?p=9237 arton624

La mesure de l’internet est loin encore de faire l’unanimité. Médiamétrie a durci sa méthode dernièrement. L’institut prépare aussi une révolution avec des audiences de la radio mesurées par un enregistreur automatique en 2011.

La mesure d’audience, c’est le nerf de la guerre entre les médias. Ces derniers ne sont pas tous logés à la même enseigne, loin de là. Entre la télévision, la radio, la presse ou l’internet, rien n’est égal, et les mesures sont soit précises, soit fantaisistes, voir carrément mensongères. Depuis déjà longtemps les soupçons sur la méthodologie utilisée pour mesurer les chaînes de télévisions par Médiamétrie ont disparu, et la bataille se fait principalement sur le terrain des programmes. Il n’en est pas de même pour la radio, mais surtout de l’internet. Pour le premier, les audiences sont évaluées à partir de sondages téléphoniques, alors que l’internet requiert l’utilisation de mouchards.

Les raisons qui expliquent ces différences de traitement n’ont rien à voir entre elles. D’un côté, la radio ne s’est jamais entendu pour passer au niveau supérieur : l’utilisation d’un appareil portatif qui enregistrerait l’environnement sonore. Tandis que l’internet est un média jeune, et Médiamétrie continue d’améliorer chaque mois ses méthodes en association avec Nielsen. Ne parlons même pas de la presse, dont les seuls chiffres disponibles sont déclaratifs, et malgré la certification de l’OJD, ils n’ont qu’une fonction d’affichage, mais guère plus.

Cela dit, et en attendant une mesure unifiée des médias, sur des critères comparables, les prochaines évolutions planifiées par Médiamétrie vont très certainement représenter un virage important, et permettre d’améliorer sensiblement leur fiabilité. Ainsi l’étude Nielsen NetRatings sur l’internet a subi depuis juillet des modifications drastiques. Les résultats ne se sont pas faits attendre, et dès le mois de novembre certains des sites mesurés ont montré une fâcheuse tendance baissière, signe que pour eux, l’audience était aussi largement gonflée aux stéroïdes.

Ces dégringolades sont nuisibles à plus d’un titre pour l’ensemble du marché. Les envolées de TF1.fr, LeFigaro.fr ou NRJ.fr sont toxiques. Elles mettent le doute dans l’esprit des annonceurs, et perpétuent une vision mafieuse des mesures pratiquées par Médiamétrie. Avec comme conséquence plus inquiétante encore, une baisse des revenus publicitaires sur l’ensemble du marché. Un long travail est certainement nécessaire dès à présent pour regagner la confiance. Et comme toujours, cela passera par un consensus des éditeurs de sites pour travailler dans la même direction. C’est le sens du dernier message de Médiamétrie expliquant par le détail les dernières modifications introduites à partir de novembre dernier dans la méthodologie du Nielsen NetRating.

Atypique

En voici quelques extraits :

« En avril 2009, Médiamétrie a mis au point une méthode d’exclusion de ces panélistes. Si elle a permis d’améliorer la situation, elle restait perfectible, d’autant que son efficacité s’est dégradée au fil des mois »

- comprenez que les vilaines combines mises en place pour attirer de l’internaute n’avaient pas abdiqué, et que les digues bâties par Médiamétrie pour exclure les internautes au « comportement atypique » avaient été submergées, une fois de plus.

Il s’agit essentiellement d’internautes répondant massivement aux mailing de jeux concours, et qu’il devient très aisé d’attirer sur un site, pour en augmenter artificiellement l’audience. Le lien entre l’internaute captif et la matière traitée sur le site n’a alors plus aucun rapport, si ce n’est que le passage du premier est comptabilisé par Médiamétrie. Bref, il fallait sévir, et une fois le coup de balai passé, Médiamétrie affirme qu’« ainsi, d’un mois à l’autre, on compte une base d’exclusion commune de près de 70%, contre 35% avec l’ancienne méthode ».

La différence se ressent, puisque le site du Figaro, qui pédalait très largement devant ses concurrents, maillot à pois sur les épaules, a d’un coup perdu 20% de son audience pour finir par être rattrapé par le premier peloton.

Alors où se situe la véritable audience de ces sites ? Est ce que le Monde, le Figaro réunissent véritablement entre 5 et 6 millions d’internautes par mois – le Figaro a d’ailleurs communiqué sur une audience de 6 millions en janvier ? La vérité est certainement en-dessous. Comme on l’a vu, il suffit que Médiamétrie évince les internautes « atypiques » pour que les audiences baissent instantanément dans le NetRatings suivant. Il est aussi certain que cette lutte de l’épée contre le bouclier est loin d’être terminée. Comme cela se voit dans le sport de haut niveau, les docteurs Mabuse ont toujours quelques coups de Jarnac d’avance.

On peut donc estimer que l’audience actuelle de ces sites est encore gonflée de 20 à 30%, sans trop de crainte de se tromper. Cependant, les pratiques ne sont pas les mêmes selon les sites. Et si le Figaro est un Pantani reconnu du Web, Le Monde n’a pas usé des mêmes méthodes. Alors que les audiences d’un site comme NRJ, ou celui de TF1 par exemple montrent des profils assez variables. La Une affiche pour janvier 8,679 millions de visiteurs uniques – Overblog n’étant plus compté, plus question d’annoncer 15 millions de Vu comme par le passé. Pour le coup, TF1.fr est en passe de perdre sa place dans la sacro-saint Top 30 du Nielsen NetRatings. Une descente que les services concernés expliquent par la sortie du périmètre de mesure de plusieurs sites.

La mesure d’internet est encore convalescente, mais celle de la radio est aussi un cas particulier sur lequel il n’est jamais inutile de se pencher à nouveau. Les audiences sont obtenues par Médiamétrie après moulinage des chiffres bruts découlant d’une enquête téléphonique menée sur 126 000 personnes tout au long de l’année. Ce procédé relativement efficace pour ce qui est des grosses radios, celles qui drainent le plus d’audience n’est pas très précis dans les autres cas. Notamment parce que les personnes interrogées se souvient en premier des marques fortes, comme RTL, Europe 1 ou France Inter. Il est très difficile pour une station nouvelle de se faire une place. Ce phénomène se traduit par une prime d’audience aux médias installés de longue date dans les résultats communiqués par Médiamétrie. Cette méthode possède aussi d’autres défauts importants, mais elle a un vrai gros atout : elle prouve que l’auditeur a écouté la station, qu’il en a gardé un souvenir même si parfois, il se trompe de bonne foi sur le nom.

Agenda

Or depuis près de 15 ans, Médiamétrie et les membres du collège radio s’interrogent sur l’opportunité de passer à une mesure automatique de l’audience. En 1995 une première batterie de tests avaient été menée, mais rapidement arrêtée. En fait, l’utilisation d’un petit boitier qui enregistrait tous les sons posait des problèmes, car les cobayes ne le gardaient pas tout au long de la journée sur eux. Une société suisse proposait aussi une montre avec les mêmes capacités d’enregistrement, mais tout le monde ne porte pas de montre… Bref, les expériences ont été stoppées jusqu’en 2005. Sans que les nouveaux essais n’aient démontré un mieux.

Il fallait reprendre à zéro et c’est bien ce que compte faire Médiamétrie et les acteurs de la radio en France. Une série de réunions a eu lieu depuis quelques semaines, la prochaine étant prévue pour dans une quinzaine de jours. Aucune solution n’est écartée, ni même pour Médiamétrie de concevoir de A à Z un procédé de mesure automatique du champ sonore des auditeurs témoins. Un agenda a été décidé. L’année en cours permettra de définir le cahier des charges de cette nouvelle mesure. Tandis que les premiers essais sont prévus pour 2011 en région parisienne. Ensuite, seulement les radios décideront de valider ou non la méthodologie.

Les enjeux ne sont pas minces. D’après certaines études, une mesure de ce type, adossée à un enregistrement automatique des sons, comparés ensuite à une base de données pour identifier les programmes avec précisions, entrainerait des variations de plus ou moins 20% des audiences par rapport aux sondages téléphoniques. Les éditeurs radiophoniques préfèrent bien sûr ne pas se presser trop, et envisagent aussi de tout arrêter si cela tournait trop vinaigre. Europe 1 empile les études pour connaître les implications de ces mesures automatiques ; NRJ est plutôt favorable ; RTL n’est pas contre ; Skyrock se tâte mais se rangerait plutôt dans le camp des opposés, etc. Cela dit, il faudra pour Médiamétrie dégager un consensus, car au moment de payer pour mettre sur les rails le nouveau système de mesure, c’est aux éditeurs radiophoniques de mettre l’argent sur la table. C’est la règle…

» Article initialement publié sur Électron Libre

]]>
http://owni.fr/2010/03/01/mediametrie-les-docteurs-mabuse-de-l%e2%80%99audience-dans-le-collimateur/feed/ 0
La mesure de l’influence sur Twitter : on refait le point http://owni.fr/2009/11/29/la-mesure-de-l%e2%80%99influence-sur-twitter-on-refait-le-point/ http://owni.fr/2009/11/29/la-mesure-de-l%e2%80%99influence-sur-twitter-on-refait-le-point/#comments Sun, 29 Nov 2009 21:49:13 +0000 François Guillot http://owni.fr/?p=5824 Un des trucs fascinants sur Twitter reste la faculté que l’on a à bidouiller des scores d’influence à partir des indicateurs disponibles : nombre de followings, de followers, de tweets, nombre de RT…

Dernier exemple du genre, le TweetLevel d’Edelman qui a un triple mérite : explorer, communiquer sa formule et ne pas prétendre à lire l’influence seulement à travers les chiffres (voir le “about“).


La lecture de l’influence, entre le simpliste et le complexe

Mais finalement, dans nos pratiques de webologues et de consultants, j’ai un peu l’impression que la lecture de l’influence sur Twitter se fait de façon paradoxale :

- soit de façon simplificatrice à travers le choix d’un indicateur seul : par ex le nombre de followers, le nombre de listes auxquelles le compte a été ajouté…

- soit de façon ultra-sophistiquée à travers un indicateur complexe – comme le TweetLevel qui va attribuer une note sans réelle signification (mais qui permet de hiérarchiser)

L’un comme l’autre ne me satisfont pas :

- un indicateur seul – type le nombre de followers — est réducteur et facilement manipulable (cf. la méthode Thierry Crouzet qui montre que l’on peut se constituer une audience ahurissante… principalement constituée de robots et de comptes spam)

- les indicateurs complexes me semblent souvent vouloir intégrer trop de données et s’éloigner de la rigueur intellectuelle au profit du plaisir des calculs mathématiques (exemple pour les blogs : le Power 150 d’AdAge qui s’est rationalisé autour de 5 critères après en avoir compté… beaucoup trop)

Tous les indicateurs ne se valent pas et ce n’est pas parce que des données quanti existent qu’il faut toutes les intégrer dans une analyse d’influence. 3 exemples d’indicateurs que l’on est tenté d’intégrer dans un calcul « complexe » et qui pour moi n’ont pas de signification véritable :

- le nombre de following : pourquoi serait-il un élément dans un calcul d’influence : plus je suis de comptes, plus je suis influent ? Non, il n’y a aucune raison.

- le nombre de tweets seul, qui montre si je suis actif ou pas mais qui n’est pas pertinent non plus : plus je tweete, plus j’ai de chances de noyer mes tweets et qu’ils ne soient pas lus. Même si plus je tweete, plus j’augmente mes chances d’avoir de nombreux followers…

- l’analyse du contenu des tweets pour mesurer le niveau d’engagement d’un utilisateur. L‘influence, c’est la capacité qu’on a à se faire écouter, à la limite peu importe ce que l’on raconte. (ce que je raconte ne préjuge pas de la réaction de mes publics)


L’influence, c’est quoi ?

La question de la pertinence des indicateurs d’influence sur Twitter est hyper complexe. Pour la traiter, j’en reviens à la définition de l’influence: « pouvoir social qui amène les autres à se ranger à son avis », de mémoire, dans le petit Robert. Autrement dit, l’influence renvoie à la question des opinions.

Mais plus précisément, il y a à mon avis 4 composantes de l’influence — que l’on parle de Twitter ou juste de son influence sociale. Il y a une progressivité dans ces 4 composantes de l’influence, on pourrait donc les représenter sous forme de pyramide avec de bas en haut :

  1. La capacité à produire un contenu : c’est à dire la capacité à se constituer un avis, à forger une analyse, à rapporter des faits, à les mettre en forme. Ce qui renvoie à l’éducation de l’individu, à sa consommation de médias, à son expertise, à son métier, etc.
  2. La capacité à prendre la parole. C’est à dire le fait de rendre public le contenu. (je ne suis pas influent si j’ai des avis sur tout mais que je ne les communique pas). A la limite, peu importe ce que l’on raconte, mais on ne peut pas être influent si on n’est pas « vocal » (même si la rareté de la prise de parole peut être une stratégie)
  3. Le fait d’avoir une audience (sur Internet en particulier, on peut tout à fait prendre la parole dans le désert)
  4. Le fait d’être écouté et de bénéficier d’une reconnaissance de la part de tout ou partie de cette audience (qui peut se mesurer par le fait d’être cité, repris, linké…), où l’on touche réellement à la question de l’influence, mais qui n’est pas possible sans les 3 composantes qui précèdent.

(Pour ceux qui aiment ce type de réflexion, voir les travaux très intéressants du Guardian pour démontrer que ses lecteurs sont des influenceurs).


Et dans Twitter ?

Si l’on relit ces critères d’influence par rapport à la logique de Twitter, il y a plein de choses à dire :

-       la capacité à produire du contenu ne se lit pas dans Twitter : si je publie dans Twitter, je suis déjà au deuxième niveau de la pyramide : la prise de parole

-       la capacité à prendre la parole se lit bien dans Twitter : c’est le nombre ou la fréquence des tweets. Mais Twitter pose le problème de la trop grande fréquence de publication chez certains utilisateurs. Est-ce intéressant pour moi qu’un utilisateur avec 10 000 followers publie un lien vers mon blog, s’il tweete 100 fois par jour ?)

-       le fait d’avoir une audience se lit également bien dans Twitter : c’est le nombre de followers. Mais cette audience dépend aussi de la visibilité de mes tweets : c’est à dire de la faculté que ces followers vont avoir à lire mes tweets (et oui : si mes followers ont tous 2000 following hyperactifs, mes tweets ont des chances de passer inaperçus…)

-       le fait d’être écouté et de bénéficier d’une reconnaissance se lit dans Twitter essentiellement grâce aux citations : RT, @fguillot.

Et finalement, fait-on de l’opinion sur Twitter ? En 140 caractères, on émet peu d’avis et on les argumente encore moins. Twitter fonctionne beaucoup comme distributeur d’informations, mais sa logique est-elle celle d’un lieu d’influence ? Au fond, non : le pouvoir de Twitter c’est de me recommander des lectures, et ces lectures vont m’influencer ou non. Mais c’est rarement ce que je lis à l’intérieur de Twitter qui influence mes opinions. Twitter n’est pas un lieu d’influence, mais un outil d’influence.

Cela rejoint aussi le point de Cédric Deniaud : “L’expert ne peut pas être une personne qui seulement lit, relaie et tweet une information”. J’ai envie de remplacer le mot “expert” par “influenceur”.


5 critères plus pertinents et utiles (mais non sans limites)

Donc, en considérant tout ce qui précède et après avoir pas mal retourné la question des indicateurs d’influence dans Twitter dans ma tête, j’en vois 5 principaux, pertinents et utiles :

1. Un indicateur d’audience : le nombre de followers. (renvoie au point 3 de la pyramide de l’influence : l’audience)

Il reste un moyen simple et rapide de se faire une idée de l’audience potentielle d’un compte.

Problème : il peut être manipulé et reste fortement réducteur. Le nombre de followers ne fait pas l’influenceur (mais un petit peu quand même).

2. Un indicateur d’audience : le nombre de followers de mes followers. (renvoie au point 3 de la pyramide de l’influence : l’audience)

Etre suivi par 1000 personnes qui ont chacun 5 followers, c’est a priori moins bien que d’être suivi par 10 personnes qui ont chacune 10 000 followers. Et si possible, il faudrait mesurer le nombre de followers dédupliqués, puisque sur Twitter on tourne beaucoup en rond.

3. Un indicateur de visibilité : le nombre de following de mes followers. (renvoie aux points 2 et 4 de la pyramide de l’influence : la capacité à prendre la parole ET la capacité se faire écouter)

Je le disais plus haut, si je suis suivi uniquement par des utilisateurs qui suivent 1000 comptes, j’ai peu de chances d’être visible dans leur timeline. Moins mes followers ont de following (et moins ces following sont actifs), plus mes tweets sont visibles.

Problème : si mes followers ont des timelines peu actives, c’est probablement qu’ils sont peu actifs eux-mêmes dans Twitter.

4. Un indicateur de réputation : le rapport entre nombre de followings et nombre de followers. (renvoie au point 4 de la pyramide de l’influence : la capacité à se faire écouter)

J’en avais déjà parlé, plus la différence entre followers et followings est importante, plus cela montre que l’on s’intéresse à moi. Quand on voit que Francis Pisani a 2150 followers et 31 followings, cela montre assez bien qu’on s’intéresse à lui : il n’a pas besoin de s’engager dans Twitter pour avoir une audience.

Il est déjà un influenceur en dehors de Twitter, et parce qu’il est un influenceur, ses tweets bénéficient d’une attention sans doute supérieure à la moyenne.

Problème : les utilisateurs qui ont une politique de following très active sont pénalisés dans cette méthode. L’usage que l’on fait de son compte peut « gêner » la lecture de cet indicateur.

5. Un indicateur d’écoute et de reconnaissance : le rapport entre nombre de citations (RT, @) et nombre de tweets. (renvoie au point 4 de la pyramide de l’influence : la capacité à se faire écouter et reconnaître)

Le fait d’être retweeté ou plus exactement cité dans des tweets (@fguillot) reste un bon indicateur de reconnaissance : on parle de moi, donc je compte. C’est le type d’indicateur assez classique dans la mesure d’influence, en quelque sorte l’équivalent du lien entrant pour les sites et les blogs.

Reste à savoir comment le mesurer et plutôt que de regarder un simple nombre de retweets ou de @ (qui peut masquer une hyperactivité peu efficace : si je tweete 100 000 fois et que je suis cité 1000 fois, vous conviendrez que je ne suis pas très influent), il me semblerait très intéressant de voir pour un compte Twitter quel est son ratio « citations » / « nombre de tweets ».

Si on regarde un compte comme @thisissethsblog, qui est dans une pure logique de diffusion (broadcast) avec 0 following, on voit que chaque tweet est retweeté plusieurs dizaines de fois… ce qui témoigne de la grande influence de Seth Godin.

Et mieux : de la même façon que pour les blogs, l’autorité mesure le nombre de blogs différents qui ont mis un lien, l’indicateur que l’on recherche ici devrait mesurer le nombre de citations provenant de comptes différents, rapporté au nombre de tweets. (si je suis très fréquemment cité par 3 utilisateurs, je suis sans doute influent auprès de ces 3 utilisateurs mais pas au-delà).

Variante de cet indicateur : le ratio nombre de followers / nombre de tweets.


Un champ de recherche très vaste… mais pour quel ROI ?

On pourrait voir d’autres indicateurs dans cette « short list » : le nombre de listes auxquelles un compte a été ajouté, voire mieux le nombre de followers des listes auxquelles le compte a été ajouté… mais je m’arrête là car le but de cet exercice est justement de limiter le nombre d’indicateurs qui font réellement sens par rapport à la question de l’influence. Autrement dit, si je devais construire un TweetScore, je le ferais à partir de ces 5 indicateurs.

On peut aussi imaginer un méta-indicateur qui fasse une mise en abîme des données (mon score d’influence serait le résultats des scores d’influence de mes followers…), à la façon des classements en tennis (pour ceux qui connaissent ;-)…

Il y a évidemment beaucoup à explorer, mais se pose tout de même assez fortement la question de l’intérêt à investir dans ce type de recherches : on peut avoir très envie d’automatiser des calculs parce que Twitter donne envie de le faire, mais avoir un score d’influence ne permet pas de lire l’influence réelle d’un compte (mais juste de se faire une idée et de hiérarchiser les utilisateurs entre eux).

Cela restera de toute façon un calcul : très pratique pour les communicants quand on attaque la question du ROI, mais qui ne remplace pas la lecture qualitative des phénomènes d’opinion.

D’autant plus que Twitter n’est pas massivement utilisé : il reste pour beaucoup un outil d’éditeurs (journalistes, blogueurs).

D’autant plus que Twitter ne vit pas indépendamment du reste du web et du système médiatique. Il leur est au contraire très fortement interconnecté et dépend d’eux. La mesure de l’influence dans Twitter seul est passionnante, mais a ses limites. Un pur exercice intellectuel ?

» Article initialement publié sur Internet et Opinion

» Illustration via bendodson sur Flickr

]]>
http://owni.fr/2009/11/29/la-mesure-de-l%e2%80%99influence-sur-twitter-on-refait-le-point/feed/ 6