Site icon Petit Web

Data journalism: la leçon du Guardian à l’Express

Qui ?
Caroline Goulard, cofondatrice de Dataveyes, Eric Mettout, rédacteur en chef de l'Express.fr, Pierre Falga, journaliste, Simon Rogers, journaliste au Guardian (en photo), Cécile Dehesdin, journaliste à Slate, Karen Bastien et François Prosper, fondateurs de Webodata.

Quoi ?
Le quatrième workshop d'Etablab, organisé parfaitement par Séverin Naudet, directeur d'Etalab, jeudi 13 octobre 2011.

Comment ?
Avec l'accès direct du public aux sources de l'information, le journaliste devient un médiateur, pour faciliter la compréhension de cette information. Le journalisme de données est apparu en 2010, mais balbutie encore : "Si les grandes entreprises sont à l'aise avec les bases de données, les journalistes sont plus handicapés" explique Caroline Goulard. Le Wahington Post a ainsi mis en image un an d'enquête sur les contrats secrets entre le gouvernement et les entreprises. La mise en scène de cette information passe par une visualisation inédite, mais aussi par sa mise en scène. L'enquête du Washington Post sur les lobby de Washington, a aussi été mise en valeur par une timeline qui donnait en temps réel les trouvailles des journalistes. Pour raconter des histoires avec des données, USA Today ainsi célébré le 11 septembre, en mettant au centre le 11 septembre et en cercles concentriques les événements reliés. Le visiteur pouvait ajouter sa pierre via Facebook connect. Pour retrouver de la valeur, le nouveau rôle des média n'est plus d'analyser des infos, mais de remonter la chaine de l'info à la source de l'émission de données.

Eric Mettout a estimé qu'en France "ce type de journalisme n'a pas encore rencontré son public. Nous y sommes peut etre pour quelque chose. Les sujets choisis sont trop complexes, ou la visualisation, pas assez bonne." Pour lui, les deux seuls succès du data journalisme sont le traitement du scandale des notes de frais par le Guardian, et Wikileaks. Il a aussi souligné la difficulté pour avoir les données. Accéder aux compt s de campagnes de tous le spartis, c'est 6 mois pour convaincre et une info donnée sous forme de photocopie. Pour les statistiques sur la délinquance, données par département, il faut passer par le Ministère pour avoir les chiffres ville par ville. L'adminsitration ne donne pas toujours le mode d'emploi qui va avec les données, qui ne sont pas délivrées dans des formats homogènes. Le pire étant le PDF, et le meilleur, excel. Le meilleur élave public français est l'INSEE, qui fournit les excel et leur mode d'emploi, avec amabilité de surcroit. Pierre Falga a ensuite souligné la faiblesse des moyens des rédactions : "Il y a 300 journalistes Web au NYT, une vingtaine à l'Express, et 30 ou 40 au Monde." Le magazine crée et publie le palmares des lycées et des hôpitaux mais privilégie la facilité de lecture à l'esthétisme.

Simon Rogers, sacré meilleur journaliste online par l'Oxford Internet Institute cette année, a fait un travail légendaire au Guardian. Il dresse le panorama de la curation : Google Public data, Data.gov, open corporates, Data Store, Data Market et Info chimps. Le Guardian appelle souvent son public à l'aider à analyser la data. Pour détecter un email intéressant pami les 24 000 publiés par Sarah Palin, le data journalism compense aussi la perte de correspondants locaux. Lors des émeutes de Londres, le Guardian a demandé à chaque juridiction le nom et l'adresse des personnes jugées, pour établir une carte de l'origine géographiquedes participants aux émeutes. Pour établir le rôle des réseaux sociaux, le journal a analysé 2,6 millions de twits reliés aux émeutes. Ce qui a permis d'établir que les twits relayaient les émeutes, plutôt qu'ils ne l'organisaient. Et que Twitter avait davantage parlé de la mobilisation pour reconstruire que des émeutes en elles mêmes. Pour faire tout ce travail, le Guardian dispose de deux personnes : "nous nous appuyons sur les outils du Net".

Cécile Dehesdin (Slate) a ensuite évoqué la nouvelle aventure que constitue le data pour les journalistes : "Moi qui suis littéraire, j'ai eu la chance d'avoir des profs journalistes programmeurs, à Columbia qui nous ont appris le code comme une langue vivante." La formation qu'elle a suivie lui permet de "reconnaitre les sujets qui se prêtent à la donnée, parler aux développeurs et estimer le temps nécessaire" pour établir ces nouveaux objets d'infos. "L'essentiel est la lisibilité immédiate, il ne faut pas passer dix minutes à comprendre comment ça fonctionne". Au NYT, les journalistes affûtent encore leurs représentations de l'info en les soumettant à l'eyetracking, pour mieux cerner l'usage qu'en font les lecteurs. Ainsi, 391 000 documents publiés par Wikileaks sont traités au travers de Google Fusion, pour aboutir à une cartographie des soldats tués en Afghanistan. Durée du traitement de cette info : une demi heure. Les précédents orateurs avaient déjà cité les notes de frais ou l'analyse du rôle de Twitter par rapport aux émeutes (caisse de résonnance plutôt qu'outil pour les organiser).

Pour financer ces projets, l'union fait la force. La nouvelle société Webodata s'est alliée à Snatch et Owni pour traiter le document sur les prisons publié par opale. Mais le principal obstacle est avant tout culturel : l'Express était stupéfait que le Guardian fasse tout ce travail avec deux personnes. Mais ces personnes sont sans doute les plus compétentes et savent utiliser les bons outils sur les bons thèmes...

Quitter la version mobile