data-journalismeLe 22 janvier 2012, lors des Rencontres Crossmédias, Alexandre Léchenet , journaliste web rédacteur pour LeMonde.fr est intervenu auprès des étudiants pour parler d’une forme de journalisme émergente : le datajournalisme. Cet article a pour objectif de synthétiser les questions abordées et les enjeux soulevés par l’intervention du journaliste et d’en dégager les perspectives.

    Alexandre Léchenet est un ancien élève du master CEN. Il est passé par La NetScouade et OWNI, avant de rejoindre la rédaction du lemonde.fr en tant que datajournaliste. Il est très actif sur Twitter sous le pseudo @alphoenix.

     

     

    Le data  journalisme

    Le journalisme de données  est un mouvement journalistique visant à exploiter et à mettre à disposition du public des données statistiques. Cette pratique s’est développée en parallèle du développement de l’informatique avec l’accès aux bases de données. Pour traiter toutes ces données, le datajournalism utilise la visualisation des données, qui est un ensemble de méthodes de représentation graphique. Le journaliste peut ainsi présenter de manière claire et précise les informations à ses lecteurs. Il mêle différentes compétences : la recherche d’information, le traitement de masses de données, l’analyse, la conception graphique et la programmation informatique.

     

    Sur Internet, on trouve de nombreuses données. Celles-ci peuvent être facilement accessibles (bien référencées, bien classées…). C’est le cas de données publiques qui sont diffusées aux citoyens. Par exemple, des données de la délinquance et de la criminalité (date, heure, lieu et nature de l’événement) de Los Angeles sont en accès libre. Ainsi, le Los Angeles Times a lancé le service Neighborhoods, représentant ces informations sur une carte. Le datajournalism s’inscrit donc dans la continuité du mouvement de libération des données citoyennes (open data). Contrairement aux pays anglo-saxons, où de nombreuses données (gouvernementales) sont en libre accès, Alexandre Léchenet a rappelé que la France n’avait pas cette culture de la transparence et que l’accès aux données s’en trouvait compliqué. Parfois, il faut procéder de manière détournée, par exemple lorsque les données sont éparpillées : il doit alors identifier où elles se trouvent, les récupérer, les assembler et les réorganiser. Pour faciliter ce travail, Alexandre Léchenet a indiqué avoir recours à des scripts PHP, permettant de récupérer des données de façon automatisée.

     

    La vérification des sources et des données

    Lorsque le journaliste est en possession des données brutes, un travail de vérification est effectué. La question de la vérification des sources est donc aussi importante en datajournalism qu’en journalisme traditionnel comme nous le rappelle Alexandre Léchenet. Pour un même sujet, on observe des différences entre un traitement par la donnée et un traitement plus traditionnel. Alexandre Léchenet a pris comme exemple le sujet des dépassements d’honoraires des médecins. Avec une approche classique, on pourrait interroger quelques médecins sur leurs pratiques tarifaires en constituant un ensemble de témoignages représentatifs de la situation. L’approche de l’intervenant a, quant à elle, été très différente : il a récupéré les tarifs des médecins parisiens et les a représentés sur une carte par colorimétrie.

    À partir de cette représentation, il a mis en évidence les zones qui concentraient le plus de médecins pratiquants les plus gros dépassements d’honoraires : celles-ci correspondent aux hôpitaux, ce qui confirmait une intuition qu’une approche journalistique traditionnelle n’aurait pu confirmer. Ainsi, le datajournalisme permet de sortir des cas particuliers pour être plus exhaustif, et ainsi de mettre en évidence un fait global.

    Cependant, dans certains cas, plutôt que de donner une information globale, l’infographie interactive peut susciter un effet de “curiosité locale” : le lecteur se contente de regarder les données autour de chez lui, ou dans un autre quartier bien précis, avec le risque de « pointer du doigt » certains d’entre eux. Dans ce cas, il s’agit donc davantage d’une agglomération de cas particuliers que d’une analyse globale. Cela montre que les données ne doivent pas être transmises brutes mais accompagnées de commentaires et analysées.

     

    Analyse et représentation de la data

    Le journalisme de données repose sur des données chiffrées et sur leur analyse: ainsi, l’ensemble des risques liés à l’utilisation de chiffres se retrouve dans ce type de journalisme. Alexandre Léchenet a souligné avoir conscience de la possibilité de « faire dire n’importe quoi à des données ». Il faut donc veiller à ne pas inventer des liens de cause à effet. Si l’analyse de données met en évidence deux aspects, cela ne signifie pas que l’un des deux aspects est la conséquence de l’autre. D’où l’importance que ce soit des journalistes qui traitent des données. Un autre risque soulevé par le public est l’homogénéisation : les résultats tendent vers une moyenne, sans toujours prendre en compte le contexte ou les cas particuliers locaux. Pour Alexandre Léchenet, c’est au journaliste d’être vigilant : ce dernier disposant des données brutes, il est en mesure de minimiser ce risque.

    De plus, il peut y avoir un côté réducteur à prouver un fait via un seul critère. Par exemple, il n’est probablement pas suffisant de dresser une carte ville par ville du nombre de redevables de l’ISF pour en tirer des conclusions sur le type de population d’une ville — cela en est l’un des indices, mais la réalité est bien plus complexe et ne peut se résumer à ce seul aspect.

    Comme nous l’avons rappelé, le datajournalism est un journalisme de données qui est par conséquence très factuel. Il est courant de penser que si l’information est factuelle et chiffrée, elle est objective. Pourtant les chiffres sont les signes d’une situation qui est mise en exergue par le concepteur de l’infographie. Le datajournalism devient alors une interprétation des faits par ce dernier. La réception de l’information par l’internaute peut donc s’en trouver biaisée.

     

    Objectivité et transparence de l’information

    Stuart Hall, sociologue jamaïcain, nous donne des clés pour comprendre le processus de réception des médias par les destinataires de l’information. Le “décodage”, tel qu’il le nomme, est le moment de la réception du message médiatique et de son appréhension par le lecteur. Il peut s’effectuer de trois façons différentes : hégémonique (acceptation totale du sens donné au message), négociée (acceptation partielle du sens dominant) et oppositionnelle (refus total du sens dominant). Le datajournalism laisse peu de place aux lectures négociée et oppositionnelle. En effet, le lecteur n’ayant accès qu’aux données partagées par le datajournaliste sur son infographie, n’a pas d’autre choix que d’avoir une lecture partageant l’interprétation de l’émetteur. Pour éviter ce genre de biais, Alexandre Léchenet préconise la transparence. Dès que possible, le datajournaliste devrait, selon lui, partager ses données brutes pour que le lecteur ait l’opportunité de faire lui-même son interprétation des signes qu’elles représentent.

    Le datajournalism semble laisser peu de place à la libre interprétation du récepteur en lui “mâchant le travail”. Ce n’est pas tout à fait vrai. En effet, l’internaute peut avoir un rôle important, pour ne pas dire primordial, dans la conception d’un document datajournalistique. Alexandre Léchenet a souligné qu’il arrivait que les données brutes permettant de créer une infographie proviennent de non-journalistes qui deviennent alors acteurs dans la création de l’information.

    Pour cela, le journaliste nous a exposé l’exemple d’une carte qu’il a créée permettant de situer les cantines n’acceptant pas les enfants de chômeurs. Pour créer cette carte, il a recueilli et utilisé comme données brutes les informations que chacun pouvait lui apporter. On peut qualifier ce travail de collaboratif plus que de journalistique.

     

    Une forme de journalisme collectif 

    Le datajournalism est donc une forme de journalisme particulière qui en reprend certains codes et en réinvente d’autre. De ce fait, il souffre des mêmes problèmes et pose les mêmes questions que le journalisme traditionnel, tels que la vérification des sources, la spectacularisation des informations et les problèmes d’objectivité. Le datajournalism offre les mêmes réponses que le journalisme pour combler ses lacunes. Comme nous l’a démontré Alexandre Léchenet, c’est le journaliste, sa transparence et son intégrité qui influent sur la qualité de l’information transmise plus que la forme de cette dernière.

    Le datajournalism peut être vu comme une forme de transition du journalisme traditionnel vers un “néo-journalisme” où chaque internaute serait journaliste de son espace géographique proche et où l’information émergerait de l’ensemble des données. Notamment grâce aux réseaux sociaux, chacun tend donc à être un vecteur d’information locale.

    Nicolas C. (M2 NET), Amélie Pierquin (M2 NET), Valérian Piozin (M1 CEN)

    illustration du laboratoire des médias http://www.observatoiredesmedias.com

    Partager et découvrir:
    • Print
    • Digg
    • StumbleUpon
    • del.icio.us
    • Facebook
    • Yahoo! Buzz
    • Twitter
    • Google Bookmarks