Passer au contenu principal

Christchurch: dix-sept minutes d'horreur en direct sur Facebook

La modération du réseau social est plus que jamais critiquée après que le tireur ait pu y diffuser en direct les images de la tuerie perpétrée le 15 mars dernier dans une mosquée.

Le 15 mars 2019, Brenton Tarrant est entré dans une mosquée de Christchurch, en Nouvelle-Zélande, et a tiré sur les fidèles. L'attaque a été filmée et diffusée en direct sur Facebook.
Le 15 mars 2019, Brenton Tarrant est entré dans une mosquée de Christchurch, en Nouvelle-Zélande, et a tiré sur les fidèles. L'attaque a été filmée et diffusée en direct sur Facebook.
Reuters

Dix-sept minutes! C'est le temps qu'a duré le Facebook Live de la tuerie de Christchurch, commise le 15 mars dernier en Nouvelle-Zélande, avant que le réseau social n'interrompe la diffusion. Dix-sept minutes d'images insoutenables sur lesquelles on pouvait voir le terroriste australien Brenton Tarrant, équipé d'une caméra embarquée, pénétrer dans une mosquée et ouvrir le feu sur les fidèles. Comment Facebook a-t-il pu permettre la diffusion d'un acte d'une telle violence aussi longtemps alors qu'il lui faut à peine quelques secondes pour censurer une image de nu?

Attaqué de toutes parts, le géant californien se défend tant bien que mal. Moins de 200 personnes ont suivi le direct de la tuerie et 4000 ont pu regarder la vidéo originale avant qu'elle ne soit effacée, rapporte le réseau social. Le premier signalement envoyé par un utilisateur ne serait arrivé que vingt-neuf minutes après le début du direct, soit douze minutes après la fin de la diffusion. Sauf que durant ces dix-sept minutes de «roue libre», des milliers d'internautes ont eu le temps de copier les images du tireur pour ensuite les partager sur la toile.

Facebook affirme également avoir bloqué 1,5 million de vidéos dans les 24 heures suivant la diffusion du direct original, dont 1,2 million au moment de leur téléchargement. Ce qui laisse tout de même 300 000 copies qui ont pu être postées sur la plateforme avant d'être retirées. YouTube, Twitter ou encore Reddit ont, eux aussi, procédé au blocage de la vidéo, mais non sans difficultés. Un peu de montage, une musique de fond, une description faisant croire qu'il s'agit d'une séquence de jeu vidéo suffisent pour compliquer grandement la tâche des outils de modération.

Se pose donc, une nouvelle fois et plus que jamais, la question de la politique de modération des réseaux sociaux et de leur capacité à intervenir rapidement sur des contenus à caractère violent et pénalement répréhensibles. Or, aujourd'hui encore, les efforts fournis de ce côté-là semblent clairement insuffisants. Certains leur reprochent même de ne se focaliser que sur le sexe et la menace islamiste, délaissant notamment l'extrémisme blanc. Dans le cas de Christchurch, on apprend ainsi que le tireur se décrivait lui-même comme un fasciste. Or, ce n'est qu'après la tuerie que ses comptes Facebook et Twitter ont été supprimés.

Bien entendu, il ne s'agit pas ici de rendre les réseaux sociaux responsables des événements tragiques du 15 mars 2019. C'est Brentan Tarrant qui, ce jour-là, est entré dans une mosquée pour y semer la mort. Non Facebook, Twitter ou Youtube. En revanche, il incombe à ces derniers de tout entreprendre pour combattre efficacement la diffusion via leurs plateformes d'images et propos à caractère violents et haineux.

Cet article a été automatiquement importé de notre ancien système de gestion de contenu vers notre nouveau site web. Il est possible qu'il comporte quelques erreurs de mise en page. Veuillez-nous signaler toute erreur à community-feedback@tamedia.ch. Nous vous remercions de votre compréhension et votre collaboration.