Attentat de Halle: 35 minutes en direct montrent la difficulté à stopper les "lives"

Attentat de Halle: 35 minutes en direct montrent la difficulté à stopper les "lives"
Photo d'illustration du logo Twitch prise à Paris le 24 juillet 2019

AFP, publié le jeudi 10 octobre 2019 à 01h09

Trente-cinq minutes en direct sur Twitch, une sauvegarde partagée par le biais de messageries: la diffusion en ligne de la vidéo de l'attaque d'une synagogue mercredi à Halle en Allemagne a montré une nouvelle fois la difficulté à empêcher les tueurs de se mettre en valeur en ligne, malgré la mobilisation de l'après-Christchurch.

Le tireur, dont l'attaque en plein Yom Kippour a fait deux morts et deux blessés graves dans cette ville d'Allemagne de l'est, a réussi à poster les images en direct sur un compte créé deux mois plus tôt sur la plateforme de streaming en direct Twitch, un lieu où se retrouvent normalement les fans de jeux vidéos et d'e-sport. Le compte n'avait été utilisé qu'une seule fois auparavant pour un "live".

Pendant ces 35 minutes, l'attaque n'a été suivie en direct que par 5 personnes, a indiqué la plateforme. L'enregistrement, conservé automatiquement sur Switch, a lui été visionné par 2.200 personnes.  

Plus intéressant, la plateforme indique que la vidéo a ensuite été partagée "de manière coordonnée" par le biais de messageries tierces. Et là impossible de dire pour le moment combien de gens ont pu la voir.

"Nous avons fait au plus vite pour retirer ce contenu, et nous suspendrons tous les comptes qui posteront ou reposteront des images de cet acte abominable", a indiqué une porte-parole de Twitch interrogée par l'AFP. 

"Une fois la vidéo éliminée, nous avons partagé l'information avec un consortium de notre secteur d'activité pour aider à prévenir la prolifération de ce contenu. Nous prenons cela très au sérieux et nous nous engageons à travailler avec nos pairs, les forces de l'ordre et toutes les parties prenantes pour protéger notre communauté", a souligné Twitch.

Le mode opératoire évoque l'attentat contre deux mosquées de Christchurch en Nouvelle-Zélande en mars.

Un Australien d'extrême droite avait tué 51 personnes avant d'être arrêté mais avait réussi à diffuser son attaque en direct pendant quelque 17 minutes sur Facebook, avant que la retransmission ne soit stoppée.

Ce très long délai avait valu à Facebook de très virulentes critiques et fait se lever des voix de toute part, exigeant une action immédiate.

- Intelligence artificielle -

Facebook a recruté des forces de police de part et d'autre de l'Atlantique pour éduquer ses outils d'intelligence artificielle pour tenter d'éviter la répétition d'un tel désastre.

La difficulté vient du fait que le "cerveau artificiel" doit pouvoir faire la différence entre une vraie attaque et une scène de film ou de jeu vidéo.

"Les algorithmes de filtrage n'ont jusqu'à présent pas été très bons pour détecter de la violence en streaming en direct. A l'avenir, on verra peut-être les réseaux sociaux tenus responsables de leur rôle dans la diffusion de contenus violents et haineux", souligne Jillian Pterson, professeur de criminologie à la Hamline University de Saint Paul.

Pour mieux éduquer la machine, Facebook a associé la police londonienne à son initiative en utilisant les images filmées par les caméras portées par les unités de la "Met" lors de leurs entraînements au tir. 

Les outils d'intelligence artificielle ont besoin de quantités énormes de données --ici des images de fusillades-- pour pouvoir apprendre à les identifier correctement, les trier et in fine les supprimer.

Cette initiative, annoncée mi-septembre, s'inscrit dans le cadre plus large des mesures prises pour nettoyer les contenus "haineux et extrémistes" et les mouvements ou individus prônant le suprémacisme blanc. 

- Alliance contre les extrémismes -

Facebook et ses partenaires ont aussi annoncé la création d'une nouvelle organisation, qui doit regrouper Facebook, Microsoft, Twitter et Google (via YouTube) ainsi qu'Amazon ou encore les plateformes LinkedIn (appartenant à Microsoft) et WhatsApp (Facebook).

La nouvelle structure aura pour vocation de "déjouer les tentatives de plus en plus sophistiquées des terroristes et des extrémistes violents pour se servir des plateformes numériques".

Des acteurs non-gouvernementaux dirigeront quant à eux un comité consultatif et les gouvernements des Etats-Unis, de la France, du Royaume-Uni, du Canada, de la Nouvelle-Zélande et du Japon auront également un rôle de consultation, tout comme des experts de l'ONU et de l'Union européenne.

Mais pour Hans-Jakob Schindler, qui dirige le Counter Extremism Project, tout cela ne suffit pas. "Cet incident tragique démontre une nouvelle fois que l'auto-régulation n'est pas assez efficace et souligne malheureusement le besoin d'une régulation plus forte du secteur technologique", écrit-il.

Vos réactions doivent respecter nos CGU.