Facebook fait appel à la police pour stopper les retransmissions d'attaques extrémistes

Facebook fait appel à la police pour stopper les retransmissions d'attaques extrémistes
Facebook a pris plusieurs mesures pour nettoyer les contenus "haineux et extrémistes" de sa plateforme

AFP, publié le mardi 17 septembre 2019 à 20h00

Facebook fait appel aux forces de l'ordre aux Etats-Unis et au Royaume-Uni pour entraîner ses outils d'intelligence artificielle à stopper les retransmissions en direct d'attaques extrémistes, à l'instar de la tuerie de Christchurch, diffusée pendant de longues minutes sur le réseau social.

Cette initiative, annoncée mardi par Facebook, s'inscrit dans le cadre plus large des mesures prises par le réseau social pour nettoyer les contenus "haineux et extrémistes" et en particulier de ses efforts pour ajouter les mouvements ou individus prêchant la supériorité de la race blanche à sa liste "d'organisations terroristes". 

Facebook a été vivement critiqué pour avoir mis 17 minutes avant de stopper la retransmission par un suprémaciste blanc, qui a tué 51 fidèles musulmans le 15 mars à Christchurch, en Nouvelle-Zélande.

Depuis, l'entreprise multiplie les initiatives: restrictions pour l'accès à Facebook Live, rencontres avec des responsables politiques, en passant par une alliance avec d'autres réseaux pour freiner le "détournement de technologies permettant de diffuser du contenu terroriste".

La police de Londres apportera son concours à partir du mois d'octobre pour permettre à Facebook de mieux entraîner ses outils d'intelligence artificielle à détecter rapidement ces contenus et les supprimer.

La difficulté vient du fait que la "machine" doit pouvoir faire la différence entre une attaque dans la vraie vie et une scène de film ou de jeu vidéo.

Les images filmées par les caméras portées par les unités de la "Met" lors de leurs entraînements au tir viendront alimenter et enrichir la banque d'images que Facebook a déjà constituée grâce aux forces de l'ordre aux Etats-Unis. 

Les outils d'intelligence artificielle ont besoin de quantités énormes de données --ici des images de fusillades-- pour pouvoir apprendre à les reconnaître, les trier et in fine les supprimer dans ce cas précis.

Après avoir mis beaucoup de moyens pour combattre l'utilisation de son réseau par des organisations comme Al-Qaïda ou le groupe Etat islamique, Facebook a récemment mis l'accent sur le suprémacisme blanc, dont les tenants sont à l'origine de nombreuses tueries perpétrées ces dernières années aux Etats-Unis. 

Le réseau rappelle avoir banni 200 organisations suprémacistes blanches.

Dans la même veine, l'entreprise a étendu à l'Austalie et l'Indonésie une initiative lancée en mars aux Etats-Unis, consistant à aiguiller les usagers qui font une recherche contenant des mots clés associés à la suprémacie blanche vers un site de "déradicalisation". Pour mesurer précisément l'efficacité de ces initiatives, Facebook s'est associé à Moonshot CVE (pour Countering Violent Extremism), une jeune entreprise britannique qui se base sur l'exploitaiton de données pour cibler les utilisateurs aux vues extrémistes.

Moonshot CVE a mis au point une méthode permettant de rediriger ces extrémistes vers des sites aux informations neutres, ou faisant appel à des personnalités reconnues ou des personnes ayant quitté des groupes radicalisés pour tenter de les faire changer d'avis. 

Vos réactions doivent respecter nos CGU.