Facebook : Plus d’IA aux administrateurs des groupes

Facebook a donné plus d’outils de modération aux administrateurs des groupes, un nouvel effort pour assurer des échanges plus civils sur le réseau social régulièrement accusé d’encourager les la propagation de la haine dans la société.

Le groupe californien a dévoilé mercredi 16 juin une nouvelle option, baptisée « Admin Assist », qui permet aux personnes responsables de déterminer avec des critères ce qui est acceptable ou non sur le groupe, et de vérifier automatiquement les contenus et commentaires potentiellement problématiques.

Les administrateurs peuvent aussi utiliser les outils pour supprimer les messages comportant des liens vers des contenus non désirables, pour ralentir les conversations trop animées ou imposer aux utilisateurs une période minimum sur Facebook ou dans un groupe donné avant de pouvoir participer aux conversations.

« Ces options automatisent des choses que les administrateurs faisaient manuellement avant », a précisé à l’AFP Tom Alison, un vice-président de la société.

La plateforme a pris de nombreuses mesures depuis des années pour assainir les échanges et tenter d’éradiquer les contenus qui enfreignent ses règlements, de l’incitation à la violence, à la désinformation et au racisme.

Les groupes Facebook, pour la plupart non publics, sont perçus comme les derniers bastions où les insultes et opinions extrémistes risquent de fuser sans retenue, même s’ils sont initialement constitués autour de passions et intérêts communs (musique, parents d’un même quartier, etc.).

« Certains de ces groupes comptent des millions de personnes », fait remarquer Tom Alison. Selon lui, plus de 1,8 milliard de personnes en utilisent tous les mois, sous les offices de 70 millions d’administrateurs.

Grâce aux technologies d’intelligence artificielle (IA), les systèmes automatisés de Facebook scannent déjà les échanges sur les groupes pour retirer les infractions.

Le géant des réseaux sociaux teste aussi des outils d’IA qui devront repérer des conversations sur le point de dégénérer, quand le rythme des réponses s’accélère par exemple, et avertir les modérateurs.

«Certains administrateurs apprécient le débat, d’autres non », note Tom Alison.

Selon Brian Anderson, un administrateur de « Dads With Daughters » (« Pères et filles »), les outils fournis récemment par Facebook ont déjà permis de réduire le nombre de modérateurs nécessaires pour policer les échanges sur ce groupe de 127 000 personnes, où les papas partagent des conseils pour élever leurs filles.

Les modérateurs ont notamment donné le ton en s’opposant fermement aux contenus relevant de la « masculinité toxique » – des images humoristiques montrant des pères avec des armes à feu pour soi-disant protéger leurs filles des soupirants.

Images manipulées : des progrès dans la détection 

Par ailleurs, des scientifiques de Facebook ont présenté mercredi 16 juin une méthode qui doit permettre, grâce à l’intelligence artificielle (IA), de débusquer les « deepfakes », ces images truquées hyper réalistes, ainsi que de déterminer leur origine.

 Les « deepfakes » posent problème sur l’internet car ils peuvent servir à manipuler les internautes ou à diffamer, en faisant dire ou faire à des personnes des choses qu’elles n’ont pas dites ou faites. Ces montages reposent sur des technologies d’intelligence artificielle.

« Notre système va faciliter la détection des deeepfakes et le pistage des informations associées », ont indiqué dans un communiqué Tal Hassner et Xi Yin, deux chercheurs du réseau social qui ont travaillé sur le sujet avec la Michigan State University.

Leur méthode doit fournir « des outils pour mieux enquêter sur les incidents de désinformation coordonnée qui ont recours à des deepfakes », ont-ils assuré.

Pour mettre au point leur système, ils ont utilisé la technique dite de « rétro-ingénierie », qui consiste à déconstruire la fabrication d’un produit ou, dans ce cas, d’une vidéo ou d’une photo.

Leur logiciel repère des imperfections ajoutées au montage, qui altèrent l’empreinte digitale des images.

En photographie, cette empreinte permet d’identifier le modèle d’appareil photo utilisé. En informatique, « elle peut servir à identifier le système de génération qui a servi à produire le trucage », expliquent les scientifiques.

Microsoft a présenté l’année dernière un logiciel qui peut aider à repérer les « deepfakes » photo ou vidéo, l’un des nombreux programmes conçus pour combattre la désinformation avant l’élection présidentielle américaine.

Fin 2019, Google avait rendu publics des milliers de « deepfakes » vidéo réalisés par ses équipes pour les mettre à disposition des chercheurs qui veulent développer des méthodes de détection des images manipulées.