Accueil Cybersécurité Facebook a supprimé 583 millions de faux comptes en 3 mois

Facebook a supprimé 583 millions de faux comptes en 3 mois

En début de semaine, Facebook annonçait avoir suspendu, temporairement, 200 applications suspectées de détourner les données personnelles des utilisateurs du réseau social. Dans un souci de transparence suite au scandale Cambridge Analytica, l’Américain vient également de donner des chiffres sur le nombre de contenus qu’il a supprimé au premier trimestre.

Guy Rosen, vice-président Product Management chez Microsoft annonce ainsi que le réseau social a pendant le premier trimestre 2018 « supprimé 837 millions de spams« . Le réseau a aussi désactivé environ 583 millions de faux comptes, « la plupart dans les minutes suivant l’enregistrement« , précise le responsable. Autant de contenus qui s’ajoutent « aux millions de tentatives d’inscription de faux comptes ». Selon Facebook, il serait resté malgré tout entre 3 et 4 % de faux comptes actifs sur le site pendant cette même période.

 

1,9 million de contenus de propagande terroriste ont aussi été supprimés au premier trimestre. Tout comme 21 millions d’éléments liés à la nudité et à des activités sexuelles et 2,5 millions de messages de haine.

IA et machine learning en soutien

Pour arriver à ces résultats, le réseau social s’appuie sur ses technologies d’intelligence artificielle. Elles fonctionnent visiblement bien pour les spams, dont « près de 100 % ont été détectés et signalés avant que quiconque ne le signale », indique Guy Rosen. Idem pour les images de nu et pornographiques – dans près de 96% des cas, les images sont découvertes par la seule technologie – et de propagande terroriste, à hauteur de 99 %. Les images violentes sont identifiés de la même façon pour 86 % d’entre elles. En revanche, l’intelligence artificielle peine davantage avec les messages de haine. Le réseau social doit se contenter d’une identification réussi à hauteur de 38 %. En cause : le contexte. « Par exemple, l’intelligence artificielle n’est pas encore assez bonne pour déterminer si quelqu’un pousse à la haine ou s’il décrit quelque chose qui lui est arrivé afin de sensibiliser la population au problème, explique Guy Rosen. Plus généralement, la technologie nécessite de grandes quantités de données pour reconnaître des comportements significatifs, qui nous manquent dans les langues moins répandues ou dans les cas qui ne sont pas souvent rapportés. En outre, dans de nombreux domaines – qu’il s’agisse de spams, de pornographie ou de faux comptes – nous sommes confrontés à des adversaires sophistiqués qui changent continuellement de tactique pour contourner nos contrôles, ce qui signifie que nous devons continuellement adapter nos efforts. »