Nous n’avons toujours aucune idée de ce qui se passe vraiment sur Facebook

Une équipe de chercheurs de l’Institut Max Planck et de la Northeastern University a peut-être trouvé une façon de lutter contre la discrimination sur Facebook une fois pour toutes. Après une série d’histoires alarmantes sur ProPublica, Facebook a eu du mal à empêcher les annonceurs de cibler des publicités sur des courses spécifiques, violant potentiellement les lois sur la discrimination autour du logement et de l’emploi. Mais l’équipe de l’institut Planck a une nouvelle idée de la façon d’aborder le problème, en jugeant une annonce basée sur les utilisateurs globaux ciblés au lieu des intrants utilisés pour atteindre cet objectif. Les chercheurs ont exposé comment un tel système pourrait fonctionner dans un article le mois dernier, la première étape d’un projet qui pourrait réécrire la façon dont les annonces sont ciblées en ligne.

Mais avec l’idée de base exposée, l’équipe a rencontré un plus gros problème: Facebook lui-même. La prochaine étape devrait être de savoir combien d’annonces Facebook pourraient être bloquées par le nouveau système de lutte contre la discrimination, mais la politique de données de Facebook rend cette question impossible à répondre. Toute personne qui achète une annonce peut voir les outils de ciblage, mais seul Facebook sait comment les utilisateurs les utilisent réellement.

«Nous ne savons tout simplement pas comment le système de ciblage publicitaire est utilisé», affirme Alan Mislove, professeur à l’Université Northeastern et co-auteur du document. “Seul Facebook a ces données, ce qui est une situation regrettable.”

“Nous ne savons simplement pas comment le système de ciblage publicitaire est utilisé”

Ce manque de données bloque la recherche sur certains des plus gros problèmes de Facebook, allant bien au-delà de la simple publicité. Pour les critiques, Facebook répand les théories du complot, permettant aux campagnes d’influence russes et sape activement la démocratie. Mais malgré les préoccupations croissantes, il y a très peu de données qui décrivent à quel point ces problèmes sont sérieux ou comment ils se posent. Nous ne savons tout simplement pas comment Facebook affecte la société dans son ensemble – et le verrouillage des données de l’entreprise rend impossible la découverte.

À certains égards, ce manque d’information publique fait partie de la promesse de Facebook aux utilisateurs. Il est facile de faire des recherches sur Twitter, où chaque message est public, mais la même accessibilité ouvre la porte à un harcèlement et un harcèlement plus agressifs. D’autre part, la grande majorité de Facebook est cachée de la recherche publique, ce qui fait qu’il est beaucoup plus difficile pour quiconque de savoir ce qui se passe. Les chercheurs peuvent voir les groupes publics et les pages d’intérêt, mais sans le jeton de connexion d’une personne liée, ils ne peuvent pas accéder aux profils ou groupes privés, ce qui rend difficile le suivi des campagnes d’influence ou la désinformation.

Par conséquent, lorsque les chercheurs veulent savoir comment les fausses nouvelles ou les conversations ont déraillé, ils se tournent vers Twitter. Des chercheurs open source comme Jonathan Albright sont capables de suivre la façon dont les réseaux de trolls s’emparent de points de vente et d’histoires spécifiques sur Twitter. Mais sur Facebook, une telle analyse est tout simplement impossible.

“Même si vous pouvez obtenir les données, vous n’avez pas les moyens nécessaires pour bien les comprendre à cause de l’algorithme de fil d’actualité fermé (propriétaire) et en constante évolution”, explique Albright. “Les données de la plateforme sous-jacente ne sont tout simplement pas accessibles.”

“Nous devons soit faire confiance à Facebook, soit nous avons besoin de meilleurs outils”

Lorsque les analystes regardent Facebook, ce sont généralement les parties facilement accessibles. Les journalistes se sont concentrés sur le forum des sujets tendance en grande partie parce qu’il est visible et accessible, même s’il ne génère pas de trafic important ou d’intérêt des utilisateurs. D’autres rapports ont utilisé des outils tels que CrowdTangle, qui peut montrer le volume des partages d’éditeurs spécifiques (particulièrement utile pour profiler les faux médias), mais donne peu de sens sur la manière dont les histoires se répandent entre les éditeurs. En conséquence, les journalistes peuvent détecter la désinformation quand elle devient virale, mais même les outils les plus sophistiqués ne peuvent pas leur dire comment elle est devenue si populaire.

C’est particulièrement urgent parce que Facebook fait face à de sérieuses questions sur son impact sur la société, et nous n’avons aucune donnée pour nous dire quelles sont les préoccupations importantes. Plus tôt cette semaine, des responsables de l’ONU ont déclaré que Facebook avait joué un rôle dans un possible génocide contre les musulmans Rohingya au Myanmar – une accusation horrible, si elle était vraie. Il serait extrêmement précieux de suivre la propagation du sentiment anti-Rohingya sur la plateforme. Les résultats pourraient exonérer Facebook ou indiquer des changements spécifiques que la plate-forme pourrait apporter pour résoudre le problème. À l’heure actuelle, nous n’avons tout simplement nulle part où commencer.

Le même problème est en jeu lorsque les chercheurs recherchent des robots ou des comptes frauduleux. Il y a plus de 20 millions de comptes factices sur Facebook, et bien que l’entreprise préfère garder ses efforts de chasse au bot interne, une petite industrie a grandi pour les chercheurs qui peuvent repérer et rapporter les comptes de façon fiable. Facebook accepte les rapports de ces chercheurs, mais il ne leur est pas facile de trouver des comptes connectés ou de les signaler, ce qui nécessite souvent un contact en personne avec un membre de l’équipe de soutien.

Un bot-chasseur, qui a demandé à ne pas être nommé en raison de son travail en cours avec Facebook, a déclaré que le reportage de personne à personne rendait son travail beaucoup plus difficile. “Le défi de cette approche est que les membres de l’équipe de soutien peuvent avoir des interprétations légèrement différentes de ce qui constitue un contenu abusif”, a déclaré le chercheur, et les campagnes de plus grande envergure comportant des centaines ou des milliers de posts / profils abusifs.

Rejoint par Monde Informatique, un représentant de Facebook a souligné le programme de primes de bogue en cours, avec lequel Mislove a déjà travaillé, comme exemple de collaboration avec des chercheurs externes, et a déclaré que l’entreprise était impatiente de trouver de nouvelles façons de travailler avec les chercheurs. ne compromet pas la vie privée de l’utilisateur. “Nous apprécions notre travail avec la communauté de la recherche et nous explorons toujours des moyens de partager et d’en apprendre davantage”, a déclaré la société dans un communiqué.

Après une vague d’examen des annonces, Facebook teste déjà plus de pages de diffusion d’annonces qui montreraient chaque message d’un annonceur donné, dont le lancement est prévu aux États-Unis avant les élections de 2018. Il s’agit d’un nombre de données nettement supérieur à celui que vous pouvez obtenir avec des systèmes tels qu’AdWords, bien que cela ne fournisse toujours pas beaucoup de détails sur la manière dont les annonces sont ciblées. Pour des chercheurs comme Mislove, cela laisse les questions les plus importantes encore sans réponse.

“Ce que j’ai besoin de savoir, ce sont les paramètres de ciblage”, dit-il. “Sans cela, nous devons soit faire confiance à Facebook, soit nous avons besoin de meilleurs outils pour avoir une certaine visibilité sur la manière dont leur système publicitaire est utilisé.”

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *