<link rel="stylesheet" id="dashicons-css" href="https://c0.wp.com/c/5.6/wp-includes/css/dashicons.min.css" type="text/css" media="all">
ActualitésSécurité

Facebook a accusé de cibler les enfants et les jeunes «insécurisés»

Facebook s’est excusé d’avoir permis aux annonceurs de cibler les personnes émotionnellement vulnérables aussi jeunes que 14, car un document divulgué par The Australian révélait 23 pages.

Selon le point de presse, le document préparé par deux haut dirigeants australiens de Facebook utilise des algorithmes pour recueillir des données (par des messages, des images et des réactions) sur l’état émotionnel de 6,4 millions de «lycéens», «étudiants tertiaires» et «jeunes Australiens Et les Néo-Zélandais … dans le marché du travail, « indiquant » les moments où les jeunes ont besoin d’un coup de foudre « .

En d’autres termes, les données indiquent qu’ils se sentent «sans valeur» ou «incertain» et sont donc bien placés pour recevoir le message d’un annonceur.

Un porte-parole des géants des réseaux sociaux a déclaré qu’une enquête a été ouverte, en disant à l’Australien le week-end, « nous avons ouvert une enquête pour comprendre l’échec du processus et améliorer notre contrôle. Nous entreprendrons des processus disciplinaires et autres, le cas échéant ».

De plus, un porte-parole de Facebook a déclaré  que les idées du document n’étaient jamais utilisées pour cibler des publicités.

« Facebook n’offre pas d’outils pour cibler les gens en fonction de leur état émotionnel. L’analyse effectuée par un chercheur australien a été conçue pour aider les spécialistes du marketing à comprendre comment les gens s’expriment sur Facebook », a déclaré le porte-parole. « Facebook a mis en place un processus pour examiner la recherche que nous effectuons. Cette recherche n’a pas suivi ce processus, et nous examinons les détails pour corriger le contrôle ».

Pourtant, on ne peut pas nier que des algorithmes d’exploration de données comme celui-ci n’existent pas seulement, mais conformément aux principes de base de la production à but lucratif, ils sont utilisés tout le temps.

Ce qui rend les choses pires pour Facebook, c’est que le suivi en temps réel des émotions des jeunes dans le document intitulé «Confidentiel: interne uniquement» et daté de 2017 semble être contraire au Code australien de la publicité et du marketing aux enfants.

Comme l’indique l’Australien, le Code définit un enfant comme une personne âgée de 14 ans ou moins et déclare que les enfants doivent «obtenir le consentement exprès d’un parent ou d’un tuteur avant de s’engager dans une activité qui entraînera la collecte ou la divulgation … Des informations personnelles.  » C’est-à-dire « des informations qui identifient l’enfant ou qui pourraient identifier l’enfant ».

Mining Facebook pour les émotions négatives des jeunes et des enfants, y compris «stressé», «vaincu», «dépassé» et «inutile» semble contraire aux normes éthiques, les auteurs du Code, l’Association australienne des annonceurs nationaux (AANA), champions.

Le rapport est le dernier exemple de l’intelligence de Facebook utilisée au service de ce que certains considéreraient comme antithétique. Une enquête ProPublica en 2016 allègue que la plate-forme a permis aux annonceurs de discriminer par race – ce que Facebook appelle son balise « affinité ethnique ».

En février, la société a annoncé qu’elle commencerait à utiliser son AI pour identifier les publicités pour le logement, le crédit et les emplois, et supprimer toutes les publicités ciblant la race.

Peut-être que les nouvelles que Facebook permet aux publicités de cibler les jeunes australiens en fonction de leur faible état émotionnel se traduiront par un autre changement de politique «strict minimum». Soit, soit il peut créer encore plus d’outils AI pour résoudre le problème.

Photo : © Social News Daily.

Afficher plus
Bouton retour en haut de la page
Fermer