Facebook utilise l’Intelligence Artificielle pour repérer les utilisateurs ayant des pensées suicidaires

Facebook utilise l’intelligence artificielle pour scanner les messages des utilisateurs à la recherche de signes de pensées suicidaires. Quand elle trouve quelqu’un qui pourrait être en danger, la société signale le message aux modérateurs humains qui répondent en envoyant les ressources de l’utilisateur sur la santé mentale, ou, dans les cas plus urgents, en contactant les premiers intervenants qui peuvent tenter de trouver la personne.

Le réseau social a testé l’outil pendant des mois aux États-Unis, mais déploie maintenant le programme dans d’autres pays. L’outil ne sera pas actif dans les pays de l’Union européenne, où les lois sur la protection des données empêchent les entreprises de profiler les utilisateurs de cette manière.

Dans un post Facebook, le PDG de la société, Mark Zuckerberg, a déclaré qu’il espérait que l’outil rappellerait aux gens que l’IA «aide à sauver la vie des gens aujourd’hui». Le mois dernier, le logiciel avait aidé Facebook à signaler les cas aux premiers répondants. 100 fois. “Si nous pouvons utiliser l’IA pour aider les gens à être là pour leur famille et leurs amis, c’est une avancée importante et positive”, a écrit Zuckerberg.

L’IA cherche des commentaires comme «ça va?» Et «puis-je aider?

Malgré cet accent mis sur la puissance de l’IA, Facebook ne fournit pas beaucoup de détails sur la façon dont l’outil juge réellement qui est en danger. La société affirme que le programme a été formé sur des messages et messages signalés par des utilisateurs humains dans le passé, et cherche des signes révélateurs, comme des commentaires demandant aux utilisateurs “allez-vous?” Ou “puis-je aider?” identifier les parties d’une vidéo qui ont plus que le nombre habituel de commentaires, de réactions ou de rapports d’utilisateurs. Ce sont les modérateurs humains qui vont faire le travail crucial d’évaluer chaque cas de l’IA et de répondre.

Bien que cet élément humain ne devrait pas être négligé, la recherche suggère que l’IA peut être un outil utile pour identifier les problèmes de santé mentale. Une étude récente a utilisé l’apprentissage automatique pour prédire si les individus tenteraient de se suicider au cours des deux prochaines années avec une précision de 80 à 90%. Cependant, la recherche n’a examiné que les données des personnes admises à l’hôpital après s’automutiler, et des études à grande échelle sur des individus plus représentatifs de la population générale n’ont pas encore été publiées.

Certains peuvent également s’inquiéter des implications de Facebook en matière de protection de la vie privée – une entreprise qui a déjà travaillé avec des agences de surveillance comme la NSA – en examinant les données des utilisateurs pour prendre des décisions aussi sensibles. Le responsable de la sécurité de l’entreprise, Alex Stamos, a répondu à ces inquiétudes sur Twitter en disant que «l’utilisation effrayante / effrayante / malveillante de l’IA serait un risque pour toujours».

Cependant, l’auteur de TechCrunch, Josh Constine, a noté qu’il avait demandé à Facebook comment l’entreprise empêcherait l’utilisation abusive de ce système d’IA et n’a reçu aucune réponse. Nous avons contacté l’entreprise pour obtenir plus d’informations.

 

 

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *