fbpx
ActualitésHigh Tech

Google veut construire des systèmes AI «centrés sur les personnes»

Comment éviter les biais préexistants de saigner dans les systèmes d’intelligence artificielle sur lesquels nous dépendons de plus en plus pour les tâches quotidiennes? En accordant une attention accrue aux données et à l’apprentissage machine utilisés pour construire ces IA.

La nouvelle initiative de Google, PAIR ou People + AI Research, dévoilée lundi, cherche à mettre des considérations humaines comme celle-ci devant le développement de l’AI.

Dans un article de blog sur PAIR, des chercheurs de l’équipe Google Brain, Fernanda Viégas et Martin Wattenberg, écrivent: «En créant des systèmes AI avec les utilisateurs en tête, nous ouvrons de nouveaux domaines de conception et d’interaction.  »

L’équipe croit qu’une partie de la solution pour la façon de construire des systèmes d’IA qui tiennent compte des besoins humains réels est de traiter moins une IA comme une collection d’algorithmes que vous pouvez appliquer à divers problèmes et plus comme un matériau de conception ou un support comme la peinture. Ils veulent également coupler cette perspective avec des outils et des formations qui aident ceux qui construisent l’IA et les systèmes d’apprentissage machine à le visualiser et à se développer pour une manière plus axée sur les personnes.

Pour aider à guider le développement de l’AI, l’équipe se concentrera sur trois domaines: Outils pour les ingénieurs et les chercheurs d’AI, comment ils peuvent créer des outils pour aider les personnes travaillant dans des secteurs verticaux, tels que la santé, l’agriculture et la musique, appliquent effectivement l’IA et l’inclusivité des systèmes AI.

C’est cette dernière partie qui peut résonner avec des personnes à l’intérieur et à l’extérieur de Google.

PAIR n’est pas le premier de Google à s’occuper de l’IA. Le géant de la technologie est un membre fondateur du Partenariat sur l’intelligence artificielle pour profiter aux personnes et à la société («Partenariat pour AI» à court). Les deux groupes reconnaissent que la clé de l’AI imparfaite est une meilleure information sur la formation (les systèmes d’apprentissage en machine sont généralement formés avec des montagnes d’exemples de données pour créer de l’intelligence artificielle autour de choses comme la reconnaissance de l’objet et du visage, la traduction de la parole et même la recherche sur le cancer).

L’année dernière, le partenaire fondateur de Partnership for AI et le chercheur technique de Microsoft Research et le directeur général, Eric Horvitz, m’ont dit: «Les données sur les données peuvent être propagées à l’apprentissage par machine qui peuvent conduire à des systèmes biaisés.» Il s’inquiétait également du fait que l’IA biaisée pourrait avoir un impact Les minorités raciales sont traitées en matière de perception visuelle et de reconnaissance faciale « .

Alors que Google reconnaît que le Partenariat sur AI et PAIR sont des efforts complémentaires, les deux ne sont pas directement liés. Néanmoins, un élément clé du PAIR est l’open-sourcing de deux outils visuels Google, Facets Overview et Facets Drive. Les deux traitent les données de formation.

« Nous pensons que cela est important parce que les données de formation sont un élément clé des systèmes modernes d’IA, mais cela peut souvent être une source d’opacité et de confusion. En effet, l’une des façons dont l’ingénierie ML semble différente de l’ingénierie logicielle traditionnelle est un besoin plus important de Débarrassez-vous non seulement du code, mais aussi des données « , a écrit l’équipe Google Brain.

Ce n’est pas seulement l’ensemble du monde de l’IA qui a travaillé à faire sur les données et les résultats de l’AI. En avril, les chercheurs de l’Université de Bath au Royaume-Uni et de Princeton University ont trouvé un biais fondé sur le genre dans de nombreux systèmes d’AI, y compris Google Translate, où il convertit automatiquement les pronoms neutres en termes de genre de plusieurs langues en «lui» lorsqu’il parle d’un médecin, Et «elle» en parlant d’une infirmière.

Google ne mentionne jamais explicitement le «biais» dans son annonce PAIR, mais il est clair que l’entreprise veut utiliser des données humaines précoces pour rendre la sortie de l’IA un peu moins artificielle.

Afficher plus
Bouton retour en haut de la page