fbpx
ActualitésHigh Tech

Voici comment Google prépare Android pour l’avenir chargé d’IA

L’avenir d’Android sera beaucoup plus intelligent, grâce aux nouveaux outils de programmation que Google a dévoilés mercredi. La société a annoncé TensorFlow Lite, une version de son cadre d’apprentissage de la machine conçu pour fonctionner sur des smartphones et d’autres appareils mobiles, lors de l’adresse de la conférence de développement Google I / O.

« TensorFlow Lite s’appuiera sur une nouvelle API de réseau neuronal pour exploiter les accélérateurs spécifiques au silicium, et au fil du temps, nous nous attendons à voir [chips de traitement de signal numérique spécifiquement conçus pour l’inférence et la formation des réseaux neuronaux », a déclaré Dave Burke, vice-président de l’ingénierie de Google Pour Android. « Nous pensons que ces nouvelles fonctionnalités aideront à générer une prochaine génération de traitement de la parole sur le périphérique, la recherche visuelle, la réalité augmentée, et plus encore ».

Le framework Lite fera bientôt partie du projet TensorFlow open source, et l’API du réseau neuronal viendra à la prochaine édition majeure d’Android plus tard cette année.

Le cadre a de sérieuses implications pour ce que Google considère comme l’avenir du matériel mobile. Les jetons axés sur l’IA pourraient permettre aux smartphones de gérer des calculs d’apprentissage machine plus avancés sans consommer autant de puissance. Avec plus d’applications utilisant l’apprentissage par machine pour fournir des expériences intelligentes, rendre ce type de travail plus facilement possible sur l’appareil est la clé.

À l’heure actuelle, la construction d’apprentissage par machine avancé dans les applications, en particulier en ce qui concerne les modèles de formation, requiert une quantité de puissance de calcul qui requiert habituellement un matériel robuste, beaucoup de temps et beaucoup de puissance. Ce n’est pas vraiment pratique pour les applications de smartphones pour les consommateurs, ce qui signifie qu’ils déchargent souvent ce traitement vers un centre de données massif en envoyant des images, du texte et d’autres données nécessitant un traitement sur Internet.

Le traitement de ces données dans le cloud comporte plusieurs inconvénients, selon Patrick Moorhead, analyste principal chez Moor Insights et Stratégie: les utilisateurs doivent être disposés à transférer leurs données sur les serveurs d’une entreprise et doivent être dans un environnement avec une connectivité suffisamment riche Assurez-vous que l’opération a une faible latence.

Il existe déjà un processeur mobile avec un DSP spécifique à l’apprentissage sur le marché aujourd’hui. Le système Qualcomm Snapdragon 835 sur la puce accueille le Hexagon DSP qui prend en charge TensorFlow. Les DSP sont également utilisés pour fournir des fonctionnalités comme la reconnaissance de la phrase de réveil « OK, Google » pour Google Assistant, selon Moorhead.

Les utilisateurs devraient s’attendre à voir plus de puces d’accélération d’apprentissage de machines dans le futur, a déclaré Moorhead. « Depuis que la loi de Moore a ralenti, c’est un modèle informatique hétérogène », a-t-il déclaré. « Nous utilisons différents types de processeurs pour faire différents types de choses, qu’il s’agisse d’un DSP, qu’il s’agisse d’une [grille de grille programmable sur le terrain], ou qu’il s’agisse d’une CPU. C’est presque comme si nous utilisions le bon club de golf pour le bon trou.  »

Google investit déjà dans un matériel spécifique à la ML avec sa gamme de puces de l’unité de traitement Tensor, qui sont conçues pour accélérer à la fois la formation de nouveaux algorithmes d’apprentissage machine ainsi que le traitement de données à l’aide de modèles existants. Mercredi, la société a annoncé la deuxième version de ce matériel, conçu pour accélérer la formation et l’inférence de l’apprentissage en machine.

La société n’est pas non plus la seule avec un framework d’apprentissage de machine spécialisé dans les smartphones. Facebook a montré un framework ML orienté mobile appelé Caffe2Go l’année dernière, qui sert à alimenter des applications comme la fonctionnalité de transfert de style en direct de l’entreprise.

Photo : © Digital Spy.

Afficher plus
Bouton retour en haut de la page