Accueil Cloud Google Cloud AI : sa mission ? Démocratiser l’IA dans les entreprises

Google Cloud AI : sa mission ? Démocratiser l’IA dans les entreprises

Google Cloud AI
Plateforme Google Cloud AI

Avec Cloud AI, Google veut faire tomber les freins à la diffusion de l’IA dans les entreprises : fournir des outils d’accès au Machine Learning à tous les types d’utilisateurs en entreprise, mais aussi de la puissance de calcul et un mode on-demand. Le géant américain a mis en avant cette stratégie sur la grande scène du Google Summit 2018, qui s’est déroulé le 5 juin à Paris

C’est à Fei-Fei Li, professeur d’IA à Stanford et chercheuse célèbre dans le monde de l’IA pour avoir créé la base Imaginet, que Google a confié la tâche d’imaginer sa stratégie de démocratisation de l’IA auprès des entreprises. Clément Cardi, Customer Engineer de Google Cloud a résumé cette stratégie sur le Google Summit 2018 : « Le premier point de cette stratégie a été de définir un workflow standardisé et industrialisé, un workflow accessible tant aux chercheurs qu’aux métiers qui n’ont aucune connaissance préalable de l’intelligence artificielle. Nous avons développé une plateforme sans « lock-in », un hub d’API de microservices pour diffuser les modèles simplement dans toute l’entreprise et éventuellement les monétiser. Nous sommes convaincus que plus la plateforme sera simple, plus le Machine Learning sera facile à adopter par les entreprises. »

Les 4 freins à l’essor de l’IA en entreprise

Face à Amazon Web Services et Microsoft Azure, Google propose donc Cloud AI, une plateforme conçue pour porter et diffuser des services de machine learning et qui vise à accélérer l’adoption de l’IA dans les entreprises. Pour Google, parmi les principaux freins à la diffusion de l’IA dans les entreprises figure l’identification des bons projets : « Il faut identifier et prioriser les projets en fonction de la valeur et l’effort à déployer afin de réussir à délivrer un projet d’IA opérationnel. Il ne faut pas se lancer dans le Machine learning sans un plan d’action solide. » Autre frein qui constitue une lapalissade aujourd’hui, il faut aussi pouvoir disposer d’un volume conséquent de données et surtout des données de qualité. Pour alimenter les algorithmes, la donnée doit être nettoyée, préparée afin de la rendre utilisable par le Machine Learning, ce qui pose aussi le problème de l’intégration de l’IA dans le système d’information de l’entreprise où elle fait souvent figure de pièce rapportée. Enfin, le manque de Data Scientists est un autre frein bien identifié auquel les éditeurs ne tentent de répondre qu’en proposant des solutions accessibles aux développeurs et aux experts métiers.

La puissance brute, en IA, ça compte

Enfin, la puissance informatique constitue un frein à l’essor de ce que Google appelle l' »IA at Scale » : « 80% des avancées de l’IA sont attribuées à l’augmentation de la puissance de calcul » résume Clément Cardi. « Si on peut effectivement entrainer des modèles sur une petite machine, parfois l’entrainement d’une IA demande des centaines de GPU pendant plusieurs heures, ce qui pose un problème de scalabilité aux entreprises qui ont beaucoup de mal à rentabiliser une telle infrastructure pour des besoins aussi éphémères. » La réponse de Google à ces problématiques, c’est bien évidemment le Cloud et sa plateforme Cloud AI.

Une plateforme IA à géométrie variable

Selon Clément Cardi, Cloud AI permet de démarrer très rapidement en IA avec des algorithmes prêts à l’emploi, des algorithmes déjà entrainés par Google : les API Perceptions qui permettent de voir, écouter, traduire, décrypter et interpréter des données. Ce sont elles qui permettent aux éditeurs d’intégrer des commandes vocales dans leurs applications avec Speech API, ou encore analyser les attentes de leurs clients avec Natural Language, ou traduire leur site web ou des avis clients ou encore concevoir des chatbots. Néanmoins, pour les entreprises qui ont des besoins en machine Learning spécifiques, Google propose AutoML, un outil lancé en début d’année qui doit aider les entreprises peu aguerries en Intelligence artificielle à créer leurs propres modèles.

Tensorflow, au cœur de la plateforme Cloud AI

Pour les Data Scientists expérimentés, Google pousse en avant son framework Tensorflow. Aujourd’hui publié en Open Source, celui-ci est exploité par des acteurs aussi divers que Snapchat, SAP, Airbus et Uber. Outre Tensorflow, Cloud AI offre le service Cloud Dataflow afin de déployer les pipelines de données pour alimenter les modèles de Machine Learning. Les volumes de données analysés par les modèles étant colossaux, Google a développé le réseau Jupyter qui permet d’envoyer des Po de données en quelques secondes sur les machines exécutant les modèles. « Jupyter permet de ne pas nécessairement payer pour les machines simplement pour y stocker les données. Celles-ci ne sont envoyées qu’au moment où on en a besoin » précise l’ingénieur. Pour les machines dédiées à Cloud AI, Google a aussi développé ses propres TPU (Tensor Processing Unit), des processeurs spécialement conçus pour le calcul matriciel et donc bien adaptés au Machine Learning, ce qui permet à la fois d’améliorer l’entrainement des modèles, mais aussi les temps de réponse des applications qui sollicitent les modèles.

Enfin, Google s’est soucié des problématiques de la mise en production des modèles d’IA en lançant voici quelques mois Kubeflow. Il s’agit d’un framework de conteneurisation de modèles de Machine Learning ce qui permet de passer un modèle du test vers une infrastructure de production sous Kubernetes sans avoir à retoucher l’architecture.

Avec Cloud AI, Google dispose désormais d’une plateforme d’IA complète pour répondre aux besoins des entreprises, une plateforme facturée à l’usage et totalement Serverless.

 

Auteur : Alain Clapaud