Accueil IA-Intelligence Artificiellle Gemma 3 270M : Google mise sur une IA compacte, sobre et...

Gemma 3 270M : Google mise sur une IA compacte, sobre et spécialisée

Google ©

Google dévoile Gemma 3 270M, un modèle d’IA compact et sobre, capable de fonctionner sur smartphone ou même Raspberry Pi. Conçu pour des usages ciblés, il privilégie l’efficacité et la spécialisation face à la course aux modèles géants.

Un modèle compact et flexible

Déployé le 17 août sur la plateforme open source Hugging Face, Gemma 3 270M se distingue par sa taille réduite de 270 millions de paramètres et sa flexibilité. Conçu avec 170 millions de paramètres pour l’intégration et 100 millions pour les blocs transformateurs, il optimise le rapport performance/compacité, au point de tourner sans difficulté sur un mobile ou un objet connecté.

Des performances remarquables pour sa taille

Malgré ce format léger, ses résultats surprennent. Dans le benchmark IFEval, Gemma 3 270M affiche 51,2 % de précision, un score jugé remarquable dans la catégorie des modèles ultra-légers et comparable à certains modèles dépassant le milliard de paramètres.

Sobriété énergétique et IA embarquée

L’autre point fort, c’est sa faible consommation d’énergie. Sur un Pixel 9 Pro, 25 conversations en version quantifiée INT4 n’ont consommé que 0,75 % de batterie. Une efficacité qui ouvre la voie à des usages embarqués, en edge computing ou dans des environnements contraints.

Vers une IA spécialisée plutôt que massive

Google met en avant une approche tournée vers la spécialisation plutôt que la puissance brute. Par exemple, SK Telecom a affiné un modèle Gemma 3 4B pour la modération de contenus multilingues, atteignant des performances supérieures à des modèles propriétaires plus massifs.

Une IA plus accessible pour les développeurs

Disponible sur Hugging Face, Kaggle, LM Studio ou Docker, Gemma 3 270M s’accompagne d’outils pour faciliter l’adaptation et le déploiement. Pour Google, il incarne une IA plus pragmatique, accessible et économe, pensée pour répondre à des besoins précis plutôt qu’alimenter la course aux modèles géants.