Alors que le Gemini 3 fait toujours des vagues, Google ne lâche pas le pied lorsqu’il s’agit de sortir de nouveaux modèles.
hier, La société a lancé FunctionGemmaUn modèle d’IA spécialisé de 270 millions de paramètres conçu pour résoudre l’un des obstacles les plus persistants dans le développement d’applications modernes : la fiabilité à la pointe de la technologie.
Contrairement aux chatbots à usage général, FunctionGemma est conçu pour un utilitaire unique et essentiel : traduire les commandes utilisateur en langage naturel en code structuré que les applications et les appareils peuvent réellement exécuter, le tout sans se connecter au cloud.
Cette version marque un tournant stratégique important pour Google DeepMind et l’équipe de développement de Google AI. Alors que l’industrie continue de rechercher une échelle de paramètres de plusieurs milliards de milliards dans le cloud, FunctionGemma parie sur des « petits modèles de langage » (SLM) fonctionnant de manière native sur les téléphones, les navigateurs et les appareils IoT.
Pour les ingénieurs en IA et les créateurs d’entreprise, ce modèle offre une nouvelle primitive architecturale : un « routeur » axé sur la confidentialité, capable de gérer une logique complexe sur des appareils avec une latence négligeable.
FunctionGemma est immédiatement disponible en téléchargement visage câlin Et Kaggle. Vous pouvez voir le modèle en action en téléchargeant l’application Google AI Edge Gallery sur le Google Play Store.
Saut de performance
À la base, FunctionGemma résout le « déficit d’exécution » dans l’IA générative. Les grands modèles de langage (LLM) standard sont excellents pour les conversations, mais ont souvent du mal à déclencher des actions logicielles de manière fiable, en particulier sur les appareils aux ressources limitées.
Selon l’évaluation interne des « Actions mobiles » de Google, un petit modèle typique a des problèmes de fiabilité, atteignant une précision de base de seulement 58 % pour les tâches d’appel de fonctions. Cependant, une fois affinée dans ce but spécifique, la précision de FunctionGemma passe à 85 %, créant un modèle de niche qui peut présenter des taux de réussite similaires à ceux de modèles plusieurs fois plus grands.
Cela permet au modèle de gérer plus qu’un simple interrupteur marche/arrêt ; Il peut analyser des arguments complexes, tels que l’identification de coordonnées de grille spécifiques pour exécuter des mécanismes de jeu ou une logique détaillée.
Il y a plus dans la version que le poids du modèle. Google propose une « recette » complète aux développeurs, comprenant :
-
Modèle : Un transformateur de paramètres de 270 M entraîné sur 6 000 milliards de jetons.
-
Données de formation : un ensemble de données « action mobile » qui aide les développeurs à former leurs propres agents.
-
Prise en charge de l’écosystème : compatible avec les bibliothèques Hugging Face Transformer, Keras, Unsloth et NVIDIA Nemo.
Omar Sanseviero, responsable de l’expérience développeur chez Hugging Face, a souligné la polyvalence de la version sur X (anciennement Twitter), notant que le modèle est “conçu pour être spécialisé pour votre propre travail” et peut fonctionner “sur votre téléphone, navigateur ou autres appareils”.
Cette approche locale offre trois avantages distincts :
-
Confidentialité : les données personnelles (telles que les entrées d’agenda ou les contacts) ne quittent jamais l’appareil.
-
Latence : les actions se produisent instantanément, sans attendre les allers-retours du serveur. La petite taille signifie que la vitesse à laquelle il traite les entrées est importante, Surtout avec l’accès à des accélérateurs comme les GPU et NPU.
-
Coût : les développeurs ne paient pas de frais d’API par jeton pour des interactions simples.
L’IA pour les fabricants : un nouveau modèle pour les flux de travail de fabrication
Pour les développeurs d’entreprise et les architectes système, FunctionGemma recommande de passer des systèmes d’IA monolithiques aux systèmes composites. Au lieu d’acheminer chaque petite demande d’utilisateur vers un modèle cloud énorme et coûteux comme GPT-4 ou Gemini 1.5 Pro, les fabricants peuvent désormais déployer FunctionGemma en tant que « contrôleur de trafic » intelligent à la périphérie.
Voici comment les développeurs d’IA devraient conceptualiser l’utilisation de FunctionGemma en production :
1. Architecture « Contrôleur de trafic » : Dans un environnement de production, FunctionGemma peut servir de première ligne de défense. Il se trouve sur l’appareil de l’utilisateur et gère instantanément des commandes simples et à haute fréquence (navigation, contrôle multimédia, saisie de données de base). Si une demande nécessite une logique plus approfondie ou une connaissance du monde, le modèle peut identifier ce besoin et acheminer la demande vers un modèle cloud plus vaste. Cette approche hybride réduit considérablement le coût et la latence de l’inférence cloud. Cela permet des cas d’utilisation tels que le routage des requêtes vers le sous-agent approprié.
2. Fiabilité déterminante face au chaos créatif : Les entreprises ont rarement besoin que leurs applications bancaires ou de calendrier soient « créatives ». Ils doivent avoir raison. Le passage à une précision de 85 % confirme que la spécialisation l’emporte sur la taille. L’ajustement fin de ce petit modèle à des données spécifiques à un domaine (par exemple, des API d’entreprise propriétaires) crée un outil extrêmement fiable qui se comporte de manière prévisible, une exigence pour les déploiements de production.
3. Consentement axé sur la confidentialité : Pour des secteurs tels que la santé, la finance ou les opérations sécurisées d’entreprise, l’envoi de données vers le cloud constitue souvent un risque de non-conformité. Étant donné que FunctionGemma est suffisamment efficace pour fonctionner sur des appareils (compatibles avec NVIDIA Jetson, les processeurs mobiles et Transformers.js basés sur un navigateur), les données sensibles telles que les informations personnelles ou les commandes propriétaires ne doivent jamais quitter le réseau local.
Licence : Ouvrir avec Guardel
FunctionGemma est publié sous Google’s Custom Conditions d’utilisation de Gemma. Pour les développeurs d’entreprise et commerciaux, il s’agit d’une différence importante par rapport aux licences open source standard telles que MIT ou Apache 2.0.
Bien que Google décrit Gemma comme un « modèle ouvert », il n’est pas strictement « open source » selon la définition de l’Open Source Initiative (OSI).
La licence autorise une utilisation commerciale, une redistribution et une modification gratuites, mais contient certaines restrictions d’utilisation. Il est interdit aux développeurs d’utiliser le modèle pour des activités restreintes (telles que la création de discours de haine ou de logiciels malveillants) et Google se réserve le droit de mettre à jour ces conditions.
Pour la plupart des startups et des développeurs, la licence est suffisamment permissive pour créer des produits commerciaux. Cependant, les parties développant des technologies à double usage ou celles exigeant une stricte liberté de copyleft devraient revoir les clauses spécifiques concernant « l’utilisation nuisible » et l’attribution.







