Mots-clés:Gemma 3n, MatFormer, Gemma 3n modèle E2B, Gemma 3n modèle E4B, multimodal en périphérie, intégration couche par couche, faible consommation de ressources, score LMArena, fonctionnement avec 2 Go de RAM, disponible sur Hugging Face
🔥 À la une
Google lance Gemma 3n, inaugurant une nouvelle ère du multimodal on-device: Google a officiellement lancé la série de modèles Gemma 3n, conçue spécifiquement pour les appareils on-device et prenant en charge nativement les entrées de texte, d’image, d’audio et de vidéo. Cette série comprend les modèles E2B et E4B. Bien que leur nombre de paramètres réels soit de 5B et 8B, grâce à l’architecture innovante MatFormer, dite « en poupées russes », et à la technologie Progressive Layer Embedding (PLE), leur occupation de la VRAM est équivalente à celle de modèles de 2B et 4B, leur permettant de fonctionner avec un minimum de 2 Go de RAM. Gemma 3n a obtenu un score supérieur à 1300 sur l’arène LMArena, devenant le premier modèle de moins de 10B de paramètres à atteindre ce niveau, ce qui démontre ses performances exceptionnelles pour une faible consommation de ressources. Le modèle est désormais entièrement disponible sur les principales plateformes open source comme Hugging Face, Ollama et MLX, favorisant ainsi le développement des applications d’IA on-device. (Source : HuggingFace Blog, karminski3, demishassabis, Reddit r/LocalLLaMA)