Palavras-chave:Gemma 3n, multimodalidade no dispositivo, MatFormer, incorporação por camadas, baixo consumo de recursos, modelo Gemma 3n E2B, modelo Gemma 3n E4B, pontuação LMArena, execução em 2GB de RAM, disponível no Hugging Face
🔥 Em Foco
Google lança o Gemma 3n, iniciando uma nova era de multimodalidade on-device: A Google lançou oficialmente a série de modelos Gemma 3n, projetada especificamente para dispositivos on-device, com suporte nativo para entradas de texto, imagem, áudio e vídeo. A série inclui dois modelos, E2B e E4B. Embora a contagem real de parâmetros seja de 5B e 8B, graças à inovadora arquitetura MatFormer “Matryoshka” e à tecnologia Progressive Layer Embedding (PLE), o seu consumo de VRAM é equivalente apenas ao de modelos de 2B e 4B, podendo ser executado com um mínimo de 2GB de RAM. O Gemma 3n obteve uma pontuação superior a 1300 na LMArena, sendo o primeiro modelo com menos de 10B parâmetros a atingir essa pontuação, o que demonstra o seu desempenho excecional com baixo consumo de recursos. Atualmente, o modelo já está totalmente disponível nas principais plataformas de código aberto, como Hugging Face, Ollama e MLX, impulsionando o desenvolvimento futuro de aplicações de IA on-device (Fonte: HuggingFace Blog, karminski3, demishassabis, Reddit r/LocalLLaMA)