キーワード:Gemma 3n, 端側マルチモーダル, MatFormer, レイヤーごとの埋め込み, 低リソース消費, Gemma 3n E2Bモデル, Gemma 3n E4Bモデル, LMArenaアリーナスコア, 2GB RAMでの動作, Hugging Faceでのリリース

🔥 フォーカス

GoogleがGemma 3nをリリース、オンデバイス・マルチモーダルの新時代を切り開く: Googleは、オンデバイス向けに設計されたGemma 3nシリーズモデルを正式にリリースしました。このモデルは、テキスト、画像、音声、動画の入力をネイティブでサポートしています。同シリーズにはE2BとE4Bの2つのモデルが含まれており、実際のパラメータ数は5Bと8Bですが、革新的なMatFormer「マトリョーシカ」アーキテクチャとProgressive Layered Embeddings(PLE)技術により、VRAM使用量は2Bと4Bのモデルに相当し、最低2GBのRAMで実行可能です。Gemma 3nはLMArenaのリーダーボードで1300点を超え、10B未満のパラメータでこのスコアを達成した初のモデルとなり、低リソース消費での卓越した性能を示しました。現在、このモデルはHugging Face、Ollama、MLXなどの主要なオープンソースプラットフォームで全面的に利用可能となっており、オンデバイスAIアプリケーションのさらなる発展を推進しています。(ソース: HuggingFace Blog, karminski3, demishassabis, Reddit r/LocalLLaMA)

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です