Mots-clés:Cœur cognitif des LLM, IA en périphérie, Petits modèles, Informatique personnelle, Multimodal, Réglage fin sur appareil, Collaboration cloud, Modèle Gemma 3n, Modèles à milliards de paramètres, Régulation des capacités d’IA, Capacité d’utilisation d’outils, IA toujours active

🔥 Pleins feux

Karpathy propose le concept de « LLM cognitive core », la compétition pour l’IA on-device s’intensifie: Andrej Karpathy prédit que le prochain point de mire de la compétition en IA sera le « LLM cognitive core » — un petit modèle de plusieurs milliards de paramètres qui sacrifie les connaissances encyclopédiques au profit de capacités extrêmes. Il servira de noyau pour l’informatique personnelle, toujours en ligne et fonctionnant par défaut sur chaque appareil. Ses caractéristiques incluent une multimodalité native, des capacités ajustables, une utilisation puissante d’outils, un fine-tuning on-device et une collaboration avec les grands modèles du cloud. Cette vision coïncide avec le modèle Gemma 3n publié par Google, ce dernier prenant en charge les entrées multimodales et ne nécessitant que 2 Go de RAM pour fonctionner, démontrant ainsi le potentiel de réaliser de puissantes capacités d’IA on-device et préfigurant l’avènement accéléré de l’ère de l’IA personnelle (Source : karpathy, Omar Sanseviero, zacharynado, teortaxesTex, jeremyphoward)

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *