Palabras clave:Núcleo cognitivo LLM, IA en el dispositivo, Modelos pequeños, Computación personal, Multimodalidad, Afinamiento en el dispositivo, Colaboración en la nube, Modelo Gemma 3n, Modelos con miles de millones de parámetros, Regulación de capacidades de IA, Capacidad de uso de herramientas, IA siempre activa

🔥 Foco de atención

Karpathy propone el concepto de “núcleo cognitivo de LLM”, intensificando la competencia en la IA en el dispositivo: Andrej Karpathy predice que el próximo foco de la competencia en IA será el “núcleo cognitivo de LLM”: un modelo pequeño de miles de millones de parámetros que sacrifica el conocimiento enciclopédico a cambio de capacidades extremas. Actuará como el núcleo de la computación personal, siempre activo y ejecutándose por defecto en cada dispositivo. Sus características incluyen multimodalidad nativa, capacidades ajustables, uso robusto de herramientas, ajuste fino en el dispositivo y colaboración con modelos grandes en la nube. Esta visión coincide con el modelo Gemma 3n lanzado por Google, que admite entradas multimodales, requiere solo 2 GB de RAM para funcionar y demuestra el potencial de lograr potentes capacidades de IA en el dispositivo, anunciando la acelerada llegada de la era de la computación personal con IA (Fuente: karpathy, Omar Sanseviero, zacharynado, teortaxesTex, jeremyphoward)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *