Palavras-chave:Núcleo Cognitivo LLM, IA no Dispositivo, modelos pequenos, computação pessoal, multimodal, afinação no dispositivo, colaboração em nuvem, modelo Gemma 3n, modelos com bilhões de parâmetros, ajuste de capacidade de IA, capacidade de uso de ferramentas, IA sempre ativa

🔥 Em Destaque

Karpathy propõe o conceito de “núcleo cognitivo de LLM”, intensificando a competição de IA on-device: Andrej Karpathy prevê que o próximo foco da competição de IA será o “núcleo cognitivo de LLM” — um modelo pequeno com alguns bilhões de parâmetros que sacrifica o conhecimento enciclopédico em troca de capacidades extremas. Ele servirá como o núcleo da computação pessoal, estando sempre online e rodando por padrão em todos os dispositivos. Suas características incluem multimodalidade nativa, capacidades ajustáveis, uso robusto de ferramentas, fine-tuning no dispositivo e colaboração com grandes modelos na nuvem. Esta visão coincide com o modelo Gemma 3n lançado pelo Google, que suporta entrada multimodal e requer apenas 2GB de RAM para rodar, demonstrando o potencial para alcançar poderosas capacidades de IA on-device e sinalizando que a era da computação pessoal com IA está a acelerar (Fonte: karpathy, Omar Sanseviero, zacharynado, teortaxesTex, jeremyphoward)

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *