Schlüsselwörter:LLM-Kognitionskern, Edge-AI, Kleine Modelle, Persönliches Computing, Multimodal, Geräteseitige Feinabstimmung, Cloud-Kollaboration, Gemma-3n-Modell, Milliarden-Parameter-Modelle, AI-Fähigkeitsanpassung, Werkzeugnutzungsfähigkeit, Immer-Online-AI
🔥 Im Fokus
Karpathy stellt das Konzept des „LLM cognitive core“ vor, der Wettbewerb um On-Device-AI verschärft sich: Andrej Karpathy prognostiziert, dass der nächste Fokus des AI-Wettbewerbs der „LLM cognitive core“ sein wird – ein kleines Modell mit mehreren Milliarden Parametern, das enzyklopädisches Wissen zugunsten extremer Fähigkeiten opfert. Es wird als Kern des Personal Computing dienen, immer online sein und standardmäßig auf jedem Gerät laufen. Zu seinen Merkmalen gehören native Multimodalität, anpassbare Fähigkeiten, starke Tool-Nutzung, On-Device-Fine-Tuning und die Zusammenarbeit mit großen Cloud-Modellen. Diese Vision deckt sich mit dem von Google veröffentlichten Modell Gemma 3n, das multimodale Eingaben unterstützt, nur 2 GB RAM benötigt und das Potenzial für leistungsstarke On-Device-AI-Fähigkeiten demonstriert, was darauf hindeutet, dass die Ära des Personal AI Computing immer schneller naht (Quelle: karpathy, Omar Sanseviero, zacharynado, teortaxesTex, jeremyphoward)