Ключевые слова:Kimi K2, открытая LLM, агентная модель, LFM2, SmolTalk 2, модель с 1 триллионом параметров, обучение MuonClip, датасет многоэтапного вывода, контрольные точки GGUF, способность ИИ к эмпатии
🔥 В центре внимания
Выпуск Kimi K2, OpenAI откладывает выпуск модели с открытым исходным кодом: Kimi K2 — это агентная модель с открытым исходным кодом, имеющая 1 триллион параметров, из которых 32 миллиарда активны. Модель показала отличные результаты в бенчмарках программной инженерии, особенно в задачах кодирования и агентных задачах. Выпуск Kimi K2 оказал значительное влияние на сообщество открытого исходного кода, и OpenAI даже отложила выпуск своей модели с открытым исходным кодом. Это знаменует собой повышение производительности LLM с открытым исходным кодом, что потенциально меняет ландшафт развития ИИ. (Источник: halvarflake, teortaxesTex, scaling01)
🎯 Тенденции
Выпуск набора данных SmolTalk 2: Набор данных SmolTalk 2 предназначен для раскрытия возможностей бимодального мышления LLM посредством многоэтапного обучения. Набор данных характеризуется поддержкой многоэтапного мышления, диалогов на шести языках и использованием инструментов с длинным и без длинного контекста. Выпуск SmolTalk 2 предоставляет новый ресурс для исследования и разработки LLM и может способствовать прогрессу в таких областях, как многоязычные, многоэтапные диалоги и использование инструментов. (Источник: code_star)
Liquid AI выпускает контрольные точки LFM2 GGUF: Liquid AI выпустила серию контрольных точек LFM2 GGUF, позволяя разработчикам запускать LFM2 где угодно с помощью llama.cpp. Разработчики могут выбирать наиболее подходящую точность в зависимости от своего сценария использования. Это делает LFM2 более доступным и простым в использовании, способствуя популяризации и применению LLM. (Источник: maximelabonne)
🧰 Инструменты
Kimi K2: Kimi K2 — это агентная модель с открытым исходным кодом, имеющая 1 триллион параметров, из которых 32 миллиарда активны. Модель показала отличные результаты в бенчмарках программной инженерии, особенно в задачах кодирования и агентных задачах. В настоящее время не поддерживает мультимодальность и режим мышления. (Источник: halvarflake)
LFM2: Liquid AI выпустила серию контрольных точек LFM2 GGUF, позволяя разработчикам запускать LFM2 где угодно с помощью llama.cpp. Разработчики могут выбирать наиболее подходящую точность в зависимости от своего сценария использования. (Источник: maximelabonne)
🌟 Сообщество
Обсуждение эффективности и ограничений LLM: Некоторые разработчики считают, что использование LLM иногда снижает эффективность работы, отвлекает и приводит к чрезмерной зависимости, что приводит к пренебрежению глубокими исследованиями и размышлениями. Другие разработчики считают, что LLM могут значительно повысить производительность, особенно в сценариях, требующих быстрого прототипирования и обработки больших объемов кода. Эта дискуссия подчеркивает двойственность LLM как инструмента, требующего от разработчиков разумного использования в зависимости от конкретной ситуации. (Источник: dwarkesh_sp, jonst0kes, jonst0kes, Reddit r/ClaudeAI)
Обсуждение архитектуры и производительности Kimi K2: Архитектура Kimi K2 похожа на DeepSeek V3, но с меньшим количеством голов и большим количеством экспертов. Некоторые выразили восхищение производительностью Kimi K2, считая, что она демонстрирует отличные результаты с точки зрения соотношения цены и качества и возможностей логического вывода. Другие ожидают, что Kimi K2 опубликует свою техническую документацию, чтобы лучше понять лежащие в ее основе технические детали. (Источник: natolambert, teortaxesTex, teortaxesTex, Reddit r/LocalLLaMA)
Обсуждение функций и опыта Perplexity Comet: Perplexity Comet — это новый поисковый инструмент, который предлагает персонализированный поиск без синих ссылок, рекламы и SEO-спама. Некоторые пользователи восхищаются его мощными функциями, такими как возможность генерировать отчеты на основе данных для входа пользователя и сравнивать цены на покупки. Другие выражают обеспокоенность по поводу его точности и надежности. (Источник: denisyarats, denisyarats, perplexity_ai)
Обсуждение написания и чтения научных статей: Профессор Michael Levin утверждает, что из-за быстрого роста числа публикаций ученые больше не могут читать все статьи в смежных областях. Он считает, что в будущем написание статей должно учитывать потребности ИИ-читателей, и предлагает использовать более структурированные форматы, такие как Git и Markdown. Andrej Karpathy предложил концепцию «AI ambient reading», утверждая, что будущие научные результаты должны быть оптимизированы для ИИ. (Источник: teortaxesTex, Reddit r/MachineLearning)
Обсуждение стабильности обучения LLM: Kimi K2 использует MuonClip для предварительного обучения, достигая нулевого пика обучения, что указывает на то, что MuonClip является стабильным решением для крупномасштабного обучения LLM. Некоторые выразили восхищение масштабируемостью и стабильностью MuonClip и считают, что он может изменить парадигму обучения LLM. (Источник: halvarflake, Dorialexander)
💼 Бизнес
Meta приобретает стартап PlayAI, занимающийся голосовым ИИ: Meta приобрела PlayAI, стартап, специализирующийся на голосовых технологиях, чтобы укрепить свои позиции в области голосовых помощников с ИИ. PlayAI стремится создавать нативные LLM-решения и переосмыслить то, как естественный язык используется для построения взаимодействия человека с компьютером. (Источник: 36氪)
Meta переманивает двух исследователей мультимодального ИИ из OpenAI: Meta переманила двух исследователей, Allan Jabri и Lu Liu, работавших над мультимодальным ИИ в OpenAI, чтобы усилить свои исследовательские возможности в области ИИ. Эти двое присоединятся к команде Super Intelligence в Meta. (Источник: 36氪)
Google приобретает команду Windsurf: Google DeepMind приобрела основную команду ИИ-стартапа Windsurf за 2,4 миллиарда долларов в виде лицензионных отчислений и компенсаций, чтобы укрепить свои позиции в области программирования с помощью ИИ. Windsurf продолжит работать независимо и сможет лицензировать свои технологии другим компаниям. (Источник: 36氪)
💡 Другое
Китайские ученые впервые осуществили искусственный синтез сахарозы из углекислого газа: Ученые из Тяньцзиньского института промышленной биотехнологии Китайской академии наук впервые осуществили искусственный синтез сахарозы из углекислого газа, что открывает новые пути решения проблем глобального потепления и продовольственного кризиса. Эта технология использует систему преобразования in vitro для преобразования углекислого газа в метанол, а затем в сахарозу с эффективностью преобразования до 86%. (Источник: 量子位)
Karpathy предлагает концепцию «AI ambient reading»: Andrej Karpathy считает, что PDF-статьи больше не подходят для эпохи ИИ, и призывает к изменению научного письма с использованием структурированных форматов, таких как Git и Markdown. Он предложил концепцию «AI ambient reading», утверждая, что в будущем 99% внимания будет исходить от ИИ, и научные результаты должны быть оптимизированы для ИИ. (Источник: 36氪)
Обсуждение способности ИИ к эмпатии: По мере развития технологий ИИ вопрос о том, обладает ли ИИ способностью к эмпатии, становится горячей темой. Некоторые считают, что ИИ может оказывать эмоциональную поддержку и психологическое консультирование, в то время как другие считают, что машины никогда не смогут заменить эмоциональную связь между людьми. Исследования показывают, что в настоящее время ИИ обладает определенными способностями к когнитивной эмпатии, но все еще имеет ограничения в эмоциональной эмпатии и эмпатической заботе. (Источник: 36氪)
«`