Ключевые слова:Kimi K2, Grok 4, H-Net, POLAR, Открытая большая языковая модель, Динамическая технология чанкинга, Обучение дискриминации стратегий, Большая языковая модель с триллионом параметров, Сравнение производительности кодовых моделей, Байтовое сквозное обучение, Ограничения масштабирования модели вознаграждения, Способность агента к кодированию
🔥 В центре внимания
Kimi K2: выпуск большой открытой языковой модели с триллионом параметров: Moonshot выпустила Kimi K2, открытую языковую модель с 1 триллионом параметров (32 миллиарда активных параметров), которая достигла SOTA результатов в нескольких бенчмарках, включая LiveCode Bench, AIME2025 и GPQA-Diamond, превзойдя такие открытые модели, как DeepSeek-V3 и Qwen3, и догнав по нескольким показателям производительности закрытые модели, такие как GPT-4.1 и Claude 4 Opus. K2 специализируется на задачах, связанных с кодом и агентами, обладает мощными возможностями вызова инструментов, может автоматически понимать контекст задачи и определять план действий без подробных инструкций рабочего процесса. Выпуск Kimi K2 придал новый импульс сообществу открытого исходного кода, а ее высокая производительность и низкая цена API делают ее сильным конкурентом Claude 4 Sonnet, ее называют «моментом DeepSeek» для моделей кода. (Источник: 机器之心, HuggingFace, ClementDelangue )

Технология динамической фрагментации революционизирует архитектуру глубокого обучения: Новое исследование представляет H-Net, иерархическую сетевую архитектуру, которая использует механизм динамической фрагментации вместо традиционной токенизации, позволяя учиться непосредственно из байтов и реализуя настоящее сквозное глубокое обучение. H-Net превосходит по производительности языковые модели Transformer, основанные на BPE, при одинаковых вычислительных затратах и объеме данных, и демонстрирует лучшую масштабируемость данных в многоуровневой структуре, даже сопоставимую с Transformer на основе токенов вдвое большего размера. Эта технология хорошо показывает себя в языках и модальностях, менее требовательных к токенизации, таких как китайский язык, код и последовательности ДНК, закладывая основу для многомодального, эффективного и способного к длительным контекстным рассуждениям и улучшениям следующего поколения ИИ. (Источник: HuggingFace Daily Papers, krandiash, tri_dao)
Маск выпустил Grok 4, заявив о его превосходстве над всеми большими языковыми моделями: xAI выпустила Grok 4, который Маск назвал «самой мощной в мире моделью ИИ». Grok 4 достиг лидирующих результатов в нескольких бенчмарках, включая «Последний экзамен для человечества» (HLE), где он стал первой моделью с точностью более 50%, и AIME25, где он получил максимальный балл. Grok 4 подчеркивает важность интеграции инструментов в обучение и демонстрирует свои мощные возможности в таких областях, как логический вывод, многомодальное понимание, программирование, открытие лекарств. Кроме того, Grok 4 будет использоваться в голосовом помощнике Tesla и роботе-гуманоиде Optimus, а в будущем будут выпущены модели программирования, многомодальные агенты и модели генерации видео. (Источник: 量子位, xai, jeremyphoward)
Shanghai AI Lab предложила новую парадигму обучения с дискриминацией по стратегии POLAR, преодолев узкое место масштабирования модели вознаграждения: Shanghai AI Lab предложила новую парадигму обучения модели вознаграждения POLAR (Policy Discrimination Learning), которая моделирует расстояние между стратегиями посредством сравнительного обучения и использует небольшое количество выборок предпочтений для согласования с человеческими предпочтениями, решая проблему плохой масштабируемости и обобщаемости традиционных моделей вознаграждения. POLAR показала отличные результаты в экспериментах по оценке предпочтений и тонкой настройке обучения с подкреплением, особенно в задачах STEM, значительно превзойдя SOTA модели вознаграждения. Эффект масштабирования POLAR позволяет ей стать последним звеном в цепочке масштабирования обучения с подкреплением, что приведет к прорыву в дообучении больших языковых моделей. (Источник: 量子位, hrishioa, tamaybes)
🎯 Тенденции
Google приобрела команду Windsurf, чтобы усилить возможности кодирования агента Gemini: Команда Windsurf присоединилась к Google DeepMind и будет работать над развитием Gemini в области кодирования агентов, использования инструментов и т.д. Этот шаг означает, что планы OpenAI по приобретению Windsurf сорвались, и подчеркивает решимость Google в борьбе за таланты в области ИИ. (Источник: koraykv, shaneguML, zachtratar)
🧰 Инструменты
Kimi K2: Открытая языковая модель с 1 триллионом параметров, специализирующаяся на задачах, связанных с кодом и агентами, обладающая мощными возможностями вызова инструментов. (Источник: Kimi_Moonshot, Reddit r/LocalLLaMA)
Comet: Мощный продукт ИИ-агента, который может улучшить работу в Интернете и автоматизировать задачи, такие как размещение товаров на Facebook Marketplace. (Источник: AravSrinivas, denisyarats)
📚 Обучение
Руководство по логическому выводу LLM: Бесплатное руководство, охватывающее все знания о логическом выводе LLM. (Источник: omarsar0)
Учебник по диффузионным моделям: Статья, шаг за шагом объясняющая математические принципы диффузионных моделей. (Источник: oh_that_hat)
🌟 Сообщество
Масштабирование и возможности моделей ИИ: В социальных сетях активно обсуждается выпуск Kimi K2, ее возможности масштабирования, сравнение с другими моделями и влияние на сообщество открытого исходного кода. Некоторые считают Kimi K2 «моментом DeepSeek» для моделей кода, другие сомневаются в ее практическом применении. (Источник: ClementDelangue, Teknium1, natolambert)
Этика и применение технологий генерации видео с помощью ИИ: Обсуждение быстрого развития технологий генерации видео с помощью ИИ, а также возникающих в связи с этим этических проблем и перспектив применения. Некоторые опасаются злоупотребления сгенерированными ИИ видео, другие исследуют потенциал ИИ-видео в творческой и коммерческой сферах. (Источник: multimodalart, mmitchell_ai, c_valenzuelab)
ИИ-агенты и фреймворки агентов: Внимание сосредоточено на построении и применении ИИ-агентов, а также на последних достижениях фреймворков агентов, таких как LangChain. Обсуждается, как построить агентов производственного уровня, масштабируемых агентов, а также как решить проблемы, с которыми сталкиваются агенты в практическом применении. (Источник: LangChainAI, jerryjliu0, Hacubu)
Этика ИИ и социальное воздействие: Обсуждение влияния технологий ИИ на общество, включая этику ИИ, регулирование ИИ, влияние ИИ на занятость и т.д. (Источник: AndrewYNg, random_walker, dwarkesh_sp)
Инструменты Claude Code и использование MCP: Обсуждение различных инструментов Claude Code и использования MCP (Model Context Protocol), обмен опытом использования и рекомендации. (Источник: Reddit r/ClaudeAI)
💡 Другое
Влияние ИИ на качество контента в Интернете: Контент, созданный ИИ, такой как видео и статьи, заполонил Интернет, вызывая опасения по поводу снижения качества контента. Некоторые считают, что ИИ превращает Интернет в гигантскую «свалку», другие считают, что ИИ может стать инструментом для повышения эффективности создания контента. (Источник: 36氪, Reddit r/artificial)
YouTube отменит монетизацию контента, созданного ИИ: YouTube прекратит платить создателям контента, созданного ИИ, чтобы справиться с проблемой переизбытка ИИ-контента. Этот шаг вызвал дискуссию о бизнес-модели создания ИИ-контента и ее будущем развитии. (Источник: Reddit r/artificial)
OpenAI отложила выпуск открытой модели: OpenAI снова отложила выпуск своей открытой модели, заявив, что ей нужно больше времени для тестирования безопасности. Этот шаг вызвал предположения и обсуждения в сообществе, некоторые считают, что OpenAI пытается справиться с давлением со стороны конкурентов, таких как Kimi K2. (Источник: Reddit r/LocalLLaMA, sama)