Ключевые слова:Математические задачи ИИ, ОИИ (Общий искусственный интеллект), LLM (Большие языковые модели), Обучение с подкреплением, Пузырь ИИ, GLM 4.6, MobileLLM-Pro, QeRL, Математические рассуждения GPT-5, Интервью с Андреем Карпати, Бум инвестиций в ИИ, Оптимизация производительности Basetenco, Корпоративное применение Claude Skills

Обзор новостей индустрии ИИ


🔥 В центре внимания

Скандал с «открытием» математических задач ИИ: Споры между OpenAI и академическими светилами : Исследователи OpenAI заявили, что GPT-5 «нашел» решения для 10 математических задач с вознаграждением, что вызвало ожидания прорыва в математических рассуждениях ИИ. Однако математик Thomas Bloom уточнил, что эти «решения» были лишь результатом эффективного поиска GPT-5 в опубликованной литературе, а не самостоятельного решения задач моделью. Генеральный директор Google DeepMind Demis Hassabis назвал это «неловким», а Lecun саркастически заметил, что OpenAI «попала в ловушку собственных хвалебных заявлений о GPT». Этот инцидент вызвал широкую дискуссию о строгости пиара ИИ, роли ИИ в научных исследованиях (эффективный поиск, а не независимое творчество) и пути к достижению AGI. Теренс Тао также отметил, что непосредственный потенциал ИИ в математике заключается в ускорении «рутинных задач», таких как поиск литературы, а не в решении самых сложных открытых проблем, подчеркнув, что человеческие эксперты по-прежнему должны проверять результаты ИИ.
(来源: Yuchenj_UW, ns123abc, ylecun, gfodor, jonst0kes, YejinChoinka, timsoret, karpathy, bookwormengr)

Интервью с Andrej Karpathy вызвало глубокие размышления об AGI, LLM и RL : В интервью с Dwarkesh Patel Andrej Karpathy поделился глубокими мыслями о развитии ИИ, сроках AGI, когнитивных недостатках LLM и ограничениях обучения с подкреплением (RL). Он считает, что AGI потребуется еще десять лет, и критикует RL как «высасывание данных с помощью соломинки», что является неэффективным и шумным, приводящим к «коллапсу» модели и отсутствию разнообразия. Он предположил, что человеческое обучение происходит не через RL, а через «генерацию синтетических данных» и «интеграцию знаний», и что человеческая «забывчивость» способствует обобщению, а не является недостатком. Karpathy также призвал к тому, чтобы инструменты ИИ более реалистично сотрудничали с людьми, а не стремились к полностью автономным Agent, чтобы избежать распространения «slop» кода. Это интервью вызвало широкую дискуссию и размышления в сообществе о текущем состоянии и будущем направлении технологий ИИ.
(来源: gfodor, jonst0kes, YejinChoinka, timsoret, gfodor, karpathy, farguney, farguney, natolambert, bookwormengr, iScienceLuvr, yacinelearning)

Споры о пузыре ИИ: процветание или переоценка? : Дискуссии о том, находится ли ИИ в пузыре, становятся все более интенсивными. Хотя некоторые считают, что нынешний бум инвестиций в ИИ похож на исторические технологические пузыри с завышенными оценками и иррациональными инвестициями, другие аналитики указывают, что рост доходов ИИ, денежные потоки гипермасштабных облачных провайдеров и бесконечный спрос предприятий на ИИ делают его скорее периодом процветания, обусловленным спросом и капиталоемким. Риск заключается в том, что если доля инвестиций в ВВП станет слишком высокой, рост доходов замедлится или структура финансирования станет хрупкой, вероятность лопнувшего пузыря возрастет. В настоящее время большинство считает, что сама технология ИИ обладает огромным потенциалом, но рыночные оценки могут быть завышены.
(来源: Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence, EigenGender)


🎯 Тенденции

Прорыв в производительности модели GLM 4.6, Basetenco стал самым быстрым провайдером : Модель GLM 4.6 продемонстрировала выдающиеся результаты в анализе ИИ, а Basetenco стала ее самым быстрым поставщиком услуг, достигнув 114 TPS (токенов в секунду) и TTFT (время до первого токена) менее 0,18 секунды, что в два раза быстрее, чем у ближайшего конкурента. Это указывает на значительный прогресс GLM 4.6 в скорости обработки и эффективности, предвещая дальнейшее повышение производительности LLM в реальных приложениях.
(来源: cline)

Тенденции открытых моделей и наборов данных на платформе Hugging Face : Платформа Hugging Face демонстрирует растущее разнообразие открытых моделей и наборов данных, включая постоянную активность моделей серии Qwen, исправление и положительные отзывы о GPT-OSS, а также появление большого количества высококачественных открытых наборов данных (таких как Fineweb, Webscale-RL, аудиоданные SVQ и т. д.). Модели OCR стали популярными, и PaddleOCR-VL быстро возглавила список трендов после своего выпуска. Кроме того, появление маршрутизатора моделей Arch-Router-1.5B предвещает, что будущие системы ИИ смогут выбирать оптимальные решения между различными моделями с помощью динамической маршрутизации.
(来源: huggingface, huggingface, huggingface, huggingface, huggingface, ben_burtenshaw, QuixiAI, mervenoyann)

Meta выпустила модель MobileLLM-Pro, способствующую обработке длинного контекста на периферийных устройствах : Meta представила модель MobileLLM-Pro, которая превосходит Gemma 3 1B и Llama 3.2 1B по производительности предварительного обучения и обладает сверхдлинным контекстом в 128k. Ее гибридное использование локальных и глобальных механизмов внимания эффективно снижает потребление памяти и ускоряет вывод длинного контекста на периферийных устройствах. Выпуск MobileLLM-Pro предвещает постоянные усилия Meta по разработке эффективных, легковесных моделей для носимых устройств и мобильных сценариев, что, как ожидается, значительно улучшит мобильные приложения ИИ.
(来源: Reddit r/deeplearning)

NVIDIA представила новый метод обучения с подкреплением QeRL для более эффективного обучения ИИ : NVIDIA представила новый метод обучения с подкреплением (RL) под названием QeRL, который, сочетая квантование (NVFP4) и адаптацию низкого ранга (LoRA), обеспечивает более быстрое и ресурсосберегающее обучение RL. Ключевое нововведение заключается в адаптивном шуме квантования (AQN), который превращает шум квантования в инструмент исследования и динамически регулируется в процессе RL. Ожидается, что эта технология значительно повысит эффективность обучения RL, снизит потребность в вычислительной мощности и будет способствовать применению моделей ИИ в более широком спектре сценариев.
(来源: TheTuringPost, TheTuringPost)

Claude Skills: превращение корпоративных знаний в многократно используемые процессы ИИ : Функция Claude Skills от Anthropic позволяет пользователям преобразовывать «племенные знания» команды в многократно используемые операционные процессы ИИ. Определяя наборы навыков через диалог, Claude может автоматически вызывать их при необходимости, без ручного написания подсказок. Это помогает решить проблему низкой эффективности применения ИИ на предприятиях, закрепляя лучшие практики в качестве возможностей ИИ, тем самым повышая производительность и снижая зависимость сотрудников от копирования и вставки подсказок.
(来源: alexalbert__, BlackHC)