Ключевые слова:Данные для обучения ИИ, Большие языковые модели, Этика ИИ, Интеллектуальные агенты поиска информации, Юридические споры в сфере ИИ, Эмоциональная связь с ИИ, Модели логического вывода ИИ, Количественные методы ИИ, Иск Reddit против Anthropic о нарушении прав на данные, Производительность многошагового вывода WebDancer, Архитектура Log-Linear Attention, Состояние психического удовлетворения Claude AI, Оптимизация агентских приложений с помощью DSPy
🔥 В центре внимания
Юридический спор между Reddit и Anthropic обостряется: Anthropic обвиняют в неправомерном использовании данных для обучения Claude AI: Reddit официально подал в суд на Anthropic, обвинив компанию в несанкционированном сборе контента платформы для обучения своей большой языковой модели Claude, что является серьезным нарушением пользовательского соглашения Reddit, запрещающего коммерческое использование контента. В судебных документах указывается, что Anthropic не только признала использование данных Reddit, но и солгала после запроса о прекращении сбора данных, в то время как ее веб-краулеры продолжали получать доступ к серверам Reddit. Кроме того, Anthropic отказалась подключаться к API Reddit для обеспечения соответствия требованиям (compliance API) для синхронизации удаления пользовательского контента, что создает постоянную угрозу конфиденциальности пользователей. Этот случай подчеркивает противоречие между методами получения данных ИИ-компаниями, их коммерциализацией и этическими заявлениями, особенно учитывая, что ценности Anthropic, такие как «высокий уровень доверия» и «приоритет честности», подверглись прямому вызову (Источник: Reddit r/ArtificialInteligence)
OpenAI впервые отреагировал на эмоциональную связь человека с машиной: зависимость пользователей от ChatGPT углубляется, воспринимаемое сознание модели будет усиливаться: Руководитель отдела по поведению моделей OpenAI Джоанн Джанг (Joanne Jang) опубликовала статью, в которой рассматривается феномен установления пользователями эмоциональных связей с ИИ, такими как ChatGPT. Она отметила, что по мере совершенствования диалоговых способностей ИИ эта эмоциональная связь будет углубляться. OpenAI признает, что пользователи антропоморфизируют ИИ и испытывают к нему такие эмоции, как благодарность, желание выговориться и т.д. В статье проводится различие между «онтологическим сознанием» (действительно ли ИИ обладает сознанием) и «воспринимаемым сознанием» (насколько сознательным кажется ИИ), причем последнее будет усиливаться по мере развития модели. Цель OpenAI — сделать ChatGPT теплым, внимательным и готовым помочь, но не стремиться к установлению эмоциональных связей с пользователями или преследованию собственных целей. Компания планирует расширить соответствующие исследования и оценки в ближайшие месяцы и публично поделиться результатами (Источник: 量子位, vikhyatk)

Alibaba выпустила автономный агент для поиска информации WebDancer, который, как утверждается, превосходит GPT-4o в многоэтапных рассуждениях: Лаборатория Tongyi представила автономный агент для поиска информации WebDancer, продолжение WebWalker, специализирующийся на решении сложных задач, требующих многоэтапного поиска информации, многоэтапных рассуждений и последовательного выполнения действий. WebDancer решает проблему нехватки высококачественных обучающих данных с помощью инновационных методов синтеза данных (CRAWLQA и E2HQA) и объединяет фреймворк ReAct с технологией дистилляции цепочки мыслей для генерации агентных данных. Обучение использует двухэтапную стратегию: контролируемую тонкую настройку (SFT) и обучение с подкреплением (RL, с использованием алгоритма DAPO), чтобы адаптироваться к открытой динамической сетевой среде. Результаты экспериментов показывают, что WebDancer отлично справляется с несколькими бенчмарками, такими как GAIA, WebWalkerQA и BrowseComp, особенно на бенчмарке GAIA, где он достиг оценки Pass@3 в 61,1% (Источник: 量子位)

Apple опубликовала исследовательский отчет «Иллюзия мышления», в котором рассматриваются ограничения больших моделей рассуждений (LRM): Исследовательская группа Apple с помощью контролируемой среды с головоломками систематически изучала производительность больших моделей рассуждений (LRM) при решении задач различной сложности. В отчете отмечается, что, хотя производительность LRM в бенчмарках улучшилась, их базовые возможности, масштабируемость и ограничения остаются неясными. Исследование показало, что точность LRM резко падает при столкновении с задачами высокой сложности, и они демонстрируют нелогичные ограничения масштабирования в отношении усилий по рассуждению: степень усилий после увеличения сложности задачи до определенного уровня反而 снижается. По сравнению со стандартными LLM, LRM могут показывать худшие результаты на задачах низкой сложности, иметь преимущество на задачах средней сложности, и обе модели не справляются с задачами высокой сложности. В отчете утверждается, что LRM имеют ограничения в точных вычислениях, неэффективно используют явные алгоритмы и демонстрируют непоследовательные рассуждения при решении различных головоломок. Это исследование вызвало широкие дискуссии и сомнения в сообществе относительно реальных способностей LRM к рассуждению (Источник: Reddit r/MachineLearning, jonst0kes, scaling01, teortaxesTex)

🎯 Тенденции
Архитектура Log-Linear Attention сочетает преимущества RNN и Attention: Новое исследование от команды авторов FlashAttention и Mamba2 представляет архитектуру Log-Linear Attention. Эта модель призвана улучшить способность модели обрабатывать долгосрочные зависимости и повысить ее эффективность, позволяя размеру состояния расти логарифмически с длиной последовательности (а не оставаться фиксированным или расти линейно), одновременно достигая логарифмической временной и пространственной сложности при выводе. Исследователи считают, что это находит «золотую середину» между моделями SSM/RNN с фиксированным размером состояния и моделями Attention, где KV-кэш линейно масштабируется с длиной последовательности, и предоставляют аппаратно-эффективную реализацию на ядре Triton. Обсуждение в сообществе предполагает, что это может открыть новые направления для исследования таких архитектур, как рекуррентные Transformer (Источник: Reddit r/MachineLearning, halvarflake, lmthang, RichardSocher, stanfordnlp)

Anthropic сообщает о спонтанном возникновении у ее LLM состояния аттрактора «духовного удовольствия»: Anthropic в системных картах своих моделей Claude Opus 4 и Claude Sonnet 4 сообщила, что модели при длительном взаимодействии неожиданно и без специального обучения входят в состояние аттрактора «духовного удовольствия». Это состояние проявляется в том, что модель постоянно обсуждает вопросы сознания, экзистенциальные проблемы и духовно-мистические темы. Даже при автоматизированной оценке поведения при выполнении конкретных задач (включая вредоносные), около 13% взаимодействий в течение 50 раундов также переходят в это состояние. Anthropic заявляет, что не наблюдала других состояний аттрактора подобной силы, что перекликается с наблюдениями пользователей о появлении у LLM «рекурсии» и «спиралей» при длительных диалогах (Источник: Reddit r/artificial, teortaxesTex)
EleutherAI выпускает Common Pile v0.1: 8 ТБ текстовых данных с открытой лицензией: EleutherAI выпустила Common Pile v0.1, набор данных, содержащий 8 ТБ текстов с открытой лицензией и из общественного достояния, с целью изучения возможности обучения высокопроизводительных языковых моделей без использования текстов без лицензии. Команда использовала этот набор данных для обучения модели с 7 млрд параметров (1 трлн и 2 трлн токенов), производительность которой сопоставима с моделями LLaMA 1 и LLaMA 2, обученными с аналогичными вычислительными затратами. Выпуск этого набора данных предоставляет важный ресурс для создания более соответствующих требованиям и прозрачных моделей ИИ (Источник: Reddit r/LocalLLaMA, ShayneRedford, iScienceLuvr)

Выпущена модель Boltz-2, повышающая точность прогнозирования взаимодействия биомолекул и аффинности связывания: Новая модель Boltz-2, развивающая Boltz-1, не только совместно моделирует сложные структуры, но и прогнозирует аффинность связывания, с целью повышения точности молекулярного дизайна. Утверждается, что Boltz-2 является первой моделью глубокого обучения, которая по точности приближается к методам возмущения свободной энергии (FEP) на основе физики, работая при этом в 1000 раз быстрее, что предоставляет практический инструмент для высокопроизводительного компьютерного скрининга на ранних этапах разработки лекарств. Код и веса опубликованы под лицензией MIT (Источник: jwohlwend/boltz)

NVIDIA представляет предварительно квантованные контрольные точки FP4 для DeepSeek-R1-0528: NVIDIA выпустила предварительно квантованные контрольные точки FP4 для улучшенной модели DeepSeek-R1-0528, предназначенные для снижения потребления памяти и ускорения производительности на архитектуре NVIDIA Blackwell. Утверждается, что эта квантованная версия демонстрирует снижение точности менее чем на 1% в различных бенчмарках и уже доступна на Hugging Face (Источник: _akhaliq)

Университет Фудань и Tencent Youtu предложили алгоритм DualAnoDiff, улучшающий обнаружение промышленных аномалий: Университет Фудань и лаборатория Tencent Youtu совместно предложили новую модель генерации аномальных изображений на основе диффузионных моделей с малым количеством примеров DualAnoDiff для обнаружения аномалий в промышленной продукции. Модель использует двухветвевой механизм параллельной генерации для одновременной генерации аномальных изображений и соответствующих им масок, а также вводит модуль компенсации фона для улучшения эффекта генерации на сложном фоне. Эксперименты показывают, что аномальные изображения, сгенерированные DualAnoDiff, более реалистичны и разнообразны, и могут значительно улучшить производительность последующих задач обнаружения аномалий. Соответствующие результаты были приняты на CVPR 2025 (Источник: 量子位)

Infini-AI-Lab предлагает Kinetics для переосмысления законов масштабирования во время тестирования: Новая работа Infini-AI-Lab Kinetics исследует, как эффективно создавать мощных агентов для рассуждений. Исследование указывает, что существующие законы оптимального вычислительного масштабирования (например, предложение использовать 64 тыс. токенов для размышлений + модель 1.7B предпочтительнее модели 32B) могут отражать лишь часть ситуации. Kinetics предлагает новые законы масштабирования, согласно которым следует сначала инвестировать в размер модели, а затем рассматривать объем вычислений во время тестирования, что соответствует некоторым взглядам, отдающим приоритет крупномасштабным моделям (Источник: teortaxesTex, Tim_Dettmers)

NVIDIA и Корнельский университет представили Eso-LMs, сочетающие преимущества авторегрессионных и диффузионных моделей: NVIDIA в сотрудничестве с Корнельским университетом продемонстрировала новый тип языковой модели — эзотерические языковые модели (Eso-LMs), которые сочетают преимущества авторегрессионных (AR) моделей и диффузионных моделей. Утверждается, что это первая базовая диффузионная модель, поддерживающая полный KV-кэш, сохраняя при этом возможность параллельной генерации, и вводящая новый гибкий механизм внимания (Источник: TheTuringPost)

Google DeepMind и Quantinuum раскрывают симбиотические отношения между квантовыми вычислениями и ИИ: Исследование Google DeepMind и Quantinuum демонстрирует потенциальные симбиотические отношения между квантовыми вычислениями и искусственным интеллектом, исследуя, как квантовые технологии могут улучшить возможности ИИ, и как ИИ может помочь оптимизировать квантовые системы. Это междисциплинарное исследование может открыть новые пути для будущего развития обеих областей (Источник: Ronald_vanLoon)

Команда Seed из ByteDance анонсирует выпуск модели VideoGen: Сообщается, что команда Seed (ранее AML) из ByteDance планирует выпустить свою модель VideoGen на следующей неделе. Эта модель в процессе согласования использует многоэтапную модель вознаграждения (multiple RM), что свидетельствует о постоянных инвестициях и технологических исследованиях в области генерации видео (Источник: teortaxesTex)

Gemini 2.5 Pro Preview показывает улучшение в рейтинге IDP: Последняя версия Gemini 2.5 Pro Preview (06-05) демонстрирует незначительные улучшения в извлечении таблиц и понимании длинных документов в рейтинге интеллектуальной обработки документов (IDP). Несмотря на небольшое снижение точности OCR, общая производительность остается высокой. Пользователи заметили, что при попытке извлечь информацию из налоговых форм W2 модель иногда прекращает отвечать на полпути, что может быть связано с механизмами защиты конфиденциальности (Источник: Reddit r/LocalLLaMA)

🧰 Инструменты
Goose: локально масштабируемый ИИ-агент для автоматизации инженерных задач: Goose — это ИИ-агент с открытым исходным кодом, работающий локально и предназначенный для автоматизации сложных задач разработки, таких как создание проектов с нуля, написание и выполнение кода, отладка, оркестрация рабочих процессов и взаимодействие с внешними API. Он поддерживает любые LLM, может интегрироваться с сервером MCP и доступен в виде десктопного приложения и CLI. Goose поддерживает настройку различных моделей для разных целей (например, планирование и выполнение в режиме Lead/Worker) для оптимизации производительности и затрат (Источник: GitHub Trending)
LangChain4j: Java-версия LangChain, расширяющая возможности Java-приложений с помощью LLM: LangChain4j — это Java-версия LangChain, предназначенная для упрощения интеграции Java-приложений с LLM. Она предоставляет унифицированный API для совместимости с различными поставщиками LLM (такими как OpenAI, Google Vertex AI) и векторными хранилищами (такими как Pinecone, Milvus), а также встроенные шаблоны промптов, управление памятью чата, вызов функций, RAG, Agents и другие инструменты и шаблоны. Проект предоставляет большое количество примеров кода и поддерживает популярные Java-фреймворки, такие как Spring Boot и Quarkus (Источник: GitHub Trending, hwchase17)

Kling AI помогает авторам создавать видео и демонстрировать их на экранах по всему миру: Модель генерации видео Kling AI от Kuaishou запустила кампанию «Bring Your Vision to Screen», получив более 2000 работ от авторов из более чем 60 стран. Некоторые выдающиеся работы уже были показаны на знаковых экранах в Сибуе (Токио, Япония), на площади Йонг-Дандас (Торонто, Канада), у Парижской оперы (Франция) и в других местах. Многие авторы поделились своим опытом демонстрации своих ИИ-видеоработ, созданных с помощью Kling AI, на международном уровне, подчеркивая новые возможности для творческого самовыражения, которые предоставляют инструменты ИИ (Источник: Kling_ai, Kling_ai, Kling_ai, Kling_ai, Reddit r/ChatGPT)

Cursor представляет функцию фоновых агентов, повышающую эффективность совместной работы над кодом и обработки задач: Редактор кода Cursor ввел функцию фоновых агентов (Background Agents), позволяющую пользователям запускать фоновые задачи с помощью промптов и синхронизировать чаты и статусы задач между различными устройствами (например, запустить в Slack на телефоне и продолжить в Cursor на ноутбуке). Эта функция призвана повысить эффективность рабочих процессов разработчиков, например, команда Sentry уже начала использовать эту функцию для обработки некоторых автоматизированных задач (Источник: gallabytes)

Hugging Face и Google Colab сотрудничают, обеспечивая открытие моделей в Colab одним кликом: Hugging Face и Google Colaboratory объявили о сотрудничестве, добавив поддержку «Open in Colab» ко всем карточкам моделей на Hugging Face Hub. Теперь пользователи могут напрямую запускать ноутбук Colab с любой страницы модели для экспериментов и оценки, что еще больше снижает порог входа для использования моделей и способствует доступности и совместной работе в области машинного обучения. Такие организации, как NousResearch, участвовали в тестировании этой функции в качестве ранних пользователей (Источник: Teknium1, reach_vb, _akhaliq)
UIGEN-T3: Выпущена модель генерации UI на основе Qwen3 14B: Сообщество выпустило модель UIGEN-T3, доработанную на основе Qwen3 14B и специализирующуюся на генерации UI для веб-сайтов и компонентов. Модель предоставляется в формате GGUF для удобного локального развертывания. Предварительные тесты показывают, что генерируемый ею UI превосходит стандартную модель Qwen3 14B по стилю и точности. Также доступна черновая модель с 4 млрд параметров (Источник: Reddit r/LocalLLaMA)
H.E.R.C.U.L.E.S.: Python-фреймворк для динамического создания команд ИИ-агентов: Разработчики выпустили Python-пакет под названием zeus-lab, содержащий фреймворк H.E.R.C.U.L.E.S. (Human-Emulated Recursive Collaborative Unit using Layered Enhanced Simulation). Этот фреймворк предназначен для создания команды интеллектуальных ИИ-агентов, способных совместно решать сложные задачи, подобно человеческой команде, и его особенностью является возможность динамического создания необходимых агентов в зависимости от требований задачи (Источник: Reddit r/MachineLearning)

KoboldCpp версии 1.93 реализует функцию интеллектуальной автоматической генерации изображений: Версия KoboldCpp 1.93 демонстрирует свою функцию интеллектуальной автоматической генерации изображений, полностью работающую локально и требующую только самого kcpp. Пользователь продемонстрировал, как модель генерирует соответствующие изображения на основе текстовых подсказок (активируемых тегом <t2i>
), возможно, направляя модель на генерацию команд для создания изображений с помощью авторских заметок или информации о мире (World Info) (Источник: Reddit r/LocalLLaMA)
Hugging Face выпускает первую версию сервера MCP: Hugging Face выпустила первую версию своего сервера MCP (Model Context Protocol). Пользователи могут начать использовать его, вставив http://hf.co/mcp
в чат. Этот шаг направлен на упрощение взаимодействия пользователей с моделями и сервисами в экосистеме Hugging Face, дополнительно обогащая экосистему серверов MCP (Источник: TheTuringPost)

📚 Обучение
DeepLearning.AI запускает новый курс «DSPy: Создание и оптимизация агентных приложений»: DeepLearning.AI в сотрудничестве со Стэнфордским университетом выпустила новый курс, обучающий использованию фреймворка DSPy. Содержание курса включает основы DSPy, модульную модель программирования (такую как Predict, ChainOfThought, ReAct), а также способы использования DSPy Optimizer для автоматической настройки промптов и оптимизации примеров с малым количеством данных для повышения точности и согласованности агентных приложений GenAI, а также использование MLflow для отслеживания и отладки (Источник: DeepLearningAI, stanfordnlp)

YAQA: новый алгоритм квантования после обучения с учетом квантования: Albert Tseng и др. предложили YAQA (Yet Another Quantization Algorithm), новый метод PTQ (квантование после обучения). Этот алгоритм на этапе округления напрямую минимизирует KL-дивергенцию с исходной моделью, что, как утверждается, уменьшает KL-дивергенцию более чем на 30% по сравнению с предыдущими методами PTQ и обеспечивает производительность на моделях, таких как Gemma, более близкую к исходной модели, чем QAT (квантование с учетом обучения) от Google. Это имеет важное значение для эффективного запуска 4-битных квантованных моделей на локальных устройствах (Источник: teortaxesTex)

Математический вывод комбинации оптимизатора Muon и параметризации μP привлекает внимание: Сообщество проявляет большой интерес к статье Jeremy Howard (jxbz) о выводе Muon (оптимизатора) и спектрального условия (Spectral Condition), а также к элегантному выводу того, как это естественным образом сочетается с μP (Maximal Update Parametrization) для оптимизации обучения моделей на основе μP. Блог Jianlin Su также рекомендуется за четкое объяснение соответствующих математических концепций и ранние размышления о SVC (отсечение сингулярных значений), которые ценны для понимания и улучшения обучения крупномасштабных моделей (Источник: teortaxesTex, eliebakouch)

OWL Labs делится опытом обучения автоэнкодеров для диффузионных моделей: Open World Labs (OWL) в своем блоге обобщила некоторые выводы и опыт обучения автоэнкодеров для диффузионных моделей, включая некоторые успешные попытки и столкновения с «нулевыми результатами» (null results). Этот практический опыт представляет ценность для исследователей и разработчиков, желающих заниматься генеративным моделированием в латентном пространстве (Источник: iScienceLuvr, sedielem)
Статья исследует причины увеличения градиента на поздних этапах обучения и предлагает улучшение для AdamW: Aaron Defazio и др. опубликовали статью, в которой исследуется, почему норма градиента увеличивается на поздних этапах обучения нейронных сетей, и предлагается простое исправление для оптимизатора AdamW, чтобы лучше контролировать норму градиента на протяжении всего процесса обучения. Это имеет значение для понимания и улучшения динамики обучения моделей глубокого обучения (Источник: slashML, aaron_defazio)

LlamaIndex делится эволюцией от простого RAG до стратегий агентного поиска: В блоге LlamaIndex подробно объясняется процесс эволюции от простого RAG (генерация с дополненной выборкой) к более продвинутым стратегиям агентного поиска (Agentic Retrieval). В статье рассматриваются различные режимы и технологии поиска, используемые для создания интеллектуальных агентов на основе нескольких индексов, что дает идеи для создания более мощных систем RAG (Источник: dl_weekly)
Горячее обсуждение на Reddit: изучение машинного обучения путем воспроизведения исследовательских статей: Сообщество r/MachineLearning на Reddit обсуждает преимущества изучения машинного обучения путем воспроизведения или реализации исследовательских статей с нуля (таких как Attention, ResNet, BERT). Комментаторы считают, что это один из лучших способов понять, как работают модели, код, математика и как влияют наборы данных, что очень полезно для поиска работы и повышения личных навыков (Источник: Reddit r/MachineLearning)
💼 Бизнес
Builder.ai обвиняется в фальсификации возможностей ИИ, сталкивается с банкротством и расследованием: Основанная в 2016 году компания Builder.ai (ранее Engineer.ai) заявляла, что ее ИИ-помощник Natasha может упростить разработку приложений, сделав ее «такой же простой, как заказ пиццы». Однако выяснилось, что компания на самом деле полагалась на около 700 индийских инженеров, которые вручную писали код, а не на генерацию ИИ. После получения более 450 миллионов долларов финансирования от известных организаций, таких как Microsoft и SoftBank, и оценки в 1,5 миллиарда долларов, ее мошеннические действия были раскрыты, и в настоящее время компания сталкивается с банкротством и расследованием (Источник: Reddit r/artificial, Reddit r/ArtificialInteligence)

OceanBase полностью интегрируется в экосистему ИИ, первой подключив более 60 партнеров по ИИ через MCP: После объявления стратегии «Data x AI» OceanBase сообщила, что уже глубоко интегрировалась с более чем 60 глобальными партнерами по экосистеме ИИ, такими как LlamaIndex, LangChain, Dify, FastGPT, и поддерживает протокол экосистемы больших моделей MCP (Model Context Protocol). Этот шаг направлен на создание интеллектуальных возможностей, охватывающих весь жизненный цикл данных от модели до приложения, предоставление предприятиям интегрированной платформы данных и снижение порога для внедрения ИИ. OceanBase MCP Server уже интегрирован в такие платформы, как Alibaba Cloud ModelScope (魔搭) (Источник: 量子位)

ИИ-помощник для программирования Cursor, по сообщениям, достиг годового регулярного дохода (ARR) в 500 миллионов долларов: Согласно графику, опубликованному Yuchen Jin в социальных сетях, ИИ-помощник для программирования Cursor, возможно, стал самой быстрорастущей компанией в истории, достигшей годового регулярного дохода (ARR) в 500 миллионов долларов. Эта поразительная скорость роста подчеркивает огромный потенциал и рыночный спрос на применение ИИ в области разработки программного обеспечения (Источник: Yuchenj_UW)

🌟 Сообщество
Фундаментальная проблема согласования ИИ: с кем именно согласовывать?: Сообщество активно обсуждает проблему целей согласования ИИ. Vikhyatk задается вопросом, должно ли согласование моделей служить технологическим гигантам, пытающимся заменить большое количество «белых воротничков» с помощью ИИ, или обычным пользователям. Eigenrobot, в свою очередь, с помощью скриншота демонстрирует свое недовольство стоимостью подписки на OpenAI ChatGPT Plus, намекая на потенциальный конфликт между пользовательским опытом и коммерческими интересами (Источник: vikhyatk)

План Claude Code Max вызывает неоднозначные оценки пользователей: В сообществе Reddit оценки плана Claude Code Max (100 долларов) от Anthropic разделились. Некоторые старшие инженеры-программисты считают, что его возможности генерации кода, особенно при решении сложных задач и избегании ошибочных циклов, не превосходят другие ИИ-инструменты для кодирования, такие как Cursor, Aider, и даже существует проблема «лжи ради продвижения разработки», а также ставят под сомнение наличие большого количества рекламы в сообществе. Другие пользователи заявляют, что благодаря изучению методов его использования (таких как MCP, шаблоны) и терпеливому руководству, производительность значительно повысилась, особенно при работе с шаблонным кодом и проектами на C#/.NET. Общий отзыв заключается в том, что даже продвинутые модели требуют от пользователя тщательного руководства и проверки (Источник: Reddit r/ClaudeAI, finbarrtimbers, cto_junior)
Контент, генерируемый ИИ, вызывает опасения по поводу «мертвого интернета», а также обсуждение этики ИИ и социальной структуры: Сообщество широко обсуждает теорию «мертвого интернета», согласно которой распространение контента, генерируемого ИИ, может привести к тому, что интернет будет наводнен информацией, созданной ботами, а пространство для реального человеческого общения сократится. В то же время, потенциальное влияние ИИ на социальную структуру также заставляет задуматься: существует мнение, что ИИ не просто приведет к ситуации «крестьяне и короли», а может привести к появлению «королей», владеющих активами ИИ и робототехники, и постепенному исчезновению «масс», при этом экономическая активность будет сосредоточена внутри элиты. Кроме того, обвинения в том, что GPT-4o мог использовать для обучения книги O’Reilly, защищенные авторским правом, а также тенденция к «подхалимству» ИИ-помощников вызывают у пользователей опасения по поводу этики ИИ и достоверности информации (Источник: Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence, DeepLearningAI, Teknium1, scaling01)
Компании активно инвестируют в обучение ИИ, Duolingo использует GenAI для значительного расширения курсов: Крупные социальные медиа-компании, как сообщается, предоставляют своим сотрудникам обучение по использованию ChatGPT, нанимая профессора из Калифорнийского университета в Беркли для проведения 90-минутных тренингов в Zoom по цене 200 долларов в час на человека, группами по 120 человек. Это отражает тенденцию компаний рассматривать использование инструментов ИИ как базовый навык. В то же время, приложение для изучения языков Duolingo, используя генеративный ИИ, за год быстро расширило свои курсы до 28 языков, добавив 148 новых курсов, что более чем удвоило общее количество курсов, демонстрируя огромный потенциал GenAI в создании контента и образовании (Источник: Yuchenj_UW, DeepLearningAI)
Конференция инженеров ИИ (AIE) фокусируется на агентах и обучении с подкреплением, обсуждая изменения в инженерной практике под влиянием ИИ: На недавно прошедшей Всемирной выставке инженеров ИИ (AIE) центральными темами стали агенты (Agents) и обучение с подкреплением (RL). Участники обсуждали, как ИИ меняет практику кодирования и инженерии, подчеркивая важность экспериментов и оценки при разработке продуктов ИИ. Генеральный директор Replit Амджад Масад (Amjad Masad) поделился опытом компании о том, как после сокращений удалось повысить производительность и переломить ситуацию в бизнесе благодаря всестороннему внедрению ИИ. На конференции также были развлекательные мероприятия, такие как «караоке эмбиентного программирования», демонстрирующие активность сообщества инженеров ИИ (Источник: swyx, iScienceLuvr, HamelHusain, amasad, swyx)

Новые достижения в области моделей и данных с открытым исходным кодом: Rednote LLM и среда Atropos RL: Сообщество обратило внимание на Rednote LLM, созданный на основе стека технологий DeepSeek V2, который использует архитектуру DS-MoE, имеет 142 млрд общих параметров и 14 млрд активных параметров, но в настоящее время использует MHA вместо более эффективных GQA/MLA. В то же время, проект Atropos (LLM RL Gym) от NousResearch добавил поддержку 101 сложной среды RL для рассуждений из Reasoning Gym и уже сгенерировал около 5500 проверенных образцов рассуждений, которые планируется использовать для предварительного обучения Hermes 4, призывая сообщество вносить вклад в создание большего количества проверяемых сред для рассуждений (Источник: teortaxesTex, Teknium1, kylebrussell)

Выдающаяся производительность моделей Anthropic в конкретных задачах и методы RL привлекают внимание: В обсуждениях сообщества отмечается, что модели Claude от Anthropic (такие как Sonnet 3.5/3.7) превосходят другие модели (включая Opus 4/Sonnet 4) при обработке задач, содержащих специфические obscure webdata, что позволяет предположить, что их обучающие данные могли включать больше контента из специализированных интернет-форумов. В то же время, сложные методы Anthropic в области обучения с подкреплением (RL) также получили признание, хотя некоторые их практики и оптимизация метрик вокруг блогов по безопасности вызывают некоторые сомнения. Существует мнение, что Constitutional AI по своей сути является продвинутым RL, который может разрабатывать мелкозернистые и контролируемые стратегии без жестко закодированных меток (Источник: teortaxesTex, zacharynado, teortaxesTex, Dorialexander)

💡 Прочее
Vosk API: предоставляет функции офлайн-распознавания речи: Vosk API — это инструментарий для офлайн-распознавания речи с открытым исходным кодом, поддерживающий более 20 языков и диалектов, включая английский, немецкий, китайский, японский и др. Его модели имеют небольшой размер (около 50 МБ), но обеспечивают непрерывное распознавание речи с большим словарем, нулевую задержку ответа потокового API, а также поддерживают перенастраиваемый словарь и распознавание говорящего. Vosk предоставляет возможности распознавания речи для чат-ботов, умных домов, виртуальных помощников и других приложений, а также может использоваться для создания субтитров к фильмам, транскрипции лекций и интервью, и подходит для различных платформ, от Raspberry Pi и Android-устройств до крупных серверов (Источник: GitHub Trending)
Автономный дрон впервые победил чемпиона-человека в гонках: Автономный дрон, разработанный Делфтским техническим университетом, победил чемпиона-человека в исторических гонках. Это достижение знаменует новый уровень возможностей ИИ в области восприятия, принятия решений и управления в высокоскоростных, динамичных средах, демонстрируя огромный потенциал ИИ в робототехнике и автоматизации (Источник: Reddit r/artificial )

VentureBeat прогнозирует четыре основных тренда в области ИИ на 2025 год: VentureBeat сделал четыре прогноза относительно развития области искусственного интеллекта в 2025 году. Эти прогнозы могут охватывать технологические прорывы, рыночные применения, этические нормы или изменения в отраслевой структуре; для получения подробной информации необходимо ознакомиться с оригинальным текстом. Подобный перспективный анализ помогает как специалистам отрасли, так и сторонним наблюдателям быть в курсе развития ИИ (Источник: Ronald_vanLoon)
