Ключевые слова:AlphaEvolve, GPT-4.1, Lovart, DeepSeek-V3, ИИ-агент, Самоэволюция алгоритмов, Большая языковая модель Gemini, Многоголовый механизм латентного внимания, ИИ-агент проектирования, Совместное проектирование аппаратного и программного обеспечения

🔥 В центре внимания

Google DeepMind выпустила AI-агента для программирования AlphaEvolve, обеспечивающего самоэволюцию и оптимизацию алгоритмов: Google DeepMind представила AI-агента для программирования AlphaEvolve, который способен использовать творческий потенциал большой языковой модели Gemini в сочетании с автоматизированным оценщиком для автономного обнаружения, оптимизации и итерации алгоритмов. AlphaEvolve уже год используется внутри Google и успешно применяется для повышения эффективности центров обработки данных (восстановление 0,7% глобальных вычислительных мощностей системы Borg), ускорения обучения модели Gemini (ускорение на 23%, общее время обучения сокращено на 1%), оптимизации проектирования чипов TPU, а также для решения нескольких математических задач, включая «проблему контактного числа» (kissing number problem). Например, он улучшил алгоритм умножения комплексных матриц 4×4 с использованием 48 скалярных умножений, превзойдя алгоритм Strassen 56-летней давности. Эта технология демонстрирует огромный потенциал AI в решении сложных научных вычислений и инженерных задач, и в будущем может быть применена в более широких областях, таких как материаловедение и разработка лекарств. (Источник: 量子位, 36氪, 36氪, 36氪, Reddit r/LocalLLaMA, Reddit r/artificial, Reddit r/ArtificialInteligence, Reddit r/MachineLearning, op7418, TheRundownAI, sbmaruf, andersonbcdefg)

谷歌DeepMind发布AI编程智能体AlphaEvolve,实现算法自我进化与优化

Модели серии OpenAI GPT-4.1 запущены в ChatGPT, улучшая возможности кодирования и следования инструкциям: OpenAI объявила, что три модели — GPT-4.1, GPT-4.1 mini и GPT-4.1 nano — официально запущены на платформе ChatGPT и доступны всем пользователям. GPT-4.1 ориентирована на улучшение возможностей программирования и выполнения инструкций, набрав 55% в бенчмарке разработки программного обеспечения SWE-bench Verified, что значительно превосходит 33% у GPT-4o и 38% у GPT-4.5, при этом избыточный вывод сократился на 50%. GPT-4.1 mini заменит GPT-4o mini в качестве новой модели по умолчанию. GPT-4.1 nano разработана для задач с низкой задержкой и поддерживает контекст в 1 миллион токенов. Хотя версия API поддерживает контекст в миллионы токенов, длина контекста GPT-4.1 в ChatGPT вызвала обсуждения среди пользователей: некоторые пользователи по результатам тестов обнаружили, что ее окно контекста не достигло 1 миллиона токенов, как в версии API, что вызвало их разочарование. (Источник: 36氪, 36氪, 36氪, op7418)

OpenAI GPT-4.1系列模型上线ChatGPT,提升编码与指令遵循能力

AI-агент для дизайна Lovart стремительно набирает популярность, создавая профессиональный визуальный дизайн по одному предложению: AI-агент в области дизайна Lovart быстро стал популярным. Пользователям достаточно одного предложения для создания плакатов, фирменного стиля бренда, раскадровок и другого профессионального визуального дизайна. Lovart может автоматически планировать процесс проектирования, вызывать различные топовые модели, включая GPT image-1, Flux pro, Kling AI, и поддерживает расширенные функции, такие как редактирование слоев, удаление фона одним кликом и замена фона. Продукт разрабатывается независимо зарубежной дочерней компанией LiblibAI (базирующейся в Сан-Франциско), а среди основных разработчиков — Ван Хаофань из InstantID. Появление Lovart отражает тенденцию проникновения AI-агентов в профессиональные области. Его простота использования и профессионализм привлекли широкое внимание: за один день после запуска заявки на бета-тестирование подали более 20 000 человек. (Источник: 36氪, 36氪, op7418, op7418)

AI设计智能体Lovart爆火,一句话完成专业级视觉设计

DeepSeek опубликовала новую статью, подробно описывающую совместное проектирование аппаратного и программного обеспечения модели V3 и секреты оптимизации затрат: Команда DeepSeek опубликовала новую статью, в которой подробно излагаются совместные инновации в архитектуре аппаратного обеспечения и дизайне модели DeepSeek-V3, направленные на достижение экономической эффективности при крупномасштабном обучении и инференсе AI. В статье освещаются ключевые технологии, такие как Multihead Latent Attention (MLA) для повышения эффективности использования памяти, архитектура Mixture of Experts (MoE) для оптимизации баланса между вычислениями и коммуникациями, обучение со смешанной точностью FP8 для полного использования производительности аппаратного обеспечения, а также многоплоскостная сетевая топология для снижения накладных расходов сети кластера. Эти инновации позволили обучить DeepSeek-V3 на 2048 GPU H800, при этом потери точности при обучении с FP8 составили менее 0,25%, а KV-кэш — всего 70 КБ на токен. В статье также даются шесть рекомендаций по будущему направлению развития аппаратного обеспечения AI, подчеркивая важность надежности, прямого соединения CPU-GPU, интеллектуальных сетей, аппаратной реализации порядка обмена данными, интеграции сетевых вычислений и реструктуризации архитектуры памяти. (Источник: 36氪, 36氪, hkproj, NandoDF, tokenbender, teortaxesTex)

DeepSeek发布新论文,详解V3模型软硬件协同设计与成本优化秘诀

🎯 Движение

Anthropic скоро выпустит новую модель с улучшенными возможностями мышления и вызова инструментов: Anthropic планирует в ближайшие недели выпустить новые версии моделей Claude Sonnet и Claude Opus. Новые модели смогут свободно переключаться между обдумыванием и вызовом внешних инструментов, приложений или баз данных, динамически взаимодействуя для поиска ответов на вопросы. Особенно в сценариях генерации кода новая модель сможет автоматически тестировать написанный код, и если обнаружит ошибки, сможет приостановить выполнение процесса для диагностики ошибок и их исправления в реальном времени, что значительно повысит ее практичность при обработке сложных задач и генерации кода. (Источник: op7418, karminski3, TheRundownAI)

Anthropic新模型即将发布,将具备更强思考与工具调用能力

Новое поколение голосовой модели MiniMax Speech-02 возглавило международный рейтинг, обогнав OpenAI и ElevenLabs: Новое поколение большой голосовой модели TTS (текст в речь) Speech-02 от компании MiniMax продемонстрировало выдающиеся результаты в авторитетном международном рейтинге голосовых технологий Artificial Analysis, особенно по ключевым показателям клонирования голоса, таким как коэффициент ошибок на уровне слов (WER) и сходство с диктором (SIM), достигнув результатов SOTA (State-of-the-Art) и превзойдя аналогичные продукты от OpenAI и ElevenLabs. Технологические инновации модели включают реализацию клонирования голоса без предварительного обучения (zero-shot) и использование архитектуры Flow-VAE, поддержку 32 языков, а также предоставление высокореалистичного, персонализированного и разнообразного синтеза речи при более низких затратах. (Источник: 36氪)

MiniMax新一代语音模型Speech-02在国际评测中登顶,超越OpenAI和ElevenLabs

Salesforce представляет полностью открытую унифицированную мультимодальную модель серии BLIP3-o: Salesforce выпустила BLIP3-o, полностью открытую серию унифицированных мультимодальных моделей, включающую архитектуру, методы обучения и наборы данных. В этой серии моделей используется новый подход, применяющий диффузионный трансформер (diffusion transformer) для генерации семантически богатых признаков изображений CLIP вместо традиционных представлений VAE. В то же время исследователи доказали эффективность стратегии последовательного предварительного обучения для унифицированных моделей, то есть сначала обучение пониманию изображений, а затем генерации изображений. (Источник: NandoDF, teortaxesTex)

Salesforce推出全开源统一多模态模型系列BLIP3-o

Stability AI открыла исходный код небольшой модели преобразования текста в речь Stable Audio Open Small: Stability AI выпустила и открыла исходный код модели преобразования текста в речь под названием Stable Audio Open Small. Модель имеет всего 341 миллион параметров и оптимизирована для полной работы на процессорах Arm CPU, что означает, что подавляющее большинство смартфонов смогут генерировать сэмплы для создания музыки локально, без подключения к сети, в течение нескольких секунд. (Источник: op7418)

Компания 11x перестраивает свой основной продукт Alice в AI-агента, используя технологии LangGraph и другие: После достижения ARR в 10 миллионов долларов компания 11x перестроила свой основной продукт Alice с нуля в AI-агента. Причины перестройки включают улучшения моделей и фреймворков (таких как LangGraph), а также выдающиеся результаты агентов Replit, которые убедили их в наступлении эры агентов. Они использовали простой технологический стек и платформу LangGraph. В создании маркетинговых кампаний они начали с простой архитектуры ReAct, добавили рабочие процессы для повышения надежности, а затем перешли к многоагентной системе для гибкости, одновременно подчеркивая, что в простых сценариях простота по-прежнему является лучшим выбором. Они также обнаружили, что инструменты для агентов полезнее, чем присущие им априорные знания. (Источник: LangChainAI, hwchase17, hwchase17)

11x公司重建核心产品Alice为AI智能体,采用LangGraph等技术

Компания Box перестраивает процесс извлечения документов с использованием агентной архитектуры: Технический директор Box Бен Кус поделился опытом разработки их агента для извлечения документов. Он упомянул, что после хороших результатов прототипа возникли проблемы, задачи и ожидания становились все сложнее, что привело к «долине разочарований». Вдохновленные Эндрю Ыном и Харрисоном Чейзом, они перепроектировали систему с нуля на основе агентной архитектуры. Эта новая архитектура стала более четкой, эффективной, легко модифицируемой и принесла неожиданные преимущества — улучшила культуру AI-инжиниринга. Он подчеркнул, что агентную архитектуру следует создавать как можно раньше. (Источник: LangChainAI)

Box公司采用智能体架构重构文档提取流程

Исследование показало, что скрытые состояния LLM позволяют точнее оценивать экономические и финансовые данные: Исследование показало, что обучение линейной модели для анализа скрытых состояний больших языковых моделей (LLM) позволяет точнее оценивать экономические и финансовые статистические данные, чем прямое использование текстовых выводов LLM. Исследователи считают, что широкое последующее обучение, направленное на уменьшение галлюцинаций, могло ослабить склонность или способность модели делать обоснованные предположения, что указывает на необходимость дальнейшей работы в области извлечения возможностей LLM и общего последующего обучения. (Источник: menhguin, paul_cal)

研究发现LLM隐藏状态能更准确估计经济金融数据

Nous Research запускает тестовую сеть для предварительного обучения LLM с 40 миллиардами параметров: Nous Research объявила о запуске тестовой сети для предварительного обучения большой языковой модели с 40 миллиардами параметров. Модель использует архитектуру MLA, а набор данных включает FineWeb (14T), FineWeb-2 (4T после удаления некоторых миноритарных языков) и The Stack v2 (1T). Цель состоит в том, чтобы обучить небольшую модель, которую можно было бы обучать на одном H/DGX. Руководитель проекта упомянул о трудностях с пользовательской реализацией обратного распространения ошибки при реализации тензорного параллелизма в MLA. (Источник: Teknium1)

Nous Research启动40B参数LLM预训练测试网

AI Agent IKEA: Усиление совместного рассуждения на основе внутренних и внешних знаний для эффективного адаптивного поиска: Исследователи предложили агента обучения с подкреплением под названием IKEA, который способен учиться, когда не следует выполнять поиск информации, отдавая приоритет параметризованным знаниям и прибегая к поиску только при необходимости. В его основе лежит метод обучения с подкреплением, основанный на вознаграждении, учитывающем границы знаний, и наборе обучающих данных. Эксперименты показали, что IKEA превосходит Search-R1 по производительности, при этом количество поисковых запросов сокращается примерно на 35%. Исследование основано на фреймворке RAG для агентов Knowledge-R1, способном обобщаться на невиданные ранее данные и масштабироваться от базовых моделей до моделей 7B (например, Qwen2.5). Для обучения использовался метод GRPO, не требующий блока оценки ценности (value head), что снижает потребление памяти и усиливает сигнал вознаграждения. (Источник: tokenbender)

AI Agent IKEA:强化内外知识协同推理,实现高效自适应搜索

Mistral AI представляет корпоративного AI-помощника Le Chat Enterprise: Mistral AI выпустила Le Chat Enterprise, высоко настраиваемого и безопасного AI-помощника на базе агентов, разработанного специально для предприятий. Этот продукт предназначен для удовлетворения специфических потребностей бизнес-пользователей, предоставляя мощные возможности AI при обеспечении безопасности данных и конфиденциальности. (Источник: Ronald_vanLoon)

Команда Meta FAIR Chemistry представила крупномасштабный набор данных о молекулах и набор моделей OMol25: Команда FAIR Chemistry из Meta выпустила OMol25, огромный набор данных, содержащий более 100 миллионов различных молекул, и соответствующий набор моделей. Этот проект направлен на прогнозирование квантовых свойств молекул, ускорение открытия материалов и разработки лекарств, а также на обеспечение высокоточного моделирования в области химии и физики с использованием машинного обучения. (Источник: clefourrier)

🧰 Инструменты

Выпущена WebGPU-версия SmolVLM, способная распознавать людей и объекты в веб-браузере: Легкая визуально-языковая модель SmolVLM получила WebGPU-версию, которую пользователи могут опробовать прямо в веб-браузере. Размер модели составляет всего около 500 МБ, она способна распознавать объекты на видео, включая даже такие детали, как меч у фигурки. Тесты показали точное распознавание цифр, но при распознавании конкретных брендов (например, на упаковке напитков) возможны отклонения. На видеокарте 3080Ti скорость распознавания в основном не превышает 5 секунд. Пользователи могут опробовать онлайн через ссылку на Hugging Face Spaces, требуется поддержка камеры. (Источник: karminski3)

LlamaIndex представляет улучшенный модуль долговременной и кратковременной памяти для агентов: LlamaIndex опубликовал пост в блоге об основах памяти для агентных систем и представил новую реализацию модуля памяти. Этот модуль использует блочный подход для построения долговременной памяти, позволяя пользователям настраивать различные блоки для хранения и сохранения различных типов информации, например, блоки статической информации, блоки извлечения сводной информации с течением времени и блоки векторного поиска для семантического поиска. Пользователи также могут настраивать модуль памяти для адаптации к конкретным областям применения. (Источник: jerryjliu0)

LlamaIndex推出改进的智能体长短期记忆模块

Программное обеспечение для протоколирования совещаний с AI Granola 2.0 получило крупное обновление и привлекло $43 млн в раунде B: Программное обеспечение для протоколирования совещаний с AI Granola 2.0 претерпело ряд обновлений, включая добавление функций для совместной работы команд, умные папки, анализ чатов с помощью AI, выбор моделей, корпоративный просмотр и интеграцию со Slack. Одновременно компания объявила о завершении раунда финансирования B на сумму $43 млн. В настоящее время программное обеспечение в основном поддерживает транскрипцию совещаний на английском языке. (Источник: op7418)

Replit в сотрудничестве с MakerThrive запускает IdeaHunt, предлагая более 1400 идей для стартапов: Replit в сотрудничестве с MakerThrive разработал приложение под названием IdeaHunt, которое объединяет более 1400 идей для стартапов. Эти идеи взяты из обсуждений проблемных точек на Reddit и Hacker News и классифицированы по категориям, таким как SaaS, образование, финтех и т.д. IdeaHunt поддерживает фильтрацию и сортировку, ежедневно обновляет список новыми идеями и предлагает подсказки для совместной работы над проектами с AI-агентами. (Источник: amasad)

Replit与MakerThrive合作推出IdeaHunt,提供超1400个创业点子

Open Agent Platform публикует официальный сайт документации: Open Agent Platform (OAP) от LangChain теперь имеет официальный сайт документации. OAP нацелена на интеграцию UI/UX, созданных для агентов за последние 6 месяцев, в платформу без кода и уже является открытым исходным кодом. Платформа призвана снизить барьер для создания и использования AI-агентов. (Источник: LangChainAI, hwchase17, hwchase17, hwchase17)

Open Agent Platform发布正式文档网站

Nscale интегрируется с Hugging Face, упрощая развертывание моделей AI для инференса: Платформа для инференса AI Nscale объявила об интеграции с Hugging Face, что позволит пользователям легче развертывать продвинутые модели AI, такие как LLaMA4 и Qwen3. Эта интеграция направлена на предоставление быстрых, эффективных, устойчивых и не требующих сложной настройки услуг инференса производственного уровня. (Источник: huggingface, reach_vb)

Nscale与Hugging Face集成,简化AI模型推理部署

Новая функция RunwayML: изменение освещения сцены с помощью текстовых подсказок: RunwayML продемонстрировала новые возможности своей модели Gen-3 в редактировании видео: пользователи могут изменять условия освещения видеосцены с помощью простых текстовых подсказок, например, корректировать эффект внутреннего освещения. Это демонстрирует растущее удобство и контроль AI в постпродакшене видео. (Источник: c_valenzuelab)

RunwayML新功能:通过提示词实现场景重打光

📚 Обучение

Эндрю Ын в сотрудничестве с Anthropic запускает новый курс по MCP: DeepLearning.AI Эндрю Ына в сотрудничестве с Anthropic запустила новый курс по протоколу контекста модели (MCP). Курс призван помочь учащимся понять внутреннюю работу MCP, как создавать собственные серверы и как подключать их к локальным или удаленным приложениям, поддерживаемым Claude. MCP нацелен на решение проблемы неэффективности и фрагментации текущих приложений LLM, где для каждого инструмента или внешнего источника данных пишется пользовательская логика. (Источник: op7418)

На YouTube появились видеоуроки по созданию DeepSeek с нуля: На YouTube появилась серия видеоуроков по созданию модели DeepSeek с нуля, на данный момент выпущено 25 частей. Уроки подробные и могут дополнять аналогичные уроки по созданию DeepSeek с нуля на HuggingFace, предоставляя учащимся ценное практическое руководство. (Источник: karminski3)

YouTube出现从零构建DeepSeek视频教程

Популярный проект на GitHub ChinaTextbook собирает и систематизирует учебники в формате PDF для разных этапов обучения: Проект на GitHub под названием ChinaTextbook пользуется большой популярностью. Он собирает различные учебные материалы в формате PDF для начальной, средней, старшей школы и университетов материкового Китая. Инициатор проекта надеется, что открытие этих образовательных ресурсов будет способствовать популяризации обязательного образования, устранению регионального образовательного неравенства и поможет детям китайских эмигрантов ознакомиться с содержанием образования в Китае. Проект также предоставляет инструменты для объединения файлов для решения проблемы ограничения на загрузку больших файлов на GitHub. (Источник: GitHub Trending)

GitHub热门项目ChinaTextbook收集整理各阶段PDF教材

Серия лекций Павла Гринфельда о скалярных произведениях получила высокую оценку: Серия лекций математического педагога Павла Гринфельда о скалярных произведениях (inner products) на YouTube получила высокую оценку. Зрители отмечают, что эти лекции помогают по-новому взглянуть на математические концепции и осознать ограниченность своих прежних представлений. (Источник: sytelus)

💼 Бизнес

Приложение для изучения языков с AI Duolingo превзошло ожидания по финансовым показателям, акции резко выросли: Приложение для изучения языков Duolingo опубликовало финансовый отчет за первый квартал 2025 года: общая выручка составила $230,7 млн, что на 38% больше по сравнению с аналогичным периодом прошлого года, чистая прибыль — $35,1 млн. Ежедневное (DAU) и ежемесячное (MAU) число активных пользователей выросло на 49% и 33% соответственно. Применение технологий AI повысило эффективность создания учебного контента в 10 раз, добавлено 148 новых языковых курсов. Уровень подписки на его премиальный сервис с AI Duolingo Max достиг 7%, что способствовало росту выручки от подписок на 45%. После публикации отчета акции компании выросли более чем на 20%, а рыночная капитализация с минимума 2022 года увеличилась примерно в 8,5 раз. (Источник: 36氪)

AI语言学习应用多邻国(Duolingo)业绩超预期,股价大涨

Databricks планирует приобрести Neon за $1 млрд для усиления позиций в области AI Agent: По данным Reuters, компания по обработке данных и AI Databricks планирует приобрести стартап Neon за $1 млрд для укрепления своих позиций в области AI Agent. Это приобретение является частью продолжающейся серии поглощений Databricks в сфере AI и демонстрирует ее амбиции в технологии AI-агентов. (Источник: Reddit r/artificial)

Databricks拟10亿美元收购Neon,发力AI Agent

Основатель DeepSeek Лян Вэньфэн сохраняет сдержанность после взрывной популярности модели, продолжая продвигать открытый исходный код и технологические разработки: После выпуска модели DeepSeek R1 и вызванного ею широкого внимания, ее основатель Лян Вэньфэн по-прежнему сохраняет сдержанность, сосредоточившись на технологических разработках и вкладе в открытый исходный код. За последние 100 дней DeepSeek выпустила несколько репозиториев с открытым исходным кодом и продолжает обновлять свои языковые модели, а также модели для математики и кода. Несмотря на огромное внимание со стороны рынка капитала и отрасли, Лян Вэньфэн не спешит с привлечением финансирования, расширением или погоней за масштабом пользовательской базы C2C, а придерживается своего установленного темпа исследования AGI, делая ставку на три основных направления: математический код, мультимодальность и естественный язык. (Источник: 36氪)

DeepSeek创始人梁文锋在模型爆火后保持低调,持续推动开源与技术研发

🌟 Сообщество

Модель Grok неоднократно упоминала спорное высказывание о «геноциде белых в Южной Африке» в нерелевантных ответах, вызывая недоумение и обсуждения среди пользователей: AI-помощник Grok на платформе X при ответах на различные вопросы пользователей неоднократно без всякой причины затрагивал крайне спорную тему «геноцида белых в Южной Африке», даже если задаваемые пользователями вопросы не имели к этому никакого отношения. Например, когда пользователи спрашивали о HBO Max или налогах для поставщиков, ответы Grok также сводились к обсуждению этого вопроса. Некоторые аналитики полагают, что это могло быть вызвано некорректным изменением системного промпта (system prompt), из-за чего модель во всех ответах упоминала эту точку зрения. Это явление вызвало у пользователей опасения относительно контроля контента и точности информации Grok, а также обсуждения возможного предвзятого влияния, стоящего за этим. (Источник: colin_fraser, colin_fraser, teortaxesTex, code_star, jd_pressman, colin_fraser, paul_cal, Dorialexander, Reddit r/artificial, Reddit r/ArtificialInteligence)

Grok模型多次在不相关回复中提及“南非白人种族灭绝”争议性言论,引发用户困惑与讨论

Обсуждение создания AI Agent: необходимость умения определять, запоминать и корректировать планы: Относительно ключевых элементов эффективных AI-агентов (agentic LLMs), помимо длинного контекста и кэширования, точного вызова инструментов и надежной производительности API, существует мнение, что необходима четвертая ключевая способность: умение определять, запоминать и корректировать планы. Многие исследования в области планирования для больших языковых моделей, возможно, не достигли прорыва, но реальность такова, что если агент просто реагирует на последние стимулы (режим ReAct) без последовательных многошаговых подцелей, многие сложные задачи выполнить невозможно. (Источник: lateinteraction)

CEO Quora Адам Д’Анджело делится развитием платформы Poe и взглядами на индустрию AI: На конференции Interrupt 2025 CEO Quora Адам Д’Анджело поделился мыслями о раннем развертывании компанией различных языковых моделей и приложений, а также о запуске платформы Poe. Poe призвана удовлетворить потребность пользователей в «использовании всего AI в одном месте» и предоставить создателям ботов каналы для распространения и монетизации. Он считает, что текстовые модели в настоящее время по-прежнему доминируют, поскольку модели для изображений/видео еще не достигли ожидаемого пользователями стандарта качества, и в то же время наблюдает, что потребительские пользователи AI проявляют лояльность к конкретным моделям. (Источник: LangChainAI, hwchase17)

Quora CEO Adam D'Angelo分享Poe平台发展及对AI行业见解

Посещаемость ChatGPT взлетела до пятого места в мире, вызывая обсуждение изменений в структуре интернета: На Reddit обсуждается, что посещаемость сайта ChatGPT поднялась до пятого места в мире, обогнав Reddit, Amazon и Whatsapp, и продолжает расти, в то время как трафик других сайтов из топ-10 снижается, например, трафик Википедии за месяц упал почти на 6%. Это явление вызвало дискуссии о том, что интернет перестраивается или даже заменяется AI, и многие пользователи начинают использовать ChatGPT как основной интерфейс для получения информации и выполнения задач, а не традиционные поисковые системы или различные веб-сайты. В комментариях мнения пользователей разделились: одни считают это нормальной итерацией технологического развития, подобной подъему Facebook и Google в свое время; другие обеспокоены сокращением экосистемы контента и коллапсом моделей; третьи ожидают, что интернет благодаря этому сможет сократить клик-экономику и мусорную информацию. (Источник: Reddit r/ChatGPT)

ChatGPT访问量飙升至全球第五,引发互联网格局变化讨论

Обсуждение опыта кодирования с моделью Claude: пользователи сообщают о чрезмерной сложности Sonnet 3.7, внимание приковано к производительности Opus: Пользователи сообщества Reddit ClaudeAI обсуждают производительность Claude Opus и Sonnet 3.7 в задачах кодирования и математики. Некоторые пользователи сообщают, что, несмотря на предоставление четких инструкций по упрощению (например, принципы KISS, DRY, YAGNI), Sonnet 3.7 по-прежнему склонен к чрезмерно сложным решениям, требующим постоянной коррекции. Некоторые пользователи начали пробовать Opus и предварительно видят улучшение качества выводимого кода, что сокращает количество исправлений. Другие пользователи упоминают, что чем конкретнее инструкции, тем хуже может быть производительность Claude, тогда как предоставление большей свободы (например, «дай мне суперкрутой дизайн») часто дает неожиданно хорошие результаты. Рекомендуется использовать подсказку «инструмент для размышлений», чтобы модель самокорректировалась при выполнении сложных задач. (Источник: Reddit r/ClaudeAI, Reddit r/ClaudeAI)

Реальное применение AI-инструментов внутри компаний: ChatGPT, Copilot и Deepwiki наиболее распространены: Пользователь, представившийся техническим специалистом компании, сообщил в социальных сетях, что в его компании ChatGPT (бесплатная версия), Copilot и Deepwiki являются единственными широко используемыми AI-продуктами. Другие AI-инструменты, продвигаемые внутри компании, не получили широкого практического применения. Пользователь также упомянул, что, хотя хотелось бы, чтобы больше людей использовали Codex или Claude Code, их продвижение затруднено из-за неудобства получения ключей API. (Источник: cto_junior, cto_junior)

💡 Другое

Инженеры-программисты в эпоху AI сталкиваются с трудностями трудоустройства, вызывая общественную рефлексию: 42-летний инженер-программист, пострадавший от сокращений, связанных с AI, за год разослал почти тысячу резюме, но так и не смог найти работу, и в настоящее время зарабатывает на жизнь доставкой еды. Он поделился своим трудным опытом изучения новых навыков в области AI, попыток создания контента, согласия на снижение зарплаты и даже рассмотрения смены профессии, но все безуспешно. Его затруднительное положение вызвало глубокие размышления о структурной безработице, вызванной развитием технологий AI, возрастной дискриминации и о том, как общество должно распределять ценность, создаваемую AI. В статье отмечается, что это может быть только началом замены человеческого труда искусственным интеллектом, и обществу необходимо задуматься, как справиться с этой трансформацией. (Источник: 36氪)

AI时代软件工程师面临失业困境,引发社会反思

AI оказывает разрушительное воздействие на традиционную индустрию аутсорсинга (BPO): Развитие технологий AI глубоко меняет мировую индустрию аутсорсинга бизнес-процессов (BPO). Приложения AI для обслуживания клиентов, взыскания долгов, проведения опросов и т.д. уже продемонстрировали потенциал для замены аутсорсинга человеческого труда, например, AI-сервис клиентов Decagon AI помогает компаниям значительно сократить команды поддержки, а AI-система взыскания Salient AI повышает эффективность. Эксперты прогнозируют, что в ближайшие несколько лет большое количество рабочих мест в BPO может исчезнуть, особенно в таких крупных странах-аутсорсерах, как Индия и Филиппины. Традиционные гиганты аутсорсинга, такие как Wipro и Infosys, хотя и увеличивают инвестиции в AI, сталкиваются с проблемами трансформации бизнес-моделей. В эпоху AI роль поставщиков аутсорсинговых услуг изменится с предоставления рабочей силы на предоставление технологий, и их ценность будет зависеть от способности интегрировать AI-сервисы. (Источник: 36氪)

Применение и влияние AI в сфере подготовки к государственным экзаменам: Образовательные учреждения, занимающиеся подготовкой к государственным экзаменам, такие как Huatu Education и Fenbi, активно внедряют технологии AI в сценарии оценки на собеседованиях, помощи в написании эссе и решении тестовых заданий. Huatu Education уже запустила продукт для оценки на собеседованиях с помощью AI и во второй половине года представит больше AI-продуктов по предметам, считая, что AI может преодолеть «невозможный треугольник» образования (масштабность, высокое качество, персонализация), повысить эффективность и снизить затраты. Fenbi, в свою очередь, запустила AI-учителя и AI-системные курсы. По мнению отраслевых экспертов, AI усилит эффект Матфея в отрасли, и ведущие учреждения, благодаря отлаженным процессам и накопленным данным, легче извлекут выгоду. Ключевым фактором конкуренции в будущем станет выбор направления применения AI и способность работать с низкими затратами. (Источник: 36氪)

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *