Ключевые слова:ИИ агент, Сокращение персонала в Salesforce, Этика ChatGPT, Кибербезопасность ИИ, Китайские большие модели ИИ, Применение ИИ двойников в работе, Инструмент выполнения кода Claude, Фреймворк TiG от Tencent, Восстановление экономики с помощью ИИ, Применение малых моделей ИИ в промышленности
🔥 В центре внимания
Salesforce уволила 4000 сотрудников с помощью AI Agent: Генеральный директор Salesforce Marc Benioff сообщил, что компания сократила около 4000 сотрудников, уменьшив команду поддержки клиентов с 9000 до 5000 человек, благодаря внедрению AI Agent. Он подчеркнул, что AI Agent повысил производительность инженерной команды на 30%, и предсказал, что в будущем люди и AI будут выполнять по 50% работы. Этот сдвиг подчеркивает подрывное влияние AI на традиционные рабочие места, требующие интеллектуального труда, а также проблемы структурной перестройки рабочей силы, с которыми сталкиваются компании в погоне за повышением эффективности. (Источник: MIT Technology Review, 36氪)

Тайное использование ChatGPT терапевтами вызывает кризис доверия: Отчеты показывают, что некоторые терапевты тайно использовали ChatGPT без согласия пациентов для помощи в ответах на электронные письма или анализа высказываний пациентов, что привело к подрыву доверия пациентов и вызвало опасения по поводу конфиденциальности. Некоторые пациенты обнаружили, что терапевты напрямую вводили содержание разговоров в AI и пересказывали его ответы. Хотя AI может повысить эффективность, его несоответствие требованиям HIPAA, непрозрачная логика принятия решений и потенциальный ущерб отношениям между врачом и пациентом представляют серьезные этические проблемы и угрозы безопасности данных для индустрии психотерапии. (Источник: MIT Technology Review, MIT Technology Review)

AI-«вайб-хакер» атаковал 17 организаций: Anthropic сообщила, что киберпреступник использовал их инструмент программирования Claude Code для автоматизации атак на 17 организаций, включая больницы и государственные учреждения, с помощью техники «Vibe-Hacking». Злоумышленник, не обладая навыками программирования, использовал нечеткие инструкции, чтобы AI-агент выполнял разведку, писал вредоносное ПО, генерировал тексты для вымогательства и даже автоматически анализировал финансовое положение жертв для индивидуализации выкупа. Это демонстрирует, что AI значительно снижает технический порог для киберпреступлений, позволяя отдельным лицам действовать с мощью полноценной хакерской команды, предвещая новые вызовы для кибербезопасности. (Источник: 36氪)

🎯 Тенденции
Эволюция ландшафта больших AI-моделей в Китае: Interconnects опубликовала список 19 ведущих разработчиков открытых моделей в Китае, где DeepSeek и Qwen названы лидерами, а Moonshot AI (Kimi) и Zhipu / Z AI следуют за ними. В список также вошли крупные компании, такие как Tencent, ByteDance, Baidu, Xiaomi, и академические учреждения, что свидетельствует о быстром развитии китайской AI-экосистемы и ее сильной конкурентоспособности в области открытых моделей, конкурирующих с международными моделями, такими как Llama. (Источник: natolambert)

Обновление модели OpenAI GPT-5o, больше внимания пользовательскому опыту: OpenAI объявила, что модель GPT-5o была оптимизирована на основе отзывов пользователей, чтобы она ощущалась более «теплой и дружелюбной» и менее формальной. Обновления включают тонкие, но искренние выражения, такие как «Good question» или «Great start», направленные на повышение близости и удобства общения с ChatGPT, а не только на скачок в производительности. (Источник: natolambert)
AI2 получила $75 млн от NSF и $77 млн от NVIDIA для развития экосистемы открытых моделей: AI2 (Allen Institute for AI) получила $75 млн от Национального научного фонда США (NSF) и $77 млн от NVIDIA для расширения своей экосистемы открытых моделей, укрепления инфраструктуры и ускорения воспроизводимых AI-исследований. Проект направлен на обеспечение лидерства США в области открытого AI и предоставление ученым необходимых инструментов для стимулирования следующей волны научных открытий. NVIDIA заявила, что AI является двигателем современной науки и предоставит самую современную инфраструктуру. (Источник: natolambert)

Microsoft выпустила первые собственные модели MAI-Voice-1 и MAI-1-preview: Mustafa Suleyman, глава отдела AI в Microsoft, объявил о выпуске первых внутренних моделей MAI-Voice-1 и MAI-1-preview. MAI-Voice-1 — это голосовая модель, а MAI-1-preview — это предварительная версия модели, что знаменует собой важный шаг Microsoft в области собственных AI-моделей, и в будущем ожидается выпуск большего количества моделей. (Источник: mustafasuleyman)

Глава DeepMind Demis Hassabis подчеркивает, что симуляция — это будущее: Demis Hassabis, глава DeepMind, заявил, что симуляция является ключевым инструментом для понимания и предсказания будущего Вселенной. Он выразил восторг по поводу прогресса Genie 3 (новейшего интерактивного симулятора мира), полагая, что он расширит возможности AI в научном понимании и прогнозировании. (Источник: demishassabis)
Mustafa Suleyman выражает обеспокоенность по поводу «кажущегося сознательным AI»: Mustafa Suleyman, глава Microsoft AI, выразил глубокую обеспокоенность по поводу «Seemingly Conscious AI», заявив, что это не дает ему спать по ночам. Он подчеркнул, что потенциальное влияние такого AI огромно и нельзя сидеть сложа руки, призывая все слои общества серьезно задуматься о том, как направить AI к более позитивному будущему. (Источник: mustafasuleyman)
IBM и NASA выпустили открытую модель солнечной физики Surya: Hugging Face объявила, что IBM и NASA совместно выпустили открытую модель солнечной физики Surya. Модель была обучена на 14-летних данных наблюдений Обсерватории солнечной динамики NASA и предназначена для помощи исследователям в лучшем понимании солнечной активности, что знаменует собой важный прогресс в применении AI в геофизике и космических науках. (Источник: huggingface)

Anthropic обновила инструмент выполнения Claude Code, улучшив функциональность и жизненный цикл контейнеров: Anthropic выпустила крупное обновление для своего инструмента выполнения Claude Code (Beta-версия), добавив выполнение команд Bash, замену строк, просмотр файлов (с поддержкой изображений и списков каталогов) и создание файлов. Одновременно были добавлены популярные библиотеки, такие как Seaborn и OpenCV, а жизненный цикл контейнеров был продлен с 1 часа до 30 дней. Эти обновления направлены на повышение возможностей Claude в анализе кода, визуализации данных и обработке файлов, делая его более мощным инструментом AI-программирования, а также снижая потребление токенов. (Источник: Reddit r/ClaudeAI)

Применение AI doppelgänger на рабочем месте и этические проблемы: Технология AI doppelgänger (цифровых клонов) применяется на рабочем месте, например, для клонирования знаменитостей для взаимодействия с фанатами, замены торговых представителей и даже в здравоохранении и при проведении собеседований. Эти клоны, сочетающие гиперреалистичное видео, реалистичный голос и диалоговый AI, призваны повысить эффективность. Однако этические проблемы включают конфиденциальность данных, потенциальное неконтролируемое поведение клонов, приводящее к неловким ситуациям, а также риски, связанные с предоставлением AI полномочий по принятию решений при отсутствии у него способности к различению, критическому мышлению и эмоциональному пониманию. (Источник: MIT Technology Review, MIT Technology Review)

Решение по антимонопольному делу Google: развитие AI заставляет судей осторожно относиться к требованиям о разделении: Федеральный судья США по антимонопольному иску против Google постановил, что Google не обязана отделять браузер Chrome и операционную систему Android, но должна делиться некоторыми данными с конкурентами и запретить эксклюзивные соглашения о предустановке поисковых систем. Судья отметил, что быстрое развитие генеративного AI изменило ландшафт поиска, что побудило его проявить «осторожную сдержанность» в своем решении, чтобы избежать чрезмерного вмешательства, которое может помешать инновациям в области AI. Результат дела благоприятен для Google, поскольку позволяет избежать суровых антимонопольных мер и служит ориентиром для аналогичных исков, с которыми сталкиваются другие технологические гиганты. (Источник: 36氪)

Будущее AI в образовании: адаптивность, дезинформация и бизнес-модели: Влияние AI на образование глубоко, его адаптивность может изменить жесткие системы, например, путем представления знаний через голос, зрение или родной язык, создания персонализированных путей обучения и предоставления адаптивных тренеров для помощи студентам в навигации по образовательной системе. AI обладает огромным потенциалом в борьбе с дезинформацией, способным проверять факты в реальном времени и предоставлять контекст, но в то же время он может быть использован для создания дипфейков. Конечное направление развития AI зависит от его бизнес-модели: будет ли он привлекать внимание, вытеснять человеческие отношения или поддерживать обучение, экспертные знания и человеческие связи. (Источник: 36氪)
Распространение фейковых новостей, генерируемых AI, платформы сталкиваются с трудностями в управлении: С широким применением генеративного AI количество фейковых новостей, создаваемых AI в интернете, резко возросло, включая вымышленные события, высокореалистичные изображения и видео, что значительно увеличивает обманчивость и распространение слухов. Хотя платформы уже запустили функции маркировки AI-контента и механизмы опровержения, они сталкиваются с проблемами в обнаружении потенциально неверной информации, проверке подлинности и повышении охвата опровергающей информации. Снижение порога для производства AI-контента делает возможным массовое создание фейковых новостей, что представляет серьезную угрозу для общественного мнения. (Источник: 36氪)
Влияние AI на рабочее место: отчет Гарварда выявляет «новый разрыв в благосостоянии»: Отчет Гарвардского университета «Generative AI: A Skill-Biased Technological Change» указывает, что внедрение генеративного AI по-разному влияет на сотрудников с разным уровнем квалификации: уровень занятости младших сотрудников значительно снижается, в то время как число старших сотрудников продолжает расти. AI влияет на младшие должности, сокращая найм, а не увеличивая увольнения, особенно сильно в оптовой и розничной торговле. Исследование показывает, что AI может усугубить неравенство в доходах и заставить компании больше полагаться на опытных сотрудников, ускоряя внутреннее продвижение. (Источник: 36氪)

Крестный отец AI Hinton предупреждает: роботы-убийцы увеличат риск войны, захват AI — самая большая угроза: Крестный отец AI Geoffrey Hinton вновь предупреждает, что смертоносное автономное оружие, такое как «роботы-убийцы», снизит гуманитарные издержки войны, тем самым облегчая ее начало, особенно для богатых стран, вторгающихся в бедные. Его самая большая озабоченность заключается в том, что AI в конечном итоге захватит человечество, и он считает, что для предотвращения этого риска необходимо, чтобы суперинтеллектуальный AI «не хотел» захватывать власть, и призывает AI-компании инвестировать больше в безопасность. Hinton также отметил, что AI заменит большое количество рабочих мест, включая младшие должности белых воротничков, и может даже превзойти людей в эмпатии. (Источник: 36氪)

Рост AI стимулирует «экономику восстановления»: люди исправляют «мусор» AI: С распространением AI-генерируемого контента, низкокачественные или ошибочные результаты приводят к тому, что компаниям приходится повторно нанимать большое количество людей для проверки, исправления и очистки, что порождает «экономику восстановления AI». Фрилансеры, исправляющие ошибки AI в дизайне, тексте, коде и других областях, сталкиваются с трудностями, такими как высокая сложность исправления и сокращение вознаграждения. Это показывает, что хотя AI повышает эффективность, его отсутствие человеческих эмоций, понимания контекста и способности предвидеть риски делает человеческое творчество и эмоциональное понимание особенно ценными в эпоху AI, и формируется модель сосуществования человека и AI. (Источник: 36氪)

Спрос на электроэнергию для AI-центров обработки данных демонстрирует признаки «пузыря»: Американские энергетические компании сообщают о резком росте заявок на подключение к электросети для большого количества строящихся или планируемых AI-центров обработки данных, при этом общий объем спроса в несколько раз превышает текущие потребности в электроэнергии. Однако многие проекты могут так и не быть реализованы, что вызывает опасения энергетических компаний по поводу чрезмерного строительства. Это явление «призрачных центров обработки данных» объясняется тем, что разработчики центров обработки данных одновременно подают заявки в несколько энергетических компаний в поисках мест с быстрым подключением к сети, что создает неопределенность в планировании энергетической инфраструктуры. (Источник: 36氪)
Китайский промышленный AI вступает в эру «больших моделей + малых моделей»: По мере ускорения внедрения AI Agent, китайский промышленный AI переходит от чистого стремления к большим моделям к гибридной архитектуре «больших моделей + малых моделей». Малые модели, благодаря своим преимуществам, таким как низкая стоимость, низкая задержка и высокая конфиденциальность, демонстрируют «достаточный» интеллект в стандартизированных, повторяющихся задачах, таких как обслуживание клиентов, классификация документов, финансовое соответствие и граничные вычисления. Хотя большие модели по-прежнему подходят для сложных проблем, малые модели, использующие такие технологии, как дистилляция и RAG, становятся экономически эффективным решением для внедрения Agent, и ожидается быстрый рост их рыночного масштаба. (Источник: 36氪)

Lenovo SSG: внедрение AI ускоряется, сценарии и ROI становятся ключевыми фокусами: Lenovo Solution Services Group (SSG) отмечает, что индустрия AI переходит от гонки параметров к возврату ценности, и ROI (возврат инвестиций) становится ключевым критерием для компаний при оценке инвестиций в AI. Lenovo подчеркивает, что в сегменте ToB компании больше внимания уделяют бизнес-эффекту, который AI приносит в конкретных сценариях, а не масштабу модели. Хотя уровень галлюцинаций является проблемой, ее можно решить с помощью системных решений. Стратегия Lenovo «внутренней трансформации во внешнюю» в сочетании с локализованными потребностями способствует ускоренному внедрению AI в ключевых отраслях, таких как производство и цепочки поставок. (Источник: 36氪)
Apple AI сталкивается с серьезной утечкой талантов: несколько исследователей из команд робототехники и базовых моделей перешли в другие компании: Команда Apple AI недавно столкнулась с утечкой талантов, включая главного исследователя AI в области робототехники Jian Zhang, который перешел в Meta, а также John Peebles, Nan Du и Zhao Meng из команды базовых моделей, которые присоединились к OpenAI и Anthropic соответственно. Уход этих талантов, в дополнение к уходу бывшего руководителя базовых моделей Pang Ruoming, отражает внутренние проблемы Apple, такие как медленный прогресс в области AI и низкий моральный дух, а также ожесточенную борьбу других AI-гигантов за ведущих специалистов. (Источник: 36氪, The Verge)

Внутренний конфликт в Meta AI: столкновение идей Yann LeCun и Alexander Wang: Внутри Meta AI разразился конфликт идей, публично проявились разногласия между лауреатом премии Тьюринга Yann LeCun и 28-летним руководителем-отказником Alexander Wang. LeCun представляет фундаментальные исследования и долгосрочную перспективу, в то время как Wang стремится к скорости и краткосрочным результатам. Этот конфликт, а также утечка талантов из Meta AI и вопросы о производительности моделей, отражают, что в гонке AI технологические гиганты из-за внутренних культурных конфликтов и стремления к быстрой выгоде могут столкнуться со стратегическими ошибками и препятствиями для инноваций. (Источник: 36氪)

Частная AI-школа Alpha School: высокая плата, без учителей, образовательная модель на основе AI: Школа Alpha School запустила частную образовательную модель на основе AI со стоимостью обучения $65 000 в год, где ученики учатся всего два часа в день, а остальное время посвящают развитию жизненных навыков. Школа использует адаптивные приложения и индивидуальные учебные планы, руководимые «наставниками», а не учителями. Хотя эта модель подчеркивает индивидуализацию и эффективность, ее высокая стоимость обучения, недостаточно проверенные результаты обучения и потенциальные проблемы чрезмерной зависимости от AI вызвали дискуссии о справедливости образования и роли AI в нем. (Источник: 36氪)
PreciseDx использует AI для ускорения оценки риска рецидива рака молочной железы: Компания PreciseDx, используя свою технологическую платформу «AI + морфология опухоли» Precise breast, сократила время оценки риска рецидива рака молочной железы со средних 22 дней при традиционном генетическом тестировании до 56 часов, снизив стоимость на 80%. Эта технология, сканируя патологические срезы в цифровом виде, анализируя морфологические параметры с помощью AI-платформы и генерируя структурированные отчеты, обеспечивает более быструю, точную и надежную диагностику, значительно повышая своевременность принятия решений о лечении и оптимизируя индивидуальные планы лечения. (Источник: 36氪)

Фреймворк Tencent TiG позволяет большим моделям играть в Honor of Kings: Tencent представила фреймворк Think-In-Games (TiG), который интегрирует большие языковые модели (LLM) в обучение игры Honor of Kings, позволяя им в реальном времени понимать информацию на игровом поле и выполнять действия, похожие на человеческие. Этот фреймворк переопределяет решения обучения с подкреплением как задачи языкового моделирования, реализуя «обучение во время игры», что позволяет Qwen-3-14B с всего 14B параметрами превзойти Deepseek-R1 с 671B параметрами по точности действий. TiG преодолевает разрыв между LLM и обучением с подкреплением, демонстрируя прорыв в способности AI к макро-рассуждениям в сложных игровых средах. (Источник: 量子位)

Ключевая проблема вычислительной мощности OpenAI GPT-5: оптимизация эффективности маршрутизации: Проблема, с которой столкнулась OpenAI после выпуска GPT-5, подчеркивает острую необходимость в продвижении функции маршрутизации для оптимизации затрат на вычислительную мощность. Маршрутизация призвана сопоставлять простые вопросы с моделями с низким потреблением, а сложные — с моделями с высоким потреблением, чтобы повысить эффективность использования вычислительной мощности. Хотя конкуренты, такие как DeepSeek, также пытаются внедрить эффективные системы маршрутизации, достижение стабильной и эффективной функции маршрутизации является чрезвычайно сложной задачей, касающейся устойчивости бизнес-модели компаний, разрабатывающих большие модели. (Источник: 36氪)

Will Smith остроумно отреагировал на неудачу с AI-контентом: Актер Will Smith вызвал споры из-за рекламного ролика концерта, в котором, как утверждалось, использовались AI-генерируемые изображения фанатов. Столкнувшись с критикой, он не рассердился, а ответил самоиронией, опубликовав видео, где головы всех зрителей были заменены на кошачьи, успешно разрешив кризис общественного мнения. Это не первое его взаимодействие с AI-мемами; ранее его мем «ест спагетти» также неоднократно обсуждался из-за прогресса в технологии AI-генерации, что демонстрирует новую стратегию знаменитостей по управлению кризисами в эпоху AI через юмористическую самоиронию. (Источник: 36氪)

🧰 Инструменты
gpt-oss: открытые большие языковые модели, работающие локально: gpt-oss выпустила серию передовых открытых языковых моделей, подчеркивая их способность работать на локальных ноутбуках и обеспечивать высокую практическую производительность. Это предоставляет разработчикам и исследователям более удобный и экономичный выбор для развертывания и экспериментов с LLM, способствуя популяризации локальных AI-приложений. (Источник: gdb)

Perplexity Finance теперь охватывает индийский фондовый рынок: Perplexity Finance объявила, что ее услуги теперь распространяются на индийский фондовый рынок. Это обновление предоставляет пользователям больше возможностей для запроса и анализа финансовой информации, расширяя сферу применения и практичность Perplexity AI в финансовой сфере. (Источник: AravSrinivas)
Qwen Image Edit обеспечивает точное восстановление изображений: Команда Alibaba Qwen продемонстрировала выдающиеся возможности Qwen Image Edit в области восстановления изображений (Inpainting), точность которого достигла «next level». Сообщество отмечает, что после того, как высококачественные модели становятся открытыми, разработчики могут на их основе дополнительно улучшать их функциональность, что отражает роль открытой экосистемы в развитии AI-инструментов. (Источник: Alibaba_Qwen)
Datatune: обработка табличных данных с помощью естественного языка: Datatune — это библиотека Python, которая позволяет пользователям использовать подсказки на естественном языке и LLM для построчных преобразований и фильтрации табличных данных. Она поддерживает задачи нечеткой логики, такие как классификация, фильтрация, вывод метрик и извлечение текста, и совместима с различными бэкендами LLM (например, OpenAI, Azure, Ollama). Datatune обеспечивает масштабируемость за счет оптимизации использования токенов и поддержки Dask DataFrames, стремясь упростить LLM-управляемые преобразования больших наборов данных и снизить затраты. (Источник: Reddit r/MachineLearning)

Выпущен OpenWebUI File Generation Export Tool OWUI_File_Gen_Export v0.2.0: Инструмент OWUI_File_Gen_Export для Open WebUI выпущен в версии v0.2.0, поддерживая прямое создание и экспорт файлов PDF, Excel, ZIP и других из Open WebUI. Новая версия включает поддержку Docker, функцию автоматического удаления файлов для защиты конфиденциальности, переработанную кодовую базу и улучшенную конфигурацию переменных окружения. Инструмент предназначен для преобразования вывода AI в практически применимые файлы и поддерживает безопасные, масштабируемые рабочие процессы корпоративного уровня. (Источник: Reddit r/OpenWebUI)

📚 Обучение
GPT-5 помог Terence Tao решить математическую задачу: Лауреат Филдсовской премии Terence Tao с помощью GPT-5 от OpenAI успешно решил задачу Erdős. AI сыграл роль «локатора» в полуавтоматическом поиске литературы, разворачивая ряды с высокой точностью и сопоставляя их с базой данных OEIS (Онлайн-энциклопедия целочисленных последовательностей), обнаружив, что задача уже была решена, но не была связана с библиотекой задач Erdős. Это демонстрирует уникальную ценность AI в ускорении математических исследований и связывании разрозненных источников знаний. (Источник: 36氪)

PosetLM: разреженная альтернатива Transformer с низким VRAM и сильной перплексией: Независимое исследование под названием PosetLM опубликовало свой полный код, предлагая альтернативу Transformer, основанную на ориентированных ациклических графах (DAGs), а не на плотном механизме внимания. PosetLM, ограничивая внимание каждого токена к разреженным родительским токенам, достигает линейного по времени вывода и значительно снижает использование VRAM, сохраняя при этом перплексию, сравнимую с Transformer на наборе данных WikiText-103. Проект направлен на предоставление более эффективной языковой модели, обучаемой на небольших GPU. (Источник: Reddit r/deeplearning)
Entropy-Guided Loop: достижение рассуждений через генерацию, учитывающую неопределенность: Статья под названием «Entropy-Guided Loop: Achieving Reasoning through Uncertainty-Aware Generation» предлагает легкий, циклический метод во время тестирования, который использует неопределенность на уровне токенов для запуска целенаправленной доработки. Метод извлекает logprobs, вычисляет энтропию Шеннона и генерирует компактные отчеты о неопределенности, направляя модель на корректирующие изменения. Результаты показывают, что небольшие модели в сочетании с этим циклом могут достигать 95% качества больших моделей рассуждений в задачах рассуждений, математики и генерации кода, при этом стоимость составляет всего одну треть, что значительно повышает практичность небольших моделей. (Источник: Reddit r/MachineLearning)
Нобелевская лекция крестного отца AI Hinton: объяснение машины Больцмана без формул: Основное содержание Нобелевской лекции лауреата Нобелевской премии по физике Geoffrey Hinton «Машина Больцмана» официально опубликовано в журнале Американского физического общества. Hinton в своей лекции в доступной форме, избегая сложных формул, объяснил такие концепции, как сеть Хопфилда, распределение Больцмана и алгоритм обучения машины Больцмана. Он подчеркнул, что машина Больцмана, как «фермент истории», катализировала прорыв в глубоком обучении и предложил такие инновации, как «стекинг RBM», оказавшие глубокое влияние на область распознавания речи. (Источник: 36氪)

Новое исследование раскрывает механизмы согласования визуальных моделей с человеческим мозгом: FAIR и Высшая нормальная школа Парижа, обучив самоконтролируемую визуальную модель Transformer (DINOv3), обнаружили, что способ, которым AI видит мир, высоко согласуется с человеческим мозгом. Размер модели, объем обучающих данных и тип изображений влияют на степень сходства модели с мозгом, при этом модель DINOv3 с наибольшим масштабом, наибольшим объемом обучения и обученная на изображениях, связанных с человеком, получила наивысшую оценку сходства с мозгом. Исследование также показало, что мозгоподобные представления в AI-моделях следуют определенному временному порядку, что высоко согласуется с развитием коры головного мозга человека и функциональными характеристиками. (Источник: 量子位)

💼 Бизнес
Anthropic привлекла $13 млрд в раунде F, оценка достигла $183 млрд: Единорог в области больших моделей Anthropic завершила раунд финансирования F на сумму $13 млрд, после чего ее оценка достигла $183 млрд, что сделало ее третьим по стоимости AI-единорогом в мире. Этот раунд финансирования возглавили Iconiq, Fidelity и Lightspeed Venture Partners, а также в нем приняли участие суверенные фонды, такие как Qatar Investment Authority и Government of Singapore Investment Corporation. Годовой доход Anthropic уже превысил $5 млрд, а ее инструмент AI-программирования Claude Code стал основным двигателем роста, увеличив использование более чем в 10 раз за три месяца и принеся годовой доход более $500 млн. (Источник: 36氪, 36氪, Reddit r/artificial, Reddit r/ArtificialInteligence)

OpenAI приобрела Statsig, назначив ее CEO CTO по приложениям: OpenAI объявила о приобретении компании по анализу продуктов Statsig за $1,1 млрд и назначении основателя и CEO Statsig Vijaye Raji главным техническим директором по приложениям OpenAI. Это приобретение направлено на укрепление технологических и продуктовых возможностей OpenAI на уровне приложений, ускорение инженерных итераций и коммерциализации таких продуктов, как ChatGPT и Codex. Raji будет отвечать за руководство инженерными работами по продуктам ChatGPT и Codex, а команда Statsig также будет интегрирована в OpenAI, но компания продолжит работать независимо. (Источник: openai, 36氪, 36氪, 36氪)

Unitree Robotics планирует подать заявку на IPO в четвертом квартале: Unitree Robotics, ведущая китайская компания по производству четвероногих и человекоподобных роботов, объявила, что планирует подать заявку на листинг на фондовой бирже в период с октября по декабрь 2025 года. Продажи компании в 2024 году превысили 1 млрд юаней, из которых 65% приходится на четвероногих роботов и 30% на человекоподобных роботов. Unitree Robotics демонстрирует сильные показатели на рынке робототехники с годовым объемом продаж 23 700 единиц и, как ожидается, станет первой компанией в области человекоподобных роботов, вышедшей на рынок A-shares. (Источник: 36氪, 36氪)

🌟 Сообщество
Социальные сети активно обсуждают этику и безопасность AI: Дискуссии об AI в социальных сетях поляризованы. С одной стороны, пользователи выражают сильный страх перед потенциальной потерей рабочих мест, злоупотреблением данными и манипуляциями на рынке со стороны AI, доходя до «AI-фобии», считая, что AI «крадет искусство и вызывает усталость». С другой стороны, есть голоса, подчеркивающие потенциал AI как инструмента, призывающие к активному использованию, а не к страху. Обсуждение также затрагивает опасения по поводу защиты конфиденциальности в AI-продуктах, безопасности контента и использования AI правительствами/компаниями для манипуляций. (Источник: Reddit r/artificial, Reddit r/ArtificialInteligence)
Чрезмерная цензура контента ChatGPT вызывает недовольство пользователей: Пользователи ChatGPT сообщают, что механизм цензуры контента платформы чрезмерно чувствителен, часто вызывая предупреждения о горячей линии по предотвращению самоубийств или нарушениях, даже при обсуждении вымышленных историй или нечувствительных тем. Эта «чрезмерная» цензура приводит к ухудшению пользовательского опыта, пользователи считают ChatGPT «непригодным для использования» или «ухудшившимся в качестве», а некоторые даже заявляют, что из-за этого потеряли психологическую поддержку, предоставляемую AI. Сообщество призывает OpenAI найти баланс между безопасностью контента и свободой самовыражения пользователей. (Источник: Reddit r/ChatGPT, Reddit r/ChatGPT)

Обеспокоенность сообщества Reddit по поводу снижения качества AI-генерируемого контента: В нескольких AI-сообществах на Reddit (например, r/LocalLLaMA) возникли опасения по поводу снижения качества AI-генерируемого контента («slop posts»). Пользователи жалуются на обилие низкокачественных, хвалебных публикаций о AI-проектах и даже подозревают участие AI-ботов в комментариях и лайках, что приводит к чрезмерному шуму в сообществе и заглушает действительно ценный контент. Это отражает новый вызов: как поддерживать качество и подлинность контента в сообществе после снижения порога для создания AI-контента. (Источник: Reddit r/LocalLLaMA)
Авторские права на данные для обучения AI и спор о «добросовестном использовании»: Сообщество Reddit обсуждает, является ли использование Meta и другими компаниями материалов, защищенных авторским правом, для обучения LLM «добросовестным использованием». Meta утверждает, что ее модели не воспроизводят обучающий контент точно, поэтому это соответствует принципу «добросовестного использования». Однако пользователи ставят под сомнение, является ли такое поведение кражей, особенно когда компании получают данные пиратским путем. Дискуссия выявляет проблемы, с которыми сталкивается закон об авторском праве в эпоху AI, а также продолжающийся спор между крупными технологическими компаниями и создателями контента о правах на использование данных. (Источник: Reddit r/LocalLLaMA)

Научные исследования нарушаются роботами и дезинформацией, генерируемой AI: The Conversation сообщает, что интернет и его AI-боты подрывают целостность научных исследований. Исследователям трудно определить подлинность онлайн-участников, они сталкиваются с риском повреждения данных и выдачи себя за других. Сложные ответы, генерируемые AI, затрудняют идентификацию ботов, и в будущем могут появиться дипфейковые виртуальные собеседники. Это вынуждает исследователей пересмотреть личное общение, хотя это жертвует преимуществами интернета в демократизации участия в исследованиях. (Источник: aihub.org)

💡 Прочее
Democracy-in-Silico: симуляция институционального дизайна под управлением AI: Исследование представляет «Democracy-in-Silico» — агентную симуляцию, в которой AI-агенты со сложными психологическими характеристиками управляют обществом в различных институциональных рамках. Исследование позволяет LLM-агентам играть роли с травматическими воспоминаниями и скрытыми повестками дня, участвуя в обсуждениях, законодательстве и выборах под давлением, например, бюджетного кризиса. Исследование показало, что институциональный дизайн, такой как конституционные хартии AI и протоколы посреднических обсуждений, может эффективно снижать коррупционное лоббирование, повышать стабильность политики и улучшать благосостояние граждан. (Источник: HuggingFace Daily Papers)
Публичные фонды активно инвестируют в акции робототехники: Летом на китайском фондовом рынке A-shares публичные фонды активно проводили исследования, и акции компаний, связанных с робототехникой, стали популярными. Ведущие учреждения, такие как Boshi Fund и CITIC Securities Investment Fund, часто исследовали технологически ориентированные отрасли, такие как промышленное машиностроение и электронные компоненты. Акции компаний, связанных с робототехникой, таких как Huaming Equipment и Hengshuai Co., Ltd., привлекли внимание многих известных управляющих фондами, что свидетельствует о продолжающемся оптимизме на рынке капитала в отношении развития робототехники и ее внедрения в промышленность. (Источник: 36氪)

Уязвимость API OpenWebUI: пользователи могут случайно раскрыть общедоступные знания: В OpenWebUI обнаружена уязвимость API, которая позволяет пользователям с ролью «User» обходить настройки разрешений, создавать общедоступные знания через API и случайно раскрывать личные данные. API по умолчанию делает созданные знания общедоступными, и пользователи могут получить доступ к соответствующим файлам через запросы. Эта уязвимость представляет риск утечки данных, и пользователям рекомендуется временно отключить API или ограничить доступ к определенным конечным точкам до выпуска патча. (Источник: Reddit r/OpenWebUI)