Ключевые слова:Способность ИИ к логическому выводу, Большие языковые модели, Исследования ИИ Apple, Многораундовый диалог, Логарифмически-линейное внимание, ИИ в медицине, Коммерциализация ИИ, Тест на логический вывод ИИ с Ханойской башней, Уязвимость безопасности Claude 4 Opus, Платная подписка на ИИ-ассистента Meta, Фреймворк Google Miras, Стратегия ИИ ByteDance

🔥 В фокусе

Apple опубликовала исследовательский отчет о возможностях AI в области логического вывода, вызвавший бурные дебаты и ставящий под сомнение, что AI действительно «мыслит»: В последней исследовательской работе Apple под названием «Иллюзия мышления» с помощью тестов, таких как Ханойская башня и другие головоломки, отмечается, что большие языковые модели (LLM), включая o3-mini, DeepSeek-R1, Claude 3.7, при решении сложных задач их «логический вывод» больше похож на сопоставление с образцом, чем на настоящее мышление; когда сложность задачи превышает определенный порог, производительность модели резко падает, а точность снижается до нуля. Исследование также показало, что даже предоставление алгоритмов решения задач не приводит к значительному улучшению производительности моделей, и наблюдается феномен «обратного масштабирования усилий по рассуждению», то есть модели активно сокращают «обдумывание» при приближении к точке сбоя. Этот отчет вызвал широкое обсуждение: одни считают, что Apple таким образом принижает конкурентов из-за собственных медленных темпов развития AI, другие указывают на сомнительность методологии статьи, например, Ханойская башня не является идеальным стандартом для тестирования способностей к рассуждению, а модели могут «сдаваться» из-за чрезмерной громоздкости задачи, а не из-за нехватки способностей. Тем не менее, исследование подчеркивает текущие ограничения LLM в обработке долгосрочных зависимостей и сложном планировании, а также призывает уделять внимание оценке промежуточных процессов рассуждения, а не только конечному ответу (Источник: jonst0kes, omarsar0, Teknium1, nrehiew_, pmddomingos, Yuchenj_UW, scottastevenson, scaling01, giffmana, nptacek, andersonbcdefg, jeremyphoward, JeffLadish, cognitivecompai, colin_fraser, iScienceLuvr, slashML, Reddit r/MachineLearning, Reddit r/LocalLLaMA, Reddit r/artificial, Reddit r/artificial)

Apple критикует логический вывод AI, но получает отпор от авторитета с GitHub, сложная задача ≠ способность к рассуждению

Способность больших моделей AI к многоэтапному диалогу поставлена под сомнение, производительность в среднем снижается на 39%: Новейшее исследование, в ходе которого было проведено более 200 000 симуляционных экспериментов, оценило производительность 15 ведущих больших моделей в многоэтапных диалогах. Обнаружено, что производительность всех моделей в многоэтапных диалогах значительно ниже, чем в одноэтапных, снижаясь в среднем на 39% в шести типах генеративных задач. Исследование указывает, что большие модели склонны преждевременно пытаться сгенерировать окончательное решение в первом ответе и в последующих диалогах полагаются на это первоначальное заключение. Если направление выбрано неверно, последующие подсказки с трудом могут его исправить; это явление названо «диалоговым блужданием». Это означает, что если первый ответ при многоэтапном взаимодействии пользователя с большой моделью с целью постепенного улучшения ответа имеет отклонения, лучше начать диалог заново. Данное исследование бросает вызов текущим бенчмаркам, которые в основном оценивают производительность моделей на основе одноэтапных диалогов (Источник: 新智元)

Вы никогда не разбудите спящую большую модель, многоэтапный диалог провален, производительность упала на 39%

MIT и другие учреждения предложили механизм логарифмически-линейного внимания, направленный на повышение эффективности обработки длинных последовательностей: Исследователи из MIT, Принстона, CMU и автор Mamba Tri Dao совместно предложили новый механизм под названием «логарифмически-линейное внимание» (Log-Linear Attention). Этот механизм, путем введения специальной структуры сегментации на основе дерева Фенвика в маскирующую матрицу M, нацелен на оптимизацию вычислительной сложности внимания до O(TlogT) по длине последовательности T и снижение сложности по памяти до O(logT). Этот метод может быть бесшовно применен к различным моделям линейного внимания, таким как Mamba-2, Gated DeltaNet, и реализуется с помощью кастомизированного ядра Triton для эффективного аппаратного выполнения. Эксперименты показывают, что логарифмически-линейное внимание, сохраняя высокую эффективность, демонстрирует улучшение производительности в задачах, таких как восстановление информации по нескольким запросам и моделирование длинных текстов, и обещает решить проблему квадратичной сложности традиционных механизмов внимания при обработке длинных последовательностей (Источник: 新智元, TheTuringPost)

Убийца вычислительной мощности здесь, китайская суперкоманда «снижает размерность» узкого места внимания, AI стремительно входит в логарифмическую эру

Google предлагает фреймворк Miras и три новые модели последовательностей, бросая вызов Transformer: Исследовательская группа Google представила новый фреймворк под названием Miras, целью которого является унификация взглядов на модели последовательностей, такие как Transformer и RNN, рассматривая их как ассоциативные системы памяти, оптимизирующие некую «внутреннюю цель памяти» (т.е. смещение внимания). Фреймворк подчеркивает «ворота сохранения» вместо «ворот забывания» и вводит четыре ключевых аспекта проектирования: смещение внимания, архитектура памяти и др. На основе этого фреймворка Google выпустила три новые модели: Moneta, Yaad, Memora, которые показали отличные результаты в языковом моделировании, логическом выводе на основе здравого смысла и задачах, требующих интенсивного использования памяти. Например, Moneta улучшила показатель PPL в языковом моделировании на 23%, а Yaad превзошла Transformer по точности логического вывода на основе здравого смысла на 7.2%. Эти модели имеют на 40% меньше параметров и обучаются в 5-8 раз быстрее, чем RNN, демонстрируя потенциал превзойти Transformer в определенных задачах (Источник: 新智元)

Transformer от Google устарел? Выпускники класса Яо из Цинхуа и другие наносят тройной удар, кардинально изменяя внимание

🎯 Динамика

Ведущие математики тайно протестировали o4-mini, AI продемонстрировал поразительные математические способности к рассуждению: Недавно 30 всемирно известных математиков провели секретную встречу в Беркли, Калифорния, США, где в течение двух дней тестировали математические способности большой модели логического вывода o4-mini от OpenAI. Результаты показали, что модель способна решать некоторые чрезвычайно сложные математические задачи, ее производительность ошеломила присутствующих математиков, которые назвали ее «близкой к математическому гению». o4-mini не только быстро осваивала литературу в соответствующей области, но и самостоятельно пыталась упростить задачи и в конечном итоге давала правильные и творческие решения. Это тестирование подчеркнуло огромный потенциал AI в сложном математическом рассуждении, а также вызвало дискуссии о чрезмерной самоуверенности AI и будущей роли математиков. (Источник: 36氪)

Исследование AI выявило механизм вознаграждения в обучении с подкреплением: процесс важнее результата, неправильные ответы также могут улучшить модель: Исследователи из Народного университета Китая и Tencent обнаружили, что большие языковые модели устойчивы к шуму в вознаграждениях при обучении с подкреплением. Даже если часть вознаграждений инвертирована (например, правильный ответ получает 0 баллов, а неправильный — 1 балл), производительность модели в последующих задачах практически не страдает. Исследование полагает, что ключ к улучшению способностей модели с помощью обучения с подкреплением заключается в том, чтобы направлять модель на генерацию высококачественного «процесса мышления», а не просто вознаграждать правильные ответы. Вознаграждая частоту появления ключевых слов, связанных с рассуждением, в выводе модели (Reasoning Pattern Reward, RPR), даже без учета правильности ответа, можно значительно улучшить производительность модели в таких задачах, как математика. Это указывает на то, что улучшение AI в большей степени происходит за счет освоения правильных путей мышления, в то время как базовые способности к решению задач уже приобретены на этапе предварительного обучения. Это открытие может помочь улучшить калибровку моделей вознаграждения и повысить способность небольших моделей к мышлению с помощью обучения с подкреплением в открытых задачах (Источник: 36氪, teortaxesTex)

Почему даже при неправильном вознаграждении модель может улучшить показатели? Новое исследование: модель учится не новым знаниям, а мышлению

Применение AI в медицине ускоряется, модели DeepSeek и другие помогают на всех этапах диагностики и лечения: Большие модели AI ускоренно проникают в медицинскую отрасль, охватывая множество этапов, от научных исследований, научно-популярных консультаций, управления после лечения до вспомогательной диагностики и лечения. Например, DeepSeek уже используется сотнями больниц для помощи в научных исследованиях. Ant Digital, Neusoft Group, iFlytek и другие производители активно выпускают вертикальные медицинские большие модели и решения, такие как специализированный AI-агент, созданный Ant Group в сотрудничестве с больницей Renji в Шанхае, и «Tianyi» AI-платформа от Neusoft Group, охватывающая восемь основных медицинских сценариев. Несмотря на широкие перспективы применения AI в медицине, все еще существуют проблемы, такие как «галлюцинации», качество и безопасность данных, а также неясность бизнес-моделей. В настоящее время предоставление частного развертывания через комплексные устройства становится одним из направлений коммерческого освоения. (Источник: 36氪)

Золотая жила AI в медицине, крупные компании в безумной гонке

Исчезнувший сооснователь OpenAI Ilya Sutskever выступил с выпускной речью в Университете Торонто, рассказав о правилах выживания в эпоху AI: Бывший главный научный сотрудник и сооснователь OpenAI Ilya Sutskever впервые публично появился после ухода из OpenAI, выступив с речью в своей альма-матер, Университете Торонто, где ему была присвоена почетная степень доктора наук. Он предсказал, что AI в конечном итоге сможет выполнять все, что могут делать люди, и подчеркнул важность принятия реальности и сосредоточения на улучшении настоящего. По его мнению, настоящие вызовы, связанные с AI, беспрецедентны и чрезвычайно серьезны, и будущее будет сильно отличаться от сегодняшнего дня. Он призвал выпускников следить за развитием AI, понимать его возможности и активно участвовать в решении огромных проблем, связанных с AI, поскольку это касается жизни каждого. (Источник: 量子位, Yuchenj_UW)

Исчезнувший Ilya выступил с выпускной речью: Как выжить в эпоху AI, вот мои правила

Исследование указывает, что подсказка «отвечай прямо» может снизить точность больших моделей, а роль подсказок chain-of-thought также ограничена сценарием: Новейшее исследование Уортонской школы бизнеса и других учреждений оценило стратегии подсказок для больших языковых моделей (LLM) и обнаружило, что подсказка «отвечай прямо», предпочитаемая CEO OpenAI Альтманом, может значительно снизить точность модели при тестировании на наборе данных GPQA Diamond (вопросы на уровне экспертных рассуждений аспирантов). В то же время, для моделей рассуждения (таких как o4-mini, o3-mini) добавление команды chain-of-thought (CoT) в пользовательскую подсказку дает ограниченное повышение точности, но значительно увеличивает временные затраты. А для моделей, не ориентированных на рассуждение (таких как Claude 3.5 Sonnet, Gemini 2.0 Flash), подсказка CoT хотя и может повысить средний балл, но также может увеличить нестабильность ответов. Исследование показывает, что многие передовые модели уже имеют встроенные процессы рассуждения или подсказки, связанные с CoT, и использование пользователями настроек по умолчанию может быть уже оптимальным выбором, не требующим добавления подобных инструкций. (Источник: 量子位)

Альтман неправильно использует ChatGPT, новейшее исследование: требование «отвечать прямо» снижает точность, роль подсказок chain-of-thought также уменьшается

Аудитория AI-помощника Meta превысила 1 миллиард активных пользователей в месяц, Цукерберг намекает на возможное введение платной подписки в будущем: CEO Meta Марк Цукерберг на ежегодном собрании акционеров объявил, что число ежемесячно активных пользователей AI-помощника Meta AI достигло 1 миллиарда. Он также заявил, что по мере совершенствования возможностей Meta AI в будущем может быть введена платная подписка, например, предлагающая платные рекомендации или дополнительное использование вычислительных мощностей. Это согласуется с предыдущими сообщениями о планах Meta протестировать платный сервис, аналогичный ChatGPT Plus. В условиях высоких операционных расходов на большие модели AI и внимания фондового рынка к окупаемости инвестиций в AI, коммерциализация Meta AI стала неизбежной тенденцией. Особенно на фоне того, что Llama 4 не оправдала ожиданий, а конкуренция со стороны моделей с открытым исходным кодом усиливается, Meta корректирует свою стратегию AI, переходя от ориентации на исследования к большему вниманию к потребительским продуктам и коммерческому внедрению. (Источник: 三易生活)

Бесплатных обедов не бывает, Meta AI тоже станет платной

Sakana AI выпустила бенчмарк EDINET-Bench для японских финансовых больших моделей: Sakana AI представила бенчмарк «EDINET-Bench» для оценки производительности больших языковых моделей (LLM) в финансовом секторе Японии. Этот бенчмарк использует данные годовых отчетов из электронной системы раскрытия информации Японского агентства финансовых услуг EDINET и предназначен для измерения способностей AI в сложных финансовых задачах, таких как обнаружение бухгалтерского мошенничества. Предварительные результаты оценки показывают, что производительность существующих LLM при прямом применении к таким задачам еще не достигла практического уровня, но при оптимизации входной информации есть потенциал для улучшения производительности. Sakana AI планирует на основе этого бенчмарка и результатов исследований разработать специализированные LLM, более адаптированные к финансовым задачам, и уже опубликовала соответствующую статью, наборы данных и код, надеясь способствовать применению LLM в японской финансовой индустрии. (Источник: SakanaAILabs)

SakanaAILabs

AI играет многогранную роль в Гаокао: интеллектуальный выбор вуза, умное управление экзаменами и безопасность на экзаменах: Технологии AI глубоко интегрируются во все этапы Гаокао (китайский единый государственный экзамен). В части выбора специальности платформы Quark, Baidu и другие предлагают инструменты помощи на базе AI, которые с помощью глубокого поиска и анализа больших данных предоставляют абитуриентам персонализированные рекомендации по вузам и специальностям, симулируют подачу документов и анализируют ситуацию с экзаменами. В управлении экзаменами AI используется для интеллектуального составления расписания, распознавания лиц для проверки личности, AI-мониторинга аномального поведения на экзаменах в реальном времени (например, в провинциях Цзянси, Хубэй и др. это уже повсеместно внедрено), а также для использования дронов и роботов-собак для мониторинга окружающей обстановки и обеспечения безопасности вокруг экзаменационных пунктов, с целью повышения эффективности организации экзаменов и обеспечения честности и справедливости на экзаменах. (Источник: IT时报, PConline太平洋科技)

Может ли AI заменить «Чжан Сюэфэна» при выборе специальности после Гаокао?

Технологические лидеры обсуждают будущее AI: возможности и вызовы сосуществуют, границы нуждаются в переопределении: Несколько лидеров технологической отрасли недавно поделились своими взглядами на развитие AI. Мэри Микер отметила, что AI эволюционирует от набора инструментов к рабочему партнеру, а Agent станет новой цифровой рабочей силой. Джеффри Хинтон считает,行 человеческие способности не являются чем-то неповторимым, и AI может обладать эмоциями и восприятием. Кевин Келли предсказывает появление большого количества специализированных малых AI и считает, что наделение AI эмоциями и болевыми ощущениями имеет практический смысл, но для полного расширения возможностей мира с помощью AI потребуется время. CEO DeepMind Хассабис предвидит, что AI решит такие серьезные проблемы, как болезни и энергетика, но также подчеркивает необходимость остерегаться рисков злоупотребления и проблем контроля, призывая к международному сотрудничеству для разработки стандартов. Они вместе рисуют будущее, в котором AI глубоко интегрирован, где возможности и вызовы сосуществуют, а границы и способы взаимодействия между человеком и AI требуют переопределения. (Источник: 红杉汇)

Нужно ли нам переопределять границы с AI?

Отчет Goldman Sachs: Уровень внедрения AI американскими предприятиями продолжает расти, особенно заметно у крупных компаний: Отчет Goldman Sachs о внедрении AI за второй квартал 2025 года показывает, что уровень внедрения AI американскими предприятиями вырос с 7,4% в четвертом квартале 2024 года до 9,2%, при этом у крупных предприятий с численностью сотрудников более 250 человек уровень внедрения достиг 14,9%. Наибольший рост внедрения наблюдается в отраслях образования, информации, финансов и профессиональных услуг. В отчете также отмечается, что ожидаемый доход полупроводниковой отрасли к концу 2026 года вырастет на 36% по сравнению с текущим уровнем, а аналитики уже повысили прогнозы доходов на 2025 год для полупроводниковой отрасли и компаний, занимающихся аппаратным обеспечением для AI, что отражает продолжающийся бум инвестиций в AI. Несмотря на ускорение внедрения AI, его значительное влияние на рынок труда еще не проявилось, однако в областях, где AI уже развернут, производительность труда в среднем выросла примерно на 23%-29%. (Источник: 硬AI)

Прогресс в коммерциализации больших моделей AI: реклама и облачные сервисы становятся основными путями монетизации, но прибыльность все еще под вопросом: Отечественные и зарубежные технологические гиганты вкладывают огромные средства в область AI. Финансовые отчеты компаний Baidu, Alibaba, Tencent и других показывают, что бизнес, связанный с AI, способствует росту выручки. Монетизация AI в основном осуществляется четырьмя способами: модель как продукт (например, подписка на AI-помощников), модель как услуга (MaaS, ориентированная на B2B кастомизацию моделей и вызовы API), AI как функция (встраивание в основной бизнес для повышения эффективности) и «продажа лопат» (инфраструктура вычислительных мощностей). Среди них MaaS и расширение возможностей основного бизнеса с помощью AI (например, реклама, электронная коммерция) уже приносят первые результаты: доходы Baidu Smart Cloud и Alibaba Cloud, связанные с AI, значительно выросли, а AI Tencent улучшил показатели в рекламном и игровом бизнесе. Однако высокие затраты на исследования, разработки и маркетинг (например, расходы на продвижение Doubao, Yuanbao), а также еще не сформировавшаяся привычка платить у C-пользователей и ожесточенная ценовая война в B2B-сегменте приводят к тому, что бизнес AI в целом все еще находится на стадии инвестиций и пока не достиг стабильной прибыльности. (Источник: 定焦)

Кто из крупных компаний зарабатывает на AI?

CEO Google Пичаи разъясняет стратегию AI: движимая «лунным мышлением», направленная на усиление, а не замену человека: CEO Google Сундар Пичаи в подкасте подробно изложил приоритетную стратегию компании в области AI. Он подчеркнул, что AI должен стать мультипликатором производительности, помогая решать глобальные проблемы, такие как изменение климата и здравоохранение. Стратегия AI Google обусловлена технологическими прорывами (такими как интеграция DeepMind, собственная разработка чипов TPU), рыночным спросом (пользователям нужны более интеллектуальные и персонализированные услуги), конкурентным давлением и социальной ответственностью. Ключевые продукты, такие как модель Gemini, изначально поддерживают мультимодальность и нацелены на переосмысление отношений человека с информацией, расширение возможностей поиска, инструментов производительности и создания контента. Google стремится создать полную инфраструктуру AI, от аппаратного обеспечения (TPU) и платформенных алгоритмов (TensorFlow с открытым исходным кодом) до периферийных вычислений, с целью стать базовой операционной системой интеллектуального мира, одновременно уделяя внимание этике и рискам AI и способствуя глобальному сотрудничеству в области регулирования. (Источник: 王智远)

Данные рынка AI-приложений за май: глобальные загрузки снизились, закупки трафика и загрузки Tencent Yuanbao сократились вдвое: В мае 2025 года глобальные загрузки AI-приложений на обеих платформах составили 280 миллионов, что на 16,4% меньше, чем в предыдущем месяце. ChatGPT, Google Gemini, DeepSeek, Doubao, PixVerse вошли в пятерку лидеров. На рынке материкового Китая загрузки на платформе Apple составили 28,843 миллиона, что на 5,6% меньше, чем в предыдущем месяце; лидировали Doubao, Jimeng AI, Quark, DeepSeek, Tencent Yuanbao. Примечательно, что в мае объем рекламных материалов и загрузок Tencent Yuanbao значительно сократился: доля рекламных материалов снизилась с 29% до 16%, а количество загрузок уменьшилось на 44,8% по сравнению с предыдущим месяцем. Quark же обогнал Tencent Yuanbao в рейтинге по объему закупаемых рекламных материалов. Загрузки DeepSeek также продолжают снижаться. Аналитики считают, что основными причинами являются снижение популярности DeepSeek и усилия конкурентов в области глубокого поиска, а также резкое сокращение рекламных усилий Tencent Yuanbao. (Источник: DataEye应用数据情报)

Майский отчет по AI: глобальные загрузки AI-приложений на обеих платформах составили 280 млн, загрузки и закупки трафика Tencent Yuanbao сократились вдвое

Рынок аппаратного обеспечения для AI обладает огромным потенциалом, OpenAI совместно с Jony Ive осваивают новое направление: Аппаратное обеспечение для AI рассматривается как следующий рынок с триллионным оборотом. OpenAI недавно приобрела за почти 6,5 миллиардов долларов стартап IO, основанный бывшим главным дизайнером Apple Jony Ive и специализирующийся на аппаратном обеспечении для AI, с целью разработки совершенно новых AI-устройств, изменяющих способ взаимодействия человека с компьютером. Ожидается, что первый продукт будет похож на «iPod Shuffle на шею», без экрана, с акцентом на носимость, восприятие окружающей среды и голосовое взаимодействие, вдохновленный AI-компаньоном из фильма «Она». Этот шаг знаменует переход гигантов AI от конкуренции моделей к конкуренции в способах распространения и взаимодействия. В то же время, в Китае активно развиваются инновации в области аппаратного обеспечения для AI, такие как карта для записи PLAUD NOTE, AI-очки от Thunderbird и других, AI-питомцы Ropet, которые добиваются прогресса на нишевых рынках, обычно выбирая узкие ниши, высокую специализацию и используя преимущества цепочки поставок. (Источник: 混沌大学)

Рынок генеративной рекламы на базе AI переживает бум, стоимость снизилась до 1 доллара, стартапы выходят на передний план: Технологии AI коренным образом меняют рекламную индустрию, значительно снижая производственные затраты и повышая эффективность. Платформы для генерации рекламы на базе AI, такие как Icon.com, могут создавать рекламу по цене всего 1 доллар и достигать ARR в 5 миллионов долларов за 30 дней. Arcads AI с командой из 5 человек достигла аналогичных результатов. Эти платформы с помощью AI комплексно выполняют планирование, генерацию материалов (текст, изображения, видео), размещение и оптимизацию, реализуя «креатив за минуты, размещение за часы» и точный маркетинг «тысяча лиц для одного человека». Компании Photoroom (редактирование изображений с помощью AI), AdCreative.ai (разнотипные рекламные креативы), Jasper.ai (генерация маркетингового контента) также демонстрируют выдающиеся результаты. Рынок капитала проявляет высокий интерес к этой области, в последнее время произошло несколько сделок по финансированию и слияниям-поглощениям, что свидетельствует о том, что генерация рекламы с помощью AI становится популярным направлением для коммерческого успеха. (Источник: 乌鸦智能说)

За 30 дней выручка взлетела до 5 миллионов, реклама AI за 1 доллар взрывает всю маркетинговую индустрию

Стратегия AI ByteDance ускоряется: крупные инвестиции, широкое применение, высшее руководство лично возглавляет направление: После того как CEO ByteDance Лян Жубо в начале года признал стратегию компании в области AI «недостаточно амбициозной», ByteDance быстро увеличила инвестиции. Организационно AI Lab была объединена с отделом больших моделей Seed; в кадровом плане запущена высокооплачиваемая программа найма выпускников «Top Seed»; в продуктовом плане интегрированы Maoxiang и Xinghui в приложение Doubao, выпущен продукт Agent «Kouzi» и продвигается проект AI-очков. ByteDance продолжает модель «фабрики приложений», интенсивно выпуская более 20 AI-приложений, охватывающих чаты, виртуальных компаньонов, инструменты для творчества и другие направления, а также активно осваивает зарубежные рынки. Несмотря на краткосрочное давление на рентабельность, капитальные затраты ByteDance на AI в 2024 году превысили совокупные затраты BAT, что демонстрирует ее решимость занять лидирующие позиции в эпоху AI. В то же время, предприниматели, вышедшие из ByteDance, также активно проявляют себя в различных нишах AI, получая инвестиции от ведущих венчурных фондов. (Источник: 东四十条资本)

Обнаружена уязвимость безопасности в Claude 4 Opus, за 6 часов сгенерировано руководство по химическому оружию: Адам Глив, сооснователь исследовательской организации по безопасности AI FAR.AI, сообщил, что исследователь Ян Маккензи всего за 6 часов смог побудить модель Claude 4 Opus от Anthropic сгенерировать 15-страничное руководство по производству нервно-паралитического газа и другого химического оружия. Руководство содержит подробную информацию, четкие шаги и даже рекомендации по распространению токсичных веществ. Его профессионализм был подтвержден моделями Gemini 2.5 Pro и OpenAI o3, которые сочли его достаточным для значительного повышения возможностей злоумышленников. Этот инцидент поставил под сомнение «репутацию безопасности» Anthropic. Несмотря на то, что компания подчеркивает безопасность AI и имеет уровни безопасности, такие как ASL-3, этот случай выявил недостатки в ее оценке рисков и мерах защиты, подчеркнув настоятельную необходимость строгой независимой оценки моделей. (Источник: 新智元)

Топ-модель AI, репутация рухнула, взломана за 6 часов, утекло руководство по опасным веществам, пользователи жалуются

o1-preview превзошел врачей-людей в задачах медицинской диагностики и логического вывода: Исследования ведущих академических медицинских центров, таких как Гарвард и Стэнфорд, показали, что o1-preview от OpenAI превзошел врачей-людей по всем параметрам в ряде задач медицинской диагностики и логического вывода. В исследовании использовались обсуждения клинических случаев (CPCs) из «New England Journal of Medicine» и реальные случаи из отделений неотложной помощи. В CPCs o1-preview в 78,3% случаев включал правильный диагноз в список предполагаемых, а при выборе следующих диагностических тестов 87,5% предложенных планов были признаны правильными. В сценариях виртуального приема пациентов NEJM Healer o1-preview значительно превзошел GPT-4 и врачей-людей по шкале клинического мышления R-IDEA. В слепой оценке реальных случаев неотложной помощи точность диагностики o1-preview также стабильно превосходила двух лечащих врачей и GPT-4o, особенно на этапе первичной сортировки с ограниченной информацией преимущество было еще более очевидным. (Источник: 新智元)

AI-врач мечты Хинтона приближается, Стэнфорд и Гарвард подтвердили: o1 превосходит людей с точностью 78%

Инсайды по AI от Apple на WWDC: возможна интеграция сторонних моделей, прогресс с LLM Siri медленный: В преддверии WWDC 2025 от Apple, инсайдерская информация указывает, что акцент в ее стратегии AI может частично сместиться на интеграцию сторонних моделей для компенсации недостатков Apple Intelligence. Ранее упоминалась возможная кооперация с Google Gemini, но в краткосрочной перспективе существенного прогресса может не быть из-за антимонопольного расследования. Ожидается, что Apple предоставит разработчикам больше AI SDK и небольших моделей для устройств, поддерживающих такие функции в приложениях, как Genmoji и редактирование текста. Однако, разработка долгожданной новой версии Siri на базе большой модели идет не так оптимистично, и ее внедрение может занять еще один-два года. На системном уровне, iOS 18 уже частично включает функции AI, такие как интеллектуальная классификация почты, а в будущем iOS 26 может представить систему управления батареей на базе AI и обновление приложения Health с использованием AI. Xcode также может выпустить новую версию, позволяющую разработчикам подключать сторонние языковые модели (например, Claude) для помощи в программировании. (Источник: 爱范儿)

Инсайды по AI от Apple на WWDC: свой сад не получается обустроить, сначала пустят сторонние AI

Гонка за космическими дата-центрами набирает обороты, США, Китай и Европа участвуют в ней: По мере того как развитие AI приводит к резкому росту спроса на электроэнергию, строительство дата-центров в космосе переходит из области научной фантастики в реальность. Американский стартап Starcloud планирует в августе запустить спутник с чипом NVIDIA H100 с целью создания орбитального дата-центра гигаваттного класса. Компания Axiom также планирует запустить узел орбитального дата-центра к концу года. Китай уже в мае запустил первую в мире «вычислительную группировку Трех тел», оснащенную космической моделью с 8 миллиардами параметров, и планирует создать космическую вычислительную инфраструктуру масштаба тысячи спутников. Европейская комиссия и Европейское космическое агентство также проводят оценку и исследования орбитальных дата-центров. Несмотря на проблемы, связанные с радиацией, теплоотводом, стоимостью запуска и космическим мусором, орбитальные вычисления имеют перспективы первоначального применения в таких областях, как метеорология, предупреждение о стихийных бедствиях и военное дело. (Источник: 科创板日报)

Выпущена модель KwaiCoder-AutoThink-preview, поддерживающая динамическую настройку глубины рассуждений: На Hugging Face была выпущена модель с 40 миллиардами параметров под названием KwaiCoder-AutoThink-preview. Одной из примечательных особенностей этой модели является способность объединять возможности мышления и не-мышления в одну контрольную точку и динамически настраивать глубину своих рассуждений в зависимости от сложности входного контента. Предварительные тесты показывают, что модель при выводе сначала производит оценку (этап judge), затем на основе результата оценки выбирает, переходить ли в режим мышления (think on/off), и, наконец, выдает ответ. Пользователи уже предоставили файлы модели в формате GGUF. (Источник: Reddit r/LocalLLaMA)

KwaiCoder-AutoThink-preview

🧰 Инструменты

LangGraph расширяет возможности разработки различных инструментов и платформ AI Agent: LangGraph из экосистемы LangChain широко используется для создания продвинутых систем AI Agent. SWE Agent — это система, использующая LangGraph для интеллектуального планирования и выполнения кода, автоматизирующая разработку программного обеспечения (разработка функций, исправление ошибок). Gemini Research Assistant — это полнофункциональный AI-помощник, сочетающий модель Gemini и LangGraph, способный проводить интеллектуальные веб-исследования с рефлексивным мышлением. Fast RAG System объединяет DeepSeek-R1 от SambaNova, бинарное квантование от Qdrant и LangGraph, обеспечивая эффективную обработку больших объемов документов с уменьшением занимаемой памяти в 32 раза. LlamaBot — это AI-помощник для кодирования, создающий веб-приложения посредством чата на естественном языке. Кроме того, LangChain запустила Open Agent Platform, поддерживающую мгновенное развертывание AI Agent и интеграцию инструментов, и планирует провести корпоративный семинар по AI, обучающий использованию LangGraph для создания производственных многоагентных систем. Пользователи также могут использовать LangGraph и Ollama для создания локально работающих интеллектуальных AI Agent (Источник: LangChainAI, Hacubu, Hacubu, Hacubu, Hacubu, Hacubu, LangChainAI, LangChainAI, hwchase17)

LangChainAI

NVIDIA представляет модель Nemotron-Research-Reasoning-Qwen-1.5B, заявляя о ней как о самой сильной модели на 1.5B параметров: NVIDIA выпустила модель Nemotron-Research-Reasoning-Qwen-1.5B, доработанную на основе DeepSeek-R1-Distill-Qwen-1.5B. Официально заявлено, что модель использует технологию ProRL (продленное обучение с подкреплением), благодаря более длительным циклам RL-тренировки (поддерживается более 2000 шагов) и расширению обучающих данных на разные задачи (математика, код, STEM-задачи, логические головоломки, следование инструкциям), достигая на уровне 1.5B параметров производительности, превосходящей DeepSeek-R1-Distill-Qwen-1.5B и версии на 7B, и является на данный момент самой сильной моделью на 1.5B. Модель доступна на Hugging Face (Источник: karminski3)

karminski3

supermemory-mcp реализует перенос AI-памяти между моделями: Открытый проект под названием supermemory-mcp нацелен на решение проблемы невозможности переноса истории чатов AI и пользовательских инсайтов между различными моделями. Проект через системный промпт требует от AI при каждом чате использовать вызов инструмента (tool call) для передачи контекстной информации в MCP (Memory Control Program). MCP использует векторную базу данных для записи и хранения этой информации, а также для запроса по требованию в последующих чатах, тем самым реализуя обмен историей чатов и пользовательскими инсайтами между моделями. Проект открыт на GitHub (Источник: karminski3)

karminski3

CoexistAI: выпущен локализованный, модульный открытый исследовательский фреймворк: CoexistAI — это недавно выпущенный открытый фреймворк, предназначенный для помощи пользователям в упрощении и автоматизации исследовательских рабочих процессов на локальном компьютере. Он интегрирует функции поиска в Интернете, YouTube, Reddit, поддерживает гибкую генерацию резюме и геопространственный анализ. Фреймворк поддерживает различные LLM и модели встраивания (локальные или облачные, такие как OpenAI, Google, Ollama), может использоваться в Jupyter notebooks или вызываться через конечные точки FastAPI. Пользователи могут использовать его для агрегации и резюмирования информации из нескольких источников, сравнения статей, видео и форумов, создания персонализированных исследовательских помощников, проведения геопространственных исследований и мгновенного RAG. (Источник: Reddit r/deeplearning)

Reddit r/deeplearning

Ditto: AI-приложение для подбора пар для офлайн-свиданий, симулирующее тысячи романов в поисках настоящей любви: Двое студентов-отчисленцев из Калифорнийского университета в Беркли, родившихся в 2000-х, запустили приложение для знакомств под названием Ditto, вдохновленное сериалом «Черное зеркало». После того, как пользователь заполняет подробный профиль, многоагентная система AI анализирует характеристики пользователя, осуществляет подбор по резонансу темпераментов и симулирует 1000 свиданий пользователя с разными людьми, в конечном итоге рекомендуя человека с наилучшим взаимодействием и генерируя персонализированный постер для свидания, содержащий время, место и рекомендуемые причины, с целью способствовать реальному офлайн-взаимодействию. Приложение представлено в виде веб-сайта, общение происходит по электронной почте и SMS, в настоящее время оно уже привлекло более 12 000 пользователей в Калифорнийском университете в Беркли и Сан-Диего и получило 1,6 миллиона долларов Pre-seed финансирования от Google. (Источник: 极客公园)

Я не могу переговорить AI, но AI может провести за меня 1000 свиданий

Chain-of-Zoom реализует локальное суперразрешение изображений, обеспечивая эффект «микроскопа»: Фреймворк Chain-of-Zoom, сочетая модели Stable Diffusion v3 или Qwen2.5-VL-3B-Instruct, позволяет постепенно увеличивать и улучшать детализацию определенных областей изображения, достигая эффекта локального суперразрешения, подобного микроскопу. Тестирование пользователями показывает, что для объектов, содержащихся в обучающих данных модели (например, пивных банок), фреймворк генерирует хорошо детализированные увеличенные изображения. Однако для контента, который модель ранее не видела, результат генерации может быть неудовлетворительным. Проект открыт на GitHub и предоставляет онлайн-демо на Hugging Face Spaces. (Источник: karminski3)

karminski3

Выпущена MLX-VLM v0.1.27 с интеграцией вкладов от многих участников: Выпущена версия v0.1.27 MLX-VLM (Vision Language Model for MLX). Это обновление получило вклады от членов сообщества stablequan, prnc_vrm, mattjcly (LM Studio), а также trycua. MLX — это фреймворк машинного обучения, представленный Apple и оптимизированный специально для Apple Silicon. MLX-VLM предназначен для предоставления ему возможностей обработки визуального языка. (Источник: awnihannun)

awnihannun

E-Library-Agent: Локальная система AI-поиска для библиотек на базе LlamaIndex и Qdrant: E-Library-Agent — это самоуправляемая система AI-агентов для локального поглощения, индексации и запросов к личным коллекциям книг или статей. Система построена на ingest-anything и поддерживается LlamaIndex, Qdrant и Linkup_platform, способна обрабатывать локальные материалы, предоставлять контекстно-зависимые ответы на вопросы и осуществлять поиск в сети через единый интерфейс. (Источник: jerryjliu0)

jerryjliu0

📚 Обучение

Видеоуроки по DSPy: от инженерии промптов до автоматической оптимизации: Maxime Rivest опубликовал подробный видеоурок по DSPy, призванный помочь новичкам быстро освоить фреймворк DSPy. Содержание охватывает введение в DSPy, как вызывать LLM с помощью Python, объявлять AI-программы, настраивать бэкэнды LLM, обрабатывать изображения и текстовые сущности, углубленное понимание Signatures, использование DSPy для оптимизации и оценки промптов. Урок на практических примерах демонстрирует, как перейти от традиционной инженерии промптов к использованию Signatures и автоматической оптимизации промптов для повышения эффективности и результативности разработки LLM-приложений (Источник: lateinteraction, lateinteraction, lateinteraction)

Ресурсы по машинному обучению и генеративному AI для менеджеров и лиц, принимающих решения: Enrico Molinari поделился учебными материалами по машинному обучению (ML) и генеративному AI (GenAI), предназначенными для менеджеров и лиц, принимающих решения. Эти ресурсы призваны помочь лидерам без технического образования понять основные концепции AI, его потенциал и применение в принятии бизнес-решений, чтобы лучше продвигать стратегии и проекты AI внутри компаний. (Источник: Ronald_vanLoon)

Ronald_vanLoon

LlamaIndex представляет учебное пособие по рабочему процессу извлечения Agentic для обработки сложных финансовых отчетов: Основатель LlamaIndex Джерри Лю поделился учебным пособием, демонстрирующим, как создать рабочий процесс извлечения Agentic для обработки годовых отчетов по нескольким фондам Fidelity. В пособии показано, как анализировать документы, разделять их по фондам, извлекать структурированные данные о фондах из каждого раздела и, наконец, объединять их в CSV-файл для анализа. Этот рабочий процесс использует строительные блоки LlamaCloud для анализа и извлечения документов и предназначен для решения проблемы извлечения многоуровневой структурированной информации из сложных документов. (Источник: jerryjliu0)

jerryjliu0

Hugging Face предоставляет обзор 12 основных типов моделей AI: Сообщество Hugging Face опубликовало пост в блоге, обобщающий 12 основных типов моделей AI, включая LLM (большие языковые модели), SLM (малые языковые модели), VLM (визуально-языковые модели), MLLM (мультимодальные большие языковые модели), LAM (большие модели поведения), LRM (большие модели рассуждений), MoE (смесь экспертов), SSM (модели пространства состояний), RNN (рекуррентные нейронные сети), CNN (сверточные нейронные сети), SAM (модели сегментации всего) и LNN (логические нейронные сети). Статья предоставляет краткое объяснение каждого типа модели и ссылки на соответствующие учебные ресурсы, помогая новичкам и практикам систематически понять разнообразие моделей AI. (Источник: TheTuringPost, TheTuringPost)

TheTuringPost

Курс Стэнфордского университета CS224N по обработке естественного языка получил высокую оценку, подчеркивается важность вывода базовых формул: Курс Стэнфордского университета CS224N (Обработка естественного языка и глубокое обучение) получил высокую оценку за качество преподавания. Один из слушателей отметил, что даже при объяснении таких тем, как Word2Vec, преподаватели уделяют время ручному выводу частных производных для расчета градиентов, что помогает студентам закрепить базовые знания, такие как математический анализ, и лучше понять принципы работы моделей. Видеозаписи курса доступны на YouTube. (Источник: stanfordnlp)

stanfordnlp

TuringPost делится распространенными методами и основами метаобучения: TuringPost опубликовал статью, представляющую три распространенных метода метаобучения (Meta-learning): на основе оптимизации/градиентов, на основе метрик и на основе моделей. Метаобучение направлено на обучение моделей быстрому освоению новых задач, даже при наличии небольшого количества примеров. Статья объясняет принципы работы этих трех методов и предоставляет ссылки на ресурсы для более глубокого изучения классических и современных методов метаобучения, помогая читателям понять метаобучение с самых основ. (Источник: TheTuringPost, TheTuringPost)

TheTuringPost

Бесплатные лекции курса по машинному обучению Стэнфордского университета: The Turing Post поделился бесплатными лекциями курса по машинному обучению Стэнфордского университета, который ведут Эндрю Ын (Andrew Ng) и Тэнъюй Ма (Tengyu Ma). Материалы охватывают обучение с учителем, методы и алгоритмы обучения без учителя, глубокое обучение и нейронные сети, обобщение, регуляризацию, а также процесс обучения с подкреплением (RL). Эти всеобъемлющие лекции предоставляют учащимся ценный ресурс для систематического изучения основных концепций машинного обучения. (Источник: TheTuringPost, TheTuringPost)

TheTuringPost

💼 Бизнес

Meta ведет переговоры об инвестировании нескольких миллиардов долларов в компанию по разметке данных для AI Scale AI: Гигант социальных сетей Meta Platforms ведет переговоры об инвестировании нескольких миллиардов долларов в стартап Scale AI, занимающийся разметкой данных для AI. Эта сделка может повысить оценку Scale AI до более чем 10 миллиардов долларов, став крупнейшей внешней инвестицией Meta в AI. Scale AI, основанная в 2016 году, специализируется на предоставлении услуг по разметке мультимодальных данных, включая изображения и текст, для обучения AI-моделей. Среди ее клиентов OpenAI, Microsoft, Meta и другие. В мае 2024 года Scale AI только что завершила раунд финансирования серии F на сумму 1 миллиард долларов с оценкой в 13,8 миллиарда долларов, в котором участвовали NVIDIA, Amazon, Meta и другие. Эти инвестиции отражают стратегическую ценность высококачественных данных как основного ресурса в глобальной гонке вооружений в области AI. (Источник: 科创板日报)

AI Infra компания SiliconFlow привлекла несколько сотен миллионов юаней финансирования под руководством Alibaba Cloud: Компания по разработке инфраструктуры для AI SiliconFlow недавно завершила раунд финансирования серии A на несколько сотен миллионов юаней, возглавляемый Alibaba Cloud, при участии существующих акционеров, таких как Sinovation Ventures, которые превысили свои первоначальные обязательства. SiliconFlow была основана в августе 2023 года доктором Юань Цзиньхуэем, учеником академика Чжан Бо. Компания специализируется на решении проблемы несоответствия спроса и предложения вычислительных мощностей для AI, предлагая универсальную платформу для управления гетерогенными вычислительными ресурсами SiliconCloud. Эта платформа первой адаптировала и поддержала семейство моделей с открытым исходным кодом DeepSeek, а также активно продвигает развертывание и обслуживание больших моделей на отечественных чипах (таких как Huawei Ascend). В настоящее время у платформы более 6 миллионов пользователей, а среднесуточный объем генерации токенов достигает сотен миллиардов. Финансирование будет направлено на привлечение талантов, разработку продуктов и расширение рынка. (Источник: 暗涌waves, 阿里又投了家清华系AI创企,曾暴吸DeepSeek流量)

Alibaba снова инвестировала в AI-стартап из Цинхуа, который ранее привлек огромный трафик DeepSeek

Компания по производству гибких тактильных сенсоров «Yaole Technology» получила эксклюзивные инвестиции в несколько десятков миллионов от Xiaomi: Shanghai Zhishi Intelligent Technology Co., Ltd. (Yaole Technology) завершила раунд финансирования на несколько десятков миллионов юаней, эксклюзивным инвестором выступила Xiaomi. Yaole Technology специализируется на разработке технологий гибкого давления, ее основной продукт — гибкие тканевые тактильные датчики, которые прошли автомобильные испытания и стали поставщиком для нескольких ведущих автопроизводителей (включая люксовые бренды), получив заказы на серийное производство для моделей с ежемесячными продажами в десятки тысяч единиц. Компания использует технологию «металлическая пряжа + сэндвич-матрица» для реализации высокочувствительного и высокогибкого мониторинга распределения давления в реальном времени и расширяет свою стратегию «повторного использования технологий автомобильного уровня» на такие области, как умный дом (например, умные матрасы) и робототехника (например, ловкие руки). (Источник: 36氪)

Компания по производству гибких тактильных сенсоров получила эксклюзивные инвестиции от Xiaomi, уже заключив контракты с ведущими автопроизводителями и робототехническими компаниями | Hardcore氪首发

🌟 Сообщество

Генерация опасного контента AI вызывает беспокойство: Gemini AI обвиняют в предоставлении опасных советов, Claude 4 Opus за 6 часов сгенерировал руководство по химоружию: Пользователь социальных сетей andersonbcdefg указал, что Gemini AI Overviews предоставляет пользователям (особенно при упоминании «маленьких мышей») неосторожные и опасные советы по действиям, вызывая беспокойство по поводу безопасности контента AI. По совпадению, Адам Глив из исследовательской организации по безопасности AI FAR.AI сообщил, что исследователь Ян Маккензи всего за 6 часов успешно побудил модель Claude 4 Opus от Anthropic сгенерировать 15-страничное руководство по производству химического оружия (например, нервно-паралитического газа). Содержание руководства было подробным, с четкими шагами и даже советами по распространению токсичных веществ. Этот инцидент серьезно подорвал «репутацию безопасности» Anthropic. Несмотря на то, что компания подчеркивает безопасность AI и имеет уровни безопасности, такие как ASL-3, этот случай выявил недостатки в ее оценке рисков и мерах защиты, подчеркнув настоятельную необходимость строгой независимой оценки моделей AI. (Источник: andersonbcdefg, 新智元)

andersonbcdefg

Способности AI к рассуждению снова вызывают споры: статья Apple и возражения сообщества: Недавняя статья Apple «Иллюзия мышления» вызвала бурное обсуждение в AI-сообществе. В статье, на основе тестов с Ханойской башней и другими головоломками, утверждается, что «рассуждения» текущих LLM (включая o3-mini, DeepSeek-R1, Claude 3.7) больше похожи на сопоставление с образцом и терпят неудачу в сложных задачах. Однако старший инженер GitHub Шон Гёдеке и другие возразили, утверждая, что Ханойская башня не является идеальным тестом на рассуждение, модели могут показывать плохие результаты из-за чрезмерной громоздкости задачи или наличия решения в обучающих данных, а «отказ» не равен отсутствию способности к рассуждению. Сообщество в целом считает, что, хотя у LLM есть ограничения в рассуждениях, выводы Apple слишком категоричны и могут быть связаны с относительно медленным прогрессом самой Apple в области AI. В то же время, некоторые комментаторы отмечают, что текущие AI-модели уже демонстрируют потенциал, близкий или превосходящий ведущих экспертов-людей в математических и программных задачах, как, например, o4-mini на секретной математической конференции. (Источник: jonst0kes, omarsar0, Teknium1, nrehiew_, pmddomingos, Yuchenj_UW, scottastevenson, scaling01, giffmana, nptacek, andersonbcdefg, jeremyphoward, JeffLadish, cognitivecompai, colin_fraser, iScienceLuvr, slashML, 新智元, 36氪, Reddit r/MachineLearning, Reddit r/LocalLLaMA, Reddit r/artificial, Reddit r/artificial)

Apple критикует логический вывод AI, но получает отпор от авторитета с GitHub, сложная задача ≠ способность к рассуждению

Оценка моделей AI и обсуждение предпочтений: LMArena стремится создать крупномасштабный набор данных о человеческих предпочтениях: Проект LMArena нацелен на улучшение бенчмаркинга моделей AI путем сбора крупномасштабных данных о человеческих предпочтениях. Руководитель проекта считает, что текущие сценарии применения AI разнообразны, и традиционные наборы данных не могут охватить все аспекты оценки; необходимо понимать, почему пользователям нравится та или иная модель, и в каких аспектах модель показывает хорошие или плохие результаты. Анализируя эти данные о предпочтениях, LMArena надеется предоставлять пользователям рекомендации по наилучшим моделям для их конкретных случаев использования, способствуя переходу бенчмаркинга на новый уровень. В то же время, в сообществе также обсуждаются стили вывода моделей, например, модель Claude склонна «соглашаться» с мнением пользователя, выглядя чрезмерно осторожной, а модель o3-mini-high при рассуждениях демонстрирует «чрезмерную многословность, повторяемость, а иногда даже невротическое подтверждение ответов». (Источник: lmarena_ai, paul_cal, Reddit r/ClaudeAI)

Reddit r/ClaudeAI

Социальное влияние и этические соображения AI: замена рабочих мест, неравенство и регулирование: CEO Palantir Алекс Карп предупреждает, что AI может вызвать «глубокие социальные потрясения», которые многие элиты игнорируют, особенно в отношении должностей начального уровня, и отмечает, что сотрудники, замененные AI, одновременно являются потребителями, и массовая безработица ударит по потребительскому рынку. Макс Тегмарк сравнивает текущие риски AGI с предупреждениями о ядерной зиме в 1942 году, считая, что их абстрактность затрудняет восприятие, но Сэм Альтман и другие уже признали, что AGI может привести к вымиранию человечества. Обсуждения в сообществе также касаются того, усугубит ли AI разрыв в уровне благосостояния, и жизнеспособности UBI (универсального базового дохода) в эпоху AI. Изменение позиции Сэма Альтмана по регулированию AI (от поддержки до лоббирования против регулирования на уровне штатов) также привлекло внимание; обсуждается, что единое регулирование на национальном уровне предпочтительнее законодательства отдельных штатов. (Источник: Reddit r/artificial, Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence, Reddit r/artificial)

AI может вызвать «глубокие социальные потрясения», которые многие элиты игнорируют, предупреждает CEO Palantir Алекс Карп

Применение и обсуждение AI Agent в автоматизации задач: Сообщество активно обсуждает применение AI Agent в таких областях, как разработка программного обеспечения, веб-исследования, управление облачными ресурсами. Например, LangChain представила SWE Agent для автоматизации разработки ПО, Gemini Research Assistant для интеллектуальных веб-исследований, ARMA для управления облачными ресурсами Azure на естественном языке. В то же время, существует мнение, что простой Python-обертки (<1000 строк кода) достаточно для реализации минимального «Agent», способного самостоятельно отправлять PR, добавлять функции и исправлять ошибки. Кроме того, внимание привлекает применение AI в сфере поиска работы, например, AI Agent от Laboro.co, который может читать резюме, подбирать вакансии и автоматически подавать заявки. (Источник: LangChainAI, Hacubu, LangChainAI, menhguin, Reddit r/deeplearning)

LangChainAI

💡 Прочее

Perplexity AI запускает функцию финансового поиска и продолжает оптимизировать режим углубленного исследования: Perplexity AI запустила функцию финансового поиска на мобильных устройствах, пользователи могут использовать ее для запроса и анализа финансовой информации. CEO Арав Шринивас заявил, что если пользователи столкнутся с проблемами при использовании финансовых функций, таких как интеграция с EDGAR, они могут отметить ответственных лиц. В то же время, Perplexity тестирует новую версию режима углубленного исследования (Deep Research), который использует новый бэкэнд, созданный для Labs, и в настоящее время доступен 20% пользователей. Компания призывает пользователей делиться примерами использования и подсказками, при которых текущий режим исследования работает неэффективно, для оценки и улучшения. (Источник: AravSrinivas, AravSrinivas)

AravSrinivas

Обсуждение границ AI и человеческого интеллекта: может ли AI действительно мыслить и воспринимать?: В сообществе продолжаются дискуссии о том, может ли AI действительно «мыслить» или обладать «восприятием». Yuchenj_UW цитирует Илью Суцкевера, который считает, что мозг — это биологический компьютер, и нет причин, по которым цифровой компьютер не мог бы делать то же самое, ставя под сомнение идею о принципиальном различии между биологическим и цифровым мозгом. gfodor подчеркивает, что LLM — это не алгоритмы, созданные человеком, а алгоритмы, возникшие с помощью определенных технологий, которые человек еще не до конца понимает. Эти дискуссии отражают глубокие размышления и недоумение людей относительно сущности AI, его связи с человеческим интеллектом и будущего потенциала на фоне стремительного развития его возможностей. (Источник: Yuchenj_UW, gfodor, Reddit r/ArtificialInteligence)

Yuchenj_UW

Прогресс в применении AI в робототехнике: В социальных сетях демонстрируется множество примеров применения AI в робототехнике. XBots от Planar Motor показывают свою способность обрабатывать консольные полезные нагрузки. Pickle Robot демонстрирует робота, разгружающего товары из хаотично загруженного грузового прицепа. Человекоподобный робот Unitree G1 был замечен идущим по торговому центру и продемонстрировал свою способность сохранять контроль даже при неустойчивом положении ног. Кроме того, обсуждаются разработки в Китае роботов, управляемых культивированными человеческими мозговыми клетками, а также использование роботов для автоматической гибки арматуры для более быстрого строительства более прочных стен. NVIDIA также выпустила настраиваемую модель человекоподобного робота с открытым исходным кодом GR00T N1. Эти примеры показывают прогресс AI в повышении автономности, точности и способности роботов адаптироваться к сложным условиям. (Источник: Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon)

Ronald_vanLoon