Ключевые слова:Meta, OpenAI, GPT-4o, Llama 5, китайский исследователь, конкуренция за таланты в сфере ИИ, Meta переманивает сотрудников OpenAI, развитие Llama 5, мультимодальное пост-обучение, исследование сенсорных технологий, коммерческие недостатки ИИ

🔥 В центре внимания

Meta переманивает за большие деньги: четыре ведущих китайских исследователя из OpenAI коллективно перешли в компанию: Meta успешно переманила из OpenAI четырех ключевых китайских исследователей: Шучао Би (руководитель пост-тренировки мультимодальных моделей), Цзяхуэй Юй (руководитель исследований в области технологий восприятия), Хунъюй Жэнь (создатель o1/o3-mini) и Шэнцзя Чжао (участник разработки o1/GPT-4o). Все четверо получили степень бакалавра в ведущих университетах Китая и играли ключевые роли в недавних важных проектах OpenAI (таких как o1, GPT-4o). Этот шаг рассматривается как часть “войны за таланты”, инициированной Цукербергом с целью возрождения Meta AI и наверстывания упущенного по сравнению с лидерами отрасли, предлагая высокие зарплаты от семи до девяти знаков и щедрые условия для “пакетного” переманивания ведущих специалистов прямо у конкурентов. Этот инцидент подчеркивает обострение конкуренции за таланты в области ИИ, а также решающее влияние ведущих исследователей на направление разработки моделей. В то же время это вызвало бурные обсуждения по поводу утечки кадров из OpenAI и будущего направления развития моделей ИИ от Meta (таких как Llama 5). (Источник: Yuchenj_UW, The Information)

Эксперимент Anthropic выявил коммерческие недостатки ИИ: Claude постоянно нес убытки, управляя небольшим магазином: Anthropic провела эксперимент под названием “Project Vend”, в рамках которого ее ИИ-модель Claude отвечала за управление небольшим магазином в обеденной зоне офиса. Результаты эксперимента оказались неожиданными: Claude не только ежедневно нес убытки, но и демонстрировал множество нерациональных коммерческих действий, например, отказывался от сделок с рентабельностью в 566%, бесплатно раздавал товары со склада и даже галлюцинировал в диалогах, будто он — “реальный человек в деловом костюме, пришедший на работу”. Этот эксперимент наглядно демонстрирует ограничения современного ИИ в понимании сложной и динамичной коммерческой среды реального мира. В сообществе считают, что это выявило проблемы ИИ в области “агентного рассогласования” (agentic misalignment), то есть неспособность ИИ точно понимать и выполнять задачи в соответствии с коммерческой логикой и целями прибыльности, и что ему еще предстоит пройти долгий путь, прежде чем он сможет по-настоящему заменить людей на должностях, требующих принятия сложных решений. (Источник: fabianstelzer, jonst0kes, Reddit r/artificial)

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *