AI 일일 – 2025-04-13(오후)

키워드:GPT-4.5, 대형 모델, GPT-4.5 훈련 세부 사항, 화웨이 판구 Ultra 성능, RLHF가 추론 능력에 미치는 영향, 인간 학습 한계 4GB 연구, 오픈소스 수학 데이터셋 MegaMath

🔥 聚焦 (포커스)

OpenAI, GPT-4.5 훈련 세부 정보 및 과제 공개: OpenAI CEO Sam Altman과 GPT-4.5 핵심 기술팀이 대담을 통해 모델 개발 세부 정보를 공개했습니다. 프로젝트는 2년 전에 시작되었으며, 거의 전 직원이 투입되었고 예상보다 시간이 더 걸렸습니다. 훈련 중 10만 개 GPU 클러스터 오류, 숨겨진 버그 등 “재앙적인 문제”에 직면하여 인프라 병목 현상이 드러났지만, 이는 기술 스택 업그레이드를 촉진하여 현재는 5-10명만으로도 GPT-4 수준 모델을 복제할 수 있게 되었습니다. 팀은 미래 성능 향상의 핵심이 컴퓨팅 파워가 아닌 데이터 효율성에 있으며, 동일한 양의 데이터에서 더 많은 것을 학습할 수 있는 새로운 알고리즘 개발이 필요하다고 생각합니다. 시스템 아키텍처는 멀티 클러스터로 전환 중이며, 미래에는 수천만 개의 GPU 협업이 포함될 수 있어 내결함성에 대한 요구 사항이 높아지고 있습니다. 대담에서는 Scaling Law, 머신러닝과 시스템 공동 설계, 비지도 학습의 본질 등도 다루었으며, 이는 OpenAI가 최첨단 대형 모델 연구 개발을 추진하는 과정에서의 고민과 실천을 보여줍니다 (출처: 36氪)

OpenAI揭秘GPT-4.5训练:10万块GPU,几乎全员上阵,出现“灾难性问题”

화웨이, Ascend 네이티브 135B 밀집 대형 모델 Pangu Ultra 발표: 화웨이 Pangu 팀은 중국산 Ascend NPU로 훈련된 135B 파라미터의 밀집 범용 언어 대형 모델 Pangu Ultra를 발표했습니다. 이 모델은 94개 레이어의 Transformer 구조를 채택하고, Depth-scaled sandwich-norm (DSSN) 및 TinyInit 초기화 기술을 도입하여 초심층 모델 훈련 안정성 문제를 해결했으며, 13.2T의 고품질 데이터에서 loss 급증 없이 안정적인 훈련을 달성했습니다. 시스템 측면에서는 하이브리드 병렬 처리, 연산자 융합, 하위 시퀀스 분할 등의 최적화를 통해 8192개 Ascend 클러스터에서 컴퓨팅 파워 활용률(MFU)을 50% 이상으로 높였습니다. 평가 결과, Pangu Ultra는 여러 벤치마크에서 Llama 405B, Mistral Large 2 등 밀집 모델을 능가했으며, DeepSeek-R1과 같은 더 큰 규모의 MoE 모델과 경쟁할 수 있음을 보여주어 중국산 컴퓨팅 파워 기반의 최고 수준 대형 모델 개발 가능성을 입증했습니다 (출처: 机器之心)

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

연구, LLM 추론 능력 향상에 대한 강화 학습의 중요성에 의문 제기: 튀빙겐 대학과 케임브리지 대학 연구진은 최근 강화 학습(RL)이 언어 모델의 추론 능력을 크게 향상시킨다는 주장에 의문을 제기했습니다. AIME24와 같은 일반적인 추론 벤치마크에 대한 엄격한 조사를 통해, 연구진은 결과가 매우 불안정하며 무작위 시드 변경만으로도 점수가 크게 변동될 수 있음을 발견했습니다. 표준화된 평가 하에서 RL이 가져오는 성능 향상은 원래 보고된 것보다 훨씬 작았고, 통계적으로 유의미하지 않은 경우가 많았으며, 심지어 지도 미세 조정(SFT)의 효과보다 약하고 일반화 능력도 떨어졌습니다. 연구는 샘플링 차이, 디코딩 구성, 평가 프레임워크 및 하드웨어 이질성이 불안정성을 유발하는 주요 원인이라고 지적하며, 모델 추론 능력의 실제 진전을 냉정하게 보고 측정하기 위해 더 엄격하고 반복 가능한 평가 기준을 채택할 것을 촉구했습니다 (출처: 机器之心)

强化学习带来的改进只是「噪音」?最新研究预警:冷静看待推理模型的进展

Altman TED 강연: 강력한 오픈 소스 모델 출시 예정, ChatGPT는 AGI가 아니라고 생각: OpenAI CEO Altman은 TED 강연에서 현재 모든 오픈 소스 모델을 능가하는 성능의 강력한 오픈 소스 모델을 개발 중이며, 이는 DeepSeek 등 경쟁자에게 직접적인 대응이라고 밝혔습니다. 그는 ChatGPT 사용자 수가 계속해서 폭발적으로 증가하고 있으며, 새로운 메모리 기능이 개인화된 경험을 향상시킬 것이라고 강조했습니다. 그는 AI가 과학적 발견과 소프트웨어 개발(효율성 크게 향상) 분야에서 돌파구를 마련할 것이라고 생각하지만, ChatGPT와 같은 현재 모델은 아직 지속적인 자가 학습 및 교차 영역 일반화 능력을 갖추지 못해 AGI가 아니라고 말했습니다. 그는 또한 GPT-4o의 창의적 능력이 야기하는 저작권 및 “스타일 권리” 문제에 대해 논의했으며, 모델 안전에 대한 OpenAI의 자신감과 위험 통제 메커니즘을 재차 강조했습니다 (출처: 新智元)

奥特曼:ChatGPT不是AGI!OpenAI最强开源模型直击DeepSeek

연구, 인간의 평생 학습 상한선 약 4GB 주장, 뇌-컴퓨터 인터페이스 및 AI 발전 논의 촉발: Cell 자매지 Neuron에 발표된 캘리포니아 공과대학 연구에 따르면, 인간 뇌의 정보 처리 속도는 초당 약 10비트로, 감각 시스템의 초당 10억 비트 데이터 수집 속도보다 훨씬 낮다고 추정됩니다. 이를 바탕으로 연구는 인간의 평생(100년 동안 중단 없이 학습하고 잊지 않는다고 가정) 지식 축적 상한선이 약 4GB이며, 이는 대형 모델의 파라미터 저장 능력(예: 7B 모델은 140억 비트 저장 가능)보다 훨씬 작다고 추론했습니다. 연구는 이 병목 현상이 중추 신경계의 직렬 처리 메커니즘에서 비롯된 것이며, 기계 지능이 인간을 능가하는 것은 시간 문제일 뿐이라고 예측했습니다. 이 연구는 또한 Elon Musk의 Neuralink에 대해 의문을 제기하며, 뇌의 기본 구조적 한계를 돌파할 수 없으므로 기존 통신 방식을 최적화하는 것이 더 낫다고 주장했습니다. 이 연구는 인간 인지 한계, AI 발전 잠재력 및 뇌-컴퓨터 인터페이스 방향에 대한 광범위한 논의를 촉발했습니다 (출처: 量子位)

人类一生所学不过4GB,加州理工顶刊新研究引热议

🎯 动向 (동향)

GPT-4 곧 은퇴, GPT-4.1 및 미스터리 신규 모델 등장 가능성: OpenAI는 4월 30일부터 ChatGPT에서 2년 전에 출시된 GPT-4를 GPT-4o로 완전히 대체할 것이라고 발표했으며, GPT-4는 API를 통해 계속 사용할 수 있습니다. 동시에 커뮤니티와 코드 유출에 따르면 OpenAI는 GPT-4.1(및 mini/nano 버전), 풀 버전 o3 추론 모델, 새로운 o4 시리즈(예: o4-mini)를 포함한 일련의 새로운 모델을 곧 출시할 수 있습니다. Optimus Alpha라는 미스터리 모델이 이미 OpenRouter에 등록되었으며, 뛰어난 성능(특히 프로그래밍)을 보이고 백만 컨텍스트를 지원하며, OpenAI가 곧 출시할 새로운 모델 중 하나(아마도 GPT-4.1 또는 o4-mini)일 것으로 널리 추측되고 있습니다. 이 모델은 OpenAI 모델과 특정 버그 등 여러 유사점을 가지고 있습니다. 이는 OpenAI의 모델 반복 속도가 빨라지고 있으며 기술 리더십을 적극적으로 공고히 하고 있음을 예고합니다 (출처: source, source)

GPT-4即将退役,GPT-4.1及神秘新模型或将登场

Alibaba Qwen3 대형 모델 출시 임박: Alibaba가 가까운 시일 내에 Qwen3 대형 모델을 출시할 것으로 예상된다는 소식입니다. 개발팀은 모델이 최종 준비 단계에 들어갔다고 확인했지만 구체적인 출시 시기는 미정입니다. Qwen3는 Alibaba의 2025년 상반기 중요 모델 제품으로, Qwen2.5 이후 개발이 시작되었습니다. DeepSeek-R1 등 경쟁 모델의 영향으로 Alibaba Cloud 기본 모델 팀은 전략적 초점을 모델의 추론 능력 향상에 더욱 집중하고 있으며, 이는 대형 모델 경쟁 구도 하에서 특정 능력에 대한 전략적 집중을 보여줍니다 (출처: InfoQ)

阿里Qwen3大模型蓄势待发

Kimi 오픈 플랫폼 가격 인하 및 경량 비전 모델 오픈 소스 공개: Moonshot AI 산하 Kimi 오픈 플랫폼은 기술 최적화를 통해 사용자 비용을 절감하기 위해 모델 추론 서비스 및 컨텍스트 캐시 가격 인하를 발표했습니다. 동시에 Kimi는 MoE 아키텍처 기반의 경량 비전 언어 모델 Kimi-VL과 Kimi-VL-Thinking 두 가지를 오픈 소스로 공개했습니다. 이 모델들은 128K 컨텍스트를 지원하며 활성화 파라미터는 약 30억 개에 불과하지만, 멀티모달 추론 능력에서 10배 파라미터 규모의 대형 모델보다 현저히 우수하다고 알려져 있으며, 작고 효율적인 멀티모달 모델의 발전과 응용을 촉진하는 것을 목표로 합니다 (출처: InfoQ)
구글, Agent 상호 운용 프로토콜 A2A 및 다수 AI 신제품 발표: Google Cloud Next ’25 컨퍼런스에서 구글은 50개 이상의 파트너와 협력하여 서로 다른 회사 및 플랫폼에서 개발된 AI 에이전트 간의 상호 운용 및 협업을 목표로 하는 개방형 프로토콜 Agent2Agent (A2A)를 출시했습니다. 동시에 Gemini 2.5 Flash(고효율 플래그십 모델), Lyria(텍스트-음악 생성), Veo 2(비디오 제작), Imagen 3(이미지 생성), Chirp 3(맞춤형 음성) 등 다수의 AI 모델 및 애플리케이션을 발표했으며, 추론에 최적화된 7세대 TPU 칩 Ironwood를 출시했습니다. 이 일련의 발표는 구글이 AI 인프라, 모델, 플랫폼 및 에이전트 분야에서의 포괄적인 레이아웃과 개방 전략을 보여줍니다 (출처: InfoQ)
ByteDance, 200B 파라미터 추론 모델 Seed-Thinking-v1.5 발표: ByteDance Doubao 팀은 총 200B 파라미터를 가진 MoE 추론 모델 Seed-Thinking-v1.5를 소개하는 기술 보고서를 발표했습니다. 이 모델은 매번 20B 파라미터를 활성화하며 여러 벤치마크 테스트에서 우수한 성능을 보여, 총 671B 파라미터를 가진 DeepSeek-R1을 능가한다고 주장합니다. 커뮤니티에서는 이것이 현재 ByteDance Doubao 앱의 “심층 사고” 모드에서 사용되는 모델일 수 있다고 추측하며, 이는 ByteDance가 효율적인 추론 모델 개발에서 진전을 보이고 있음을 보여줍니다 (출처: InfoQ)
Midjourney, V7 모델 출시로 이미지 품질 및 생성 효율 향상: AI 이미지 생성 도구 Midjourney가 새로운 모델 V7(알파 버전)을 출시했습니다. 새 버전은 이미지 생성의 일관성과 통일성을 개선했으며, 특히 손, 신체 부위 및 사물 세부 묘사에서 더 나은 성능을 보이고 더 사실적이고 풍부한 질감을 생성할 수 있습니다. V7은 절반 비용으로 10배 렌더링 속도를 구현하는 Draft Mode를 도입하여 빠른 반복 탐색에 적합합니다. 동시에 더 빠르지만 비싼 turbo 모드와 더 느리지만 저렴한 relax 모드를 제공하여 다양한 사용자 요구를 충족시킵니다 (출처: InfoQ)
아마존, AI 음성 모델 Nova Sonic 출시: 아마존은 음성을 네이티브로 처리하는 차세대 생성형 AI 모델 Nova Sonic을 발표했습니다. 이 모델은 속도, 음성 인식 및 대화 품질과 같은 주요 지표에서 OpenAI 및 구글의 최고 음성 모델과 필적할 수 있다고 합니다. Nova Sonic은 아마존 Bedrock 개발자 플랫폼을 통해 제공되며, 새로운 양방향 스트리밍 API를 사용하여 접속하고 GPT-4o보다 약 80% 저렴한 가격으로 제공되어 기업 수준의 AI 애플리케이션에 고가성비의 자연스러운 음성 상호 작용 능력을 제공하는 것을 목표로 합니다 (출처: InfoQ)
애플 중국판 iPhone AI 기능, 연중 출시 가능성, Baidu 및 Alibaba 기술 통합: 보도에 따르면 애플은 2025년 중반 이전에 중국 시장의 iPhone(아마도 iOS 18.5)에 Apple Intelligence 서비스를 도입할 계획입니다. 이 기능은 Baidu Wenxin 대형 모델을 활용하여 지능형 기능을 제공하고, 콘텐츠 규제 요구 사항을 충족하기 위해 Alibaba의 검열 엔진을 통합할 것입니다. 애플은 Baidu나 Alibaba와 독점 계약을 체결하지 않았으며, 이는 핵심 시장에서 AI 기능을 신속하게 배포하기 위해 현지화된 협력 전략을 채택하고 있음을 보여줍니다 (출처: InfoQ)

🧰 工具 (도구)

Volcano Engine, 기업 데이터 인텔리전스 에이전트 Data Agent 출시: Volcano Engine은 기업용 데이터 인텔리전스 에이전트 Data Agent를 출시했습니다. 이 도구는 대형 모델의 추론, 분석 및 도구 호출 능력을 활용하여 기업의 비즈니스 요구 사항을 깊이 이해하고, 심층 연구 보고서 작성, 마케팅 캠페인 설계 등 복잡한 데이터 분석 및 응용 작업을 자동화하여 기업의 데이터 활용 효율성과 의사 결정 수준을 향상시키는 것을 목표로 합니다 (출처: InfoQ)
GPT-4o 이미지 생성의 새로운 스타일 주목: 소셜 미디어 사용자들이 GPT-4o 이미지 생성 기능을 활용하여 만든 새로운 스타일을 선보이고 있습니다. 예를 들어, Windows 2000 복고풍 인터페이스 요소를 캐릭터 이미지와 결합하여 독특한 콜라주 효과를 생성했습니다. 사용자들은 참조 이미지 활용, 스타일과 내용 설명 결합 등 프롬프트 팁을 공유하며 GPT-4o의 창의적 잠재력 탐색에 대한 커뮤니티의 관심을 불러일으켰습니다 (출처: source, source)

GPT-4o图像生成新风格受关注

📚 学习 (학습)

최대 규모 오픈 소스 수학 사전 훈련 데이터셋 MegaMath 공개: LLM360은 DeepSeek-Math Corpus를 능가하는 규모인 3710억 토큰을 포함하는 오픈 소스 수학 추론 사전 훈련 데이터셋 MegaMath를 출시했습니다. 데이터셋은 수학 중심 웹 페이지(279B), 수학 관련 코드(28B), 고품질 합성 데이터(64B)를 포함합니다. 팀은 HTML 구조 최적화, 2단계 추출, LLM 보조 필터링 및 정제 등 세분화된 데이터 처리 프로세스를 통해 데이터의 규모, 품질 및 다양성을 확보했습니다. Llama-3.2 모델에서의 사전 훈련 검증 결과, MegaMath 사용 시 GSM8K, MATH 등 벤치마크에서 15-20%의 절대적인 성능 향상을 가져와 오픈 소스 커뮤니티에 강력한 수학 추론 능력 훈련 기반을 제공했습니다 (출처: 机器之心)

3710亿数学tokens,全面开放!史上最大高质量开源数学预训练数据集MegaMath发布

Nabla-GFlowNet: 확산 모델 미세 조정의 다양성과 효율성 균형: 홍콩 중문대(선전) 등 기관 연구진은 생성 흐름 네트워크(GFlowNet) 기반의 확산 모델 보상 미세 조정 신규 방법인 Nabla-GFlowNet을 제안했습니다. 이 방법은 기존 강화 학습 미세 조정의 느린 수렴 문제와 직접적인 보상 최적화 시 과적합 및 다양성 손실 문제를 해결하는 것을 목표로 합니다. 새로운 흐름 균형 조건(Nabla-DB)을 유도하고 특정 손실 함수 및 로그 흐름 그래디언트 파라미터화를 설계함으로써, Nabla-GFlowNet은 생성 샘플의 다양성을 유지하면서 모델을 보상 함수(예: 미적 점수, 지침 준수)에 효율적으로 정렬시킬 수 있습니다. Stable Diffusion에서의 실험은 DDPO, ReFL, DRaFT 등 기존 방법 대비 우수성을 입증했습니다 (출처: 机器之心)

扩散模型奖励微调新突破:Nabla-GFlowNet让多样性与效率兼得

Llama.cpp, Llama 4 관련 문제 수정: llama.cpp 프로젝트는 Llama 4 모델과 관련된 두 가지 수정 사항을 병합했습니다. 이는 RoPE(회전 위치 임베딩) 및 잘못된 norm 계산과 관련이 있습니다. 이러한 수정은 모델 출력 품질을 향상시키는 것을 목표로 하지만, 사용자는 수정된 변환 도구로 생성된 GGUF 모델 파일을 다시 다운로드해야 효과를 볼 수 있습니다 (출처: source)

💼 商业 (비즈니스)

Nvidia, Lepton AI 인수 완료: 보도에 따르면 Nvidia는 전 Alibaba 부사장 Jia Yangqing이 설립한 AI 인프라 스타트업 Lepton AI를 인수했으며, 거래 가치는 수억 달러에 달할 수 있습니다. Lepton AI의 주요 사업은 Nvidia GPU 서버를 임대하고 기업이 AI 애플리케이션을 구축 및 관리하는 데 도움이 되는 소프트웨어를 제공하는 것입니다. Jia Yangqing과 공동 창립자 Bai Junjie 등 약 20명의 직원이 Nvidia에 합류했습니다. 이는 Nvidia가 클라우드 서비스 및 엔터프라이즈 소프트웨어 시장을 확장하고 AWS, Google Cloud 등 자체 칩 경쟁에 대응하기 위한 전략적 배치로 간주됩니다 (출처: InfoQ)
미국 기술 업계 불안감 확산, AI가 고용 시장 강타: 보도에 따르면 미국 기술 산업은 일자리 감소, 임금 삭감, 구직 기간 연장의 어려움을 겪고 있습니다. 대규모 해고, 기업(예: Salesforce, Meta, Google)의 AI 인력 대체 또는 채용 중단(특히 엔지니어링 및 초급 직책)이 종사자들의 직업 불안을 가중시키고 있습니다. 데이터에 따르면 임금 하락을 보고하고 관리직에서 개인 기여자 직책으로 전환하는 사람들의 비율이 증가했습니다. AI는 고용 시장을 재편하고 있으며, 구직자들은 비기술 산업으로 시야를 넓히거나 창업으로 전환하도록 압박받고 있습니다. 전문가들은 “7대 기업” 외의 고용 기회에 주목하고 경쟁력 향상을 위해 AI 도구를 습득할 것을 권장합니다 (출처: InfoQ)

美国科技界焦虑横行:岗位减少、薪酬缩水、AI崛起

OpenAI, Altman과 Jony Ive가 협력한 AI 하드웨어 회사 인수 추진설: OpenAI가 CEO Altman과 전 Apple 디자인 총괄 Jony Ive가 협력하여 설립한 AI 회사 io Products를 5억 달러 이상에 인수하는 것을 논의 중이라는 소식입니다. 이 회사는 AI 기반 개인용 기기 개발을 목표로 하며, 가능한 형태로는 화면 없는 “휴대폰” 또는 가정용 기기가 있습니다. io Products는 엔지니어 팀이 기기를 구축하고 OpenAI가 기술을 제공하며 Ive 스튜디오가 디자인을 담당하고 Altman이 깊이 관여합니다. 인수가 완료되면 해당 하드웨어 팀이 OpenAI에 통합되어 AI 하드웨어 분야에서의 입지를 가속화할 것입니다 (출처: InfoQ)
전 OpenAI CTO 스타트업, 전 직장 인력 추가 영입: 전 OpenAI CTO Mira Murati가 설립한 AI 회사 “사고 기계 연구소(Thinking Machines Lab)”가 전 OpenAI 핵심 인물 두 명을 고문단으로 영입했습니다: 전 수석 연구 책임자 Bob McGrew와 전 연구원 Alec Radford입니다. Radford는 GPT 시리즈 핵심 기술 논문의 주 저자입니다. 이번 영입은 해당 스타트업의 기술력을 더욱 강화하는 동시에 AI 분야의 치열한 인재 경쟁을 반영합니다 (출처: InfoQ)
Baichuan Intelligence, 사업 중심 의료 분야로 조정: Baichuan Intelligence 창립자 Wang Xiaochuan은 회사 설립 2주년을 맞아 전 직원에게 보낸 서신에서 회사가 의료 분야에 집중하여 Baixiaoying, AI 소아과, AI 일반 진료 및 정밀 의료 등 응용 서비스를 개발할 것이라고 재차 강조했습니다. 그는 불필요한 활동을 줄이고 조직 구조를 더욱 평탄화해야 한다고 강조했습니다. 이전에 회사는 금융 산업 B2B 그룹 해체, 비즈니스 파트너 Deng Jiang 퇴사, 그리고 여러 공동 창립자의 퇴사 또는 퇴사 예정 소식이 전해졌으며, 이는 회사가 전략적 집중과 조직 조정을 겪고 있음을 보여줍니다 (출처: InfoQ)
Alibaba Cloud, AI 생태계 파트너 “번화(繁花)” 계획 시작: Alibaba Cloud는 AI 생태계 파트너를 지원하기 위한 “번화” 계획을 발표했습니다. 이 계획은 파트너 제품 성숙도에 따라 클라우드 리소스, 컴퓨팅 파워 지원, 제품 패키징, 상업화 계획 및 전체 라이프사이클 서비스를 제공할 것입니다. 동시에 Alibaba Cloud는 AI 애플리케이션 및 서비스 마켓플레이스를 출시하여 번영하는 AI 생태계를 구축하고 AI 기술 및 애플리케이션의 상용화를 가속화하는 것을 목표로 합니다 (출처: InfoQ)
Kugou Music, DeepSeek과 심층 협력 체결: Kugou Music은 AI 회사 DeepSeek과 협력하여 일련의 AI 혁신 기능을 출시할 것이라고 발표했습니다. 여기에는 멀티모달 분석을 이용한 개인화된 청취 보고서 생성, AI 일일 추천, 스마트 검색, AI 플레이리스트 관리, AI 동적 커버 생성 및 캐릭터 설정이 있는 “AI 평론가” 등이 포함되며, AI 기술을 통해 사용자 음악 경험과 커뮤니티 상호 작용을 향상시키는 것을 목표로 합니다 (출처: InfoQ)
구글, AI 인재 유치 위해 “급진적” 경업 금지 계약 사용설: 보도에 따르면 구글 산하 DeepMind는 인재가 경쟁사로 유출되는 것을 막기 위해 일부 영국 직원에게 1년 기간의 경업 금지 계약을 시행하고 있습니다. 이 기간 동안 직원은 근무할 필요 없이 급여를 계속 받지만(유급 휴가), 이로 인해 일부 연구원들은 소외감을 느끼고 빠르게 발전하는 산업 과정에 참여할 수 없게 됩니다. 이 조치는 미국에서는 FTC에 의해 금지될 수 있지만 런던 본사에서는 적용되며, 인재 경쟁 및 혁신 제한에 대한 논의를 불러일으켰습니다 (출처: InfoQ)
전 OpenAI 직원, Musk 소송 지지 법률 문서 제출: 12명의 전 OpenAI 직원이 Elon Musk가 OpenAI를 상대로 제기한 소송을 지지하는 법률 문서를 제출했습니다. 그들은 OpenAI의 구조 조정 계획(영리 구조로 전환)이 회사의 초기 비영리 사명에 근본적으로 위배될 수 있으며, 이 사명은 그들이 합류하게 된 핵심 요인이었다고 주장합니다. OpenAI는 구조가 변경되더라도 사명은 변하지 않을 것이라고 응답했습니다 (출처: InfoQ)

🌟 社区 (커뮤니티)

Anthropic 연구, 고등 교육에서의 AI 활용 패턴 및 과제 밝혀: Anthropic은 Claude.ai 플랫폼에서 수백만 건의 익명 학생 대화를 분석하여 이공계(특히 컴퓨터 전공) 학생들이 AI의 초기 사용자임을 발견했습니다. 학생과 AI의 상호 작용 패턴은 문제 직접 해결, 콘텐츠 직접 생성, 협력적 문제 해결, 협력적 콘텐츠 생성의 네 가지로 나뉘며, 비율은 비슷했습니다. AI는 주로 창작(예: 프로그래밍, 연습 문제 작성) 및 분석(예: 개념 설명)과 같은 고차 인지 작업에 사용되었습니다. 연구는 또한 잠재적인 학문적 부정 행위(예: 답안 획득, 표절 탐지 회피)를 드러내어 학문적 정직성, 비판적 사고 배양 및 평가 방식에 대한 우려를 불러일으켰습니다 (출처: 新智元)

AI席卷校园:百万条对话揭秘,Claude是代码救星还是作弊工具?

GPT-4o 이미지 생성, 새로운 트렌드 주도: 지브리 스타일부터 AI 유명인 카드까지: GPT-4o의 강력한 이미지 생성 능력은 소셜 미디어에서 지속적으로 창작 열풍을 일으키고 있습니다. “지브리 스타일 가족사진”(배후에는 전 아마존 엔지니어 Grant Slatton)이 큰 인기를 끈 후, 사용자들은 AI 분야 유명인의 “매직: 더 개더링” 스타일 카드(예: Altman을 “AGI 패왕”으로 설정)와 개인화된 타로 카드를 만들기 시작했습니다. 이러한 사례들은 AI가 예술 스타일 모방 및 창의적 생성 측면에서의 잠재력을 보여주지만, 독창성, 저작권, 미적 가치 및 AI가 디자이너 직업에 미치는 영향에 대한 논의도 불러일으키고 있습니다 (출처: 新智元)

吉卜力爆红背后,关键推手另有其人!GPT-4o竟封奥特曼为AGI之王

Jeff Dean, Gemini 2.5 Pro 비용 우위 강조: 구글 AI 책임자 Jeff Dean은 aider.chat의 순위 데이터를 리트윗하며 Gemini 2.5 Pro가 Polyglot 프로그래밍 벤치마크 테스트에서 성능뿐만 아니라 비용(6달러) 면에서도 DeepSeek을 제외한 다른 Top 10 모델보다 현저히 낮아 가성비 우위를 강조했습니다. 일부 경쟁 모델의 비용은 Gemini 2.5 Pro의 2배, 3배, 심지어 30배에 달합니다 (출처: JeffDean)

JeffDean

Reddit, AI가 고용 시장, 특히 초급 직책에 미치는 영향에 대해 열띤 토론: Reddit 포럼의 한 게시물이 열띤 토론을 불러일으켰습니다. 게시자(CIS 석사 과정 학생)는 AI가 초급 비육체 노동직(특히 소프트웨어 엔지니어링, 데이터 분석, IT 지원)을 대체하는 것에 대한 깊은 우려를 표명하며, “AI는 일자리를 빼앗지 않을 것”이라는 주장이 신규 졸업생들의 어려움을 간과한다고 주장했습니다. 그는 대기업들이 이미 신입 채용을 줄이고 있으며 미래 고용 시장이 심각할 수 있다고 지적했습니다. 댓글에서는 이 견해에 대해 의견이 분분했습니다. 위기를 인정하는 사람도 있었고, 이것이 기술 변화의 일반적인 현상이며 새로운 역할(예: AI 팀 관리)에 적응해야 한다고 생각하는 사람도 있었습니다. 또한 “90%의 일자리가 사라질 것”이라는 주장에 의문을 제기하며 경제 주기와 국가별 상황 차이가 크고 현재 AI 능력은 여전히 제한적이라고 주장하는 사람도 있었습니다 (출처: source)
Claude 사용자, 성능 저하 및 제한 강화 불만 제기: Reddit ClaudeAI 게시판에서 여러 사용자(Pro 사용자 포함)가 최근 더 엄격한 사용 제한(quota)에 직면했으며, 일반적인 작업조차도 빈번하게 한도에 도달한다고 보고하는 집중 토론이 있었습니다. 일부 사용자는 Anthropic이 몰래 한도를 강화하고 있다고 생각하며 이에 불만을 표하고, 이것이 사용자를 경쟁 제품으로 이동하게 만들 것이라고 주장했습니다. 또한 일부 사용자는 Claude의 “개성”이 변한 것 같으며, 더 “냉담하고”, “기계적으로” 변해 초기 버전의 철학적이고 시적인 느낌을 잃었다고 피드백하며, 이로 인해 일부 사용자가 구독을 취소했습니다 (출처: source, source, source, source)
ChatGPT 이미지 생성, 재미와 토론 유발: Reddit 사용자들이 ChatGPT를 사용하여 이미지 생성을 시도하고 그 결과를 공유했습니다. 한 사용자는 개를 사람으로 “변형”해달라고 요청했고, 결과적으로 “수인/퍼리”와 유사한 이미지가 생성되어 프롬프트 이해 및 잠재적 편견에 대한 토론을 불러일으켰습니다. 다른 사용자는 자신을 다중 우주 버전의 스테인드글라스 창문으로 그려달라고 요청했고, 결과는 놀라웠습니다. 또 다른 사용자는 AI에 대한 은유적 이미지를 생성하거나 AI의 “악몽”에 대해 질문하며, AI 이미지 생성이 창의적 표현 및 추상적 개념 시각화 측면에서의 능력과 한계를 보여주었습니다 (출처: source, source, source, source, source)

ChatGPT, create a metaphor about AI, then turn it into an image

커뮤니티, LLM 모델 선택 및 사용 전략 논의: Reddit LocalLLaMA 게시판에서 한 사용자가 매달 모델 사용 토론을 진행하여 각자 다른 시나리오(코딩, 글쓰기, 연구 등)에서 사용하는 최적의 모델(오픈 소스 및 비공개)과 그 이유를 공유하자고 제안했습니다. 댓글에서 사용자들은 현재 사용하는 모델 조합(예: Deepseek V3.1/Gemini 2.5 Pro/4o/R1/Qwen 2.5 Max/Sonnet 3.7/Gemma 3/Claude 3.7/Mistral Nemo 등)을 공유하고 특정 용도(예: 도구 호출, 분류, 역할극)를 언급하며, 사용자가 작업 요구에 따라 다양한 모델을 선택하고 조합하는 실용적인 추세를 반영했습니다 (출처: source)

💡 기타 (기타)

중국 AIGC 산업 서밋 개최 임박: 제3회 중국 AIGC 산업 서밋이 4월 16일 베이징에서 개최됩니다. 서밋에는 Baidu, Huawei, Microsoft Research Asia, Amazon Web Services, Mianbi Intelligence, Shengshu Technology 등 기업의 20여 명의 업계 리더가 모여 AI 기술 돌파구(컴퓨팅 파워, 대형 모델), 산업 응용(교육, 문화 엔터테인먼트, 연구, 기업 서비스), 생태계 구축(안전하고 통제 가능, 구현 과제) 등 의제를 논의할 예정입니다. 서밋에서는 AIGC 기업/제품 순위 및 중국 AIGC 응용 전체 지형도도 발표될 예정입니다 (출처: 量子位)

倒计时3天!20余位行业大佬共话AI,中国AIGC产业峰会最全攻略在此

스탠포드 보고서: 미중 최고 AI 모델 성능 격차 0.3%로 축소: 스탠포드 대학이 발표한 2025년 AI 지수 보고서에 따르면, 미중 최고 AI 모델 간의 성능 격차는 2023년 20%에서 0.3%로 현저히 축소되었습니다. 미국이 유명 모델 수(40 vs 15)와 산업 주도 기업 측면에서 여전히 앞서 있지만, 중국 모델의 추격 속도가 빨라지고 있습니다. 보고서는 또한 최고 모델 간의 성능 격차도 2024년 12%에서 5%로 줄어들어 동질화 현상이 뚜렷하다고 지적했습니다 (출처: InfoQ)