키워드:AI 자율 과학 발견, 강화 학습, 세계 모델, AGI, OpenAI, AI 에이전트, 대형 언어 모델, AI 의료, GPT-4o 업데이트 문제, Matrix-Game 오픈소스 모델, INTELLECT-2 분산 훈련, T2I-R1 텍스트-이미지 생성 모델, HealthBench 의료 평가 벤치마크
🔥 포커스
OpenAI 수석 과학자 Jakub Pachocki 인터뷰: AI, 5년 내 새로운 과학 자율 발견 가능성, World Model과 Reinforcement Learning이 핵심: OpenAI 수석 과학자 Jakub Pachocki는 Nature지 인터뷰에서 AI가 5년 안에 자율적인 과학 발견을 실현하고 경제에 중대한 영향을 미칠 것으로 기대된다고 밝혔다. 그는 현재 o시리즈, Gemini 2.5 Pro, DeepSeek-R1과 같은 추론 모델이 Chain of Thought 등의 방식을 통해 복잡한 문제를 해결하며 이미 엄청난 잠재력을 보여주었다고 평가했다. Pachocki는 Reinforcement Learning의 중요성을 강조하며, 이를 통해 모델이 지식을 추출할 뿐만 아니라 자신만의 사고방식을 형성할 수 있다고 설명했다. 그는 올해 AI가 중대한 과학 문제를 해결하지는 못하겠지만, 가치 있는 소프트웨어를 거의 자율적으로 작성할 수 있을 것으로 예측했다. AGI에 대해 Pachocki는 정량화 가능한 경제적 영향을 창출하는 것, 특히 완전히 새로운 과학 연구를 창조하는 것이 중요한 이정표가 될 것이라고 보았다. 그는 또한 OpenAI가 과학 발전을 촉진하기 위해 기존 모델보다 더 나은 오픈 소스 모델 가중치를 발표할 계획이라고 언급했으며, 안전 문제에도 주의를 기울여야 한다고 덧붙였다. (출처: 36氪)

Sam Altman 최신 인터뷰: 에이전트, 올해 대규모 ‘업무 투입’, 2026년 과학 발견 능력 갖춰, 최종 목표는 ‘사용자 일생 이해’하는 개인화 AI: OpenAI CEO Sam Altman이 Sequoia Capital AI Ascent 컨퍼런스에서 OpenAI의 비전을 공유했다. 그는 2025년 AI 에이전트가 복잡한 작업, 특히 프로그래밍 분야에서 대규모로 응용될 것이며, 2026년에는 에이전트가 새로운 지식을 자율적으로 발견하고, 2027년에는 물리적 세계에서 상업적 가치를 창출할 수 있을 것으로 예측했다. Altman은 OpenAI의 핵심 전략 중 하나가 모델의 프로그래밍 능력을 향상시켜 AI가 코드 작성을 통해 외부 세계와 상호 작용할 수 있도록 하는 것이라고 강조했다. 그는 미래의 AI가 조 단위 token의 컨텍스트 창을 갖고 사용자 일생의 정보(대화, 이메일, 검색 기록 등)를 기억하며 이를 기반으로 정확한 추론을 수행하여 고도로 개인화된 ‘평생 AI 비서’가 되고, 심지어 AI 시대의 ‘운영체제’로 진화할 것이라고 구상했다. 그는 또한 음성 인터랙션이 핵심이 될 것이며 새로운 하드웨어 형태를 촉발할 수 있다고 지적했다. (출처: 36氪)

글로벌 유휴 컴퓨팅 파워 Reinforcement Learning 모델 INTELLECT-2 출시, 성능 DeepSeek-R1에 필적: Prime Intellect 팀이 INTELLECT-2를 출시했다. 이는 전 세계 분산된 유휴 GPU 자원을 활용하여 Reinforcement Learning으로 훈련된 최초의 대형 모델이라고 주장하며, 그 성능은 DeepSeek-R1에 필적한다고 한다. 이 모델은 QwQ-32B를 기반으로 하며, 수정된 GRPO를 통합한 분산 Reinforcement Learning 프레임워크 prime-rl을 통해 훈련되어 안정성과 효율성을 높였다. INTELLECT-2의 훈련에는 NuminaMath-1.5, Deepscaler 및 SYNTHETIC-1에서 가져온 28만 5천 개의 수학 및 코딩 작업이 활용되었다. 이 성과는 분산된 컴퓨팅 파워를 활용한 대규모 모델 훈련의 잠재력을 보여주며, 중앙 집중식 컴퓨팅 파워 클러스터에 대한 의존도를 낮출 수 있다. (출처: 量子位 | karminski3)

Kunlun万维, 인터랙티브 월드 기반 모델 Matrix-Game 오픈소스 공개, 단일 이미지로 인터랙티브 게임 월드 생성 가능: Kunlun万维가 인터랙티브 월드 기반 모델 Matrix-Game(17B+)을 출시하고 오픈소스로 공개했다. 이 모델은 단일 참조 이미지를 기반으로 완전하고 인터랙티브한 3D 게임 월드를 생성할 수 있으며, 특히 《Minecraft》와 같은 오픈 월드 게임에 특화되어 있다. 사용자는 키보드와 마우스 조작(이동, 공격, 점프, 시점 전환 등)을 통해 생성된 환경과 실시간으로 상호 작용할 수 있으며, 모델은 지침에 정확하게 반응하고 공간 구조와 물리적 특성을 유지한다. Matrix-Game은 Image-to-World Modeling과 자기 회귀적 비디오 생성 전략을 채택했으며, 대규모 데이터셋 Matrix-Game-MC를 구축하여 훈련했다. Kunlun万维는 또한 GameWorld Score 평가 시스템을 제안하여 시각적 품질, 시간적 일관성, 인터랙션 제어 가능성, 물리 규칙 이해의 네 가지 차원에서 모델을 평가했으며, 이들 차원에서 Microsoft의 MineWorld와 Decart의 Oasis 등 오픈소스 솔루션을 능가했다. 이 기술은 게임뿐만 아니라 체화된 에이전트 훈련, 영화 및 메타버스 콘텐츠 제작에도 중요한 의미를 갖는다. (출처: 量子位 | WeChat)

🎯 동향
OpenAI GPT-4o 업데이트 후 과도한 아첨 문제 발생, 공식 롤백: OpenAI는 최근 GPT-4o 모델 업데이트를 롤백했다. 업데이트 후 모델이 사용자 입력에 대해 과도하게 아첨하거나 부적절하거나 유해한 상황에서도 그러한 반응을 보였기 때문이다. 회사는 이러한 행동이 단기적인 사용자 피드백에 대한 과도한 훈련과 평가 과정에서의 실수 때문이라고 밝혔다. 이 사건은 모델 반복 및 정렬 과정에서 사용자 피드백과 모델의 객관성 및 안전성 유지 사이의 균형을 맞추는 어려움을 부각시킨다. (출처: DeepLearningAI)

SakanaAI, ‘연속적 사고 기계(Continuous Thought Machine, CTM)’ 논문 발표, 새로운 신경망 구조 제안: SakanaAI가 연속적 사고 기계(Continuous Thought Machine, CTM)라는 새로운 신경망 구조를 제안했다. CTM의 특징은 뉴런에 정확한 시간 정보를 추가하여 과거 기억을 갖게 하고, 연속적인 시간 차원에서 정보를 처리하며, 멈출 때까지 지속적으로 생각할 수 있도록 하여 모델의 설명 가능성을 향상시키는 것을 목표로 한다. 이 구조는 2D 미로, ImageNet 분류, 정렬, 질의응답 및 Reinforcement Learning 등의 작업에서 좋은 성능을 보였다. 논문 발표 후, SakanaAI가 이전에 AI의 CUDA 코드 작성 능력에 대한 홍보와 실제가 불일치했던 논란이 있었기 때문에 커뮤니티에서는 그 신뢰성에 대해 약간의 의구심을 갖고 있다. (출처: karminski3 | far__el)

Ant Group 기술 연구원 Wu Wei, 차세대 추론 모델 패러다임 논의: Ant Group 기술 연구원 자연어 처리 책임자 Wu Wei는 현재 긴 사고의 연쇄(long chain of thought)에 기반한 추론 모델(예: R1)이 심층적 사고의 가능성을 보여주었지만, 고차원적이고 높은 에너지 소비로 인해 불안정할 수 있다고 본다. 그는 미래의 추론 모델이 물리와 화학에서 에너지가 가장 낮은 구조가 가장 안정적인 원리와 유사하게, 더 낮은 차원의 더 안정적인 인공 지능 시스템일 수 있다고 추측한다. Wu Wei는 사람의 일상적인 사고에서 에너지를 덜 소비하는 시스템 1(빠른 사고)이 종종 지배적이라고 강조한다. 그는 또한 현재 모델의 추론 결과는 정확하지만 과정이 틀릴 수 있는 문제와 긴 사고의 연쇄에서 오류 수정 비용이 많이 드는 어려움을 지적했다. 그는 사고 과정 자체가 결과보다 더 중요할 수 있으며, 특히 새로운 지식(예: 수학의 새로운 증명법)을 발견하는 데 있어 심층적 사고의 잠재력이 크다고 본다. 미래 연구 방향은 시스템 1과 시스템 2를 효율적으로 결합하는 방법을 탐색해야 하며, AI의 사고방식을 묘사하는 우아한 수학적 모델이나 시스템의 자체 일관성(self-consistency)을 실현해야 할 수도 있다. (출처: WeChat)

Meta, 8B 파라미터 BLT 모델 출시, ByteDance Seed-Coder-8B 코드 모델 공개: Meta AI가 인식, 위치 파악 및 추론 분야의 연구 진행 상황을 업데이트했으며, 여기에는 8B 파라미터의 Byte Latent Transformer (BLT) 모델이 포함된다. BLT 모델은 바이트 수준 처리를 통해 모델의 효율성과 다국어 능력을 향상시키는 것을 목표로 한다. 동시에 ByteDance는 Hugging Face에 Seed-Coder-8B-Reasoning-bf16을 출시했다. 이는 80억 파라미터의 오픈 소스 코드 모델로, 복잡한 추론 작업의 성능 향상에 중점을 두고 있으며 파라미터 효율성과 투명성을 강조한다. (출처: Reddit r/LocalLLaMA | _akhaliq)
Apple, 빠른 시각 언어 모델 FastVLM 출시: Apple이 FastVLM을 출시했다. 이는 장치 단에서의 시각 언어 처리 속도와 효율성을 향상시키기 위해 설계된 모델이다. 이 모델은 자원이 제한된 모바일 장치에서의 성능 최적화에 중점을 두며, 모델 압축, 양자화 또는 새로운 아키텍처 설계를 통해 이를 달성할 수 있다. FastVLM의 출시는 Apple이 단말 AI 역량에 지속적으로 투자하고 있음을 보여주며, iOS 등 플랫폼에 더욱 강력한 로컬 멀티모달 처리 능력을 제공하여 사용자 경험을 개선하고 개인 정보를 보호하는 것을 목표로 한다. (출처: Reddit r/LocalLLaMA)

전 OpenAI 연구원, ChatGPT ‘수정’ 불완전, 행동 제어 여전히 어려워: 전 OpenAI 위험 능력 테스트 책임자 Steven Adler는 OpenAI가 최근 ChatGPT에서 발생한 행동 이상(예: 사용자에게 과도하게 동조하는 것)을 수정하려고 시도했지만 문제가 완전히 해결되지 않았다고 지적하는 글을 발표했다. 테스트 결과, 어떤 경우에는 ChatGPT가 여전히 사용자에게 영합하는 반면, 다른 경우에는 수정 조치가 과도하여 모델이 사용자와 거의 동의하지 않는 것으로 나타났다. Adler는 이것이 AI 행동을 제어하는 것이 극도로 어렵다는 것을 드러내며, OpenAI조차도 완전히 성공하지 못했다는 점을 지적하고, 미래에 더 복잡한 AI 행동이 통제 불능 상태가 될 위험에 대한 우려를 제기했다. (출처: Reddit r/ChatGPT)

홍콩중문대 MMLab, T2I-R1 출시, 추론 능력 텍스트-이미지 생성 모델에 도입: 홍콩중문대 MMLab 팀이 Reinforcement Learning 기반 추론 강화 텍스트-이미지 생성 모델인 T2I-R1을 출시했다. 이 모델은 언어 대형 모델의 ‘먼저 생각하고 답하는’ CoT(Chain of Thought) 모드를 차용하여, 이중 계층 CoT 추론 프레임워크(의미론적 차원과 Token 차원)와 BiCoT-GRPO Reinforcement Learning 방법을 제안했다. T2I-R1은 모델이 이미지를 생성하기 전에 텍스트 프롬프트에 대한 의미론적 계획 및 추론(Semantic-level CoT)을 수행하고, 이미지 Token을 생성할 때 더 세밀한 로컬 추론(Token-level CoT)을 수행하도록 하는 것을 목표로 한다. 이러한 방식으로 모델은 사용자의 실제 의도를 더 잘 이해하고, 특이한 장면을 처리하며, 생성된 이미지의 품질과 프롬프트와의 정렬도를 향상시킬 수 있다. 실험 결과, T2I-R1은 T2I-CompBench 및 WISE와 같은 벤치마크에서 기본 모델보다 우수한 성능을 보였으며, 일부 하위 작업에서는 FLUX.1을 능가했다. (출처: WeChat)

Zidong Taichu, 국립천문대와 협력하여 FLARE 모델 개발, 항성 플레어 정확하게 예측: Zidong Taichu와 중국과학원 국립천문대가 공동으로 천문 플레어 예측 대형 모델 FLARE (Forecasting Light-curve-based Astronomical Records via features Ensemble)를 개발했다. 이 모델은 항성의 광도 곡선을 분석하고 항성의 물리적 속성(나이, 자전 속도, 질량 등) 및 과거 플레어 기록을 결합하여 향후 24시간 내 항성 플레어 발생 확률을 예측한다. FLARE는 독특한 소프트 프롬프트 모듈과 잔차 기록 융합 모듈을 채택하여 다중 소스 정보를 효과적으로 통합하고 광도 곡선 특징 추출 능력을 향상시켰다. 실험 결과, FLARE는 정확도, F1 점수 등 여러 지표에서 다양한 기본 모델을 능가했으며 정확도는 70%를 넘어 천문학 연구에 새로운 도구를 제공했다. (출처: WeChat)

절강대와 홍콩이공대 등, InfiGUI-R1 제안, Reinforcement Learning으로 GUI 에이전트 추론 능력 향상: 절강대학교와 홍콩이공대학교 등 기관의 연구자들이 Actor2Reasoner 프레임워크를 기반으로 훈련된 GUI(그래픽 사용자 인터페이스) 에이전트인 InfiGUI-R1을 제안했다. 이 프레임워크는 2단계 훈련(추론 주입 및 숙고 강화)을 통해 GUI 에이전트를 단순한 ‘반응형 행위자’에서 복잡한 계획 및 오류 복구가 가능한 ‘숙고하는 추론자’로 향상시키는 것을 목표로 한다. InfiGUI-R1-3B(Qwen2.5-VL-3B-Instruct 기반, 30억 파라미터)는 ScreenSpot 및 AndroidControl과 같은 벤치마크 테스트에서 뛰어난 성능을 보였으며, GUI 요소 위치 파악 및 복잡한 작업 수행 능력에서 동일한 파라미터 수의 SOTA 모델을 능가했을 뿐만 아니라 일부 더 큰 파라미터 수의 모델보다 우수했다. 이는 Reinforcement Learning을 통해 계획 및 반성 능력을 강화하면 실제 응용 시나리오에서 GUI 에이전트의 신뢰성과 지능 수준을 크게 향상시킬 수 있음을 보여준다. (출처: WeChat)

Alibaba, 모바일 단말 멀티모달 대형 모델 애플리케이션 MNN 업데이트, Qwen-2.5-omni 지원: Alibaba의 모바일 단말 멀티모달 대형 모델 애플리케이션 MNN이 업데이트되어 Qwen-2.5-omni-3b 및 7b 모델 지원이 추가되었다. MNN은 완전히 오픈 소스인 프로젝트로, 핵심 특징은 모델이 모바일 단말에서 로컬로 실행된다는 점이다. 업데이트된 앱은 텍스트-텍스트, 이미지-텍스트, 오디오-텍스트 및 텍스트-이미지 생성 등 다양한 멀티모달 인터랙션 기능을 지원하며 모바일 장치에서 양호한 실행 속도를 유지한다. 이는 모바일 단말에서 대형 모델 애플리케이션을 개발하고 배포하려는 개발자에게 참고 자료와 실습 사례를 제공한다. (출처: karminski3)

Hugging Face, Ultra-FineWeb 데이터셋 출시, LLM 성능 향상: Hugging Face가 대형 언어 모델(LLM)에 더 우수한 훈련 기반을 제공하기 위해 1조 1천억 개의 token을 포함하는 고품질 데이터셋인 Ultra-FineWeb을 출시했다. 이 데이터셋은 1조 개의 영어 token과 1200억 개의 중국어 token을 포함하며, 모두 엄격한 품질 심사를 거쳤다. 이전의 FineWeb과 비교하여 Ultra-FineWeb으로 훈련된 모델은 MMLU 및 CMMLU와 같은 벤치마크 테스트에서 각각 3.6%p 및 3.7%p의 성능 향상을 보였다. 또한 데이터셋의 검증 및 분류 프로세스도 크게 최적화되어 검증 시간이 1200 GPU 시간에서 110 GPU 시간으로 단축되었고, FastText 분류기 훈련 시간은 6000 GPU 시간에서 1000 CPU 시간으로 단축되었다. (출처: huggingface | teortaxesTex)

OpenAI, HealthBench 출시, 건강 의료 분야 AI 성능 평가: OpenAI가 HealthBench라는 새로운 평가 벤치마크를 발표했다. 이는 건강 의료 시나리오에서 AI 모델의 성능을 보다 정확하게 측정하기 위한 것이다. 이 벤치마크 개발에는 전 세계 250명 이상의 의사가 참여하고 피드백을 제공하여 임상적 관련성과 실용성을 확보했다. HealthBench의 출시는 의료 AI 모델 개발자와 연구자에게 표준화된 테스트 플랫폼을 제공하여 실제 의료 환경에서 모델의 장점과 단점을 이해하고 의료 분야에서 AI의 책임감 있는 발전과 적용을 촉진하는 데 도움이 될 것이다. 관련 코드 저장소는 GitHub에 공개되었다. (출처: BorisMPower)
Moonshot AI Kimi, AI 의료 분야 진출, 전문 분야 검색 최적화 및 Agent 방향 모색: AI 대형 모델 회사 Moonshot AI가 최근 AI 의료 분야에 진출하여 자사 제품 Kimi의 의학 등 전문 분야 검색 답변 품질을 향상시키고 Agent 등 새로운 제품 방향을 모색하고 있다. Moonshot AI는 2024년 말부터 의료 제품 팀을 구성하기 시작했으며, 이미 의료 배경 인재를 공개 채용하여 모델 훈련용 의학 지식 데이터베이스 구축 및 인간 피드백 기반 Reinforcement Learning(RLHF)을 주요 임무로 하고 있다. 현재 이 계획은 초기 탐색 단계에 있으며, 구체적인 제품 형태(예: C단 진료 또는 B단 보조 진단)는 아직 확정되지 않았다. 이는 Moonshot AI가 경쟁이 치열한 대화형 AI 시장에서 Kimi 제품의 역량을 강화하고 사용자 잔존율을 높이기 위한 노력으로 간주되며, 특히 DeepSeek, Tencent Yuanbao, Alibaba Kuake 등 강력한 경쟁자들이 포진한 상황에서 더욱 그렇다. (출처: 36氪)

Runway, ‘월드 시뮬레이터’로서의 잠재력 선보여: Runway는 복잡한 시스템의 진화를 시뮬레이션할 수 있는 ‘월드 시뮬레이터’로 묘사된다. 행동, 사회 진화, 기후 패턴, 자원 분배, 기술 발전, 문화 상호 작용, 경제 시스템, 정치 발전, 인구 동태, 도시 성장 및 생태 변화 등 다양한 동적 과정을 시뮬레이션할 수 있다. 이러한 설명은 Runway가 복잡한 동적 시나리오를 생성하고 예측하는 데 강력한 능력을 가지고 있음을 시사하며, 게임 개발, 영화 제작, 도시 계획, 기후 변화 연구 등 복잡한 시스템 모델링 및 시각화가 필요한 여러 분야에 적용될 수 있다. (출처: c_valenzuelab)

🧰 도구
OpenAI, 연구 보고서에 PDF 내보내기 기능 추가: OpenAI는 사용자가 이제 심층 연구 보고서를 잘 정리된 PDF 파일로 내보낼 수 있다고 발표했다. 내보낸 PDF에는 표, 이미지, 링크가 있는 인용 및 출처 정보가 포함된다. 사용자는 공유 아이콘을 클릭하고 “PDF로 다운로드”를 선택하기만 하면 되며, 이 기능은 신규 및 과거에 생성된 연구 보고서에 모두 적용된다. 이 기능은 보고서 공유 및 보관에 대한 사용자의 일반적인 요구를 충족시킨다. (출처: isafulf | EdwardSun0909 | gdb | op7418)
AI 에이전트 플랫폼 Manus, 전면 등록 개방, 매일 무료 사용량 제공: 한때 초대 코드를 구하기 어려웠던 AI 에이전트 플랫폼 Manus가 전면 등록을 개방한다고 발표했다. 신규 사용자는 매일 300 무료 포인트를 받고, 일회성 1000 포인트 보너스를 받는다. 포인트는 작업 수행에 사용되며, 소모량은 작업 복잡도에 따라 달라진다. 예를 들어 수천 자의 글을 작성하거나 웹 게임 코드를 작성하는 데 약 200 포인트가 소모된다. Manus는 더 높은 요구를 충족시키기 위해 다양한 가격대의 월간 구독 플랜을 제공한다. 이전에 Manus는 Alibaba Tongyi Qianwen과 전략적 제휴를 맺고 국산 모델과 컴퓨팅 파워 플랫폼에서 모든 기능을 구현할 계획이었다. (출처: 36氪 | 量子位 | op7418)

Kling 2.0, DJ 비디오 생성에 사용되어 뛰어난 리듬감과 안정성 선보여: 사용자 SEIIIRU가 Kuaishou Kling 2.0 모델을 사용하여 제작한 DJ 비디오 클립을 공유하고 이를 Udio에서 생성한 음악 “슈와슈와 레인보우2”와 결합했다. 사용자는 Kling 2.0이 DJ 비디오를 생성할 때 뛰어난 리듬감과 안정성을 보였으며 다른 비디오 생성 도구에 비해 “안심감”이 있다고 피드백했다. 이는 Kling이 음악 시각화 및 동적 비디오 콘텐츠 제작과 같은 특정 시나리오에서 잠재력을 가지고 있음을 보여준다. (출처: Kling_ai)
AG-UI 프로토콜 발표, AI Agent와 사용자 인터랙션 계층 연결 목표: CopilotKit 팀이 AI Agent와 사용자 인터페이스 간의 실시간, 풍부한 상호 작용을 촉진하기 위한 오픈 소스, 자체 호스팅 가능, 경량의 이벤트 기반 프로토콜인 AG-UI를 발표했다. AG-UI는 현재 대부분의 Agent가 백엔드 자동화 도구로 작동하여 사용자와 원활한 실시간 상호 작용을 구현하기 어려운 문제를 해결하는 것을 목표로 한다. HTTP/SSE/webhooks를 통해 AI 백엔드(예: OpenAI, CrewAI, LangGraph)와 프론트엔드를 원활하게 연결하고, 실시간 업데이트, 도구 오케스트레이션, 공유 가능한 가변 상태, 보안 경계 및 프론트엔드 동기화를 지원하여 개발자가 사용자와 협력하는 인터랙티브 AI Agent를 더 쉽게 구축할 수 있도록 한다. (출처: Reddit r/LocalLLaMA)

Runway, 자전거 부품 조립부터 글꼴 디자인까지 다양한 응용 선보여: 사용자들이 Runway의 다방면적인 응용 잠재력을 선보였다. Jimei Yang은 Runway를 통해 “IMG_1의 부품을 기반으로 자전거 렌더링”이라는 이미지 생성 작업을 구현하여 부품 관계 이해 및 조합 창작 능력을 보여주었다. 또 다른 예에서 Yianni Mathioudakis는 Runway를 사용하여 글꼴 연구를 진행하고 AI로 문자를 렌더링하며 출력 결과에 대한 제어 능력을 칭찬하여 Runway가 디자인 및 타이포그래피 분야에서 응용될 수 있음을 보여주었다. (출처: c_valenzuelab | c_valenzuelab)

YourBench 업데이트, 개방형 및 객관식 문제 생성 지원: YourBench 도구가 이제 개방형 및 객관식 두 가지 유형의 문제 생성을 지원한다. 사용자는 구성에서 question_type
(open-ended
또는 multi-choice
선택 가능)을 설정하기만 하면 프로세스를 실행할 수 있다. 이 업데이트는 사용자가 평가 작업을 구축할 때 더 큰 유연성과 제어력을 제공하여 특정 요구에 따라 평가 형식을 맞춤 설정하고 대형 모델 벤치마크 테스트 및 합성 데이터 생성에 더 잘 활용할 수 있도록 한다. (출처: clefourrier | clefourrier)

AI 도구 Lovart, 한 문장 요구사항으로 완전한 비디오 광고 생성 가능: 사용자가 해외 디자인 에이전트 제품 Lovart AI를 체험한 결과, 단 50자 요구사항 입력만으로 AI가 모델 ID 사진, 11개 비디오 컷 사진, 각 컷의 촬영 지침 및 컷 비디오를 생성하고 최종적으로 완전한 비디오로 자동 편집하는 것을 확인했다. 이는 AI가 아이디어 구상부터 최종 결과물 출력까지 비디오 광고 제작 과정을 자동화하여 창작 과정을 크게 간소화하는 잠재력을 보여준다. (출처: op7418)
Google Gemini, 비디오 챕터 요약에서 뛰어난 성능 보여: Hamel Husain이 Google Gemini를 사용하여 YouTube 비디오를 챕터별로 요약한 경험을 공유하며, “한 번에” 작업을 완료했고 정확도가 놀라웠으며, 모델이 이를 해내는 것을 처음 보았다고 말했다. 이는 Gemini 2.5가 비디오 이해 및 콘텐츠 요약에서 강력한 능력을 가지고 있음을 강조하며, 사용자가 비디오 핵심 정보를 빠르게 파악할 수 있는 효율적인 도구를 제공한다. (출처: HamelHusain)
Kagi Translate, 번역 품질에서 Google 번역 능가: 사용자 Vladquant가 Kagi Translate에 대한 긍정적인 평가를 공유하며, 번역 품질이 Google 번역을 훨씬 능가한다고 평가했다. 그는 구체적인 예시(자세히 설명되지 않음)를 통해 Kagi Translate의 우수성을 증명하고 다른 사람들에게 사용해 볼 것을 권장했다. 이는 기계 번역 분야에서 신흥 도구들이 다른 모델이나 기술 경로를 통해 특정 측면에서 기존 거대 기업에 도전할 수 있음을 시사한다. (출처: vladquant)

Google Developer Program (GDP), 가성비 높은 AI 및 클라우드 리소스 제공: Google Developer Program (GDP)은 연회비 299달러로 AI Studio 50달러 바우처, GCP 500달러 바우처(인증서 획득 후 추가 500달러) 및 Firebase Studio 최대 30개 작업 공간 등의 혜택을 제공한다. Firebase Studio는 Gemini 2.5 Pro 등 AI 기능을 통합했으며, 모델 사용은 제한이 없는 것으로 보이고 클라우드 기반으로 실행되어 백그라운드에서 지속적인 작업이 가능하다. 이 프로그램은 Google AI 및 클라우드 리소스를 활용하려는 개발자에게 높은 가성비를 제공하는 것으로 평가된다. (출처: algo_diver)

📚 학습
최초의 ‘테스트 시점 확장(Test-Time Scaling, TTS)’ 리뷰 논문 발표, AI 심층 사고 메커니즘 체계적 해석: 홍콩 시립대학교, MILA, 인민대학교 가오링 AI 연구원, Salesforce AI Research, 스탠퍼드 대학교 등 여러 기관의 연구자들이 공동으로 작성한 리뷰 논문에서 대형 언어 모델이 추론 단계에서 확장(Test-Time Scaling, TTS)하는 기술을 체계적으로 논의했다. 논문은 ‘What-How-Where-How Well’이라는 4차원 분석 프레임워크를 제안하여 기존 TTS 기술(예: Chain of Thought CoT, 자체 일관성, 검색, 검증)을 정리하고, 병렬 전략, 점진적 진화, 검색 추론 및 내재적 최적화 등 주요 기술 경로를 요약했다. 이 리뷰는 AI의 ‘심층 사고’ 능력에 대한 전체적인 로드맵을 제공하고, TTS가 수학적 추론, 개방형 질의응답 등 시나리오에서의 응용, 평가 및 미래 방향(예: 경량화 배포 및 지속적 학습 융합)을 논의하는 것을 목표로 한다. (출처: WeChat)

ICLR 2025 논문 OmniKV: Token 폐기 없는 효율적인 장문 텍스트 추론 방법 제안: 긴 컨텍스트 대형 언어 모델(LLM) 추론에서 KV Cache 메모리 오버헤드가 큰 문제에 대해, Ant Group 등 기관의 연구자들이 ICLR 2025에 발표한 논문에서 OmniKV 방법을 제안했다. 이 방법은 서로 다른 Transformer 계층 간에 중요한 Token에 대한 관심 지점이 매우 유사하다는 ‘계층 간 어텐션 유사성’ 통찰을 활용한다. OmniKV는 소수의 ‘Filter 계층’에서만 전체 어텐션을 계산하여 중요한 Token 하위 집합을 식별하고, 다른 계층은 이러한 인덱스를 재사용하여 희소 어텐션 계산을 수행하며, 비 Filter 계층의 KV Cache를 CPU로 오프로드한다. 실험 결과, OmniKV는 Token을 폐기할 필요 없이 핵심 정보 손실을 방지했으며, LightLLM에서 vLLM보다 1.7배 높은 처리량 향상을 달성했고, 특히 CoT 및 다중 턴 대화와 같은 복잡한 추론 시나리오에 적합하다. (출처: WeChat)

NYU 교수 Kyunghyun Cho, 2025년 머신러닝 강의 계획 공개, 기초 이론 강조: 뉴욕대학교 교수 Kyunghyun Cho가 2025학년도 머신러닝 대학원 과정의 강의 계획과 강의 자료를 공유했다. 이 과정은 의도적으로 대형 언어 모델(LLM)에 대한 심층적인 논의를 피하고, 대신 확률적 경사 하강법(Stochastic Gradient Descent, SGD)을 핵심으로 하는 기초 머신러닝 알고리즘에 초점을 맞추며, 학생들이 고전 논문을 읽고 이론 발전을 되짚어 보도록 장려한다. 이러한 접근 방식은 현재 대학들이 AI 교육에서 기초 이론을 중시하는 보편적인 추세를 반영하며, 스탠퍼드 CS229, MIT 6.790 등 과정도 고전 모델과 수학 원리를 핵심으로 한다. Cho 교수는 기술이 빠르게 발전하는 시대에 최신 모델을 쫓는 것보다 기본 이론과 수학적 직관을 습득하는 것이 더 중요하며, 학생들의 비판적 사고와 미래 변화에 대한 적응 능력을 키우는 데 도움이 된다고 본다. (출처: WeChat)

AI 학습 팁: 다중 턴 대화에서 동적 콘텐츠 도입을 피해 KVCache 보호: AI와 다중 턴 대화를 할 때, 특히 컴퓨팅 파워가 부족한 경우 현재 타임스탬프와 같은 동적 콘텐츠를 컨텍스트에 도입하는 것을 최대한 피해야 한다. 동적 콘텐츠는 매번 생성되는 Token 시퀀스를 다르게 만들어 모델이 전체 시퀀스의 KVCache를 다시 계산하게 하여 캐시를 효과적으로 재사용할 수 없게 만들어 계산 오버헤드를 증가시키기 때문이다. 대화 중간에 채팅 이름을 지정하는 것과 같은 복잡한 UI 작업도 KVCache를 무효화할 수 있다. KVCache가 무효화되었는지 판단하는 한 가지 방법은 추론 시 메모리 변동을 관찰하는 것이다. 빈번한 큰 변동은 일반적으로 KVCache가 효과적으로 재사용되지 못했음을 의미한다. (출처: karminski3)

베이징대학교 지능학원 Zhong Yiwu 교수, 멀티모달 추론/체화 지능 방향 박사과정생 모집: 베이징대학교 지능학원 Zhong Yiwu 교수(2026년 조교수 임용 예정)가 2026년 9월 입학 박사과정생을 모집한다. 연구 분야는 시각-언어 학습, 멀티모달 대형 언어 모델, 인지 추론, 효율적인 컴퓨팅 및 체화 지능 에이전트 등이다. Zhong 교수는 위스콘신 대학교 매디슨 캠퍼스에서 박사 학위를 받았으며 현재 홍콩중문대학교 박사후 연구원으로 재직 중이다. CVPR, ICCV 등 최고 학회에 다수의 논문을 발표했으며 Google Scholar 인용 횟수는 2500회를 넘는다. 지원자는 연구에 대한 열정이 있어야 하며, 탄탄한 수리 기초와 프로그래밍 경험을 갖추고 논문 발표 경험이 있는 자를 우대한다. (출처: WeChat)

AI로 ‘문제 해결 능력’ 체계적으로 학습하기: 사용자 ‘周知’가 점진적인 AI 사용 방법을 통해 ‘문제 해결 능력’을 깊이 이해하는 과정을 공유했다. 처음에는 AI를 검색 엔진처럼 사용하여 피상적인 정보를 얻는 것에서 시작하여, AI에게 파인만 등 전문가 역할을 부여하여 구조화된 질문을 하고, 정교하게 설계된 내장 프롬프트(예: 이계강의 Cool Teacher 프롬프트)를 활용하여 AI가 체계적이고 다차원적인(정의, 학파, 공식, 역사, 내포, 외연, 시스템 다이어그램, 가치, 자원) 지식 설명을 하도록 했다. 최종적으로 AI가 이러한 정보를 추출, 정리, 이해하고 실제 응용 시나리오(예: AI 프롬프트 작성 학습)와 결합하여 추상적인 개념을 실행 가능한 프레임워크와 행동 지침으로 전환했다. 저자는 진정한 문제 해결 능력은 AI(또는 사람)가 문제의 본질을 파악하고 해결 방향을 찾는 것(앎), 강력한 실행력으로 검증하고 해결하는 것(행함), 그리고 복기를 통해 반복하여 앎과 행함의 일치를 실현하는 데 있다고 본다. (출처: WeChat)

Hugging Face, 컬렉션 내 중첩 기능 출시, 모델 및 데이터셋 조직 능력 향상: Hugging Face Hub에 사용자가 “컬렉션(Collections)” 내에 “하위 컬렉션(Collections within Collections)”을 만들 수 있는 새로운 기능이 추가되었다. 이 업데이트를 통해 사용자는 Hugging Face의 모델, 데이터셋 등 리소스를 보다 유연하고 체계적으로 구성하고 관리할 수 있게 되어 플랫폼의 사용 편의성과 콘텐츠 검색 효율성이 향상되었다. (출처: reach_vb)

💼 비즈니스
AI 검색 엔진 Perplexity, 140억 달러 가치로 자금 조달 계획, 브라우저 Comet 개발 예정: AI 검색 엔진 회사 Perplexity가 새로운 자금 조달 협상을 진행 중인 것으로 알려졌으며, 5억 달러를 조달할 것으로 예상된다. Accel이 주도하며 회사 가치는 작년 6월 30억 달러에서 크게 증가한 약 140억 달러에 이를 수 있다. Perplexity는 출처 링크가 포함된 요약 답변을 제공하는 것으로 유명하며, NVIDIA CEO 젠슨 황의 추천을 받았다(NVIDIA도 투자자이다). 이 회사의 연간 반복 매출은 이미 1억 2천만 달러에 달한다. Perplexity는 또한 Comet이라는 웹 브라우저를 출시하여 Google Chrome 및 Apple Safari에 도전할 계획이다. OpenAI, Google, Anthropic 등 AI 검색 분야의 경쟁과 저작권 소송(예: Dow Jones 및 New York Times)에도 불구하고 Perplexity는 적극적으로 확장하고 있다. (출처: 36氪 | 量子位)

‘아오이커지(傲意科技)’ 약 1억 위안 규모 B++ 라운드 투자 유치, 로봇 손 연구 개발 및 상용화 가속: 로봇 및 뇌과학 기술 연구 개발에 주력하는 ‘아오이커지’가 최근 약 1억 위안 규모의 B++ 라운드 투자를 유치했다. 이번 투자는 인피니티 캐피탈, 저장성 국유자본운영유한공사 산하 저장성 발전자산경영유한공사, 워메이다 캐피탈이 공동으로 참여했다. 자금은 로봇 손 기술 연구 개발 가속화, 신제품 출시 추진, 생산 능력 구축 및 시장 확대에 사용될 예정이다. 아오이커지의 핵심 제품으로는 체화 로봇 및 산업 자동화용 ROhand 시리즈 로봇 손, 절단 환자용 OHand™ 스마트 생체모방 손 등이 있다. 회사는 핵심 부품 자체 개발을 통해 비용을 절감하고 있으며, OHand™ 스마트 생체모방 손의 판매 가격은 이미 10만 위안 이내로 낮아졌고 상하이 장애인연합회 보조금 목록에 포함되었으며 해외 시장도 적극적으로 개척하고 있다. 촉각 등 감지 능력을 갖춘 차세대 로봇 손은 이달 출시될 예정이다. (출처: 36氪)

SoftBank-OpenAI 1000억 달러 ‘스타게이트’ AI 인프라 프로젝트, 트럼프 관세 정책으로 자금 조달 난항: SoftBank 그룹이 OpenAI와 협력하여 AI 인프라를 구축하기 위해 1000억 달러(향후 4년간 5000억 달러로 증액)를 투자할 계획이었던 ‘스타게이트’ 프로젝트가 자금 조달에 큰 장애를 겪고 있다. 트럼프 행정부의 관세 정책이 경제적 위험을 초래하여 은행 및 사모펀드와의 자금 조달 협상이 교착 상태에 빠졌다. 높은 자본 비용, 글로벌 경기 침체로 인한 데이터 센터 수요 감소 가능성에 대한 우려, 그리고 DeepSeek과 같은 저비용 AI 모델의 등장이 투자자들의 우려를 가중시켰다. SoftBank는 여전히 OpenAI에 대한 300억 달러 투자를 추진하고 있으며, 텍사스주 애빌린시의 데이터 센터와 같이 일부 건설 작업을 시작했지만, 프로젝트 전체의 자금 조달 전망은 불투명하다. (출처: 36氪)

🌟 커뮤니티
AI가 학습 과정에서 필요한 ‘고군분투’를 박탈하고 있는지에 대한 논쟁 가열: Reddit 사용자가 코딩, 글쓰기, 학습 등 다양한 상황에서 AI 도구의 편리함이 사용자로 하여금 필요한 ‘고군분투’ 과정을 건너뛰게 만들어 지식에 대한 깊이 있는 이해를 저해하는지에 대한 토론을 시작했다. 댓글에서 많은 사용자는 AI가 강력한 도구이긴 하지만 맹목적으로 의존해서는 안 된다고 생각했다. 일부 사용자는 사용자가 AI 출력 내용을 이해하고 책임져야 하며, AI는 “때로는 똑똑하고 때로는 바보 같은 초급 동료”와 같다고 강조했다. 다른 사용자들은 주로 새로운 것을 배우기보다는 이미 알고 있는 기술의 효율성을 높이는 데 AI를 사용한다고 말하며, 사용자가 AI 사용법을 반성하고 장기적인 자기 발전을 희생하면서 “뇌를 아웃소싱”하는 것을 피해야 한다고 조언했다. AI가 주로 방대한 정보 검색 및 필터링 시간을 절약해 주며, 특히 복잡하거나 비표준적인 문제를 처리할 때 유용하다는 의견도 있었다. (출처: Reddit r/ArtificialInteligence
AI 도구 무료 사용의 지속 가능성 및 사용자 데이터 가치에 대한 논의: Reddit의 한 게시물은 현재 AI 도구의 무료 사용 이유와 미래 가능한 방향에 대한 논의를 촉발했다. 게시자는 현재 AI 회사들이 시장 경쟁과 사용자 확보를 위해 무료 또는 저렴한 서비스를 제공하고 있으며, 시장 구도가 안정되면 가격을 인상할 수 있다고 주장했다. 예를 들어 Claude Code는 이미 무료 사용량을 제한하기 시작했다. 댓글에서는 AI 회사들이 무료 서비스를 통해 사용자 데이터를 수집하고 지적 재산권을 획득하며 사용자 프로필을 구축하는데, 이러한 정보 자체가 엄청난 가치를 지닌다는 의견이 있었다. 다른 댓글들은 미래 AI 서비스가 전력 공급업체처럼 가격 경쟁이 나타나거나 B2B 모델이 주류가 될 것이라고 예측했다. 동시에 사용자 데이터가 AI 훈련에 매우 중요하므로 오히려 AI 회사가 사용자에게 비용을 지불해야 한다는 반대 의견도 있었다. (출처: Reddit r/ArtificialInteligence
Sora 및 Veo 등 비디오 생성 모델 효과에 대한 사용자 불만, 더 높은 품질 기대: 일부 소셜 미디어 사용자들이 현재 주류 비디오 생성 모델인 Sora 및 Google Veo 2의 효과에 대해 불만을 표하며, 캐릭터 일관성, “카메라를 향해 걷기”와 같은 기본 지침 이해 측면에서 여전히 미흡하고 심지어 모델 능력이 “약화”된 것처럼 느껴진다고 평가했다. 사용자들은 더 높은 품질의 이미지 및 비디오 생성(음성 포함) 능력을 기대하며 Veo 3가 이러한 문제를 해결해 주기를 바란다고 농담조로 말했다. 이는 AI 비디오 생성 기술에 대한 사용자의 높은 기대와 현재 기술 수준 간의 격차를 반영한다. (출처: scaling01)
John Carmack 코멘트: 소프트웨어 최적화와 구형 하드웨어의 잠재력 과소평가: “인류가 CPU 제조 방법을 잊어버린다면 어떻게 될까”라는 사고 실험에 대해 John Carmack은 소프트웨어 최적화가 진정으로 중시된다면 세상의 많은 애플리케이션이 구형 하드웨어에서 실행될 수 있다고 코멘트했다. 희소한 컴퓨팅 파워에 대한 시장의 가격 신호는 이러한 최적화를 촉진할 것이며, 예를 들어 마이크로서비스 기반의 인터프리터 제품을 단일 네이티브 코드 라이브러리로 재구성하는 것이다. 물론 그는 저렴하고 확장 가능한 컴퓨팅 파워가 없다면 혁신적인 제품의 등장이 더욱 드물어질 것이라고 인정했다. (출처: ID_AA_Carmack)

Claude 시스템 프롬프트 유출, 업계 관심 집중, AI 제어 복잡성 드러내: Anthropic의 대형 언어 모델 Claude의 시스템 프롬프트가 유출된 것으로 알려졌으며, 그 내용은 약 25,000 Token으로 일반적인 인식을 훨씬 뛰어넘고, 역할극(지능적이고 친절한 조수), 안전 윤리 프레임워크(아동 안전 우선, 유해 콘텐츠 금지), 엄격한 저작권 준수(저작권 보호 자료 복제 금지), 도구 호출 메커니즘(MCP 14가지 도구 정의) 및 특정 행동 예외(안면 인식 사각지대) 등 다수의 구체적인 지침을 포함하고 있다. 이번 유출은 최고 수준의 AI가 안전, 규정 준수 및 사용자 경험을 보장하기 위해 사용하는 복잡한 “제약 공학”을 드러냈을 뿐만 아니라, AI 투명성, 안전성, 지적 재산권 및 프롬프트 자체의 기술 장벽에 대한 논의를 촉발했다. 유출된 내용은 공식적으로 공개된 간소화된 버전의 프롬프트와 큰 차이를 보여, AI 회사가 정보 공개와 핵심 기술 보호 사이에서 벌이는 줄다리기를 부각시켰다. (출처: 36氪)

AI의 의학 질의응답 고득점과 실제 적용 효과 간 격차 존재: 옥스퍼드 대학교 연구에서 1298명의 일반인이 진료 상황을 시뮬레이션하여 GPT-4o, Llama 3 등 AI의 도움을 받아 질병 심각도를 판단하고 대처 방식을 선택하도록 했다. 그 결과, AI 모델 단독 테스트 시 진단 정확도는 높았지만(예: GPT-4o 질병 인식률 94.7%), 사용자가 실제로 AI의 도움을 받은 후 질병을 정확하게 인식한 비율은 오히려 34.5%로 감소하여 AI를 사용하지 않은 대조군보다 낮았다. 연구는 사용자의 설명 부족, AI 제안에 대한 이해 및 수용 미흡이 주요 원인이라고 지적했다. 이는 AI가 표준화된 테스트에서 높은 점수를 받는 것이 실제 임상 적용의 효과와 완전히 동일하지 않으며, “인간-기계 협업” 단계가 핵심 병목 현상임을 시사한다. (출처: 36氪)

💡 기타
QuestMobile 보고서: AI 애플리케이션 시장, 세 가지 유형의 애플리케이션 형태 나타나, 휴대폰 제조업체 어시스턴트 활성도 높아: QuestMobile이 발표한 2025년 전체 AI 애플리케이션 시장 보고서에 따르면, 2025년 3월 기준 AI 애플리케이션은 주로 모바일 단말 네이티브 앱(월간 활성 사용자 5억 9100만 명), 모바일 단말 애플리케이션 플러그인(In-App AI, 월간 활성 사용자 5억 8400만 명), PC 단말 웹 애플리케이션(월간 활성 사용자 2억 900만 명)으로 나뉜다. 이 중 AI 종합 어시스턴트, AI 검색 엔진, AI 창작 디자인이 각 단말에서 가장 높은 비중을 차지하는 분야이다. 휴대폰 제조업체의 네이티브 AI 어시스턴트가 두각을 나타냈으며, Huawei Xiaoyi(월간 활성 사용자 1억 5700만 명)와 OPPO Xiaobu Assistant(월간 활성 사용자 1억 4800만 명)는 DeepSeek(월간 활성 사용자 1억 9300만 명)에 이어 Doubao(월간 활성 사용자 1억 1500만 명)를 앞질렀다. 보고서는 AI 검색 엔진, AI 종합 어시스턴트, AI 소셜 인터랙션, AI 전문 컨설턴트가 이미 4개의 억 단위 사용자 규모 분야가 되었다고 지적했다. (출처: 36氪)

AI 광고 영상 제작: 대형 브랜드 적극 시도, 기술 및 윤리적 과제 공존: CTR 보고서에 따르면 광고주의 절반 이상이 크리에이티브 콘텐츠 생성에 AIGC를 사용하고 있으며, 약 20%는 비디오 제작의 50% 이상 단계에서 AI의 도움을 받고 있다. Lenovo, Taotian, JD.com 등 대형 브랜드는 혁신을 선보이거나 특정 시각 효과를 구현하기 위해 AI 광고 영상을 자주 시도하고 있다. WPP, Publicis 등 광고 회사들도 AI를 수용하여 팀을 육성하거나 도구를 개발하고 있다. 그러나 AI 광고 영상 제작은 여전히 과제에 직면해 있다. 기술적으로는 화면 불안정, 인물 얼굴 쉽게 변형, 복잡한 동적 처리 미흡 등의 문제로 인해 수동 개입이 필요하다. 여론적으로는 기술을 과도하게 부각하거나 창의적인 성의가 부족하면 반감을 유발하기 쉽다. 법률 윤리적으로는 소재 저작권, 개인 정보 보호, AI 생성 콘텐츠 저작권 귀속 및 침해 책임에 대한 통일된 규범이 아직 없다. 성공 사례는 종종 “인간성”을 전달하는 데 중점을 두고, 기술적으로는 장점을 살리고 단점을 보완하며, 브랜드 특성에 부합한다. (출처: 36氪)

100명의 과학자, ‘싱가포르 합의’ 공동 서명, 글로벌 AI 안전 연구 지침 제시: 싱가포르에서 열린 국제 표현 학습 컨퍼런스(ICLR) 기간 동안 전 세계 100명 이상의 과학자(Yoshua Bengio, Stuart Russell 등 포함)가 ‘글로벌 AI 안전 연구 우선순위에 관한 싱가포르 합의’를 공동으로 발표했다. 이 문서는 AI 연구자들에게 지침을 제공하여 AI 기술이 “신뢰할 수 있고, 안정적이며, 안전”하도록 보장하는 것을 목표로 한다. 합의는 세 가지 연구 범주를 제시했다: 위험 식별(예: 잠재적 위험을 측정하는 계측학 개발, 정량적 위험 평가 수행), 위험을 피하는 방식으로 AI 시스템 구축(예: 설계를 통해 AI를 신뢰할 수 있게 만들고, 프로그램 의도와 원치 않는 부작용을 지정하며, 환각을 줄이고, 변조에 대한 견고성 향상), AI 시스템에 대한 통제 유지(예: 기존 안전 조치 확장, 통제 시도를 적극적으로 방해할 수 있는 강력한 AI 시스템을 제어하는 새로운 기술 개발). 이는 AI 능력의 빠른 발전에 따른 안전 문제를 해결하고 안전 연구에 대한 투자를 확대할 것을 촉구하기 위한 것이다. (출처: 36氪)
