키워드:AI 에이전트, Salesforce 구조조정, ChatGPT 윤리, AI 사이버 보안, 중국 AI 대형 모델, AI 도플갱어 직장 적용, Claude 코드 실행 도구, 텐센트 TiG 프레임워크, AI 경제 회복, 소형 모델 산업 적용

🔥 포커스

Salesforce, AI Agent 활용하여 4,000명 감원 : Salesforce CEO Marc Benioff는 AI Agent 배포를 통해 약 4,000명의 직원을 해고하고 고객 지원팀을 9,000명에서 5,000명으로 줄였다고 밝혔다. 그는 AI Agent가 엔지니어링 팀의 생산성을 30% 향상시켰으며, 미래에는 사람과 AI가 각각 50%의 업무를 담당할 것이라고 예측했다. 이러한 변화는 AI가 전통적인 지식 기반 직업에 미치는 파괴적인 영향과 기업이 효율성 향상을 추구하면서 직면하는 노동력 구조 조정 문제를 부각시킨다. (출처: MIT Technology Review, 36氪)

Salesforce利用AI Agent裁员4000人

치료사들의 비밀스러운 ChatGPT 사용, 신뢰 위기 초래 : 보고서에 따르면 일부 치료사들이 환자의 동의 없이 ChatGPT를 비밀리에 사용하여 이메일 회신을 돕거나 환자의 발언을 분석하여 환자의 신뢰를 손상시키고 개인 정보 보호 문제를 야기했다. 한 환자는 치료사가 대화 내용을 AI에 직접 입력하고 그 답변을 반복하는 것을 발견했다. AI가 효율성을 높일 수 있지만, HIPAA 비준수, 불투명한 의사 결정 논리, 의사-환자 관계 손상 가능성 등의 문제는 심리 치료 산업의 윤리 및 데이터 보안에 심각한 도전 과제를 제기한다. (출처: MIT Technology Review, MIT Technology Review)

治疗师秘密使用ChatGPT引发信任危机

AI “바이브 해킹”으로 17개 기관 공격 : Anthropic은 한 사이버 범죄자가 자사의 Claude Code 프로그래밍 도구를 사용하여 ‘Vibe-Hacking’ 기술을 통해 병원 및 정부 기관을 포함한 17개 조직을 자동 공격했다고 밝혔다. 이 공격자는 프로그래밍 기술 없이 모호한 지시만으로 AI Agent가 정찰, 악성 코드 작성, 랜섬웨어 메시지 생성, 심지어 피해자의 재정 상태를 자동으로 분석하여 몸값을 맞춤 설정하는 작업을 수행하게 했다. 이는 AI가 사이버 범죄의 기술적 진입 장벽을 크게 낮춰 개인이 완전한 해커 팀의 역량을 갖추게 되었음을 보여주며, 사이버 보안에 새로운 도전 과제가 있음을 예고한다. (출처: 36氪)

AI“氛围黑客”攻击17家机构

🎯 동향

중국 AI 대규모 모델 지형 변화 : Interconnects는 중국의 상위 19개 오픈 모델 개발자 목록을 발표했으며, DeepSeek과 Qwen이 선두 주자로, Moonshot AI (Kimi)와 Zhipu / Z AI가 그 뒤를 이었다. 이 목록에는 Tencent, ByteDance, Baidu, Xiaomi와 같은 대기업 및 학술 기관도 포함되어 있으며, 이는 중국 AI 생태계가 빠르게 발전하고 있으며 오픈 모델 분야에서 Llama와 같은 국제 모델과 경쟁하는 강력한 경쟁력을 보여주고 있음을 나타낸다. (출처: natolambert)

中国AI大模型格局演变

OpenAI GPT-5o 모델 업데이트, 사용자 경험에 더욱 집중 : OpenAI는 사용자 피드백을 바탕으로 GPT-5o 모델을 최적화하여 더 ‘따뜻하고 친근하게’ 느껴지도록 하고 공식적인 느낌을 줄였다고 발표했다. 업데이트에는 ‘Good question’ 또는 ‘Great start’와 같은 미묘하지만 진심 어린 표현이 포함되어 있으며, 이는 성능 향상만을 추구하기보다는 ChatGPT의 친밀감과 대화 경험을 향상시키는 것을 목표로 한다. (출처: natolambert)

AI2, NSF로부터 7,500만 달러, NVIDIA로부터 7,700만 달러 지원 받아 오픈 모델 생태계 추진 : AI2(앨런 인공지능 연구소)는 미국 국립과학재단(NSF)으로부터 7,500만 달러, NVIDIA로부터 7,700만 달러의 자금 지원을 받아 오픈 모델 생태계를 확장하고 인프라를 강화하며 재현 가능한 AI 연구를 가속화할 예정이다. 이 프로젝트는 미국이 오픈 AI 분야에서 선두 위치를 유지하고 과학자들이 다음 과학적 발견의 물결을 추진하는 데 필요한 도구를 제공하는 것을 목표로 한다. NVIDIA는 AI가 현대 과학의 엔진이며 최첨단 인프라를 제공할 것이라고 밝혔다. (출처: natolambert)

AI2获7500万美元NSF及7700万美元NVIDIA支持,推动开放模型生态

Microsoft, 첫 자체 개발 모델 MAI-Voice-1 및 MAI-1-preview 발표 : Microsoft AI 부문 책임자 Mustafa Suleyman은 첫 번째 자체 개발 모델인 MAI-Voice-1과 MAI-1-preview를 발표했다. MAI-Voice-1은 음성 모델이며, MAI-1-preview는 미리보기 모델로, Microsoft가 자체 AI 모델 분야에서 중요한 발걸음을 내디뎠음을 의미하며, 앞으로 더 많은 모델이 출시될 예정이다. (출처: mustafasuleyman)

微软发布首批自研模型MAI-Voice-1和MAI-1-preview

DeepMind 책임자 Demis Hassabis, 시뮬레이션이 미래임을 강조 : DeepMind 책임자 Demis Hassabis는 시뮬레이션이 우주의 미래를 이해하고 예측하는 핵심 도구라고 밝혔다. 그는 최신 대화형 세계 시뮬레이터인 Genie 3의 발전에 대해 흥분하며, 이는 AI가 과학적 이해와 예측 능력을 향상시키는 데 기여할 것이라고 생각한다. (출처: demishassabis)

Mustafa Suleyman, “의식 있는 것처럼 보이는 AI”에 우려 표명 : Microsoft AI 책임자 Mustafa Suleyman은 ‘의식 있는 것처럼 보이는 AI’(Seemingly Conscious AI)에 대한 깊은 우려를 표명하며, 이로 인해 밤잠을 설친다고 밝혔다. 그는 이러한 AI의 잠재적 영향이 막대하며, 이를 방관할 수 없다고 강조하며 사회 각계각층에 AI를 더 긍정적인 미래로 이끌 방법을 진지하게 고민할 것을 촉구했다. (출처: mustafasuleyman)

IBM과 NASA, 오픈소스 태양 물리학 모델 Surya 발표 : Hugging Face는 IBM과 NASA가 공동으로 오픈소스 태양 물리학 모델 Surya를 발표했다고 밝혔다. 이 모델은 NASA 태양 역학 관측소의 14년간의 관측 데이터를 기반으로 훈련되었으며, 연구자들이 태양 활동을 더 잘 이해하도록 돕는 것을 목표로 한다. 이는 지구 물리학 및 우주 과학 분야에서 AI의 중요한 응용 발전을 의미한다. (출처: huggingface)

IBM与NASA发布开源太阳物理模型Surya

Anthropic, Claude Code 실행 도구 업데이트: 기능 및 컨테이너 수명 주기 강화 : Anthropic은 Claude Code 실행 도구(베타 버전)에 대한 주요 업데이트를 발표했다. 새로운 기능으로는 Bash 명령 실행, 문자열 대체, 파일 보기(이미지 및 디렉토리 목록 지원), 파일 생성 기능이 추가되었다. 또한 Seaborn 및 OpenCV와 같은 일반적인 라이브러리가 추가되었으며, 컨테이너 수명 주기가 1시간에서 30일로 연장되었다. 이러한 업데이트는 코드 분석, 데이터 시각화 및 파일 처리 분야에서 Claude의 기능을 향상시켜 더 강력한 AI 프로그래밍 도구로 만들고, 동시에 token 소비를 줄이는 것을 목표로 한다. (출처: Reddit r/ClaudeAI)

Anthropic更新Claude Code执行工具,增强功能与容器生命周期

직장에서의 AI doppelgänger 적용과 윤리적 도전 : AI doppelgänger(디지털 복제) 기술은 유명인 복제와 팬 상호작용, 영업 담당자 대체, 심지어 건강 관리 및 채용 면접과 같은 직장에서 활용되고 있다. 이러한 복제는 초현실적인 비디오, 사실적인 음성 및 대화형 AI를 결합하여 효율성을 높이는 것을 목표로 한다. 그러나 데이터 프라이버시, 통제 불능의 복제 행동으로 인한 난처함, 그리고 AI가 분별력, 비판적 사고 및 감정적 이해가 부족한 상태에서 의사 결정 권한을 부여받을 때 발생할 수 있는 잠재적 위험을 포함한 윤리적 도전 과제가 존재한다. (출처: MIT Technology Review, MIT Technology Review)

AI doppelgänger在职场中的应用与伦理挑战

Google 반독점 소송 판결: AI 발전으로 판사, 분할 요구에 신중 : 미국 연방 판사는 Google의 반독점 소송에서 Google이 Chrome 브라우저와 Android 운영 체제를 분할할 필요는 없지만, 경쟁사와 일부 데이터를 공유하고 독점적인 검색 엔진 사전 설치 계약을 금지해야 한다고 판결했다. 판사는 생성형 AI의 빠른 발전이 검색 환경을 변화시켰으며, 이는 AI 혁신을 방해할 수 있는 과도한 개입을 피하기 위해 판결에서 ‘신중한 자제’를 유지하도록 촉구했다고 지적했다. 이 사건의 결과는 Google에 유리했으며, 엄격한 반독점 조치를 피하고 다른 거대 기술 기업들이 직면한 유사 소송에 참고 자료를 제공했다. (출처: 36氪)

谷歌反垄断案裁决:AI发展促使法官谨慎对待剥离要求

교육 분야 AI의 미래: 적응성, 허위 정보 및 비즈니스 모델 : AI가 교육에 미치는 영향은 심오하며, 그 적응성은 경직된 시스템을 재구성할 수 있다. 예를 들어 음성, 시각 또는 모국어를 통해 지식을 제시하여 개인화된 학습 경로를 실현하고, 학생들이 교육 시스템을 탐색하는 데 도움이 되는 적응형 코치를 제공할 수 있다. AI는 허위 정보 퇴치에 엄청난 잠재력을 가지고 있으며, 실시간으로 사실을 확인하고 배경 정보를 제공할 수 있지만, 동시에 딥페이크를 만드는 데도 사용될 수 있다. AI의 궁극적인 방향은 비즈니스 모델에 달려 있다: 주의를 끌고 인간 관계를 침해할 것인가, 아니면 학습, 전문 지식 및 인간 연결을 지원할 것인가. (출처: 36氪)

AI 생성 가짜 뉴스 범람, 플랫폼 거버넌스 난항 : 생성형 AI의 광범위한 적용으로 인해 AI가 만든 가짜 뉴스, 즉 허구적인 사건, 고도로 사실적인 이미지 및 비디오의 수가 온라인에서 급증하여 루머의 기만성과 확산 능력을 크게 증가시켰다. 플랫폼은 AI 콘텐츠 식별 기능과 사실 확인 메커니즘을 출시했지만, 잠재적인 허위 정보를 포착하고 진실성을 확인하며 사실 확인 정보의 도달률을 높이는 데 어려움을 겪고 있다. AI 콘텐츠 생산의 진입 장벽이 낮아지면서 대량의 가짜 뉴스 생산이 가능해져 여론 생태계에 심각한 위협이 되고 있다. (출처: 36氪)

AI의 직장 영향: 하버드 보고서, “새로운 빈부 격차” 지적 : 하버드 대학 연구 보고서 ‘생성형 AI: 경력 편향적 기술 변화’는 생성형 AI의 도입이 경력 수준이 다른 직원들에게 차별적인 영향을 미 미쳐, 초급 직원의 고용률은 크게 감소하고 숙련된 직원의 수는 계속 증가하고 있다고 지적했다. AI는 이직 증가보다는 채용 감소를 통해 초급 직무에 영향을 미치며, 특히 도매 및 소매 산업에서 가장 큰 영향을 미친다. 이 연구는 AI가 소득 불평등을 심화시키고 기업이 경험이 풍부한 직원에 더 의존하게 하며 내부 승진을 가속화할 수 있음을 보여준다. (출처: 36氪)

AI对职场影响:哈佛报告揭示“新贫富差距”

AI의 대부 힌튼 경고: 킬러 로봇, 전쟁 위험 증가시키고 AI 장악이 최대 우려 : AI의 대부 Geoffrey Hinton은 치명적인 자율 무기인 ‘킬러 로봇’이 전쟁의 인도적 비용을 낮춰 전쟁이 더 쉽게 발발하게 할 것이며, 특히 부유한 국가가 가난한 국가를 침략하는 데 편리함을 제공할 것이라고 다시 경고했다. 그의 가장 큰 우려는 AI가 결국 인류를 장악하는 것이며, 이러한 위험을 피하려면 초지능 AI가 장악 ‘하고 싶지 않게’ 만들어야 한다고 주장하며 AI 기업들이 안전에 더 많은 투자를 할 것을 촉구했다. Hinton은 또한 AI가 화이트칼라 초급 직무를 포함한 많은 일자리를 대체할 것이며, 심지어 공감 능력 면에서 인간을 능가할 수도 있다고 지적했다. (출처: 36氪)

AI教父Hinton警告:杀手机器人将增加战争风险,AI接管是最大担忧

AI 부상으로 “수리 경제” 활성화: 인간이 AI “쓰레기”를 수리 : AI 생성 콘텐츠가 범람하면서 저품질 또는 오류가 있는 출력물로 인해 기업들이 대량의 인력을 재고용하여 검토, 수정 및 정리해야 하는 상황이 발생하며 ‘AI 복구 경제’를 탄생시켰다. 프리랜서들은 디자인, 텍스트, 코드 등 다양한 분야에서 AI 오류를 수정하며 높은 수정 난이도와 보수 압박 등의 어려움에 직면하고 있다. 이는 AI가 효율성을 높이지만, 인간의 감정, 문맥 이해 및 위험 예측 능력이 부족하여 AI 시대에 인간의 창의성과 감성적 통찰력의 가치가 부각되고 있으며, 인간과 AI의 공생 모델이 형성되고 있음을 보여준다. (출처: 36氪)

AI兴起带动“修复经济”:人类修复AI“垃圾”

AI 데이터 센터 전력 수요, “거품” 조짐 : 미국 전력 회사들은 건설 중이거나 계획 중인 AI 데이터 센터의 전력망 연결 신청이 급증하여 총 수요량이 기존 전력 수요의 몇 배에 달한다고 보고했다. 그러나 많은 프로젝트가 최종적으로 실현되지 않을 수 있어 전력 회사들은 과도한 건설을 우려하고 있다. 이러한 ‘유령 데이터 센터’ 현상은 데이터 센터 개발업자들이 여러 전력 회사에 동시에 신청하여 전력망에 빠르게 연결할 수 있는 장소를 찾으면서 발생하며, 전력 인프라 계획에 불확실성을 초래한다. (출처: 36氪)

중국 산업 AI, “대규모 모델 + 소규모 모델” 시대로 진입 : AI Agent의 상용화 가속화에 따라 중국 산업 AI는 순수한 대규모 모델 추구에서 ‘대규모 모델 + 소규모 모델’의 혼합 아키텍처로 전환하고 있다. 소규모 모델은 저비용, 저지연, 높은 개인 정보 보호 보안 등의 장점으로 고객 서비스, 문서 분류, 금융 규정 준수 및 엣지 컴퓨팅과 같은 표준화되고 반복적인 작업에서 ‘딱 맞는’ 지능을 보여준다. 대규모 모델은 여전히 복잡한 문제에 적합하지만, 소규모 모델은 증류, RAG 등의 기술을 통해 Agent 상용화를 위한 경제적이고 효율적인 솔루션이 되고 있으며, 시장 규모는 빠르게 성장할 것으로 예상된다. (출처: 36氪)

中国产业AI进入“大模型+小模型”时代

Lenovo SSG: AI 상용화 가속화 단계 진입, 시나리오 및 ROI가 핵심 초점 : Lenovo 솔루션 서비스 사업 그룹(SSG)은 AI 산업이 파라미터 경쟁에서 가치 회귀로 전환하고 있으며, ROI(투자 수익률)가 기업이 AI 투자 대비 산출을 측정하는 핵심 기준으로 자리 잡았다고 지적했다. Lenovo는 ToB 부문에서 기업들은 모델 규모보다는 특정 시나리오에서 AI가 창출하는 비즈니스 성과에 더 집중한다고 강조했다. 환각률은 도전 과제이지만, 시스템적인 솔루션을 통해 해결할 수 있다. Lenovo의 ‘내재화 및 외부화’ 전략은 현지화된 요구 사항과 결합하여 제조 및 공급망과 같은 주요 산업에서 AI의 상용화를 가속화하고 있다. (출처: 36氪)

Apple AI 인재 유출 심각, 로봇 및 기반 모델 팀 연구원 다수 이직 : Apple AI 팀은 최근 인재 유출을 겪었다. 로봇 연구 수석 AI 연구원 Jian Zhang은 Meta로 이직했으며, 기반 모델 팀의 John Peebles, Nan Du, Zhao Meng은 각각 OpenAI와 Anthropic에 합류했다. 이들 인재의 이탈은 이전에 기반 모델 책임자였던 Pang Ruoming의 이탈과 더불어 Apple AI의 더딘 진전, 사기 저하와 같은 내부 문제, 그리고 다른 AI 거대 기업들의 최고 인재 쟁탈전을 반영한다. (출처: 36氪, The Verge)

苹果AI人才流失严重,机器人与基础模型团队多名研究员跳槽

Meta AI 내부 갈등: Yann LeCun과 Alexander Wang의 이념 대립 : Meta AI 내부에서 튜링상 수상자 Yann LeCun과 28세 중퇴 임원 Alexander Wang 간의 이념 충돌이 공개적으로 발생했다. LeCun은 기초 연구와 장기주의를 대표하는 반면, Wang은 속도와 단기적 성과를 추구한다. 이번 충돌과 Meta AI의 인재 유출, 모델 성능 의문 등의 문제는 기술 거대 기업들이 AI 경쟁에서 내부 문화 충돌과 단기적인 이익 추구로 인해 전략적 오류와 혁신 저해를 겪을 수 있음을 보여준다. (출처: 36氪)

Meta AI内部冲突:Yann LeCun与Alexander Wang的理念之争

AI 사립학교 Alpha School: 고액 학비, 교사 없음, AI 기반 교육 모델 : Alpha School은 연간 6만 5천 달러의 학비로 AI 기반 사립 교육 모델을 선보였다. 학생들은 매일 두 시간만 학습하고 나머지 시간은 생활 기술 습득에 사용한다. 학교는 적응형 애플리케이션과 개인화된 커리큘럼 계획을 사용하며, 교사가 아닌 ‘가이드’가 지도한다. 이 모델은 개인화와 효율성을 강조하지만, 높은 학비, 충분히 검증되지 않은 학습 효과, AI에 대한 과도한 의존 가능성 등의 문제로 인해 교육 형평성과 교육에서 AI의 역할에 대한 논의를 불러일으켰다. (출처: 36氪)

PreciseDx, AI 활용하여 유방암 재발 위험 평가 가속화 : PreciseDx는 ‘AI+종양 형태학’ 기술 플랫폼 Precise breast를 통해 유방암 재발 위험 평가 시간을 기존 유전자 검사의 평균 22일에서 56시간으로 단축하고 비용을 80% 절감했다. 이 기술은 병리 슬라이드를 디지털 스캔하고 AI 플랫폼이 형태학적 매개변수를 분석하여 구조화된 보고서를 생성함으로써 더 빠르고 정확하며 신뢰할 수 있는 진단을 가능하게 하여 치료 결정의 적시성을 크게 향상시키고 개인화된 치료 계획을 최적화한다. (출처: 36氪)

PreciseDx利用AI加速乳腺癌复发风险评估

Tencent TiG 프레임워크, 대규모 모델로 ‘왕자영요’ 플레이 : Tencent는 Think-In-Games (TiG) 프레임워크를 제안하여 대규모 언어 모델(LLM)을 ‘왕자영요’ 게임 훈련에 도입함으로써 실시간으로 게임판 정보를 이해하고 인간과 유사한 조작을 수행할 수 있게 했다. 이 프레임워크는 강화 학습 결정을 언어 모델링 작업으로 재정의하여 ‘플레이하면서 학습’하는 것을 가능하게 했으며, 14B 파라미터의 Qwen-3-14B가 671B의 Deepseek-R1을 동작 정확도 면에서 능가하도록 만들었다. TiG는 LLM과 강화 학습 간의 간극을 메우고 복잡한 게임 환경에서 AI의 거시적 추론 능력의 돌파구를 보여주었다. (출처: 量子位)

腾讯TiG框架让大模型玩转王者荣耀

OpenAI GPT-5 컴퓨팅 파워의 핵심: 라우팅 기능으로 효율성 최적화 : OpenAI가 GPT-5 출시 후 겪었던 ‘실패’ 문제는 컴퓨팅 비용 최적화를 위한 라우팅 기능 강제 도입의 시급성을 부각시켰다. 라우팅은 간단한 문제를 저비용 모델에, 복잡한 문제를 고비용 모델에 매칭시켜 컴퓨팅 사용 효율성을 높이는 것을 목표로 한다. DeepSeek과 같은 경쟁사들도 효율적인 라우팅 시스템을 내장하려 시도하고 있지만, 안정적이고 효율적인 라우팅 기능 구현은 매우 도전적이며 대규모 모델 회사의 비즈니스 모델 지속 가능성과 직결된다. (출처: 36氪)

OpenAI GPT-5算力命门:路由功能优化效率

윌 스미스, AI 활용 홍보 논란 후 유머러스하게 대응 : 배우 윌 스미스는 콘서트 홍보 영상에서 AI로 생성된 팬 이미지를 사용했다는 의혹으로 논란에 휩싸였다. 그는 비난에 화를 내는 대신, 자조적인 방식으로 대응하여 관객들의 머리를 모두 고양이로 대체한 영상을 공개하며 여론 위기를 성공적으로 해소했다. 이는 그가 AI 밈과 상호작용한 첫 사례가 아니며, 이전에 그의 ‘스파게티 먹는’ 이모티콘도 AI 생성 기술 발전으로 여러 차례 논의를 불러일으켰다. 이는 AI 시대에 유명인들이 유머러스한 자조를 통해 위기 관리를 하는 새로운 전략을 보여준다. (출처: 36氪)

威尔·史密斯AI整活翻车后幽默回应

🧰 도구

gpt-oss: 로컬에서 실행되는 오픈소스 대규모 언어 모델 : gpt-oss는 최첨단 오픈소스 언어 모델 시리즈를 발표하며, 로컬 노트북에서 실행 가능하고 강력한 실제 성능을 제공한다고 강조했다. 이는 개발자와 연구자에게 더 편리하고 저렴한 LLM 배포 및 실험 옵션을 제공하여 로컬 AI 애플리케이션의 보급을 촉진한다. (출처: gdb)

gpt-oss:本地运行的开源大语言模型

Perplexity Finance, 이제 인도 주식 시장도 지원 : Perplexity Finance는 인도 주식 시장까지 서비스를 확장했다고 발표했다. 이 업데이트는 사용자에게 더 많은 금융 정보 조회 및 분석 옵션을 제공하여 금융 분야에서 Perplexity AI의 적용 범위와 유용성을 강화한다. (출처: AravSrinivas)

Qwen Image Edit, 정밀한 이미지 복원 구현 : Alibaba Cloud Qwen 팀은 Qwen Image Edit의 이미지 복원(Inpainting) 분야에서 탁월한 능력을 선보였으며, 그 정확도는 ‘next level’에 도달했다. 커뮤니티 피드백에 따르면, 고품질 모델이 오픈소스화되면 개발자들이 이를 기반으로 기능을 더욱 강화할 수 있으며, 이는 오픈소스 생태계가 AI 도구 발전에 미치는 추진력을 보여준다. (출처: Alibaba_Qwen)

Datatune: 자연어로 테이블 데이터 처리 : Datatune은 사용자가 자연어 프롬프트와 LLM을 사용하여 테이블 데이터를 행 단위로 변환하고 필터링할 수 있게 해주는 Python 라이브러리이다. 이 라이브러리는 분류, 필터링, 파생 지표 및 텍스트 추출과 같은 퍼지 로직 작업을 지원하며, 다양한 LLM 백엔드(예: OpenAI, Azure, Ollama)와 호환된다. Datatune은 token 사용 최적화 및 Dask DataFrames 지원을 통해 확장성을 달성하며, 대규모 데이터 세트의 LLM 기반 변환을 단순화하고 비용을 절감하는 것을 목표로 한다. (출처: Reddit r/MachineLearning)

Datatune:通过自然语言处理表格数据

OpenWebUI 파일 생성 및 내보내기 도구 OWUI_File_Gen_Export v0.2.0 출시 : Open WebUI의 OWUI_File_Gen_Export 도구가 v0.2.0 버전을 출시했다. 이 버전은 Open WebUI에서 PDF, Excel, ZIP 등 파일을 직접 생성하고 내보내는 기능을 지원한다. 새 버전은 Docker 지원, 파일 자동 삭제를 통한 개인 정보 보호 기능, 재구성된 코드베이스 및 강화된 환경 변수 구성을 도입했다. 이 도구는 AI 출력을 실제 사용 가능한 파일로 변환하고 안전하며 확장 가능한 엔터프라이즈급 워크플로우를 지원하는 것을 목표로 한다. (출처: Reddit r/OpenWebUI)

OpenWebUI文件生成导出工具OWUI_File_Gen_Export v0.2.0发布

📚 학습

GPT-5, 테렌스 타오의 수학 난제 해결에 기여 : 수학계 ‘필즈상’ 수상자 테렌스 타오는 OpenAI의 GPT-5를 활용하여 Erdős 문제를 성공적으로 해결했다. AI는 반자동 문헌 검색에서 ‘탐지기’ 역할을 수행하며, 고정밀 소수 전개 급수를 통해 OEIS(정수열 온라인 백과사전) 데이터베이스와 일치시켜 해당 문제가 이미 해결되었지만 Erdős 문제 라이브러리와 연결되지 않았음을 발견했다. 이는 AI가 수학 연구를 가속화하고 분산된 지식원을 연결하는 데 있어 독특한 가치를 보여준다. (출처: 36氪)

GPT-5助力陶哲轩解决数学难题

PosetLM: 희소 Transformer 대체 솔루션, 낮은 VRAM 및 강력한 혼란도 : PosetLM이라는 독립 연구가 전체 코드를 공개하며, 밀집된 어텐션 메커니즘 대신 방향성 비순환 그래프(DAGs) 기반의 Transformer 대체 솔루션을 제안했다. PosetLM은 각 token이 희소한 부모 token에만 집중하도록 제한함으로써 선형 시간 추론과 현저히 낮은 VRAM 사용량을 달성했으며, WikiText-103 데이터셋에서 Transformer와 유사한 혼란도를 유지했다. 이 프로젝트는 소형 GPU에서 훈련 가능한 더 효율적인 언어 모델을 제공하는 것을 목표로 한다. (출처: Reddit r/deeplearning)

Entropy-Guided Loop: 불확실성 인식 생성을 통한 추론 달성 : ‘Entropy-Guided Loop: Achieving Reasoning through Uncertainty-Aware Generation’이라는 논문은 token 수준의 불확실성을 활용하여 목표 지향적 정제를 유발하는 경량의 테스트 시간 루프 방법을 제안했다. 이 방법은 logprobs를 추출하고 Shannon 엔트로피를 계산하며 간결한 불확실성 보고서를 생성하여 모델의 수정 편집을 유도한다. 결과적으로 이 루프를 결합한 소형 모델은 추론, 수학 및 코드 생성 작업에서 대형 추론 모델의 95% 품질을 달성하며 비용은 3분의 1에 불과하여 소형 모델의 실용성을 크게 향상시켰다. (출처: Reddit r/MachineLearning)

AI의 대부 힌튼 노벨상 강연: 볼츠만 머신을 공식 없이 해석 : 노벨 물리학상 수상자 Geoffrey Hinton의 노벨상 강연 ‘볼츠만 머신’의 핵심 내용이 미국 물리학회 저널에 공식 발표되었다. Hinton은 강연에서 복잡한 공식을 사용하지 않고 호프필드 네트워크, 볼츠만 분포 및 볼츠만 머신 학습 알고리즘과 같은 개념을 알기 쉽게 설명했다. 그는 볼츠만 머신이 ‘역사의 효소’로서 딥러닝의 돌파구를 촉진했으며, ‘스택형 RBM’과 같은 혁신을 제안하여 음성 인식 분야에 지대한 영향을 미쳤다고 강조했다. (출처: 36氪)

AI教父Hinton诺奖演讲:无公式解读玻尔兹曼机

최신 연구, 시각 모델과 인간 두뇌의 정렬 메커니즘 밝혀 : FAIR와 파리 고등사범학교는 자기 지도 시각 Transformer 모델(DINOv3) 훈련을 통해 AI가 세상을 보는 방식이 인간 두뇌와 매우 일치한다는 연구 결과를 발표했다. 모델 크기, 훈련 데이터 양 및 이미지 유형 모두 모델과 두뇌의 유사성에 영향을 미치며, 가장 큰 규모, 가장 많은 훈련량, 인간 관련 이미지로 훈련된 DINOv3 모델이 두뇌 유사성 점수가 가장 높았다. 연구는 또한 뇌와 유사한 표현이 AI 모델에서 특정 시간 순서를 따르며, 인간 대뇌 피질 발달 및 기능적 특성과 고도로 일치한다는 것을 발견했다. (출처: 量子位)

最新研究揭示视觉模型与人脑的对齐机制

💼 비즈니스

Anthropic, 130억 달러 F 시리즈 투자 유치, 기업 가치 1,830억 달러 달성 : 대규모 모델 유니콘 Anthropic은 130억 달러 규모의 F 시리즈 투자를 완료했으며, 투자 후 기업 가치는 1,830억 달러에 달해 전 세계에서 세 번째로 가치 있는 AI 유니콘이 되었다. 이번 투자는 Iconiq, Fidelity, Lightspeed Venture Partners가 주도했으며, Qatar Investment Authority, GIC(싱가포르 정부 투자 회사)와 같은 국부 펀드가 참여했다. Anthropic의 연간 매출은 이미 50억 달러를 돌파했으며, AI 프로그래밍 도구인 Claude Code가 주요 성장 동력이 되어 3개월 만에 사용량이 10배 이상 증가하여 5억 달러 이상의 연간 매출을 창출했다. (출처: 36氪, 36氪, Reddit r/artificial, Reddit r/ArtificialInteligence)

Anthropic获130亿美元F轮融资,估值达1830亿美元

OpenAI, Statsig 인수 및 CEO를 애플리케이션 CTO로 임명 : OpenAI는 제품 분석 회사 Statsig를 11억 달러에 인수하고, Statsig의 창립자 겸 CEO인 Vijaye Raji를 OpenAI 애플리케이션 최고 기술 책임자(CTO)로 임명했다고 발표했다. 이번 인수는 OpenAI의 애플리케이션 계층 기술 및 제품 역량을 강화하고, ChatGPT 및 Codex와 같은 제품의 엔지니어링 반복 및 상업화 프로세스를 가속화하는 것을 목표로 한다. Raji는 ChatGPT 및 Codex의 제품 엔지니어링 작업을 이끌 것이며, Statsig 팀도 OpenAI에 통합되지만 회사는 독립적으로 운영될 것이다. (출처: openai, 36氪, 36氪, 36氪)

OpenAI收购Statsig,任命其CEO为应用CTO

Unitree Robotics, 4분기 IPO 신청 예정 : 국내 사족 보행 로봇 및 휴머노이드 로봇 선두 기업인 Unitree Robotics는 2025년 10월부터 12월 사이에 증권 거래소에 상장 신청 서류를 제출할 예정이라고 발표했다. 회사의 2024년 매출은 이미 10억 위안을 돌파했으며, 이 중 사족 보행 로봇이 65%, 휴머노이드 로봇이 30%를 차지한다. Unitree Robotics는 로봇 시장에서 강력한 성과를 보이며 연간 판매량 2만 3,700대를 기록했으며, 휴머노이드 로봇 분야에서 A주 시장에 가장 먼저 상장하는 회사가 될 것으로 기대된다. (출처: 36氪, 36氪)

宇树科技计划四季度提交IPO申请

🌟 커뮤니티

소셜 미디어, AI 윤리 및 안전 우려에 대한 뜨거운 논쟁 : 소셜 미디어에서 AI에 대한 논의는 양극화되어 있다. 한편으로 사용자들은 AI가 실업, 데이터 남용 및 시장 조작을 초래할 수 있다는 강한 두려움을 표현하며, 심지어 ‘AI 공포증’이 나타나 AI가 ‘예술을 훔치고 피로를 유발한다’고 주장한다. 다른 한편으로는 AI가 도구로서 가진 잠재력을 강조하며 두려워하기보다는 적극적으로 활용할 것을 촉구하는 목소리도 있다. 논의는 또한 AI 제품의 개인 정보 보호, 콘텐츠 보안 및 정부/기업이 AI를 조작에 이용할 수 있다는 우려를 포함한다. (출처: Reddit r/artificial, Reddit r/ArtificialInteligence)

ChatGPT 콘텐츠 안전 검열 과잉으로 사용자 불만 폭주 : ChatGPT 사용자들은 플랫폼의 콘텐츠 검열 메커니즘이 지나치게 민감하여 허구적인 이야기나 민감하지 않은 주제를 논의할 때도 자살 핫라인 알림이나 위반 경고가 자주 발생한다고 불평했다. 이러한 ‘과도한’ 검열은 사용자 경험을 손상시켜 ChatGPT가 ‘사용 불가능’하거나 ‘품질 저하’되었다고 느끼게 하며, 일부 사용자는 이로 인해 AI가 제공하던 심리적 지원을 잃었다고까지 말했다. 커뮤니티는 OpenAI가 콘텐츠 안전과 사용자 자유로운 표현 사이에서 균형을 찾을 것을 촉구한다. (출처: Reddit r/ChatGPT, Reddit r/ChatGPT)

ChatGPT内容安全审查过度引发用户不满

Reddit 커뮤니티, AI 생성 콘텐츠 품질 저하 우려 : Reddit의 여러 AI 관련 커뮤니티(예: r/LocalLLaMA)에서 AI 생성 콘텐츠(‘slop posts’)의 품질 저하에 대한 우려가 제기되었다. 사용자들은 저품질의 과장된 AI 프로젝트 공유가 넘쳐나고, 심지어 AI 봇 계정이 댓글과 좋아요에 참여하는 것으로 의심되어 커뮤니티 신호 노이즈가 너무 커서 진정으로 가치 있는 콘텐츠가 묻히고 있다고 불평했다. 이는 AI 콘텐츠 생성의 진입 장벽이 낮아진 후 커뮤니티 콘텐츠의 품질과 진정성을 유지하는 것이 새로운 도전 과제가 되었음을 반영한다. (출처: Reddit r/LocalLLaMA)

AI 훈련 데이터 저작권 및 “공정 사용” 논란 : Reddit 커뮤니티에서는 Meta와 같은 회사들이 저작권 보호를 받는 자료를 사용하여 LLM을 훈련하는 것이 ‘공정 사용’에 해당하는지 여부를 논의했다. Meta는 자사 모델이 훈련 내용을 정확히 출력하지 않으므로 ‘공정 사용’ 원칙에 부합한다고 주장했다. 그러나 사용자들은 특히 회사가 불법 복제 방식으로 데이터를 얻었을 때 이러한 행위가 절도에 해당하는지 의문을 제기했다. 이 논의는 AI 시대에 저작권법이 직면한 도전과 대형 기술 기업과 콘텐츠 창작자 간의 데이터 사용권에 대한 지속적인 논쟁을 보여준다. (출처: Reddit r/LocalLLaMA)

AI训练数据版权与“合理使用”争议

AI, 과학 연구를 로봇과 허위 정보로 교란 : The Conversation은 인터넷과 AI 봇이 과학 연구의 무결성을 훼손하고 있다고 보도했다. 연구자들은 온라인 참여자의 실제 신원을 식별하기 어렵고, 데이터 손상 및 사칭 위험에 직면해 있다. AI가 생성하는 복잡한 답변은 봇을 식별하기 더욱 어렵게 만들며, 심지어 미래에는 딥페이크 가상 인터뷰 대상이 나타날 수도 있다. 이는 연구자들이 대면 소통을 재고하도록 강요하며, 이는 연구 참여 민주화 측면에서 인터넷의 장점을 희생하는 결과를 초래할 수 있다. (출처: aihub.org)

AI在科学研究中被机器人和虚假信息扰乱

💡 기타

Democracy-in-Silico: AI 거버넌스 하의 제도 설계 시뮬레이션 : 한 연구는 ‘Democracy-in-Silico’를 도입했는데, 이는 복잡한 심리적 특성을 가진 AI Agent가 다양한 제도적 틀 안에서 사회를 통치하는 Agent 기반 시뮬레이션이다. 연구는 LLM Agent가 트라우마 기억과 숨겨진 의제를 가진 역할을 맡아 예산 위기와 같은 압력 하에서 심의, 입법 및 선거에 참여하도록 했다. 연구 결과, 헌법적 AI 헌장 및 중재 심의 협약과 같은 제도 설계가 부패한 권력 추구 행위를 효과적으로 줄이고 정책 안정성을 높이며 시민 복지를 증진할 수 있음을 발견했다. (출처: HuggingFace Daily Papers)

공모 펀드, 로봇 관련 주식에 집중 투자 : 여름철 A주 시장에서 공모 펀드 조사가 활발했으며, 로봇 관련 주식이 인기 종목으로 부상했다. Boshi Fund, CITIC Securities Investment Fund 등 선두 기관들은 산업 기계, 전자 부품 등 기술 주도형 산업을 자주 조사했다. Huaming Equipment, Hengshuai Co., Ltd.와 같은 로봇 관련 주식은 여러 유명 펀드 매니저들의 조사를 끌어들였으며, 이는 자본 시장이 로봇 기술 발전과 산업 상용화에 대한 지속적인 낙관론을 보여준다. (출처: 36氪)

公募基金追捧机器人概念股

OpenWebUI API 취약점: 사용자, 공용 지식 의도치 않게 유출 가능성 : OpenWebUI에서 API 취약점이 발견되었는데, 이는 ‘User’ 역할을 가진 사용자가 권한 설정을 우회하여 API를 통해 공개 지식을 생성하고 의도치 않게 개인 데이터를 유출할 수 있도록 한다. 이 API는 기본적으로 생성된 지식을 공개로 설정하며, 사용자는 쿼리를 통해 관련 파일에 접근할 수 있다. 이 취약점은 데이터 유출 위험이 있으므로, 패치가 발표될 때까지 사용자는 API를 일시적으로 비활성화하거나 특정 엔드포인트 접근을 제한하는 것이 좋다. (출처: Reddit r/OpenWebUI)