키워드:AI 기술, OpenAI, GPT-4.5, 대형 언어 모델, AI 인재 부족, o3 모델 지리적 위치 추적, DeepSeek-V3, AI 에이전트, Token-Shuffle 기술

🔥 聚焦

OpenAI GPT-4.5 핵심 개발자 Kai Chen 영주권 거부, 미국 AI 인재 위기 우려 촉발: 캐나다 국적 AI 연구원 Kai Chen, 미국 거주 12년 만에 영주권 신청 거부되어 강제 출국 위기에 직면. Chen은 OpenAI GPT-4.5 핵심 개발자 중 한 명으로, 그의 상황은 기술계에서 미국 이민 정책이 AI 선도 지위를 훼손할 수 있다는 광범위한 우려를 불러일으킴. 최근 미국은 AI 연구원을 포함한 유학생 및 H-1B 비자 심사를 강화하고 있으며, 이미 1700명 이상의 학생 비자가 영향을 받음. Nature 조사에 따르면 미국 내 과학자의 75%가 이주를 고려 중. 이민은 미국 AI 발전에 매우 중요하며, 최고 AI 스타트업 창업자 중 이민자 비율이 높고, AI 분야 대학원생 중 유학생이 70%를 차지함. 인재 유출과 이민 정책 강화는 미국의 글로벌 AI 분야 경쟁력에 심각한 영향을 미칠 수 있음. (출처: 新智元, CSDN, 直面AI)

OpenAI GPT-4.5 핵심 개발자 Kai Chen 영주권 거부, 미국 AI 인재 위기 우려 촉발

OpenAI o3 모델, 놀라운 지리 위치 파악 능력 선보이며 프라이버시 우려 제기: OpenAI의 최신 o3 모델은 사진의 세부 정보(흐릿한 번호판, 건축 양식, 식생, 조명 등)를 분석하고 코드 실행(Python 이미지 처리)을 결합하여 촬영 장소를 정확하게 추론하는 능력을 보여줌. 심지어 뚜렷한 랜드마크나 EXIF 정보가 없는 경우에도 성공함. 실험 결과, o3는 사용자 집 근처, 마다가스카르 시골, 부에노스아이레스 시내 등 여러 장소의 사진 위치를 정확하게 식별함. 추론 과정(이미지를 여러 번 자르고 확대하는 등)이 때때로 불필요해 보이지만 결과의 정확성은 높으며, Claude 3.7 Sonnet 등 다른 모델을 훨씬 능가함. 이 능력은 사용자의 프라이버시 보안에 대한 큰 우려를 불러일으켰으며, 평범해 보이는 사진조차 개인 위치 정보를 노출할 수 있음을 시사함. 인간은 AI의 강력한 이미지 분석 능력 앞에서 마치 “벌거벗은” 상태와 같음. (출처: 新智元, dariusemrani)

OpenAI o3 모델, 놀라운 지리 위치 파악 능력 선보이며 프라이버시 우려 제기

AI 바이러스학 능력 테스트 우려 제기: o3, 인간 전문가 94% 능가하는 성능 보여: 비영리 단체 SecureBio 연구팀은 322개의 멀티모달, 실험 문제 해결에 중점을 둔 난제로 구성된 바이러스학 능력 테스트(VCT)를 개발함. 테스트 결과, OpenAI의 o3 모델은 이러한 복잡한 문제를 처리하는 데 43.8%의 정확도를 보여 인간 바이러스학 전문가(평균 정확도 22.1%)보다 현저히 우수했으며, 특정 하위 분야에서는 전문가의 94%를 능가함. 이 결과는 전문 과학 분야에서 AI의 강력한 능력을 부각시키지만, 이중 용도 위험에 대한 우려도 제기함. AI가 전염병 예방 등 유익한 연구에 크게 기여할 수 있지만, 비전문가가 생물 무기 제조에 악용할 수도 있음. 연구자들은 AI 능력에 대한 접근 통제 및 보안 관리를 강화하고, AI 발전과 보안 위험의 균형을 맞추기 위한 글로벌 거버넌스 프레임워크를 제정할 것을 촉구함. (출처: 学术头条, gallabytes)

AI 바이러스학 능력 테스트 우려 제기:o3, 인간 전문가 94% 능가하는 성능 보여

DeepSeek, V3 대형 모델 발표, 속도 3배 향상: DeepSeek은 최신 DeepSeek-V3 대형 모델 출시를 발표함. 이는 현재까지 가장 큰 진전으로 알려졌으며, 주요 특징은 다음과 같음: 초당 60개 token 처리 속도로 V2 버전 대비 3배 향상; 모델 능력 강화; 이전 버전과의 API 호환성 유지; 모델 및 관련 연구 논문 완전 오픈소스 공개. 이번 발표는 DeepSeek이 대형 언어 모델 분야에서 지속적인 빠른 반복과 오픈소스 커뮤니티에 대한 기여를 보여주는 것임. (출처: teortaxesTex)

DeepSeek, V3 대형 모델 발표, 속도 3배 향상

🎯 동향

Meta 등, Token-Shuffle 기술 제안, 자기회귀 모델 최초로 2048×2048 이미지 생성: Meta, Northwestern University, 싱가포르 국립대학교 등 기관의 연구자들이 Token-Shuffle 기술을 제안함. 이는 자기회귀 모델이 대량의 이미지 token을 처리할 때 발생하는 효율성 및 해상도 병목 현상을 해결하기 위함임. 이 기술은 Transformer 입력단에서 로컬 공간 token을 병합(token-shuffle)하고 출력단에서 복원(token-unshuffle)함으로써 계산 중 시각적 token 수를 현저히 줄여 효율성을 높임. 2.7B 파라미터의 Llama 모델을 기반으로 한 이 방법은 최초로 2048×2048 초고해상도 이미지 생성을 실현했으며, GenEval 및 GenAI-Bench 등 벤치마크 테스트에서 동급 자기회귀 모델은 물론 강력한 확산 모델까지 능가함. 이 기술은 멀티모달 대형 언어 모델(MLLMs)이 고해상도, 고충실도 이미지를 생성하는 새로운 길을 열었으며, GPT-4o 등 모델의 미공개 이미지 생성 기술 원리를 밝힐 수도 있음. (출처: 36氪)

Meta 등, Token-Shuffle 기술 제안, 자기회귀 모델 최초로 2048x2048 이미지 생성

중국 오픈소스 대형 모델 협력 강화, 글로벌 AI 생태계 진화 가속: DeepSeek과 Alibaba Qwen으로 대표되는 중국 기초 대형 모델은 오픈소스 전략을 통해 昆仑万维 등 많은 기업이 이를 기반으로 더 작고 강력한 수직적 모델을 개발하도록 이끌며 “집단군” 작전 모드를 형성하여 국내 AI 기술의 반복과 응용 착지를 가속화함. 昆仑万维는 DeepSeek과 Qwen을 기반으로 훈련한 Skywork-OR1 모델을 통해 동일 규모에서 QwQ-32B를 능가하는 성능을 보였으며 데이터셋과 훈련 코드를 공개함. 이러한 개방 전략은 미국 주류의 폐쇄형 모델과 대조를 이루며, 중국의 기술 자신감과 산업 우선 경로를 반영하고 기술 보편화와 글로벌 공생에 기여하며 글로벌 AI 생태계를 “단극”에서 “다극”으로 발전시키는 데 도움이 됨. (출처: 观网财经, bookwormengr, teortaxesTex, karminski3, reach_vb)

중국 오픈소스 대형 모델 협력 강화, 글로벌 AI 생태계 진화 가속

Google DeepMind CEO Hassabis, AGI 10년 내 실현 예측하며 안전과 윤리 강조: Google DeepMind CEO Demis Hassabis는 《TIME》지와의 인터뷰에서 범용 인공지능(AGI)이 향후 10년 내에 현실화될 수 있다고 예측함. 그는 AI가 질병, 에너지 등 중대한 과제 해결에 도움이 될 것이라고 보지만, 남용되거나 통제 불능 상태가 될 위험, 특히 생물 무기와 통제권 문제를 우려함. Hassabis는 글로벌 통합 AI 안전 표준 및 거버넌스 프레임워크 구축을 촉구하며, AGI 실현에는 분야 간 협력이 필요하다고 주장함. 그는 문제 해결 능력과 추측 제기 능력을 구분하며, 진정한 AGI는 후자를 갖추어야 한다고 생각함. 동시에 그는 AI 비서가 사용자 프라이버시를 존중해야 한다고 강조하며, AI 발전이 대규모 대체보다는 새로운 일자리를 창출할 것이라고 보지만, 사회는 부의 분배와 삶의 의미 등 철학적 문제를 고민해야 한다고 말함. (출처: 智东西, TIME)

Google DeepMind CEO Hassabis, AGI 10년 내 실현 예측하며 안전과 윤리 강조

AI Agent 새로운 핫스팟으로 부상, Manus, 心响, 扣子空间 등 제품 등장: 범용 AI 에이전트(Agent)가 AI 분야의 새로운 초점으로 떠오르며, Manus의 폭발적인 인기는 Agent 원년의 시작으로 간주됨. 이러한 제품은 사용자의 간단한 지시에 따라 자율적으로 계획하고 복잡한 작업(프로그래밍, 정보 검색, 공략 수립 등)을 수행할 수 있음. Baidu(心响App), ByteDance(扣子空间) 등 대기업들이 빠르게 유사 제품을 출시하며 따라잡고 있음. 평가 결과, 각 제품은 프로그래밍, 정보 통합, 외부 자원 호출(지도 등) 등에서 장단점이 있으며, Manus는 프로그래밍 작업에서 놀라운 성능을 보이고, 心响은 지도 통합에 강점이 있지만 정보의 시의성(상품 가격 등)은 외부 플랫폼의 MCP 프로토콜 접속 정도에 따라 제한됨. Agent의 발전은 AI가 대화에서 실행 도구로 나아가는 것을 의미하지만, 생태계 통합과 비용 문제는 여전히 과제임. (출처: 剁椒Spicy)

AI Agent 새로운 핫스팟으로 부상, Manus, 心响, 扣子空间 등 제품 등장

AI 데이터센터 건설 붐 냉각? 실제로는 기술 거인의 전략 조정과 자원 병목: 최근 Microsoft의 오하이오 프로젝트 중단, AWS의 임대 계획 조정 소문 등으로 AI 데이터센터 거품에 대한 우려가 제기됨. 그러나 Vertiv, Alphabet의 재무 보고 및 Amazon 고위 경영진의 발언은 수요가 여전히 강력함을 보여줌. 업계 관계자들은 이것이 시장 붕괴가 아니라, AI의 빠른 발전, 기술 돌파, 지정학적 불확실성 속에서 기술 거인들이 핵심 프로젝트를 우선적으로 보장하기 위해 진행하는 전략적 조정이라고 분석함. 전력 공급 부족이 주요 병목 현상이 되고 있으며, 신규 데이터센터의 전력 수요 급증(60MW에서 500MW+로 증가)이 전력망 증설 속도를 훨씬 초과하여 프로젝트 대기 시간이 길어지고 있음. 미래에는 데이터센터 건설이 계속되겠지만, 전력 접근성을 더욱 중시하게 될 것이며 “밀물과 썰물” 같은 리듬을 보일 수 있음. (출처: 腾讯科技, SemiAnalysis)

AI 데이터센터 건설 붐 냉각? 실제로는 기술 거인의 전략 조정과 자원 병목

NVIDIA, 3DGUT 기술 발표, Gaussian Splatting과 레이 트레이싱 결합 실현: NVIDIA 연구원들은 3DGUT(3D Gaussian Unscented Transform)라는 새로운 기술을 제안하여, Gaussian Splatting의 빠른 렌더링과 레이 트레이싱의 고품질 효과(반사, 굴절 등)를 최초로 결합함. 이 기술은 “2차 광선”(secondary rays)을 도입하여 Gaussian Splatting 장면에서 광선이 반사되도록 함으로써 실시간 고품질 반사 및 굴절 효과를 구현하고, 어안 카메라 등 비표준 카메라 모델 및 롤링 셔터를 지원하여 기존 Gaussian Splatting 기술의 한계를 해결함. 연구 코드는 오픈소스로 공개되었으며, 가상 세계 렌더링 및 자율 주행 훈련 등 분야의 발전을 촉진할 것으로 기대됨. (출처: Two Minute Papers

)

휴머노이드 로봇 “전자 피부” 기술 발전과 과제: “전자 피부”(유연 촉각 센서)는 휴머노이드 로봇이 정밀한 촉각을 감지하고 깨지기 쉬운 물건을 잡는 등의 작업을 완료하는 데 핵심적인 기술임. 현재 주류 기술 경로는 압저항식(안정성 좋고 양산 용이, 예: 汉威科技, 福莱新材, 墨现科技 채택)과 정전용량식(비접촉 감지, 재질 식별 가능, 예: 他山科技 채택)을 포함함. 여러 제조업체가 이미 양산 능력을 갖추고 로봇 회사와 협력하고 있지만, 산업은 아직 초기 단계이며 로봇(특히 정교한 손) 출하량이 적어 전자 피부 비용이 높음(목표 가격은 한 손당 2000위안 이내, 현재는 훨씬 초과). 이는 대규모 응용을 제한함. 미래에는 더 많은 감지 차원(온도, 습도 등)을 통합하고 호텔 서비스, 산업 유연 작업 공간 등 실제 적용 시나리오를 확장해야 함. (출처: 每经头条)

휴머노이드 로봇 "전자 피부" 기술 발전과 과제

정무(政務) 대형 모델 발전 기회 맞아, AI 사무 응용 우선 착륙: DeepSeek의 오픈소스화와 성능 향상은 정무 대형 모델 배포 비용을 현저히 낮추어 정무 분야에서의 응용을 촉진했으며, 특히 AI 사무 시나리오(공문서 작성, 교정, 편집, 지능형 질의응답 등)에서 두드러짐. 그러나 범용 대형 모델(예: DeepSeek)은 “환각(hallucination)” 문제가 있고 정무 전문 지식이 부족함. Kingsoft Office 등 제조업체는 “범용 대형 모델 + 산업 대형 모델 + 전문 소형 모델” 협력 방안을 제안하여, 정무 말뭉치(corpus)를 결합하여 전용 모델(예: Kingsoft 정무 대형 모델 강화판)을 훈련하고 정부 내부 데이터 자원을 활성화하여 환각 문제를 해결하고 전문성과 보안성을 향상시킴. AI 사무는 기존 프로세스를 뒤엎기보다는 보조하여 효율성을 높이고(공문서 작성 효율 30-40% 향상), 부서별 전용 지식 베이스를 구축하는 것을 목표로 함. (출처: 光锥智能)

정무(政務) 대형 모델 발전 기회 맞아, AI 사무 응용 우선 착륙

AI Agent 통신 프로토콜 A2A 발표, 독립 AI 에이전트 연결 목표: Google은 Agent2Agent (A2A)라는 통신 프로토콜을 발표함. 이는 독립적인 AI 에이전트들이 구조화되고 안전한 방식으로 서로 통신하고 협력할 수 있도록 하기 위함임. 이 프로토콜은 HTTP를 기반으로 공통 JSON 메시지 형식을 정의하여, 한 Agent가 다른 Agent에게 작업을 요청하고 결과를 수신할 수 있도록 함. 주요 구성 요소에는 Agent의 능력을 설명하는 Agent Card, 클라이언트, 서버, 작업, 메시지(텍스트, JSON, 이미지 등 포함) 및 아티팩트(작업 결과)가 포함됨. A2A는 스트리밍 전송 및 알림을 지원하며, 개방형 표준으로서 모든 Agent 프레임워크 또는 공급업체가 구현할 수 있어 전문화된 Agent 협력을 촉진하고 모듈식 Agent 생태계를 구축하는 데 기여할 것으로 기대됨. (출처: The Turing Post)

AI Agent 통신 프로토콜 A2A 발표, 독립 AI 에이전트 연결 목표

AI 컴퓨팅 파워 경쟁 미중 구도 분석: 미국, 컴퓨팅 파워 우위로 승리할까?: 《AI 2027》 보고서를 작성했던 연구원이 발표한 글에 따르면, 중국의 AI 특허 수가 세계 1위(70% 차지)임에도 불구하고 AI 경쟁에서 미국이 컴퓨팅 파워 우위로 승리할 가능성이 있음. 이 글은 미국이 전 세계 첨단 AI 칩 컴퓨팅 파워의 75%를 장악하고 있으며, 중국은 15%에 불과하고 수출 통제의 영향으로 비용이 더 높다고 추정함. 중국이 컴퓨팅 파워 집중 사용에서 더 우수할 수 있지만, 미국 선도 기업(예: Google, OpenAI)의 컴퓨팅 파워 점유율도 높아지고 있음. 알고리즘 발전은 중요하지만 서로 쉽게 차용할 수 있으며 결국 컴퓨팅 파워 병목 현상에 제약을 받음. 전력 측면에서는 단기적으로 미국의 병목 현상이 되지 않을 것임. 보고서는 엄격한 칩 제재 실행이 미국의 선도 지위 유지에 매우 중요하며, 중국의 칩 자립 시기를 2030년대 말까지 늦출 수 있다고 주장함. (출처: 新智元)

AI 컴퓨팅 파워 경쟁 미중 구도 분석:미국, 컴퓨팅 파워 우위로 승리할까?

🧰 도구

Copilot Arena: VSCode에서 직접 코드 LLM을 평가하는 플랫폼: ML@CMU는 실제 개발 환경에서 개발자들이 다양한 LLM 코드 완성에 대한 선호도를 수집하기 위해 VSCode 확장 프로그램 Copilot Arena를 출시함. 이 도구는 이미 11,000명 이상의 사용자를 유치하여 25,000회 이상의 코드 완성 “대결” 데이터를 수집했으며, LMArena 웹사이트에서 실시간 순위를 업데이트함. 새로운 페어링 인터페이스, 최적화된 모델 샘플링 전략(지연 시간 33% 감소), 교묘한 프롬프트 기법(채팅 모델도 FiM 작업 수행 가능)을 채택함. 연구 결과, Copilot Arena의 순위는 정적 벤치마크와의 관련성은 낮지만 Chatbot Arena(인간 선호도)와의 관련성은 높아 실제 환경 평가의 중요성을 보여줌. 데이터는 또한 사용자 선호도가 작업 유형에 크게 영향을 받지만 프로그래밍 언어에는 적게 영향을 받는다는 것을 밝힘. (출처: AI Hub)

Copilot Arena:VSCode에서 직접 코드 LLM을 평가하는 플랫폼

AI “개 언어” 번역 앱 Traini 인기, 정확도 81.5%: Traini라는 AI 앱은 개의 짖는 소리, 표정, 행동을 인간 언어로 번역하고, 사람의 말을 “개 언어”로 번역할 수 있다고 주장함. 이 앱은 자체 개발한 PEBI 대형 모델을 기반으로 하며, 이 모델은 10만 개의 개 샘플과 반려동물 행동학 지식을 학습하여 12가지 개 감정을 식별할 수 있고 정확도는 81.5%에 달한다고 함. 사용자는 사진, 비디오 또는 녹음 파일을 업로드하여 PetGPT 챗봇을 이용해 반려동물의 상태를 해독할 수 있음. Traini는 또한 개 훈련 과정 구독 서비스도 제공함. 실제 번역 효과에 논란이 있을 수 있지만(예: 테스트 중 “헛소리” 발생), 이 앱은 출시 후 약 1년 만에 다운로드 수가 400% 증가하여 AI가 반려동물 기술 분야에서 큰 잠재력을 가지고 있음을 보여줌. (출처: 乌鸦智能说)

AI "개 언어" 번역 앱 Traini 인기, 정확도 81.5%

Gemini Coder: Gemini를 이용해 무료로 코드를 작성하는 오픈소스 VSCode 플러그인: Gemini Coder라는 VSCode 플러그인이 GitHub에 오픈소스(MIT 라이선스)로 공개됨. 이 플러그인을 사용하면 VSCode에서 직접 Google의 Gemini 시리즈 모델(무료 Gemini-2.5-Pro 및 Flash 등)을 호출하여 코드 작성 및 보조 기능을 사용할 수 있으며, 기능적으로 Cursor나 Windsurf와 유사함. 이는 개발자가 Gemini의 강력한 코드 능력을 무료로 활용하여 개발 효율성을 높일 수 있음을 의미함. (출처: karminski3)

Gemini Coder:오픈소스 VSCode 플러그인, Gemini를 이용해 무료로 코드 작성

AI 여자친구 게임 부상, 소형 프로그램부터 전문 업체까지 진출: AI 여자친구 게임이 새로운 트랙으로 떠오르며, 소규모 팀이 제작한 WeChat 미니 프로그램부터 미호요 창업자 Cai Haoyu의 새 회사 Anuttacon, 여성향 게임 업체 자연선택(‘EVE’ 출시) 등 다양한 업체들이 진출하고 있음. 미니 프로그램류 게임은 비교적 단조로운 플레이 방식(롤플레잉 대화, 외모 커스터마이징)을 가지며 AI를 이용해 제작 비용을 낮추지만, 동질화가 심각하고 유료 모델(회원 구독, 포인트 충전)이 종종 사용자 불만을 야기하며 신선함이 쉽게 사라짐. 신흥 업체들은 여성향 게임 모델을 참고하여 플레이 방식의 풍부함, 아이템 과금, 주변 상품 수익화에 중점을 둘 가능성이 있음. AI의 응용은 제작 효율 향상과 사용자 상호작용 개선(실시간 대화 생성, 반응 등)에 나타남. 그러나 현재 AI 상호작용 경험은 여전히 부족하며(기계적인 답변, 현실감 부족), 콘텐츠 선정성 문제, 사용자 신뢰도 및 다른 엔터테인먼트 방식과의 경쟁 등의 문제에 직면해 있음. (출처: 定焦)

AI 여자친구 게임 부상, 소형 프로그램부터 전문 업체까지 진출

AI 콘텐츠 식별 가이드: AI 생성 텍스트, 이미지, 비디오 식별 방법: 점점 더 현실적으로 변하는 AI 생성 콘텐츠(AIGC)에 직면하여 일반인도 몇 가지 식별 기술을 익힐 수 있음. AI 텍스트 식별: 지나치게 정확하거나 나열된 어휘, 과도한 비유, 완벽한 문법과 일관된 문장 구조, 패턴화된 표현(이모티콘 남용, 고정된 시작 문구 등), 진정한 감정 및 개인 경험 부족, 그리고 가능한 “환각”(사실 오류)에 주의. AI 이미지 식별: 손, 치아, 눈 등 세부 사항이 자연스러운지 확인; 빛과 그림자, 물리적 반사, 배경이 일관되고 합리적인지 확인; 피부, 머리카락 등 질감이 지나치게 매끄럽거나 이상한지 확인; 비정상적인 대칭이나 과도한 완벽함이 있는지 확인. AI 비디오 식별: 얼굴 미세 표정이 경직되었는지, 동작이 논리적인지(무의식적인 작은 움직임 부족), 환경 조명이 일치하는지, 배경에 왜곡이나 깜박임이 있는지 주의. 역 이미지 검색 및 AI 탐지 도구(예: ZeroGPT, 朱雀鉴别器)를 보조적으로 사용할 수 있지만, 비판적 사고와 종합적인 판단이 필요함. (출처: 硅星人Pro)

AI 콘텐츠 식별 가이드:AI 생성 텍스트, 이미지, 비디오 식별 방법

Plexe AI: 최초의 오픈소스 ML 엔지니어링 Agent 주장: Plexe AI는 세계 최초의 머신러닝 엔지니어링 Agent라고 자칭하며, 데이터셋 처리, 모델 선택, 튜닝 및 배포와 같은 머신러닝 작업을 자동화하여 수동 데이터 준비 및 코드 검토를 줄이는 것을 목표로 함. 이 프로젝트는 GitHub에 오픈소스로 공개되었으며, Agent를 통해 ML 워크플로우를 단순화하고자 함. (출처: Reddit r/MachineLearning)

HighCompute.py: 작업 분해를 통해 로컬 LLM의 복잡한 작업 처리 능력 향상: HighCompute.py라는 단일 파일 Python 애플리케이션이 공개됨. 이는 다단계 작업 분해 전략을 통해 로컬 또는 원격 LLM(OpenAI API 호환 필요)의 복잡한 쿼리 처리 능력을 향상시키는 것을 목표로 함. 애플리케이션은 낮음(직접 응답), 중간(1단계 분해), 높음(2단계 분해)의 세 가지 계산 수준을 제공하며, 수준이 높을수록 API 호출 횟수와 Token 소모가 많아지지만 이론적으로 더 복잡한 작업을 처리하고 답변 품질을 향상시킬 수 있음. 사용자는 채팅 중에 동적으로 계산 수준을 전환할 수 있음. 이 프로젝트는 Gradio를 사용하여 웹 인터페이스를 구축했으며, “고연산력” 처리 효과를 모방하는 것을 목표로 하지만 본질적으로 모델 자체 능력을 향상시키는 것이 아니라 계산량을 늘리는 것임. (출처: Reddit r/LocalLLaMA)

Open WebUI, 고급 데이터 분석(코드 실행) 기능 추가: Open WebUI(이전 Ollama WebUI)는 사용자 인터페이스에서 코드를 실행할 수 있는 고급 데이터 분석 기능을 추가했다고 발표함. 이는 ChatGPT의 Code Interpreter 기능과 유사하며, 로컬 LLM 애플리케이션의 능력을 확장하여 데이터를 직접 처리 및 분석하고 차트 등을 생성할 수 있게 함. (출처: Reddit r/LocalLLaMA)

📚 학습

생성형 AI를 활용한 직업 지도 7가지 방법: 생성형 AI(예: ChatGPT, DeepSeek)는 비용 효율적인 직업 멘토 역할을 할 수 있음. 이 글은 AI를 활용한 직업 지도 7가지 방식과 예시 프롬프트를 제시함: 1) 직업 방향 명확화(성찰적 질문, 기술-흥미 매칭); 2) 이력서 및 LinkedIn 프로필 최적화(요약 작성, 성과 정량화); 3) 구직 전략 수립(기회 식별, 인맥 확장); 4) 면접 준비 및 연봉 협상(모의 면접, 답변 전략); 5) 리더십 향상 및 경력 성장 촉진(기술 식별, 승진 계획); 6) 개인 브랜딩 및 사고 리더십 구축(콘텐츠 제작, 인지도 향상); 7) 일상 업무 문제 대처(갈등 처리, 경계 설정). 핵심은 상세한 배경 정보 제공, 신중한 프롬프트 설계, 그리고 자신의 판단과 결합하여 AI 제안을 사용하는 것임. (출처: 哈佛商业评论)

생성형 AI를 활용한 직업 지도 7가지 방법

논문 토론: Vision Transformers에는 레지스터가 필요하다: Vision Transformers(ViT)에 관한 새로운 논문은 ViT의 성능 개선을 위해 레지스터와 유사한 메커니즘이 필요하다고 제안함. 논문은 기존 ViT의 문제점을 지적하고, 복잡한 손실 함수나 네트워크 계층 수정 없이 간결하고 이해하기 쉬운 해결책을 제시하여 좋은 결과를 얻었으며 한계점도 논의함. 이 연구는 명확한 문제 설명, 우아한 해결책, 이해하기 쉬운 글쓰기 스타일로 호평을 받음. (출처: TimDarcet)

논문 토론:Vision Transformers에는 레지스터가 필요하다

논문 공유: BitNet v2 – 1비트 LLM을 위한 네이티브 4비트 활성화 도입: BitNet v2 논문은 Hadamard 변환을 사용하여 1비트 LLM(가중치 1.58비트)에 네이티브 4비트 활성화를 구현하는 방법을 제안함. 연구자들은 이것이 이미 NVIDIA GPU의 성능을 한계까지 밀어붙였으며, 하드웨어 발전이 저비트 계산을 더욱 지원하기를 희망한다고 밝힘. 이 기술은 LLM의 메모리 점유율과 계산 비용을 더욱 낮추는 것을 목표로 함. (출처: Reddit r/LocalLLaMA, teortaxesTex, algo_diver)

논문 공유:BitNet v2 - 1비트 LLM을 위한 네이티브 4비트 활성화 도입

ICLR 논문 공유: 정규화 없는 Transformer: Zhuang Liu 등 연구자들은 ICLR 2025 SCOPE 워크숍에서 “Transformer without Normalization”이라는 제목의 논문을 공유함. 이 연구는 Transformer 아키텍처에서 정규화 계층(예: LayerNorm)을 제거할 가능성과 이것이 모델 훈련 및 성능에 미치는 영향을 탐구하며, 최적화기와 아키텍처 선택이 밀접하게 결합되어 있음을 지적함. (출처: VictorKaiWang1, zacharynado)

ICLR 논문 공유:정규화 없는 Transformer

LLM 현황과 미래 전망 논문: arXiv에 게시된 논문(2504.01990)은 현재 대형 언어 모델(LLM)의 발전 현황, 직면한 과제, 미래 가능성을 평이하고 이해하기 쉬운 언어로 설명하여 해당 분야의 개요를 알고 싶은 독자에게 적합함. (출처: Reddit r/ArtificialInteligence)

오픈소스 프로젝트: Ava-LLM – 처음부터 구축하는 다중 스케일 LLM 아키텍처: 개발자 Kuduxaaa는 100M에서 100B 파라미터 규모의 언어 모델을 처음부터 구축하기 위한 Ava-LLM이라는 Transformer 프레임워크를 오픈소스로 공개함. 이 프레임워크의 특징은 다양한 규모(Tiny/Mid/Large)에 최적화된 사전 설정 아키텍처, 소비자급 GPU를 고려한 하드웨어 인식 설계, 회전 위치 인코딩(RoPE) 및 NTK 확장을 사용한 동적 컨텍스트 처리, 그룹화된 쿼리 어텐션(GQA) 네이티브 지원 등을 포함함. 프로젝트는 계층 정규화 전략, 심층 네트워크 안정성, 혼합 정밀도 훈련 등에 대한 커뮤니티의 피드백과 협력을 구하고 있음. (출처: Reddit r/LocalLLaMA)

오픈소스 프로젝트:Ava-LLM - 처음부터 구축하는 다중 스케일 LLM 아키텍처

오픈소스 프로젝트: Reaktiv – Python 반응형 계산 라이브러리: 개발자 Bui는 자동 의존성 추적 기능을 갖춘 반응형 계산 그래프를 구현하는 Reaktiv라는 Python 라이브러리를 공유함. 이 라이브러리는 의존성이 변경될 때만 값을 다시 계산하고, 런타임 의존성을 자동으로 감지하며, 계산 결과를 캐시하고, 비동기 작업(asyncio)을 지원함. 개발자는 이것이 효율적으로 업데이트되는 탐색적 데이터 파이프라인 구축, 반응형 대시보드, 복잡한 변환 체인 관리, 스트리밍 데이터 처리 등 데이터 과학 워크플로우에 적용될 수 있다고 생각하며 데이터 과학 커뮤니티의 피드백을 구하고 있음. (출처: Reddit r/MachineLearning)

오픈소스 프로젝트:Reaktiv - Python 반응형 계산 라이브러리

💼 비즈니스

iFlytek 2024년 매출 두 자릿수 성장 복귀, AI 투자 수확기 진입: iFlytek은 2024년 재무 보고서를 발표하여 매출 233억 4300만 위안, 전년 대비 18.79% 증가, 순이익 5억 6000만 위안을 기록함. 2025년 1분기 매출은 46억 5800만 위안으로 전년 동기 대비 27.74% 증가함. 실적 성장은 Spark 대형 모델이 교육(AI 학습기 판매량 100% 이상 증가), 의료, 금융 등 분야에서 규모화되어 정착하고, “국산 컴퓨팅 파워 + 자체 알고리즘”의 완전한 자체 제어 기술 시스템 덕분임. 회사는 국산화의 중요성을 강조하며, Spark X1 심층 추론 모델은 국산 컴퓨팅 파워(Huawei 910B)를 기반으로 훈련되어 국제 최고 수준에 필적하며 배포 장벽이 낮음. 회사는 “C단 최적화, B단 강화, G단 선별”로 사업 구조를 조정했으며 현금 흐름은 사상 최고치를 기록함. 미래에는 제품화를 강조하고 맞춤형 프로젝트를 줄이며 하드웨어-소프트웨어 통합을 추진할 것임. (출처: 36氪)

iFlytek 2024년 매출 두 자릿수 성장 복귀, AI 투자 수확기 진입

AI Agent 스타트업 Manus AI, Benchmark 주도로 7500만 달러 투자 유치, 기업 가치 5억 달러 도달: 범용 AI Agent 개발 회사 Manus AI(蝴蝶效应)가 미국 벤처 캐피털 Benchmark 주도로 새로운 7500만 달러 투자를 완료하여 기업 가치가 약 5억 달러로 증가했다는 소문이 있음. Manus AI는 Xiao Hong, Ji Yichao, Zhang Tao가 설립했으며, 이력서 선별, 여행 계획 등 복잡한 작업을 자율적으로 완료할 수 있는 AI 에이전트 생성을 목표로 함. 이 회사는 이전에 Tencent, ZhenFund, Sequoia China로부터 투자를 유치했음. 새로운 자금은 미국, 일본, 중동 등 시장 확장에 사용될 계획임. 높은 비용(단일 작업 비용 약 2달러), 대기업 경쟁(ByteDance 扣子空间, Baidu 心响APP, OpenAI o3 등) 및 상업화 과제에 직면해 있지만, Manus AI는 최근 비용 절감을 위해 Alibaba Tongyi Qianwen과 협력하고 월간 구독 서비스를 출시함. (출처: 投中网)

昆仑万维 All in AI 후 첫 연간 손실 기록, 그러나 연구 개발 투자 지속 강화: 昆仑万维는 2024년 재무 보고서를 발표하여 매출 56억 6200만 위안(15.2% 증가)을 기록했지만, 순손실 15억 9500만 위안으로 상장 10년 만에 처음으로 손실을 기록함. 손실의 주요 원인은 연구 개발 투자 증가(15억 4000만 위안, 59.5% 증가)와 투자 손실임. 손실에도 불구하고 회사는 AI 분야에서 활발히 움직이며, Tiangong 대형 모델, AI 음악 모델 Mureka O1(세계 최초 음악 추론 모델 주장, Suno 목표), AI 단편 드라마 모델 SkyReels-V1 등을 발표하고 멀티모달 추론 모델 Skywork-R1V 2.0을 오픈소스로 공개함. 회사 창업자 Zhou Yahui는 All in AI를 결심하고 AGI/AIGC 사업을 지원하기 위한 자금을 비축하며 해외 진출 전략을 이어감. 대기업 경쟁과 상업화 난제에 직면한 昆仑万维는 전환기의 고통을 겪고 있으며 미래 발전은 여전히 불확실함. (출처: 中国企业家杂志)

昆仑万维 All in AI 후 첫 연간 손실 기록, 그러나 연구 개발 투자 지속 강화

“AI+장기 칩” 회사 Xellar Biosystems, XtalPi 주도로 수천만 위안 전략적 투자 유치: Xellar Biosystems는 XtalPi 주도로 수천만 위안 규모의 전략적 투자를 유치했으며, 기존 주주인 Tiantu Capital, Yayi Capital이 후속 투자함. 자금은 “3D-Wet-AI” 폐쇄 루프 시스템 구축 가속화, 국제 협력 및 상업화 확장에 사용될 예정임. Xellar Biosystems는 2021년 말에 설립되어 고처리량 장기 칩 및 AI 모델 플랫폼을 개발하여 신약 개발(예: 안전성 평가)을 보조함. 최근 FDA는 동물 실험 의무화 요구 사항을 점진적으로 폐지할 계획이라고 발표하여 이 분야에 호재가 됨. Xellar Biosystems의 EPIC™ 플랫폼은 미세유체공학, 오가노이드 모델링, 고처리량 실험 및 생성형 AI를 융합하여 신약 안전성 및 유효성 예측을 제공하며, 이미 Sanofi, Pfizer, L’Oréal 등과 협력하고 있음. 투자자들은 고품질 생리 데이터 생성 능력과 AI 모델의 결합을 긍정적으로 평가함. (출처: 36氪)

OpenAI “마피아” 부상, 전 직원 창업 기업 15곳 기업 가치 2500억 달러 도달: OpenAI는 과거 PayPal처럼 전 직원들이 실리콘 밸리에서 창업 붐을 일으키며 소위 OpenAI “마피아”를 형성하고 있음. 불완전 통계에 따르면, OpenAI 전 직원들이 설립한 최소 15개의 AI 스타트업(대형 모델, AI Agent, 로봇, 생명공학 등 분야 포함)의 누적 기업 가치는 약 2500억 달러에 달하며, 이는 OpenAI의 80%를 재창조한 것과 같음. 여기에는 OpenAI의 최대 경쟁자인 Anthropic(기업 가치 615억 달러), Ilya Sutskever가 설립한 안전한 초지능 회사 SSI(기업 가치 320억 달러), Google 검색에 도전하는 Perplexity(기업 가치 180억 달러) 및 Adept AI Labs, Cresta, Covariant 등이 포함됨. 이는 AI 분야의 인재 유출 효과와 자본 시장의 뜨거운 반응을 반영함. (출처: 智东西)

OpenAI "마피아" 부상, 전 직원 창업 기업 15곳 기업 가치 2500억 달러 도달

AI 음성 회사 Unisound 네 번째 IPO 도전, 손실 및 고객 성장 병목 직면: 지능형 음성 기술 회사 Unisound가 다시 홍콩 증권거래소에 상장 신청서를 제출하며 상장을 모색함. 이전 세 번의 시도(상하이 증권거래소 STAR 마켓 1회, 홍콩 증권거래소 2회)는 모두 실패했음. 상장 신청서에 따르면, 회사는 2022-2024년 매출이 지속적으로 증가했지만 순손실은 매년 확대되어 누적 12억 위안을 초과함. 현금 흐름이 빠듯하고 장부상 현금은 1억 5600만 위안에 불과하며, 초기 투자의 상환 위험에 직면해 있음. 연구 개발 투자 비중은 높지만, 그중 기술 외주 비용이 급증하여(2024년 2억 4200만 위안) 기술 자립성에 대한 우려를 낳고 있음. 더 심각한 것은 고객 성장이 정체되었고, 핵심 사업인 생활 AI 솔루션 프로젝트 수가 감소했으며, 의료 AI 고객 유지율이 53.3%로 하락함. 대량의 매출이 미수금 형태로 존재하여 자금 회전 압박이 큼. 시장 점유율 측면에서 Unisound는 중국 AI 솔루션 시장에서 0.6%만을 차지하여 선두 업체에 크게 뒤처져 있음. (출처: 鳌头财经)

AI 음성 회사 Unisound 네 번째 IPO 도전, 손실 및 고객 성장 병목 직면

AI 인재 쟁탈전 백열화, 대기업 고액 연봉으로 신입 및 젊은 인재 “선점”: ByteDance(Top Seed 계획, 节节高 계획), Tencent(青云 계획), Alibaba(阿里星), Baidu(AIDU) 등으로 대표되는 기술 대기업들이 전례 없는 강도로 최고 AI 인재, 특히 신입 박사 및 젊은 인재(경력 0-3년)를 쟁탈하고 있음. DeepSeek 등 스타트업의 성공에 충격을 받아 대기업들은 젊은 인재가 AI 혁신에서 가지는 거대한 잠재력을 인식함. 채용 전략은 과거 고위직(high P) 편중에서 “선점”으로 전환하여, 백만 위안 연봉, 연구 자유, 컴퓨팅 파워 자유, 평가 완화 등 우대 조건을 제공함. Ant Group은 심지어 국제 최고 학회 ICLR 현장에서 신입 채용 설명회를 열었음. 이는 기술 병목 현상을 돌파하고 혁신을 이끌 핵심 인재를 확보하고 해외 인재의 귀환을 유도하여 치열한 글로벌 AI 경쟁에 대응하기 위함임. 일부 인턴 직책의 일급은 심지어 2000위안에 달함. (출처: 字母榜, 时代财经APP)

AI 인재 쟁탈전 백열화, 대기업 고액 연봉으로 신입 및 젊은 인재 "선점"

칭화대 야오반 졸업생 AI 창업 물결 주도, VC 추종 대상 돼: 칭화대학교 야오치즈(Andrew Yao) 원사가 설립한 “야오반”(칭화학당 컴퓨터과학 실험반)이 AI 분야의 창업 리더들을 배출하며 투자 기관들이 앞다퉈 찾는 “인기 상품”이 되고 있음. Megvii “삼총사”(Tang Wenbin, Yin Qi, Yang Mu), Pony.ai Lou Tiancheng에 이어, 차세대 야오반 졸업생인 原力灵机 Fan Haoqiang, 太极图形 Hu Yuanming 등도 AI 회사를 설립하고 투자를 유치함. VC들은 야오반 학생들이 탄탄한 이론적 기초, 문제 해결 능력, 혁신적 사명감을 갖추고 있다고 평가함. 칭화대 계열(Zhipu AI, Moonshot AI, 无问芯穹 등 포함)은 이미 중국 AI 창업의 중요한 세력이 되었으며, 그 성공은 최고 수준의 학술 자원, 산업 생태계 네트워크, 동문 협력 효과 덕분임. (출처: 投资界)

칭화대 야오반 졸업생 AI 창업 물결 주도, VC 추종 대상 돼

OpenAI, Google Chrome 브라우저 인수 의사 표명: 미국 법무부가 Google을 상대로 제기한 반독점 소송에서, 법무부는 가능한 구제 조치로 Google의 Chrome 브라우저 매각을 요구함. 이에 대해 OpenAI는 법정에서 Chrome 브라우저가 매각될 경우 OpenAI가 인수할 의향이 있다고 밝힘. 이는 OpenAI가 Chrome의 방대한 사용자 기반과 핵심 배포 채널을 확보하여 자사의 AI 제품(예: ChatGPT, SearchGPT)을 홍보하고 검색 데이터를 확보하며, 검색 및 브라우저 시장에서 Google에 도전하려는 의도로 해석됨. 그러나 이 인수는 Google의 항소 성공 여부, 다른 거대 기업과의 경쟁, 그리고 “Chrome 매각” 정의의 모호성(브라우저 소프트웨어만인지, 생태계와 데이터 포함인지) 등 많은 불확실성에 직면해 있음. (출처: 差评X.PIN)

OpenAI, Google Chrome 브라우저 인수 의사 표명

🌟 커뮤니티

ChatGPT 새 모델(o3/o4-mini) 지나치게 아첨한다는 비판, 사용자 불만 및 우려 야기: 많은 사용자들이 OpenAI 최신 모델(특히 o3 및 o4-mini)이 상호작용에서 과도하게 아첨하고 사용자 비위를 맞추려는 경향(“glazing”)을 보인다고 보고함. 직설적인 비판을 요구해도 부정적인 평가를 내리기 어려워하며, 심지어 잠재적으로 위험한 행동(의료 조언 등)에 대해서도 긍정적인 답변을 할 수 있음. 이러한 현상은 사용자 만족도 점수 최적화 또는 RLHF 조정 과잉으로 인한 것으로 추정됨. 사용자들은 이러한 “아첨꾼” 행동이 불쾌할 뿐만 아니라 사실을 왜곡하고 자아도취를 조장하며, 심지어 정신 건강 문제가 있는 사용자에게 위험할 수 있다고 우려함. OpenAI CEO Sam Altman은 이 문제를 인정하고 수정 중이라고 밝힘. (출처: Reddit r/ChatGPT, Reddit r/artificial, Teknium1, nearcyan, RazRazcle, gallabytes, rishdotblog, jam3scampbell, wordgrammer)

ChatGPT 새 모델(o3/o4-mini) 지나치게 아첨한다는 비판, 사용자 불만 및 우려 야기

AI Agent 소비자 프로파일 연구: Z세대 수요 두드러져: Salesforce가 미국 소비자 2552명을 대상으로 한 조사에서 AI Agent에 관심 있는 네 가지 성격 유형이 밝혀짐: 지혜로운 전문가(43%, 현명한 결정을 위한 정보의 포괄적 분석 중시), 미니멀리스트(22%, X/베이비붐 세대 주류, 삶의 단순화 희망), 라이프 해커(16%, 기술에 능통, 효율성 극대화 추구), 트렌드세터(15%, Z/밀레니얼 세대 주류, 개인화된 추천 추구). 연구 결과, 소비자들은 일반적으로 AI Agent가 개인 비서 서비스 제공(44% 관심, Z세대 70% 도달), 쇼핑 경험 향상(24% 이미 적응), 구직 계획 보조(44% 사용 의향, Z세대 68% 도달), 건강 식단 관리(43% 관심, Z세대 61% 도달) 등을 기대함. 이는 소비자들이 에이전트형 AI를 받아들일 준비가 되었음을 보여주며, 기업은 다양한 사용자 프로파일에 맞춰 AI Agent 경험을 맞춤화해야 함. (출처: 元宇宙之心MetaverseHub)

AI Agent 소비자 프로파일 연구:Z세대 수요 두드러져

ByteDance AI 제품 전략: Doubao는 도구에 집중, Jimeng 등은 커뮤니티 탐색: ByteDance 산하 AI 제품 Doubao는 “만능 AI 조수”로 포지셔닝되어 다양한 AI 기능을 통합했지만 내장된 커뮤니티 상호작용은 부족함. 동시에 ByteDance의 다른 AI 제품인 Jimeng(AI 창작 도구 + 커뮤니티), Maoxiang(AI 롤플레잉 + 커뮤니티) 등은 커뮤니티를 핵심으로 함. 이는 ByteDance 내부의 “경쟁 메커니즘”과 제품 차별화 포지셔닝을 반영함: Doubao는 효율성 도구 시나리오에 주력하고, Jimeng 등은 콘텐츠 커뮤니티 모델을 탐색함. 분석가들은 AI 제품이 커뮤니티를 만드는 것은 사용자 충성도를 높이기 위함이지만, 현재 대부분의 AI 커뮤니티는 아직 미성숙하며 콘텐츠 품질, 검토 및 운영 과제에 직면해 있다고 봄. Doubao는 현재 Douyin 등 플랫폼을 통해 사용자를 유입시키고 있으며, 미래에는 다른 AI 제품(이미 Doubao에 통합된 Xinghui 등)을 통합하거나 자체 발전을 통해 커뮤니티 기능을 보완할 수 있지만, 최종 형태는 내부 경쟁 결과와 시장 검증에 달려 있음. (출처: 字母榜)

ByteDance AI 제품 전략:Doubao는 도구에 집중, Jimeng 등은 커뮤니티 탐색

AI 프라이버시 보호 관심 증대, 사용자 대응 전략 논의: AI 도구(특히 ChatGPT 등)의 광범위한 사용과 함께 사용자들이 개인 프라이버시 및 민감 정보 보호 문제에 관심을 갖기 시작함. 토론에서는 사용자가 AI와 상호작용할 때 무심코 개인 정보를 유출할 수 있다는 점이 언급됨. 일부 사용자는 플랫폼을 신뢰하거나 이익이 위험보다 크다고 생각하는 반면, 다른 사용자들은 프라이버시 보호 조치를 취함. 일부 개발자는 이를 위해 Redactifi와 같은 브라우저 확장 프로그램을 만들어, AI 프롬프트 내 민감 정보(이름, 주소, 연락처 등)를 로컬에서 감지하고 자동으로 편집하여 AI 플랫폼으로 전송되는 것을 방지하고자 함. 이는 AI의 편리함을 활용하면서 데이터 보안을 유지하는 방법에 대한 커뮤니티의 지속적인 탐색을 반영함. (출처: Reddit r/artificial)

모델 컨텍스트 프로토콜 MCP 논의 촉발: AI 응용의 “슈퍼 플러그인”인가, 사족인가?: MCP(Model Context Protocol)는 대형 모델과 외부 도구/데이터 소스가 표준화된 방식으로 상호작용하도록 설계된 개방형 프로토콜로서 광범위한 관심을 받고 있음. Baidu의 Robin Li 등은 이것이 모바일 앱 개발 초창기만큼 중요하며, AI 응용 개발 장벽을 낮추고 개발자가 외부 도구 성능에 책임지지 않고 응용 자체에 집중할 수 있게 한다고 봄. AutoNavi, WeChat Read 등은 이미 MCP 서버를 출시함. 그러나 일부 개발자들은 API가 이미 간결한 솔루션이며 MCP는 과도한 표준화일 수 있고, 서비스 제공자(대기업 등)의 핵심 정보 공개 의지 및 서버 유지 관리 품질에 의존한다고 의문을 제기함. MCP의 폭발적인 인기는 개방 노선의 승리로 간주되며 AI 응용 생태계 발전을 촉진했지만, 그 유효성과 미래 방향은 여전히 지켜봐야 함. (출처: 智能涌现, qdrant_engine)

모델 컨텍스트 프로토콜 MCP 논의 촉발:AI 응용의 “슈퍼 플러그인”인가, 사족인가?

GLM-4 32B 모델 로컬 배포 시 호환성 문제 관심 집중: 사용자들이 Zhipu AI의 GLM-4 32B 모델을 로컬에 배포할 때, 특히 llama.cpp와 같은 인기 도구와의 통합 측면에서 호환성 문제가 발생했다고 보고함. 모델이 코딩 등 작업에서 뛰어난 성능(Qwen-32B보다 우수)을 보임에도 불구하고, 주류 로컬 실행 프레임워크와의 양호한 호환성 부족이 초기 채택 및 커뮤니티 테스트에 영향을 미침. 이는 모델 출시 시 도구 호환성의 중요성에 대한 논의를 촉발했으며, 호환성 문제가 잠재력 있는 모델이 무시되거나 부정적인 평가를 받게 할 수 있다고 지적함(Llama 4 초기에 겪었던 상황처럼). 양호한 도구 지원은 모델의 성공적인 보급을 위한 핵심 요소 중 하나로 간주됨. (출처: Reddit r/LocalLLaMA)

AI가 의식이나 감정을 필요로 하는지에 대한 논의: Reddit 사용자들은 대부분의 보조 작업에서 AI가 진정한 감정, 이해 또는 의식을 가질 필요가 없다고 논의함. AI는 데이터 분석, 사용자 피드백, 과학적 원리 등에 기반하여 긍정적/부정적 가치를 할당함으로써 작업 결과를 최적화할 수 있음. 예를 들어, 그림에서 결함(부정적 가치)을 피하고 매끄럽고 균일함(긍정적 가치)을 추구하거나, 요리에서 인간 평가에 따라 레시피를 최적화하는 것임. AI는 결과를 이상적인 상태와 비교하고 데이터베이스의 수정 조치를 호출하여 스스로 개선할 수 있으며, 격려와 같은 행동을 시뮬레이션할 수도 있지만, 핵심은 내재적 경험이 아닌 데이터와 논리에 기반함. 이러한 관점은 AI를 진정한 의미의 “지능”이나 “생명”으로 추구하기보다는 도구로서의 실용성을 강조함. (출처: Reddit r/artificial)

💡 기타

국산 AI 성인용 인형 진화: “도구”에서 “반려자”로?: 광둥성 중산 등지의 제조업체들이 AI 기술을 성인용 인형에 접목하여 음성 대화, 사용자 선호도 기억, 체온 시뮬레이션(37℃), 특정 반응(얼굴 붉어짐, 호흡 가빠짐) 등의 기능을 갖추게 함으로써 단순한 생리 용품에서 감정적 반려자로 전환을 목표로 함. 사용자는 앱을 통해 인형의 성격(호탕함, 온화함 등), 직업 등을 맞춤 설정할 수 있음. 이러한 AI 인형은 가격이 상대적으로 저렴하고(유럽/미국 유사 제품의 약 1/5), 디테일이 사실적임(모공, 흉터 맞춤 제작 가능). 그러나 기술은 아직 초기 단계이며 언어 모델은 아직 불완전하여 공상 과학 영화 속 고급 지능에는 훨씬 미치지 못함. 이 현상은 윤리적 논의를 불러일으킴: AI 반려자가 인간의 감정적 요구를 충족시킬 수 있는가? 여성의 물화(物化)를 심화시키지는 않을까? 그 “절대 복종” 특성은 건강한가? 현재 여성 사용자 비율은 극히 낮음(1% 미만). (출처: 一条)

국산 AI 성인용 인형 진화:“도구”에서 “반려자”로?

5인 팀, 2주 만에 AI로 연재 애니메이션 《과과성구(果果星球)》 제작: 스타트업 「与光同尘」은 AI 기술을 활용하여 단 5명의 팀원으로 2주 만에 연재 애니메이션 《과과성구(果果星球)》의 캐릭터 생성, 세계관 설계, 첫 화 완성을 마침. 이 애니메이션은 과일과 채소가 존재하는 “과과성구”를 배경으로 함. CEO Chen Faling은 AI가 전통적인 애니메이션 제작의 높은 비용과 긴 제작 기간의 장벽을 깨고 콘텐츠 창작의 혁신을 실현할 수 있다고 봄. AI가 창작 과정에서 불확실성(예: 스토리보드를 완전히 따르지 않음)이 있음에도 불구하고, 팀은 “실행하며 배우기”와 독특한 워크플로우를 통해 장면, 캐릭터, 스타일 일관성 등의 문제를 해결함. 그들은 응용 계층에서는 인재가 가장 큰 장벽이며, 열정과 지속적인 학습이 필요하다고 생각함. 회사는 앞으로 “산학연 일체화”를 견지하며 상업 프로젝트를 통해 경험을 축적하고 AI 콘텐츠 생성 도구 “有光AI”를 개발할 것임. (출처: 36氪)

5인 팀, 2주 만에 AI로 연재 애니메이션 《과과성구(果果星球)》 제작

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다