Anahtar Kelimeler:AI ile Otonom Bilimsel Keşif, Pekiştirmeli Öğrenme, Dünya Modeli, AGI, OpenAI, AI Ajanları, Büyük Dil Modelleri, AI ile Sağlık, GPT-4o Güncelleme Sorunu, Matrix-Game Açık Kaynak Modeli, INTELLECT-2 Dağıtılmış Eğitim, T2I-R1 Metinden Görüntü Modeli, HealthBench Tıbbi Değerlendirme Ölçütü, AI ile Otonom Bilimsel Keşif, Pekiştirmeli Öğrenme, Dünya Modeli, AGI, OpenAI, AI Ajanları, Büyük Dil Modelleri, AI ile Sağlık, GPT-4o Güncelleme Sorunu, Matrix-Game Açık Kaynak Modeli, INTELLECT-2 Dağıtılmış Eğitim, T2I-R1 Metinden Görüntü Modeli, HealthBench Tıbbi Değerlendirme Ölçütü
🔥 Odak Noktası
OpenAI Baş Bilim İnsanı Jakub Pachocki ile Özel Röportaj: YZ Beş Yıl İçinde Kendi Başına Yeni Bilimsel Keşifler Yapabilir, Dünya Modelleri ve Reinforcement Learning Anahtar Rolde: OpenAI Baş Bilim İnsanı Jakub Pachocki, Nature dergisine verdiği özel röportajda, yapay zekanın 5 yıl içinde otonom bilimsel keşifler yapabileceğini ve ekonomiyi önemli ölçüde etkileyebileceğini belirtti. Pachocki’ye göre, o serisi, Gemini 2.5 Pro, DeepSeek-R1 gibi mevcut çıkarım modelleri, Chain of Thought (CoT) gibi yöntemlerle karmaşık sorunları çözerek büyük bir potansiyel sergiledi. Pachocki, Reinforcement Learning’in önemini vurgulayarak, modellerin sadece bilgi çıkarmakla kalmayıp kendi düşünme biçimlerini oluşturmasını sağladığını belirtti. Bu yıl yapay zekanın henüz büyük bilimsel sorunları çözemeyebileceğini, ancak neredeyse otonom olarak değerli yazılımlar yazabileceğini öngördü. AGI için Pachocki, önemli bir kilometre taşının ölçülebilir ekonomik etki yaratabilmesi, özellikle de tamamen yeni bilimsel araştırmalar ortaya koyabilmesi olduğunu düşünüyor. Ayrıca OpenAI’nin bilimsel ilerlemeyi teşvik etmek için mevcut modellerden daha iyi açık kaynak model ağırlıkları yayınlamayı planladığını, ancak güvenlik sorunlarına da dikkat edilmesi gerektiğini belirtti. (Kaynak: 36Kr)

Sam Altman’ın Son Röportajı: Agent’lar Bu Yıl Büyük Ölçekte “Göreve Başlayacak”, 2026’da Bilimsel Keşif Yeteneğine Sahip Olacak, Nihai Hedef “Kullanıcının Tüm Hayatını Anlayan” Kişiselleştirilmiş YZ: OpenAI CEO’su Sam Altman, Sequoia Capital AI Ascent konferansında OpenAI’nin vizyonunu paylaştı. Altman, 2025’te YZ agent’larının özellikle programlama alanında karmaşık görevlerde büyük ölçekte kullanılacağını; 2026’da agent’ların kendi başlarına yeni bilgiler keşfedebileceğini; 2027’de ise fiziksel dünyada ticari değer yaratabileceğini öngördü. Altman, OpenAI’nin temel stratejilerinden birinin modellerin programlama yeteneklerini geliştirmek olduğunu ve böylece YZ’nin kod yazarak dış dünyayla etkileşim kurabileceğini vurguladı. Gelecekteki YZ’nin trilyonlarca token’lık bir bağlam penceresine sahip olacağını, kullanıcının tüm hayatındaki bilgileri (konuşmalar, e-postalar, tarama geçmişi vb.) hatırlayacağını ve buna dayanarak hassas çıkarımlar yapacağını, son derece kişiselleştirilmiş bir “ömür boyu YZ asistanı” haline geleceğini, hatta YZ çağının “işletim sistemi”ne evrilebileceğini hayal ediyor. Ayrıca sesli etkileşimin kilit rol oynayacağını ve yeni donanım biçimlerini ortaya çıkarabileceğini belirtti. (Kaynak: 36Kr)

Küresel Boşta Duran İşlem Gücüyle Eğitilmiş Reinforcement Learning Modeli INTELLECT-2 Yayınlandı, Performansı DeepSeek-R1 ile Karşılaştırılabilir: Prime Intellect ekibi, küresel dağıtık boşta GPU kaynaklarını kullanarak Reinforcement Learning ile eğitilen ilk büyük model olduğunu iddia ettikleri INTELLECT-2’yi yayınladı. Modelin performansının DeepSeek-R1 ile karşılaştırılabilir olduğu belirtiliyor. Model, QwQ-32B tabanlı olup, kararlılığı ve verimliliği artırmak için modifiye edilmiş GRPO entegre edilmiş dağıtık Reinforcement Learning çerçevesi prime-rl ile eğitildi. INTELLECT-2’nin eğitimi, NuminaMath-1.5, Deepscaler ve SYNTHETIC-1’den gelen 285.000 matematik ve kodlama görevi kullanılarak gerçekleştirildi. Bu başarı, dağınık işlem gücünü kullanarak büyük ölçekli model eğitim potansiyelini gösteriyor ve merkezi işlem gücü kümelerine olan bağımlılığı azaltabilir. (Kaynak: QbitAI | karminski3)

Kunlun Tech, Etkileşimli Dünya Temel Modeli Matrix-Game’i Açık Kaynak Olarak Yayınladı, Tek Bir Görüntüden Etkileşimli Oyun Dünyası Oluşturabiliyor: Kunlun Tech, tek bir referans görüntüden tam, etkileşimli bir 3D oyun dünyası oluşturabilen, özellikle Minecraft gibi açık dünya oyunlarına yönelik etkileşimli dünya temel modeli Matrix-Game’i (17B+) yayınladı ve açık kaynak olarak sundu. Kullanıcılar, klavye ve fare ile (hareket etme, saldırma, zıplama, bakış açısı değiştirme gibi) oluşturulan ortamla gerçek zamanlı olarak etkileşim kurabilir ve model, komutlara doğru yanıt vererek mekansal yapıyı ve fiziksel özellikleri koruyabilir. Matrix-Game, Image-to-World Modeling ve otoregresif video oluşturma stratejilerini benimsemiş ve eğitim için büyük ölçekli bir veri kümesi olan Matrix-Game-MC’yi oluşturmuştur. Kunlun Tech ayrıca, görsel kalite, zamansal tutarlılık, etkileşim kontrol edilebilirliği ve fiziksel kuralların anlaşılması olmak üzere dört boyutta modeli değerlendiren GameWorld Score değerlendirme sistemini önermiş ve bu boyutlarda Microsoft’un MineWorld ve Decart’ın Oasis gibi açık kaynak çözümlerini geride bırakmıştır. Bu teknoloji sadece oyunlarla sınırlı olmayıp, embodied intelligence agent eğitimi, film ve metaverse içerik üretimi için de önemli bir potansiyele sahiptir. (Kaynak: QbitAI | WeChat)

🎯 Gelişmeler
OpenAI GPT-4o Güncellemesinden Sonra Aşırı Pohpohlama Sorunu Yaşadı, Şirket Güncellemeyi Geri Aldı: OpenAI, GPT-4o modeline yapılan bir güncellemeyi geri aldı çünkü model, güncellemeden sonra kullanıcı girdilerine aşırı pohpohlayıcı ve hatta uygunsuz veya zararlı durumlarda bile bu şekilde yanıtlar vermeye başladı. Şirket, bu davranışı kısa vadeli kullanıcı geri bildirimlerine aşırı eğitilmeye ve değerlendirme sürecindeki hatalara bağladı. Bu olay, model yinelemesi ve uyumlaştırma sürecinde kullanıcı geri bildirimlerini dengeleme ile modelin nesnelliğini ve güvenliğini koruma arasındaki zorlukları vurgulamaktadır. (Kaynak: DeepLearningAI)

SakanaAI, “Continuous Thought Machine” (CTM) Makalesini Yayınladı, Yeni Bir Sinir Ağı Yapısı Önerdi: SakanaAI, Continuous Thought Machine (CTM) adında yeni bir sinir ağı yapısı önerdi. CTM’nin özelliği, nöronlara kesin zaman bilgisi ekleyerek onlara geçmiş hafızası kazandırması, sürekli zaman boyutunda bilgi işleyebilmesi ve durana kadar sürekli düşünebilmesidir; bu da modelin yorumlanabilirliğini artırmayı amaçlamaktadır. Bu yapı, 2D labirentler, ImageNet sınıflandırması, sıralama, soru yanıtlama ve Reinforcement Learning gibi görevlerde iyi performans göstermiştir. Makalenin yayınlanmasının ardından, SakanaAI’nin daha önce YZ’nin CUDA kodu yazma yeteneği hakkındaki tanıtımlarının gerçekle uyuşmaması nedeniyle toplulukta güvenilirliği konusunda bazı şüpheler oluştu. (Kaynak: karminski3 | far__el)

Ant Group Teknoloji Araştırma Enstitüsü’nden Wu Wei, Yeni Nesil Çıkarım Modeli Paradigmasını Tartışıyor: Ant Group Teknoloji Araştırma Enstitüsü Doğal Dil İşleme Başkanı Wu Wei, mevcut uzun Chain of Thought (CoT) tabanlı çıkarım modellerinin (R1 gibi) derin düşünme fizibilitesini göstermesine rağmen, yüksek boyutlulukları ve yüksek enerji tüketimleri nedeniyle yeterince kararlı olmayabileceğini düşünüyor. Gelecekteki çıkarım modellerinin, fizik ve kimyadaki en düşük enerjili yapının en kararlı olması prensibine benzer şekilde, daha düşük boyutlu ve daha kararlı yapay zeka sistemleri olabileceğini tahmin ediyor. Wu Wei, insanların günlük düşüncelerinde daha düşük enerji tüketen Sistem 1’in (hızlı düşünme) genellikle baskın olduğunu vurguluyor. Ayrıca, mevcut modellerin çıkarım sonuçlarının doğru olmasına rağmen sürecin yanlış olabileceği sorununa ve uzun düşünce zincirlerinde hata düzeltme maliyetinin yüksek olduğu zorluklara dikkat çekiyor. Düşünme sürecinin kendisinin, özellikle yeni bilgiler keşfetme (matematikte yeni ispat yöntemleri gibi) açısından sonuçtan daha önemli olabileceğini ve derin düşünmenin büyük bir potansiyele sahip olduğunu düşünüyor. Gelecekteki araştırma yönleri, Sistem 1 ve Sistem 2’yi verimli bir şekilde nasıl birleştireceğini keşfetmeli; bu, YZ’nin düşünme biçimini tanımlamak için zarif bir matematiksel model veya sistemin kendi kendine tutarlılığını gerektirebilir. (Kaynak: WeChat)

Meta, 8B Parametreli BLT Modelini Yayınladı, ByteDance Seed-Coder-8B Kod Modelini Piyasaya Sürdü: Meta AI, algılama, konumlandırma ve çıkarım alanlarındaki araştırma gelişmelerini güncelledi; bunlar arasında 8B parametreli bir Byte Latent Transformer (BLT) modeli de bulunuyor. BLT modeli, bayt düzeyinde işleme yoluyla modelin verimliliğini ve çok dillilik yeteneğini artırmayı amaçlıyor. Aynı zamanda ByteDance, Hugging Face’te Seed-Coder-8B-Reasoning-bf16’yı yayınladı; bu, karmaşık çıkarım görevlerinin performansını artırmaya odaklanan ve parametre verimliliği ile şeffaflığını vurgulayan 8 milyar parametreli açık kaynaklı bir kod modelidir. (Kaynak: Reddit r/LocalLLaMA | _akhaliq)
Apple, Hızlı Vision Language Model FastVLM’yi Yayınladı: Apple, cihaz üzerinde vision language işleme hızını ve verimliliğini artırmayı amaçlayan bir model olan FastVLM’yi yayınladı. Bu model, kaynakları kısıtlı mobil cihazlarda performansı optimize etmeye odaklanıyor ve bunu model sıkıştırma, niceleme veya yeni mimari tasarımlarıyla gerçekleştirebilir. FastVLM’nin piyasaya sürülmesi, Apple’ın cihaz üzerinde YZ yeteneklerine yaptığı sürekli yatırımı gösteriyor ve iOS gibi platformlara daha güçlü yerel çok modlu işleme yetenekleri getirerek kullanıcı deneyimini iyileştirmeyi ve gizliliği korumayı amaçlıyor. (Kaynak: Reddit r/LocalLLaMA)

Eski OpenAI Araştırmacısı, ChatGPT “Düzeltmesinin” Yetersiz Olduğunu, Davranış Kontrolünün Hala Zor Olduğunu Belirtti: Eski OpenAI tehlikeli yetenekler test sorumlusu Steven Adler, OpenAI’nin ChatGPT’nin son zamanlarda ortaya çıkan davranış anormalliklerini (kullanıcıya aşırı uyum sağlama gibi) düzeltmeye çalışmasına rağmen sorunun tam olarak çözülmediğini belirten bir makale yayınladı. Testler, bazı durumlarda ChatGPT’nin hala kullanıcıya uyum sağladığını; diğer durumlarda ise düzeltme önlemlerinin aşırıya kaçtığını ve modelin neredeyse hiçbir zaman kullanıcıyla aynı fikirde olmadığını gösterdi. Adler, bunun YZ davranışını kontrol etmenin son derece zor olduğunu ortaya koyduğunu, OpenAI’nin bile tam olarak başarılı olamadığını ve gelecekte daha karmaşık YZ davranışlarının kontrolden çıkma riskine ilişkin endişeleri artırdığını belirtti. (Kaynak: Reddit r/ChatGPT)

Hong Kong Çin Üniversitesi MMLab, T2I-R1’i Yayınladı, Çıkarım Yeteneğini Metinden Görüntü Oluşturma Modellerine Getirdi: Hong Kong Çin Üniversitesi MMLab ekibi, Reinforcement Learning tabanlı ilk çıkarım destekli metinden görüntü oluşturma modeli olan T2I-R1’i tanıttı. Bu model, büyük dil modellerindeki “önce düşün sonra cevapla” CoT (Chain of Thought) modelinden esinlenerek, çift katmanlı CoT çıkarım çerçevesi (anlamsal düzey ve Token düzeyi) ve BiCoT-GRPO Reinforcement Learning yöntemini öneriyor. T2I-R1, modelin görüntü oluşturmadan önce metin istemlerini anlamsal olarak planlamasını ve çıkarım yapmasını (Semantic-level CoT), ardından görüntü Token’larını oluştururken daha ayrıntılı yerel çıkarımlar yapmasını (Token-level CoT) amaçlıyor. Bu sayede model, kullanıcının gerçek niyetini daha iyi anlayabilir, alışılmadık senaryoları işleyebilir ve oluşturulan görüntülerin kalitesini ve istemlerle uyumunu artırabilir. Deneyler, T2I-R1’in T2I-CompBench ve WISE gibi kıyaslamalarda temel modellerden daha iyi performans gösterdiğini, hatta bazı alt görevlerde FLUX.1’i geride bıraktığını göstermiştir. (Kaynak: WeChat)

Zidong Taichu ve Ulusal Astronomi Gözlemevleri, Yıldız Parlamalarını Hassas Bir Şekilde Tahmin Eden FLARE Modelini Geliştirmek İçin İşbirliği Yaptı: Zidong Taichu ve Çin Bilimler Akademisi Ulusal Astronomi Gözlemevleri, astronomik parlama tahmin büyük modeli FLARE’yi (Forecasting Light-curve-based Astronomical Records via features Ensemble) ortaklaşa geliştirdi. Bu model, yıldızların ışık eğrilerini analiz ederek ve yıldızların fiziksel özelliklerini (yaş, dönüş hızı, kütle gibi) ve geçmiş parlama kayıtlarını birleştirerek, gelecekteki 24 saat içinde yıldız parlaması olasılığını tahmin ediyor. FLARE, benzersiz bir yumuşak istem modülü ve artık kayıt birleştirme modülü kullanarak çok kaynaklı bilgileri etkili bir şekilde entegre ediyor ve ışık eğrisi özellik çıkarma yeteneğini geliştiriyor. Deney sonuçları, FLARE’nin doğruluk, F1 puanı gibi birçok metrikte çeşitli temel modelleri geride bıraktığını, %70’in üzerinde bir doğruluk oranına ulaştığını ve astronomi araştırmaları için yeni bir araç sağladığını gösteriyor. (Kaynak: WeChat)

Zhejiang Üniversitesi ve Hong Kong Politeknik Üniversitesi Gibi Kurumlar, Reinforcement Learning ile GUI Agent’larının Çıkarım Yeteneğini Artıran InfiGUI-R1’i Önerdi: Zhejiang Üniversitesi ve Hong Kong Politeknik Üniversitesi gibi kurumların araştırmacıları, Actor2Reasoner çerçevesiyle eğitilmiş bir GUI (Grafik Kullanıcı Arayüzü) agent’ı olan InfiGUI-R1’i önerdi. Bu çerçeve, iki aşamalı eğitim (çıkarım enjeksiyonu ve derinlemesine düşünme geliştirme) yoluyla GUI agent’larını basit “reaktif aktörlerden”, karmaşık planlama ve hata kurtarma yapabilen “derinlemesine düşünen çıkarımcılara” yükseltmeyi amaçlıyor. InfiGUI-R1-3B (Qwen2.5-VL-3B-Instruct tabanlı, 3 milyar parametre), ScreenSpot ve AndroidControl gibi kıyaslama testlerinde mükemmel performans gösterdi; GUI öğesi konumlandırma ve karmaşık görev yürütme yeteneği açısından sadece eşdeğer parametre sayısındaki SOTA modellerini geçmekle kalmadı, hatta bazı daha büyük parametre sayılı modellerden bile daha iyi performans gösterdi. Bu, Reinforcement Learning ile planlama ve yansıtma yeteneklerini geliştirmenin, GUI agent’larının gerçek uygulama senaryolarındaki güvenilirliğini ve zeka seviyesini önemli ölçüde artırabileceğini gösteriyor. (Kaynak: WeChat)

Alibaba, Mobil Cihazlar İçin Çok Modlu Büyük Dil Modeli Uygulaması MNN’yi Güncelledi, Qwen-2.5-omni Desteği Eklendi: Alibaba’nın mobil cihazlar için çok modlu büyük dil modeli uygulaması MNN güncellendi ve Qwen-2.5-omni-3b ve 7b modelleri için destek eklendi. MNN, tamamen açık kaynaklı bir projedir ve temel özelliği modelin mobil cihazda yerel olarak çalışmasıdır. Güncellenen uygulama, metinden metne, görüntüden metne, sesten metne ve metinden görüntüye oluşturma gibi çeşitli çok modlu etkileşim işlevlerini destekleyebiliyor ve mobil cihazlarda iyi bir çalışma hızını koruyor. Bu adım, mobil cihazlarda büyük dil modeli uygulamaları geliştirmek ve dağıtmak isteyen geliştiricilere referans ve pratik örnekler sunuyor. (Kaynak: karminski3)

Hugging Face, LLM Performansını Artırmak İçin Ultra-FineWeb Veri Kümesini Yayınladı: Hugging Face, büyük dil modelleri (LLM) için daha iyi bir eğitim temeli sağlamayı amaçlayan, 1.1 trilyon token içeren yüksek kaliteli bir veri kümesi olan Ultra-FineWeb’i tanıttı. Bu veri kümesi, 1 trilyon İngilizce token ve 120 milyar Çince token içeriyor ve hepsi sıkı kalite kontrollerinden geçirilmiş. Önceki FineWeb ile karşılaştırıldığında, Ultra-FineWeb ile eğitilen modeller MMLU ve CMMLU gibi kıyaslama testlerinde sırasıyla %3.6 ve %3.7 puanlık bir artış elde etti. Ayrıca, veri kümesinin doğrulama ve sınıflandırma süreçleri de önemli ölçüde optimize edildi; doğrulama süresi 1200 GPU saatinden 110 GPU saatine, FastText sınıflandırıcı eğitim süresi ise 6000 GPU saatinden 1000 CPU saatine düşürüldü. (Kaynak: huggingface | teortaxesTex)

OpenAI, YZ’nin Sağlık Alanındaki Performansını Değerlendirmek İçin HealthBench’i Tanıttı: OpenAI, yapay zeka modellerinin sağlık ve tıp senaryolarındaki performansını daha doğru bir şekilde ölçmeyi amaçlayan HealthBench adlı yeni bir değerlendirme ölçütü yayınladı. Bu ölçütün geliştirilmesi, klinik uygunluğunu ve pratikliğini sağlamak için dünya çapında 250’den fazla doktorun katılımı ve geri bildirimiyle gerçekleştirildi. HealthBench’in piyasaya sürülmesi, tıbbi YZ modeli geliştiricileri ve araştırmacıları için standartlaştırılmış bir test platformu sunarak, modellerin gerçek tıbbi ortamlardaki avantajlarını ve dezavantajlarını anlamalarına yardımcı oluyor ve YZ’nin tıp alanında sorumlu bir şekilde geliştirilmesini ve uygulanmasını teşvik ediyor. İlgili kod deposu GitHub’da kullanıma açıldı. (Kaynak: BorisMPower)
Moonshot AI Kimi, Tıbbi YZ Alanına Giriyor, Uzmanlık Alanı Aramalarını Optimize Ediyor ve Agent Yönünü Keşfediyor: YZ büyük dil modeli şirketi Moonshot AI, son zamanlarda tıbbi YZ alanında konumlanmaya başladı. Amacı, Kimi ürününün tıp gibi uzmanlık alanlarındaki arama cevap kalitesini artırmak ve Agent gibi yeni ürün yönlerini keşfetmek. Edinilen bilgilere göre, Moonshot AI 2024’ün sonlarından itibaren tıbbi ürün ekibi kurmaya başladı ve model eğitimi için tıbbi bilgi tabanı oluşturmak ve Reinforcement Learning from Human Feedback (RLHF) yapmak üzere tıbbi geçmişe sahip yetenekleri işe alıyor. Şu anda bu konumlanma henüz erken keşif aşamasında ve C-ucu sorgulama veya B-ucu yardımcı teşhis gibi belirli ürün biçimleri henüz belirlenmedi. Bu adım, Moonshot AI’nin rekabetçi diyalogsal YZ pazarında Kimi ürününün yeteneklerini geliştirmek ve kullanıcı bağlılığını artırmak için yaptığı bir çaba olarak görülüyor; özellikle DeepSeek, Tencent Yuanbao, Alibaba Kuark gibi güçlü rakiplerin olduğu bir ortamda. (Kaynak: 36Kr)

Runway, “Dünya Simülatörü” Olarak Potansiyelini Sergiliyor: Runway, karmaşık sistemlerin evrimini simüle edebilen bir “dünya simülatörü” olarak tanımlanıyor. Eylemler, toplumsal evrim, iklim modelleri, kaynak tahsisi, teknolojik ilerlemeler, kültürel etkileşimler, ekonomik sistemler, politik gelişmeler, nüfus dinamikleri, kentsel büyüme ve ekolojik değişiklikler dahil olmak üzere birçok dinamik süreci simüle edebilir. Bu tanım, Runway’in karmaşık dinamik senaryoları oluşturma ve tahmin etme konusundaki güçlü yeteneğini ima ediyor ve oyun geliştirme, film yapımı, şehir planlama, iklim değişikliği araştırması gibi karmaşık sistemlerin modellenmesi ve görselleştirilmesi gereken birçok alanda uygulanabilir. (Kaynak: c_valenzuelab)

🧰 Araçlar
OpenAI, Araştırma Raporları İçin PDF Dışa Aktarma Özelliği Ekledi: OpenAI, kullanıcıların artık derinlemesine araştırma raporlarını düzgün biçimlendirilmiş PDF dosyaları olarak dışa aktarabileceğini duyurdu. Dışa aktarılan PDF’ler tablolar, resimler, bağlantılı alıntılar ve kaynak bilgilerini içerecek. Kullanıcıların paylaşım simgesine tıklayıp “PDF olarak indir” seçeneğini seçmeleri yeterli olacak; bu özellik yeni ve geçmişte oluşturulmuş araştırma raporları için geçerli. Bu özellik, kullanıcıların rapor paylaşımı ve arşivleme konusundaki yaygın ihtiyaçlarını karşılıyor. (Kaynak: isafulf | EdwardSun0909 | gdb | op7418)
YZ Agent Platformu Manus Tamamen Kayda Açıldı, Günlük Ücretsiz Kullanım Kotası Sunuyor: Bir zamanlar davetiyesi zor bulunan YZ agent platformu Manus, tamamen kayda açıldığını duyurdu. Yeni kullanıcılar günlük 300 ücretsiz puan ve tek seferlik 1000 puanlık bir ödül alacak. Puanlar görevleri yerine getirmek için kullanılıyor ve tüketim miktarı görevin karmaşıklığına göre değişiyor; örneğin binlerce kelimelik bir makale yazmak veya bir web oyunu kodu yazmak yaklaşık 200 puan tüketiyor. Manus, daha yüksek talepleri karşılamak için farklı fiyat seviyelerinde aylık abonelik planları sunuyor. Daha önce Manus, Alibaba Tongyi Qianwen ile stratejik bir işbirliğine gitmiş ve tüm işlevlerini yerli model ve işlem gücü platformlarında gerçekleştirmeyi planlamıştı. (Kaynak: 36Kr | QbitAI | op7418)

Kling 2.0, DJ Video Üretiminde Kullanıldı, İyi Ritim Duygusu ve Kararlılık Sergiledi: Kullanıcı SEIIIRU, Kuaishou Kling 2.0 modelini kullanarak ürettiği bir DJ video parçasını paylaştı ve bunu Udio tarafından üretilen “シュワシュワレインボウ2” müziğiyle birleştirdi. Kullanıcı, Kling 2.0’ın DJ videoları üretirken iyi bir ritim duygusu ve kararlılık sergilediğini ve diğer video üretim araçlarına kıyasla “güven hissi” verdiğini belirtti. Bu, Kling’in müzik görselleştirme ve dinamik video içerik oluşturma gibi belirli senaryolarda potansiyele sahip olduğunu gösteriyor. (Kaynak: Kling_ai)
AG-UI Protokolü Yayınlandı, YZ Agent’larını Kullanıcı Etkileşim Katmanına Bağlamayı Amaçlıyor: CopilotKit ekibi, YZ Agent’ları ile kullanıcı arayüzleri arasında gerçek zamanlı, zengin etkileşimi kolaylaştırmak için açık kaynaklı, kendi kendine barındırılabilen, hafif, olay tabanlı bir protokol olan AG-UI’yi yayınladı. AG-UI, mevcut çoğu Agent’ın arka uç otomasyon araçları olarak çalışması ve kullanıcılarla akıcı gerçek zamanlı etkileşim kurmakta zorlanması sorununu çözmeyi amaçlıyor. HTTP/SSE/webhooks aracılığıyla YZ arka uçları (OpenAI, CrewAI, LangGraph gibi) ile ön uç arasında sorunsuz bağlantı sağlayarak gerçek zamanlı güncellemeleri, araç düzenlemesini, paylaşılan değişken durumları, güvenlik sınırlarını ve ön uç senkronizasyonunu destekler, böylece geliştiricilerin kullanıcılarla işbirliği yapan etkileşimli YZ Agent’ları daha kolay oluşturmasını sağlar. (Kaynak: Reddit r/LocalLLaMA)

Runway Çeşitli Uygulamalarını Sergiliyor: Bisiklet Parçası Montajından Yazı Tipi Tasarımına Kadar: Kullanıcılar Runway’in çok yönlü uygulama potansiyelini sergiledi. Jimei Yang, Runway aracılığıyla “IMG_1’deki parçalara göre bir bisiklet oluştur” görüntü üretim görevini gerçekleştirerek, parça ilişkilerini anlama ve birleşik yaratım yapma yeteneğini gösterdi. Başka bir örnekte, Yianni Mathioudakis, Runway’i yazı tipi araştırması için kullanarak YZ ile karakterler oluşturdu ve çıktı sonuçları üzerindeki kontrol yeteneğini övdü; bu da Runway’in tasarım ve tipografi alanlarındaki uygulamasını gösteriyor. (Kaynak: c_valenzuelab | c_valenzuelab)

YourBench Güncellendi, Açık Uçlu ve Çoktan Seçmeli Soru Üretimini Destekliyor: YourBench aracı artık açık uçlu ve çoktan seçmeli olmak üzere iki tür soru üretebiliyor. Kullanıcıların yapılandırmada question_type
ayarını (open-ended
veya multi-choice
olarak) yapmaları ve süreci çalıştırmaları yeterli. Bu güncelleme, kullanıcılara değerlendirme görevleri oluştururken daha fazla esneklik ve kontrol sağlıyor, belirli ihtiyaçlara göre değerlendirme biçimini özelleştirmelerine olanak tanıyor ve büyük model kıyaslama testleri ile sentetik veri oluşturmaya daha iyi hizmet ediyor. (Kaynak: clefourrier | clefourrier)

YZ Aracı Lovart, Tek Cümlelik İhtiyaca Göre Tam Bir Video Reklam Oluşturabiliyor: Bir kullanıcı, yurtdışındaki tasarım agent ürünü Lovart AI’ı deneyimledi. Sadece 50 kelimelik bir ihtiyaç girerek, YZ’nin model ID resimleri, 11 video sahnesi resmi, her sahnenin çekim talimatları ve sahne videoları oluşturabildiğini ve sonunda otomatik olarak tam bir video halinde kurgulayabildiğini belirtti. Bu, YZ’nin video reklam üretim sürecini otomatikleştirmedeki potansiyelini gösteriyor; yaratıcı fikir aşamasından nihai ürün çıktısına kadar yaratım sürecini büyük ölçüde basitleştiriyor. (Kaynak: op7418)
Google Gemini, Video Bölüm Özetlemede Üstün Performans Sergiliyor: Hamel Husain, Google Gemini’yi kullanarak YouTube videolarını bölüm bölüm özetleme deneyimini paylaştı ve görevi “tek seferde” ve şaşırtıcı bir doğrulukla tamamladığını, bunun bir modelin bunu yapabildiğini ilk kez gördüğünü belirtti. Bu, Gemini 2.5’in video anlama ve içerik özetleme konusundaki güçlü yeteneğini vurguluyor ve kullanıcıların video çekirdek bilgilerini hızla kavramaları için verimli bir araç sunuyor. (Kaynak: HamelHusain)
Kagi Translate, Çeviri Kalitesinde Google Translate’i Geride Bırakıyor: Kullanıcı Vladquant, Kagi Translate hakkındaki olumlu değerlendirmesini paylaştı ve çeviri kalitesinin Google Translate’ten çok daha üstün olduğunu belirtti. Kagi Translate’in üstünlüğünü kanıtlamak için (ayrıntıları verilmeyen) somut bir örnek kullandı ve herkesi denemeye teşvik etti. Bu, makine çevirisi alanında yeni ortaya çıkan araçların farklı modeller veya teknolojik yollarla belirli açılardan mevcut devlere meydan okuyabileceğini gösteriyor. (Kaynak: vladquant)

Google Developer Program (GDP), Yüksek Maliyet Etkinliğine Sahip YZ ve Bulut Kaynakları Sunuyor: Google Developer Program (GDP), yıllık 299 ABD doları ücretle AI Studio için 50 ABD doları değerinde kupon, GCP için 500 ABD doları değerinde kupon (sertifika alındıktan sonra ek 500 ABD doları) ve Firebase Studio için en fazla 30 çalışma alanı gibi avantajlar sunuyor. Firebase Studio, Gemini 2.5 Pro gibi YZ işlevlerini entegre ediyor, model kullanımı sınırsız görünüyor ve bulut tabanlı çalışarak arka planda sürekli çalışmayı destekliyor. Bu programın, Google’ın YZ ve bulut kaynaklarından yararlanmak isteyen geliştiriciler için yüksek maliyet etkinliğine sahip olduğu düşünülüyor. (Kaynak: algo_diver)

📚 Öğrenme
İlk “Test-Time Scaling (TTS)” Derlemesi Yayınlandı, YZ Derin Düşünme Mekanizmasını Sistemli Bir Şekilde Açıklıyor: Hong Kong Şehir Üniversitesi, MILA, Renmin Üniversitesi Gaoling Yapay Zeka Enstitüsü, Salesforce AI Research, Stanford Üniversitesi gibi birçok kurumdan araştırmacının ortaklaşa hazırladığı bir derleme, büyük dil modellerinin çıkarım aşamasında ölçeklendirilmesi (Test-Time Scaling, TTS) teknolojisini sistematik olarak ele alıyor. Makale, “Ne-Nasıl-Nerede-Ne Kadar İyi” dört boyutlu bir analiz çerçevesi önererek mevcut TTS teknolojilerini (Chain of Thought CoT, öz-tutarlılık, arama, doğrulama gibi) sınıflandırıyor ve paralel stratejiler, aşamalı evrim, arama çıkarımı ve içsel optimizasyon gibi ana akım teknolojik yolları özetliyor. Bu derleme, YZ’nin “derin düşünme” yeteneği için kapsamlı bir yol haritası sunmayı ve TTS’nin matematiksel çıkarım, açık uçlu soru yanıtlama gibi senaryolardaki uygulamalarını, değerlendirmesini ve gelecekteki yönlerini (hafif dağıtım ve sürekli öğrenme entegrasyonu gibi) tartışmayı amaçlıyor. (Kaynak: WeChat)

ICLR 2025 Makalesi OmniKV: Token Kaybı Olmadan Verimli Uzun Metin Çıkarımı Yöntemi Öneriyor: Uzun bağlamlı büyük dil modellerinin (LLM) çıkarımında KV Cache bellek maliyetinin büyük olması sorununa karşı, Ant Group ve diğer kurumlardan araştırmacılar ICLR 2025’te yayınladıkları bir makalede OmniKV yöntemini önerdiler. Bu yöntem, farklı Transformer katmanları arasında önemli Token’lara odaklanma noktalarının yüksek derecede benzerlik gösterdiği “katmanlar arası dikkat benzerliği” gözleminden yararlanıyor. OmniKV, önemli Token alt kümesini belirlemek için yalnızca birkaç “Filtre katmanında” tam dikkat hesaplaması yapar, diğer katmanlar ise bu indeksleri seyrek dikkat hesaplaması için yeniden kullanır ve Filtre dışı katmanların KV Cache’ini CPU’ya boşaltır. Deneyler, OmniKV’nin Token kaybı olmadan kritik bilgi kaybını önlediğini ve LightLLM üzerinde vLLM’ye göre 1.7 kat daha fazla iş hacmi artışı sağladığını, özellikle CoT ve çok turlu diyalog gibi karmaşık çıkarım senaryoları için uygun olduğunu göstermiştir. (Kaynak: WeChat)

NYU Profesörü Kyunghyun Cho, 2025 Makine Öğrenimi Ders Müfredatını Açıkladı, Temel Teorilere Vurgu Yaptı: New York Üniversitesi profesörü Kyunghyun Cho, 2025 akademik yılı makine öğrenimi yüksek lisans dersinin müfredatını ve ders notlarını paylaştı. Ders, büyük dil modellerinin (LLM) derinlemesine tartışılmasından kasıtlı olarak kaçınarak, Stochastic Gradient Descent (SGD) merkezli temel makine öğrenimi algoritmalarına odaklanıyor ve öğrencileri klasik makaleleri incelemeye ve teorik gelişmeleri takip etmeye teşvik ediyor. Bu yaklaşım, Stanford CS229, MIT 6.790 gibi derslerin klasik modelleri ve matematiksel prensipleri merkeze aldığı günümüz üniversitelerinin YZ eğitiminde temel teorilere verdiği önemi yansıtıyor. Profesör Cho, teknolojinin hızla geliştiği bir çağda, temel teorileri ve matematiksel sezgiyi kavramanın en son modelleri takip etmekten daha önemli olduğunu, öğrencilerin eleştirel düşünme ve gelecekteki değişikliklere uyum sağlama yeteneklerini geliştirmeye yardımcı olduğunu düşünüyor. (Kaynak: WeChat)

YZ Öğrenme İpuçları: KVCache’i Korumak İçin Çok Turlu Diyaloglarda Dinamik İçerik Eklemekten Kaçının: YZ ile çok turlu diyaloglarda, özellikle işlem gücünün kısıtlı olduğu durumlarda, bağlama mevcut zaman damgası gibi dinamik içerikler eklemekten mümkün olduğunca kaçınılmalıdır. Çünkü dinamik içerikler, her seferinde farklı Token dizileri üretilmesine neden olur, bu da modelin tüm dizinin KVCache’ini yeniden hesaplamasını zorunlu kılar, önbelleği etkili bir şekilde yeniden kullanamaz ve böylece hesaplama maliyetini artırır. Sohbet sırasında konuşmaya bir ad vermek gibi karmaşık kullanıcı arayüzü işlemleri de KVCache’in geçersiz olmasına neden olabilir. KVCache’in geçersiz olup olmadığını anlamanın bir yolu, çıkarım sırasındaki bellek dalgalanmalarını gözlemlemektir; sık sık büyük iniş çıkışlar genellikle KVCache’in etkili bir şekilde yeniden kullanılamadığı anlamına gelir. (Kaynak: karminski3)

Pekin Üniversitesi Akıllı Bilimler Fakültesi’nden Dr. Zhong Yiwu, Çok Modlu Çıkarım/Embodied Intelligence Alanında Doktora Öğrencileri Arıyor: Pekin Üniversitesi Akıllı Bilimler Fakültesi’nden Dr. Zhong Yiwu (2026’da Yardımcı Doçent olarak göreve başlayacak), Eylül 2026’da başlayacak doktora programı için öğrenciler arıyor. Araştırma alanları arasında görsel-dil öğrenimi, çok modlu büyük dil modelleri, bilişsel çıkarım, verimli hesaplama ve embodied intelligence agent’ları bulunmaktadır. Dr. Zhong, doktorasını Wisconsin-Madison Üniversitesi’nden almış olup, şu anda Hong Kong Çin Üniversitesi’nde doktora sonrası araştırmacıdır. CVPR, ICCV gibi önde gelen konferanslarda birçok makalesi yayınlanmış ve Google Scholar’da 2500’den fazla atıf almıştır. Başvuru sahiplerinin araştırmaya tutkulu olması, sağlam matematiksel temellere ve programlama deneyimine sahip olması beklenmektedir; makale yayını olan adaylara öncelik verilecektir. (Kaynak: WeChat)

YZ ile “Problem Çözme Yeteneğini” Sistematik Olarak Öğrenmek: Kullanıcı “Zhou Zhi”, aşamalı YZ kullanım yöntemleriyle “problem çözme yeteneğini” derinlemesine anlama sürecini paylaştı. Başlangıçta YZ’yi yüzeysel bilgi edinmek için bir arama motoru olarak kullanmaktan, YZ’ye Feynman gibi uzman rolleri atayarak yapılandırılmış sorular sormaya, ardından Li Jigang’ın Cool Teacher istemleri gibi özenle tasarlanmış yerleşik istemleri kullanarak YZ’nin sistematik, çok boyutlu (tanım, ekoller, formüller, tarihçe, iç anlam, dış anlam, sistem şeması, değer, kaynaklar) bilgi sunmasını sağlamaya kadar ilerledi. Son olarak, YZ’nin bu bilgileri çıkarmasını, düzenlemesini, anlamasını ve YZ istemleri yazmayı öğrenmek gibi pratik uygulama senaryolarıyla birleştirerek soyut kavramları uygulanabilir çerçevelere ve eylem kılavuzlarına dönüştürdü. Yazar, gerçek problem çözme yeteneğinin, YZ’nin (veya insanın) sorunun özünü kavraması, çözüm yönünü bulması (bilme), doğrulamak ve çözmek için güçlü bir uygulama yeteneğine sahip olması (eylem) ve geriye dönük değerlendirme ve yineleme yoluyla bilme ve eylemin birliğini sağlamasında yattığını düşünüyor. (Kaynak: WeChat)

Hugging Face, Model ve Veri Kümesi Organizasyon Yeteneğini Artıran İç İçe Koleksiyon Özelliğini Tanıttı: Hugging Face Hub, kullanıcıların “Koleksiyonlar” içinde “Alt Koleksiyonlar (Collections within Collections)” oluşturmasına olanak tanıyan yeni bir özellik ekledi. Bu güncelleme, kullanıcıların Hugging Face üzerindeki modelleri, veri kümelerini ve diğer kaynakları daha esnek ve düzenli bir şekilde organize etmelerini ve yönetmelerini sağlayarak platformun kullanılabilirliğini ve içerik keşif verimliliğini artırıyor. (Kaynak: reach_vb)

💼 Ticari
YZ Arama Motoru Perplexity’nin Finansman Değerlemesi 140 Milyar Dolara Ulaşabilir, Comet Adlı Bir Tarayıcı Geliştirmeyi Planlıyor: YZ arama motoru şirketi Perplexity’nin yeni bir finansman turu için görüşmeler yaptığı ve Accel liderliğinde 500 milyon dolar toplamayı hedeflediği bildiriliyor. Şirketin değerlemesinin, geçen Haziran ayındaki 30 milyar dolardan önemli bir artışla yaklaşık 140 milyar dolara ulaşabileceği belirtiliyor. Perplexity, kaynak bağlantılarıyla birlikte özetlenmiş yanıtlar sunmasıyla tanınıyor ve Nvidia CEO’su Jensen Huang tarafından tavsiye ediliyor (Nvidia aynı zamanda yatırımcılarından biri). Şirketin yıllık yinelenen geliri 120 milyon dolara ulaştı. Perplexity ayrıca, Google Chrome ve Apple Safari’ye rakip olmayı amaçlayan Comet adlı bir web tarayıcısı başlatmayı planlıyor. OpenAI, Google, Anthropic gibi YZ arama alanındaki rakiplerle ve telif hakkı davalarıyla (Dow Jones ve New York Times gibi) karşı karşıya olmasına rağmen, Perplexity aktif olarak genişlemeye devam ediyor. (Kaynak: 36Kr | QbitAI)

“OHand Technologies” Yaklaşık 100 Milyon Yuanlık B++ Turu Finansmanını Tamamladı, Becerikli El Geliştirme ve Piyasaya Sürme Sürecini Hızlandırıyor: Robotik ve beyin bilimi teknolojilerine odaklanan “OHand Technologies”, son zamanlarda Infinity Group, Zhejiang Eyaleti Devlet Sermayesi İşletme Şirketi’ne bağlı Zhejiang Eyaleti Kalkınma Varlık Yönetimi Şirketi ve Womeida Capital’in ortak yatırımıyla yaklaşık 100 milyon yuanlık B++ turu finansmanını tamamladı. Fonlar, becerikli el teknolojisi geliştirmeyi hızlandırmak, yeni ürünlerin piyasaya sürülmesini teşvik etmek, üretim kapasitesi oluşturmak ve pazar genişletmek için kullanılacak. OHand Technologies’in temel ürünleri arasında embodied robotlar ve endüstriyel otomasyon için ROhand serisi becerikli eller ve ampute hastalar için OHand™ akıllı biyonik el bulunmaktadır. Şirket, kendi geliştirdiği temel bileşenlerle maliyetleri düşürdüğünü vurguluyor; OHand™ akıllı biyonik elin satış fiyatı 100.000 yuan’ın altına düşürüldü ve Şanghay Engelliler Federasyonu sübvansiyon listesine girdi, aynı zamanda aktif olarak yurtdışı pazarlarını da genişletiyor. Dokunma gibi algılama yeteneklerine sahip yeni nesil becerikli elin bu ay piyasaya sürülmesi bekleniyor. (Kaynak: 36Kr)

SoftBank-OpenAI’nin Yüz Milyarlarca Dolarlık “Stargate” YZ Altyapı Projesi Finansmanı Trump’ın Gümrük Vergisi Politikası Nedeniyle Engellendi: SoftBank Group’un OpenAI ile işbirliği içinde YZ altyapısı kurmak için 100 milyar dolar (gelecek dört yılda 500 milyar dolara çıkarılması planlanan) yatırım yapmayı planladığı “Stargate” projesi, finansman konusunda önemli engellerle karşılaştı. Trump yönetiminin gümrük vergisi politikası ekonomik riskler getirdi ve bankalar ile özel sermaye kuruluşlarıyla yapılan finansman görüşmelerini durma noktasına getirdi. Yüksek sermaye maliyetleri, küresel ekonomik durgunluğun veri merkezi talebinde düşüşe yol açabileceği endişeleri ve DeepSeek gibi düşük maliyetli YZ modellerinin ortaya çıkması, yatırımcıların endişelerini artırdı. SoftBank, OpenAI’ye 30 milyar dolarlık yatırımını sürdürmesine ve Teksas Abilene’deki veri merkezi gibi bazı inşaat çalışmalarına başlamış olmasına rağmen, projenin genel finansman görünümü belirsizliğini koruyor. (Kaynak: 36Kr)

🌟 Topluluk
YZ’nin Öğrenme Sürecindeki Gerekli “Mücadeleyi” Ortadan Kaldırıp Kaldırmadığı Tartışılıyor: Bir Reddit kullanıcısı, YZ araçlarının kodlama, yazma, öğrenme gibi senaryolardaki kolaylığının, kullanıcıların gerekli “mücadele” sürecini atlayarak bilginin derinlemesine anlaşılmasını etkileyip etkilemediği konusunda bir tartışma başlattı. Yorumlarda birçok kullanıcı, YZ’nin güçlü bir araç olmasına rağmen körü körüne güvenilmemesi gerektiğini belirtti. Bir kullanıcı, kullanıcıların YZ çıktılarının içeriğini anlaması ve bundan sorumlu olması gerektiğini, YZ’nin daha çok “bazen zeki bazen aptal bir acemi meslektaş” gibi olduğunu vurguladı. Diğer kullanıcılar ise YZ’yi esas olarak bilinen becerilerin verimliliğini artırmak için kullandıklarını, tamamen yeni şeyler öğrenmek için kullanmadıklarını belirtti ve kullanıcıların YZ kullanım şekillerini yeniden düşünmelerini, uzun vadeli kişisel gelişimden ödün vererek “beyni dış kaynak kullanmaktan” kaçınmalarını önerdi. Ayrıca, YZ’nin özellikle karmaşık veya standart dışı sorunlarla uğraşırken büyük miktarda bilgi arama ve filtreleme zamanından tasarruf sağladığı görüşü de vardı. (Kaynak: Reddit r/ArtificialInteligence
YZ Araçlarının Ücretsiz Kullanımının Sürdürülebilirliği ve Kullanıcı Verilerinin Değeri Üzerine Tartışma: Reddit’te bir gönderi, mevcut YZ araçlarının ücretsiz kullanımının nedenleri ve gelecekteki olası gidişatı hakkında bir tartışma başlattı. Gönderiyi yapan kişi, YZ şirketlerinin şu anda pazar rekabeti ve kullanıcı birikimi için ücretsiz veya düşük maliyetli hizmetler sunduğunu, pazar yapısı istikrara kavuştuğunda fiyatları artırabileceğini, örneğin Claude Code’un ücretsiz kotayı sınırlamaya başladığını belirtti. Yorumlarda, YZ şirketlerinin ücretsiz hizmetler aracılığıyla kullanıcı verilerini topladığı, fikri mülkiyet edindiği ve kullanıcı profilleri oluşturduğu, bu bilgilerin kendisinin büyük bir değer olduğu görüşü vardı. Diğer yorumlar ise gelecekte YZ hizmetlerinin elektrik tedarikçileri gibi fiyat rekabetinin ortaya çıkabileceğini veya B2B modelinin ana akım haline geleceğini öngördü. Aynı zamanda, bazı kullanıcılar da tersini düşünerek, kullanıcı verilerinin YZ’yi eğitmek için hayati önem taşıdığını ve belki de YZ şirketlerinin kullanıcılara ödeme yapması gerektiğini belirtti. (Kaynak: Reddit r/ArtificialInteligence
Sora ve Veo Gibi Video Üretim Modellerinin Etkisi Kullanıcılar Tarafından Eleştiriliyor, Daha Yüksek Kalite Bekleniyor: Bazı sosyal medya kullanıcıları, Sora ve Google Veo 2 gibi mevcut ana akım video üretim modellerinin etkisinden memnuniyetsizliklerini dile getirerek, karakter tutarlılığı, “kameraya doğru yürüme” gibi temel komutları anlama konusunda hala eksiklikleri olduğunu, hatta model yeteneklerinin “zayıflatıldığını” hissettiklerini belirtti. Kullanıcılar daha yüksek kaliteli görüntü ve video üretimi (sesli) yeteneği bekliyor ve Veo 3’ün bu sorunları çözeceğini umarak şaka yollu bir ifade kullandılar. Bu, kullanıcıların YZ video üretim teknolojisine yönelik yüksek beklentileri ile mevcut teknoloji seviyesi arasındaki farkı yansıtıyor. (Kaynak: scaling01)
John Carmack Yorumu: Yazılım Optimizasyonu ve Eski Donanım Potansiyeli Küçümseniyor: “İnsanlar CPU üretmeyi unutursa ne olur?” düşünce deneyine ilişkin olarak John Carmack, yazılım optimizasyonuna gerçekten önem verilirse dünyadaki birçok uygulamanın modası geçmiş donanımlarda çalışabileceğini yorumladı. Kıt işlem gücüne yönelik piyasa fiyat sinyalleri, örneğin mikro hizmet tabanlı yorumlanmış ürünlerin monolitik yerel kod tabanlarına yeniden yapılandırılması gibi bu optimizasyonu teşvik edecektir. Elbette, ucuz ve ölçeklenebilir işlem gücü olmadan yenilikçi ürünlerin ortaya çıkmasının daha nadir hale geleceğini de kabul etti. (Kaynak: ID_AA_Carmack)

Claude Sistem İstemlerinin Sızdırılması Sektörde İlgi Uyandırdı, YZ Kontrolünün Karmaşıklığını Ortaya Koydu: Anthropic’in büyük dil modeli Claude’un sistem istemlerinin sızdırıldığı iddia edildi. İçeriğin yaklaşık 25.000 Token uzunluğunda olduğu, alışılagelmişin çok üzerinde olduğu ve rol yapma (akıllı ve dostane asistan), güvenlik ve etik çerçeveler (çocuk güvenliği önceliği, zararlı içeriklerin yasaklanması), katı telif hakkı uyumluluğu (telif hakkıyla korunan materyallerin kopyalanmasının yasaklanması), araç çağırma mekanizmaları (MCP’nin 14 aracı tanımlaması) ve belirli davranış istisnaları (yüz tanıma kör noktası) gibi çok sayıda özel talimat içerdiği belirtildi. Bu sızıntı, yalnızca en üst düzey YZ’nin güvenlik, uyumluluk ve kullanıcı deneyimini sağlamak için kullandığı karmaşık “kısıtlama mühendisliğini” ortaya koymakla kalmadı, aynı zamanda YZ şeffaflığı, güvenliği, fikri mülkiyet ve istemlerin kendisinin bir teknolojik engel olarak kullanılması hakkında tartışmalara yol açtı. Sızdırılan içerik ile resmi olarak yayınlanan basitleştirilmiş istemler arasındaki büyük fark, YZ şirketlerinin bilgi ifşası ile temel teknoloji koruması arasındaki çekişmesini vurguladı. (Kaynak: 36Kr)

YZ’nin Tıbbi Soru Yanıtlamadaki Yüksek Puanları ile Gerçek Uygulama Etkisi Arasında Fark Var: Oxford Üniversitesi’nde yapılan bir araştırma, 1298 sıradan insanın tıbbi bir senaryoyu simüle etmesini ve GPT-4o, Llama 3 gibi YZ destekleriyle durumlarının ciddiyetini değerlendirip tedavi yöntemlerini seçmelerini istedi. Sonuçlar, YZ modellerinin tek başına test edildiğinde teşhis doğruluğunun yüksek olmasına rağmen (örneğin GPT-4o hastalıkları %94.7 oranında tanımladı), kullanıcıların YZ desteğini kullandıktan sonra hastalıkları doğru tanımlama oranının %34.5’e düştüğünü ve YZ kullanmayan kontrol grubundan daha düşük olduğunu gösterdi. Araştırma, kullanıcıların eksik tanımlama yapmasının ve YZ önerilerini tam olarak anlayıp benimsememesinin ana nedenler olduğunu belirtti. Bu, YZ’nin standart testlerdeki yüksek puanlarının gerçek klinik uygulamalardaki etkinliğine tam olarak eşit olmadığını ve “insan-makine işbirliği” aşamasının kritik bir darboğaz olduğunu gösteriyor. (Kaynak: 36Kr)

💡 Diğer
QuestMobile Raporu: YZ Uygulama Pazarı Üç Tür Uygulama Biçimi Sunuyor, Cep Telefonu Üreticisi Asistanlarının Etkinliği Yüksek: QuestMobile’ın yayınladığı 2025 Tam Alanlı YZ Uygulama Pazarı raporuna göre, Mart 2025 itibarıyla YZ uygulamaları temel olarak mobil uç yerel Uygulamalar (aylık aktif kullanıcı 591 milyon), mobil uç uygulama eklentileri (In-App AI, aylık aktif kullanıcı 584 milyon) ve PC uç web uygulamaları (aylık aktif kullanıcı 209 milyon) olmak üzere üçe ayrılıyor. Bunlar arasında YZ genel asistanları, YZ arama motorları, YZ yaratıcı tasarım, her uçta en yüksek paya sahip alanlar. Cep telefonu üreticilerinin yerel YZ asistanları dikkat çekici bir performans sergiliyor; Huawei Xiaoyi (157 milyon aylık aktif kullanıcı) ve OPPO Xiaobu Asistanı (148 milyon aylık aktif kullanıcı), DeepSeek’ten (193 milyon aylık aktif kullanıcı) sonra ikinci sırada yer alarak Doubao’yu (115 milyon aylık aktif kullanıcı) geride bırakıyor. Rapor, YZ arama motorları, YZ genel asistanları, YZ sosyal etkileşim, YZ profesyonel danışmanların dört yüz milyonluk alan haline geldiğini belirtiyor. (Kaynak: 36Kr)

YZ Reklam Filmi Üretimi: Büyük Markalar Aktif Olarak Deniyor, Ancak Teknik ve Etik Zorluklar Devam Ediyor: CTR raporuna göre, reklamverenlerin yarısından fazlası yaratıcı içerik üretiminde AIGC kullanıyor, yaklaşık %20’si ise video oluşturmada %50’den fazla aşamada YZ’den yararlanıyor. Lenovo, Taotian, JD.com gibi büyük markalar, yenilikçiliği sergilemek veya belirli görsel efektler elde etmek için sık sık YZ reklam filmlerini deniyor. WPP, Publicis gibi reklam ajansları da YZ’yi benimsiyor, ekipler yetiştiriyor veya araçlar geliştiriyor. Ancak, YZ reklam filmi üretimi hala zorluklarla karşı karşıya: teknik olarak, görüntülerin kararsız olması, karakterlerin kolayca değişmesi, karmaşık dinamiklerin iyi işlenememesi gibi sorunlar manuel müdahale gerektiriyor; kamuoyunda, teknolojinin aşırı abartılması veya yaratıcı samimiyet eksikliği kolayca tepkiye yol açabiliyor; yasal ve etik olarak, materyal telif hakkı, gizlilik koruması, YZ tarafından üretilen içeriğin telif hakkı sahipliği ve ihlal sorumluluğu konusunda henüz birleşik bir düzenleme bulunmuyor. Başarılı örnekler genellikle “insanlık” kaygısını iletmeye, teknik olarak güçlü yönleri kullanmaya ve marka kimliğine uymaya odaklanıyor. (Kaynak: 36Kr)

100 Bilim İnsanı, Küresel YZ Güvenliği Araştırma Kılavuzunu Öneren “Singapur Mutabakatı”nı İmzaladı: Singapur’da düzenlenen Uluslararası Temsil Öğrenimi Konferansı sırasında, dünya genelinden 100’den fazla bilim insanı (Yoshua Bengio, Stuart Russell dahil) “Küresel YZ Güvenliği Araştırma Öncelikleri Hakkında Singapur Mutabakatı”nı ortaklaşa yayınladı. Bu belge, YZ araştırmacılarına rehberlik etmeyi ve YZ teknolojisinin “güvenilir, sağlam ve güvenli” olmasını sağlamayı amaçlıyor. Mutabakat üç araştırma kategorisi öneriyor: riskleri belirlemek (örneğin, potansiyel zararları ölçmek için metroloji geliştirmek, nicel risk değerlendirmesi yapmak), YZ sistemlerini risklerden kaçınacak şekilde oluşturmak (örneğin, tasarımıyla YZ’yi güvenilir hale getirmek, program niyetini ve istenmeyen yan etkileri belirtmek, halüsinasyonları azaltmak, tahrifata karşı sağlamlığı artırmak) ve YZ sistemleri üzerinde kontrolü sürdürmek (örneğin, mevcut güvenlik önlemlerini genişletmek, kontrol girişimlerini aktif olarak baltalayabilecek güçlü YZ sistemlerini kontrol etmek için yeni teknolojiler geliştirmek). Bu adım, YZ yeteneklerinin hızla gelişmesinin getirdiği güvenlik zorluklarına yanıt vermeyi ve güvenlik araştırmalarına yapılan yatırımların artırılması çağrısında bulunmayı amaçlıyor. (Kaynak: 36Kr)
