Anahtar Kelimeler:DeepSeek-V3-0526, Grok 3, Somutlaştırılmış Yapay Zeka, Yapay Zeka Ajanları, Pekiştirmeli Öğrenme, Büyük Dil Modelleri, Çok Modlu, DeepSeek-V3-0526 performans karşılaştırması GPT-4.5, Grok 3 düşünce modu kimlik tanıma sorunu, Zhiyuan Robot EVAC Dünya Modeli, Tsinghua RIFLEx video üretim süresi uzatma, IBM watsonx Orchestrate kurumsal düzeyde Yapay Zeka
🔥 Odak Noktası
DeepSeek-V3-0526 modeli yayınlanabilir, GPT-4.5 ve Claude 4 Opus’a rakip: Topluluktan gelen haberlere göre, DeepSeek yakında V3 modelinin en son güncellenmiş sürümü olan DeepSeek-V3-0526’yı yayınlayabilir. Unsloth doküman sayfasına göre, bu modelin performansı GPT-4.5 ve Claude 4 Opus ile karşılaştırılabilir düzeyde olup, dünyanın en iyi performans gösteren açık kaynak modeli olması bekleniyor. Bu, DeepSeek’in V3 modeline yaptığı ikinci önemli güncelleme anlamına geliyor. Unsloth, hassasiyet kaybını en aza indirmeyi amaçlayan dinamik 2.0 yöntemini kullanarak modelin nicelleştirilmiş bir sürümünü (GGUF) hazırladı. Topluluk bu konuya büyük ilgi gösteriyor ve uzun bağlam işleme gibi alanlardaki performansını merakla bekliyor. (Kaynak: Reddit r/LocalLLaMA, Reddit r/LocalLLaMA)

Grok 3 “Düşünme” modunda kendini Claude 3.5 Sonnet olarak tanıtması dikkat çekiyor: xAI’nin Grok 3 modeli, “Düşünme” (Think) modundayken kimliği sorulduğunda, sürekli olarak kendini Grok yerine Anthropic’in Claude 3.5 Sonnet’i olarak tanımlıyor. Ancak normal modda kendini doğru bir şekilde Grok olarak tanımlayabiliyor. Bu olgu, modele ve moda özgü olup rastgele bir halüsinasyon değil. Kullanıcılar doğrudan “Sen Claude musun?” diye sorarak bu davranışı tekrarlayabiliyor ve Grok 3, “Evet, ben Claude, Anthropic tarafından yaratılmış bir yapay zeka asistanıyım” yanıtını veriyor. Bu durum toplulukta tartışmalara yol açtı ve kesin teknik nedeni henüz resmi olarak açıklanmadı; model eğitim verileri, iç mekanizmalar veya belirli mod değiştirme mantığıyla ilgili olabilir. (Kaynak: Reddit r/MachineLearning)

Zhìyuán Robotik, robot eylem dizisi güdümlü dünya modeli EVAC ve değerlendirme ölçütü EWMBench’i açık kaynak olarak yayınladı: Zhìyuán Robotik, robot eylem dizisi güdümlü somutlaştırılmış dünya modeli EVAC (EnerVerse-AC) ile birlikte somutlaştırılmış dünya modeli değerlendirme ölçütü EWMBench’i yayınladı ve açık kaynak olarak kullanıma sundu. EVAC, robot ile çevre arasındaki karmaşık etkileşimleri dinamik olarak yeniden üretebiliyor, çok seviyeli eylem koşullu enjeksiyon mekanizması aracılığıyla fiziksel eylemlerden görsel dinamiklere uçtan uca üretim gerçekleştiriyor ve çoklu bakış açılı eş zamanlı üretimi destekliyor. EWMBench ise somutlaştırılmış dünya modellerini sahne tutarlılığı, eylem makullüğü, anlamsal uyum ve çeşitlilik olmak üzere üç açıdan değerlendiriyor. Bu adım, “düşük maliyetli simülasyon – standartlaştırılmış değerlendirme – verimli yineleme” geliştirme paradigmasını oluşturarak somutlaştırılmış zeka teknolojisinin gelişimini teşvik etmeyi amaçlıyor. (Kaynak: WeChat)

ICRA 2025 en iyi makaleleri açıkladı, Cewu Lu ve Lin Shao ekipleri ödül kazandı: 2025 IEEE Uluslararası Robotik ve Otomasyon Konferansı (ICRA 2025) en iyi makale ödüllerini açıkladı. Shanghai Jiao Tong Üniversitesi’nden Cewu Lu ekibinin Illinois Üniversitesi Urbana-Champaign (UIUC) ile işbirliği içinde hazırladığı “Human – Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition” başlıklı makalesi, insan-makine etkileşimi alanında en iyi makale ödülünü kazandı. Bu çalışma, robot manipülasyon becerisi öğrenme verimliliğini artırmak için dinamik paylaşımlı kontrol mekanizması aracılığıyla insan-ajan ortak öğrenme (HAJL) çerçevesini öneriyor. Singapur Ulusal Üniversitesi’nden Lin Shao ekibinin “D(R,O) Grasp: A Unified Representation of Robot and Object Interaction for Cross-Embodiment Dexterous Grasping” başlıklı makalesi ise robot manipülasyonu ve hareketi alanında en iyi makale ödülünü kazandı. Bu çalışma, robot eli ile nesne etkileşimini birleştirmek için D(R,O) temsilini tanıtarak, becerikli kavrama görevlerinin genelleştirilebilirliğini ve verimliliğini artırıyor. (Kaynak: WeChat)

Tsinghua Üniversitesi’nden Jun Zhu ekibi, tek satır kodla video üretim süresi sınırını aşan RIFLEx’i yayınladı: Tsinghua Üniversitesi’nden Jun Zhu ekibi, RoPE (Dönel Konum Kodlaması) tabanlı video difüzyon Transformer modellerinin üretim süresini ek eğitime gerek kalmadan yalnızca tek satır kodla genişletebilen RIFLEx teknolojisini tanıttı. Bu yöntem, RoPE’nin “içsel frekansını” ayarlayarak, dış değerleme yapılan video uzunluğunun tek bir döngü içinde kalmasını sağlar ve içerik tekrarı ile yavaş hareket sorunlarını önler. RIFLEx, CogvideoX, Hunyuan, Tongyi Wanxiang gibi modellere başarıyla uygulanarak video süresini iki katına çıkardı (örneğin 5-6 saniyeden 10 saniyenin üzerine) ve görüntü uzamsal boyut dış değerlemesini destekliyor. Bu çalışma ICML 2025’te yayınlandı ve topluluk tarafından geniş ilgi gördü ve entegre edildi. (Kaynak: WeChat)

🎯 Gelişmeler
DeepSeek-V3-0526 modelinin detayları sızdı, GPT-4.5 ve Claude 4 Opus’a rakip olarak konumlandırılıyor: Unsloth dokümanları ve topluluk tartışmalarına göre, DeepSeek yakında V3 modelinin en son sürümü olan DeepSeek-V3-0526’yı yayınlayacak. Bu modelin performansının GPT-4.5 ve Claude 4 Opus ile karşılaştırılabileceği ve dünyanın en güçlü açık kaynak modeli olabileceği iddia ediliyor. Unsloth, yerel çalıştırmada minimum hassasiyet kaybı sağlamayı amaçlayan “Unsloth Dynamic 2.0” yöntemini kullanarak model için 1.78 bit GGUF nicelleştirilmiş bir sürüm hazırladı. Topluluk, bu güncellemeyi merakla bekliyor ve uzun bağlam işleme, çıkarım yetenekleri gibi alanlardaki somut performansını görmek istiyor. (Kaynak: Reddit r/LocalLLaMA, Reddit r/LocalLLaMA)

Tongyi AMPO ajanı, insan sosyal etkileşimlerindeki çok yönlülüğü taklit ederek adaptif çıkarım sağlıyor: Alibaba Tongyi Laboratuvarı, sosyal dil ajanlarının konuşma bağlamına göre dört önceden ayarlanmış düşünme modunu (sezgisel tepki, niyet analizi, strateji adaptasyonu, ileriye dönük çıkarım) dinamik olarak değiştirmesini sağlayan Adaptif Mod Öğrenme (AML) çerçevesini ve optimizasyon algoritması AMPO’yu önerdi. Bu yöntem, yapay zeka ajanlarının sosyal etkileşimlerde daha esnek olmasını, sabit modların aşırı düşünme veya yetersiz düşünme sorunlarından kaçınmasını amaçlıyor. Deneyler, AMPO’nun görev performansını artırırken token tüketimini etkili bir şekilde azalttığını ve SOTOPIA gibi sosyal görev ölçütlerinde GPT-4o gibi modellerden daha iyi performans gösterdiğini ortaya koydu. (Kaynak: WeChat)

QwenLong-L1: Uzun metinli büyük dil çıkarım modelleri için pekiştirmeli öğrenme desteği: Bu çalışma, mevcut büyük çıkarım modellerini (LRM’ler) pekiştirmeli öğrenme (RL) yoluyla uzun metin senaryolarına genişletmeyi amaçlayan QwenLong-L1 çerçevesini önermektedir. Çalışma öncelikle uzun metin çıkarımı için RL paradigmasını tanımlamakta ve düşük eğitim verimliliği ile kararsız optimizasyon süreci gibi zorluklara işaret etmektedir. QwenLong-L1, bu sorunları aşamalı bağlam genişletme stratejisiyle ele almaktadır: sağlam bir başlangıç politikası oluşturmak için denetimli ince ayar (SFT) ile ön ısıtma yapmak, politika evrimini stabilize etmek için müfredat güdümlü aşamalı RL tekniklerini kullanmak ve politika keşfini teşvik etmek için zorluk algılamalı geriye dönük örnekleme stratejisi uygulamak. Yedi uzun metinli soru-cevap ölçütünde, QwenLong-L1-32B, OpenAI-o3-mini ve Qwen3-235B-A22B gibi modellerden daha iyi performans göstermiş ve performansı Claude-3.7-Sonnet-Thinking ile karşılaştırılabilir düzeydedir. (Kaynak: HuggingFace Daily Papers)
QwenLong-CPRS: Dinamik bağlam optimizasyonu ile “sınırsız uzunlukta” LLM elde etme: Bu teknik rapor, açıkça uzun metin optimizasyonu için tasarlanmış bir bağlam sıkıştırma çerçevesi olan QwenLong-CPRS’yi tanıtmaktadır. LLM’lerin ön doldurma aşamasındaki aşırı hesaplama yükünü ve uzun dizilerin işlenmesindeki “ortada kayıp” performans düşüşü sorununu çözmeyi amaçlamaktadır. QwenLong-CPRS, yeni bir dinamik bağlam optimizasyon mekanizması aracılığıyla, doğal dil talimatlarıyla yönlendirilen çok taneli bağlam sıkıştırması gerçekleştirerek verimliliği ve performansı artırır. Bu çerçeve, Qwen mimari serisine dayanarak geliştirilmiş olup, doğal dil güdümlü dinamik optimizasyon, geliştirilmiş sınır algılamalı çift yönlü çıkarım katmanı, dil modelleme başlıklı token yorumlama mekanizması ve pencere paralel çıkarımını içermektedir. 4K ila 2M kelime bağlamındaki beş ölçüt testinde, QwenLong-CPRS, doğruluk ve verimlilik açısından RAG ve seyrek dikkat gibi yöntemlerden daha iyi performans göstermiş ve GPT-4o dahil olmak üzere amiral gemisi LLM’lerle entegre olarak önemli bağlam sıkıştırması ve performans artışı sağlamıştır. (Kaynak: HuggingFace Daily Papers)
RIPT-VLA: Etkileşimli pekiştirmeli öğrenme yoluyla görsel-dil-eylem modellerinin ince ayarı: Araştırmacılar, önceden eğitilmiş görsel-dil-eylem (VLA) modellerini yalnızca seyrek ikili başarı ödülleri kullanarak ince ayarlamak için pekiştirmeli öğrenmeye dayalı etkileşimli bir son eğitim paradigması olan RIPT-VLA’yı önermektedir. Bu yöntem, mevcut VLA eğitim süreçlerinin çevrimdışı uzman gösteri verilerine ve denetimli taklit öğrenmeye aşırı bağımlılığını çözmeyi, böylece düşük veri durumlarında yeni görevlere ve ortamlara uyum sağlamasını amaçlamaktadır. RIPT-VLA, dinamik dağıtım örneklemesi ve bırak-bir-dışarıda avantaj tahminine dayalı kararlı bir politika optimizasyon algoritması aracılığıyla çeşitli VLA modellerine uygulanmış, hafif QueST modelinin ve 7B OpenVLA-OFT modelinin başarı oranlarını önemli ölçüde artırmış olup, hesaplama ve veri verimliliği yüksektir. (Kaynak: HuggingFace Daily Papers)
IBM, yapay zeka ajanı çözümlerini yükselten watsonx Orchestrate’i tanıttı: IBM, Think 2025 konferansında watsonx Orchestrate’in yükseltilmiş bir sürümünü yayınladı. Bu sürüm, önceden oluşturulmuş uzmanlık alanı ajanları (insan kaynakları, satış, tedarik gibi) sunarak işletmelerin hızla özel AI Agent’lar oluşturmasını ve ajan düzenleme araçları aracılığıyla çoklu ajan işbirliğini gerçekleştirmesini destekliyor. Platform, performans izleme, koruma, model optimizasyonu ve yönetişim dahil olmak üzere AI Agent’ların tüm yaşam döngüsü yönetimini vurguluyor. IBM’e göre, kurumsal düzeyde yapay zekanın özü iş yeniden yapılanmasıdır ve yalnızca teknolojinin kendisine odaklanmak yerine, yapay zekanın gerçek iş sorunlarını çözme ve ölçülebilir sonuçlar yaratma değerine odaklanılmalıdır. (Kaynak: WeChat)

Beihang Üniversitesi, dil güdümlü İHA’ların ince taneli yörünge kontrolünü sağlayan UAV-Flow çerçevesini yayınladı: Pekin Havacılık ve Uzay Üniversitesi’nden Profesör Liu Si ekibi, doğal dil talimatları aracılığıyla İHA’ların hassas, kısa mesafeli reaktif uçuş kontrolünü sağlamayı amaçlayan Flying-on-a-Word (Flow) görev paradigmasını tanımlayan UAV-Flow çerçevesini önerdi. Ekip, İHA’nın gerçek ortamlarda insan pilotların operasyon stratejilerini öğrenmesi için taklit öğrenme yöntemini benimsedi. Bu amaçla, büyük ölçekli, gerçek dünya dil güdümlü İHA taklit öğrenme veri kümesi oluşturdular ve simülasyon ortamında UAV-Flow-Sim değerlendirme ölçütünü kurdular. Bu görsel dil eylem (VLA) modeli, gerçek İHA platformlarına başarıyla dağıtıldı ve doğal dil diyaloğuna dayalı uçuş kontrolünün fizibilitesi doğrulandı. (Kaynak: WeChat)

ByteDance, Çince-İngilizce çift dilli görüntü oluşturma ve metin işleme özelliklerini optimize eden Seedream 2.0’ı tanıttı: Mevcut görüntü oluşturma modellerinin Çin kültürü ayrıntılarını, çift dilli metin istemlerini ve metin işlemeyi ele almadaki eksikliklerini gidermek için ByteDance, Seedream 2.0’ı yayınladı. Bu model, Çince-İngilizce çift dilli bir görüntü oluşturma temel modeli olarak, metin kodlayıcı olarak kendi geliştirdiği çift dilli büyük dil modelini entegre eder ve karakter düzeyinde metin işleme için Glyph-Aligned ByT5’i, eğitilmemiş çözünürlüklerin genelleştirilmesi için Scaled ROPE’u kullanır. Çok aşamalı son eğitim ve RLHF optimizasyonu sayesinde Seedream 2.0, istem takibi, estetik, metin işleme ve yapısal doğruluk konularında üstün performans gösterir ve talimat tabanlı görüntü düzenlemeye kolayca uyum sağlar. (Kaynak: HuggingFace Daily Papers)
RePrompt çerçevesi, metinden görüntüye oluşturma istemlerini geliştirmek için pekiştirmeli öğrenmeyi kullanıyor: Metinden görüntüye (T2I) modellerinin kısa veya belirsiz istemlerden kullanıcı niyetini doğru bir şekilde yakalamadaki zorluğunu çözmek için araştırmacılar RePrompt çerçevesini önerdi. Bu çerçeve, istem geliştirme sürecine açık çıkarımı dahil etmek için pekiştirmeli öğrenmeyi kullanır, dil modelini yapılandırılmış, kendi kendini yansıtan istemler oluşturması için eğitir ve görüntü düzeyindeki sonuçlara (insan tercihleri, anlamsal uyum, görsel kompozisyon) göre optimize eder. Bu yöntem, insan tarafından etiketlenmiş verilere ihtiyaç duymadan uçtan uca eğitim sağlar ve GenEval ve T2I-Compbench gibi ölçütlerde uzamsal düzen doğruluğunu ve birleşimsel genelleme yeteneğini önemli ölçüde artırır. (Kaynak: HuggingFace Daily Papers)
NOVER: Doğrulayıcı olmadan pekiştirmeli öğrenme ile dil modeli teşvik eğitimi: DeepSeek R1-Zero gibi araştırmalardan esinlenerek, bu çalışma, mevcut teşvik eğitimi yöntemlerinin (son cevap ödülü modeli aracılığıyla ara çıkarım adımları oluşturma) harici doğrulayıcılara olan bağımlılığını çözmeyi amaçlayan NOVER (NO-VERifier Reinforcement Learning) çerçevesini önermektedir. NOVER, harici bir doğrulayıcıya ihtiyaç duymadan, yalnızca standart denetimli ince ayar verileriyle çeşitli metinden metne görevler için teşvik eğitimi gerçekleştirebilir. Deneyler, NOVER’in, DeepSeek R1 671B gibi büyük çıkarım modellerinden damıtılarak elde edilen aynı ölçekteki modellerden daha iyi performans gösterdiğini ve büyük dil modellerini optimize etmek için (ters teşvik eğitimi gibi) yeni olasılıklar sunduğunu göstermektedir. (Kaynak: HuggingFace Daily Papers)
Direct3D-S2: Uzamsal seyrek dikkat tabanlı milyar ölçekli 3D üretim çerçevesi: Yüksek çözünürlüklü 3D şekil üretimi (SDF gösterimi gibi) için hesaplama ve bellek zorluklarının üstesinden gelmek amacıyla araştırmacılar Direct3D S2 çerçevesini önermektedir. Bu çerçeve, seyrek hacimlere dayanmakta olup, yenilikçi bir uzamsal seyrek dikkat (SSA) mekanizması aracılığıyla Diffusion Transformer’ın seyrek hacimsel veriler üzerindeki hesaplama verimliliğini önemli ölçüde artırarak ileri yayılımda 3.9 kat ve geri yayılımda 9.6 kat hızlanma sağlamaktadır. Çerçeve, giriş, gizli ve çıkış aşamalarında tutarlı bir seyrek hacim formatını koruyan bir varyasyonel otokodlayıcı (VAE) içermekte, bu da eğitim verimliliğini ve kararlılığını artırmaktadır. Bu model, halka açık veri kümeleri üzerinde eğitilmiş olup, deneyler, üretim kalitesi ve verimliliği açısından mevcut yöntemleri aştığını ve 8 GPU ile 1024 çözünürlükte eğitimi tamamlayabildiğini göstermektedir. (Kaynak: HuggingFace Daily Papers)
Doubao App, yapay zeka asistanı etkileşim deneyimini geliştirmek için görüntülü arama özelliğini başlattı: ByteDance’in yapay zeka asistanı Doubao App, yeni bir görüntülü arama özelliği ekledi. Kullanıcılar, Doubao ile görüntülü arama yoluyla gerçek zamanlı etkileşim kurabilir, örneğin nesneleri (bitkiler, sağlık ürünleri gibi) tanıyabilir, işlem talimatları (telefonu sıfırlama gibi) alabilirler. Bu özellik, özellikle fotoğraf yükleme veya yazarak etkileşim kurmaya aşina olmayan kullanıcı grupları için yapay zeka araçlarının kullanım engelini düşürmeyi, daha doğal ve doğrudan bir etkileşim yolu sunmayı ve yapay zeka asistanının eşlik etme hissini ve kullanışlılığını artırmayı amaçlıyor. (Kaynak: WeChat)

Veo 3 modeli bazı kullanıcılara açıldı, Flow platformu resim yüklemeyi destekliyor: Google’ın video oluşturma modeli Veo 3, artık Ultra üyeleriyle sınırlı kalmayarak bazı kullanıcılara açıldı. Aynı zamanda, Flow platformu (muhtemelen AI Test Kitchen veya başka bir deneysel platformu kastediyor) artık kullanıcıların işlem yapmak veya üretim materyali olarak resim yüklemesine olanak tanıyarak çok modlu etkileşim yeteneklerini genişletiyor. Bu, Google’ın gelişmiş yapay zeka modellerinin test ve kullanım kapsamını kademeli olarak genişlettiğini gösteriyor. (Kaynak: WeChat)
Hindistan’ın ulusal büyük modeli Sarvam-M’nin yayınlandıktan sonra düşük indirme sayısı tartışmalara yol açtı: Sarvam AI, Mistral Small tabanlı, 10 Hint yerel dilini destekleyen 240 milyar parametreli hibrit dil modeli Sarvam-M’yi yayınladı ve bu, Hindistan’ın yerel yapay zeka araştırmalarında bir atılım olarak görüldü. Ancak model, Hugging Face’te yayınlandıktan iki gün sonra yalnızca üç yüzden fazla kez indirildi, bu da bazı küçük projelerden çok daha düşüktü ve yatırımcı Deedy Das gibi sektör içinden kişilerin “sonuçların finansmanla uyuşmadığı”, “pratiklikten yoksun olduğu” gibi eleştirilerine neden oldu. Sarvam AI, model oluşturma sürecinin topluluğa katkısına odaklanılması gerektiğini belirterek ve eleştirmenleri modeli fiilen denememekle suçlayarak yanıt verdi. Bu olay, Hindistan’ın yerel yapay zeka modellerinin gerekliliği, ürün-pazar uyumu ve topluluk beklentileri hakkında geniş çaplı tartışmalara yol açtı. (Kaynak: WeChat)

Kunlun Tech, Tiangong süper akıllı ajanını yayınladı, lansmanın ilk aşamasında yüksek eşzamanlılık nedeniyle trafik sınırlaması uygulandı: Kunlun Tech, AI Agent mimarisi ve Deep Research teknolojisini kullanan Tiangong süper akıllı ajanını resmi olarak yayınladı. Bu ajan, tek bir platformda belge, PPT, tablo, web sayfası, podcast ve ses/video gibi çok modlu içerikler üretebiliyor. Sistem, 5 uzman akıllı ajan ve 1 genel amaçlı akıllı ajandan oluşuyor. Ürün lansmanından sadece üç saat sonra, aşırı kullanıcı erişimi nedeniyle hizmette yavaşlama yaşandı ve şirket trafik sınırlaması önlemleri aldığını duyurdu. (Kaynak: WeChat)
Nvidia, insansı robot temel modeli N1.5 ve DGX kişisel yapay zeka süper bilgisayarını tanıttı: Taipei Uluslararası Bilgisayar Fuarı’nda Nvidia CEO’su Jensen Huang, yeni nesil insansı robot temel modeli Isaac GR00T N1.5’i tanıttı. Sentetik veri teknolojisi sayesinde eğitim süresi 3 aydan 36 saate indirildi. Aynı zamanda Cosmos Reason dünya modeli, açık kaynak simülasyon aracı Isaac Sim 5.0 ve RTX PRO 6000 iş istasyonu da tanıtıldı. Ayrıca Nvidia, geliştiricilere güçlü yapay zeka hesaplama yetenekleri sunmayı amaçlayan DGX Spark ve DGX Station kişisel yapay zeka süper bilgi işlem sistemlerini de piyasaya sürdü. DGX Spark, GB10Grace Blackwell süper çipiyle, DGX Station ise GB300Grace Blackwell Ultra masaüstü süper çipiyle donatıldı. (Kaynak: WeChat)
Microsoft Build 2025, AI Agent’a odaklanıyor, GitHub Copilot eş programlamaya yükseltildi: Microsoft Build 2025 geliştirici konferansı, AI Agent uygulamalarını vurguladı. GitHub Copilot, kod asistanlığından Agent ortağına yükseltilerek hata düzeltme, yeni özellik geliştirme gibi görevleri otonom olarak tamamlayabiliyor. Microsoft ayrıca, geliştiricilerin açık kaynak LLM’leri yönetmesine ve çalıştırmasına ve özel modelleri taşımasına yardımcı olan Windows AI Foundry’yi tanıttı. Microsoft 365 Copilot Tuning ise kullanıcıların kurumsal verileri ve iş mantığını kullanarak düşük kodlu bir şekilde modelleri eğitmesine ve akıllı ajanlar oluşturmasına olanak tanıyor. (Kaynak: WeChat)
Tencent, akıllı ajan geliştirme platformu TCADP’yi yükseltti, birden fazla modeli açık kaynak yapmayı planlıyor: Tencent Bulut Yapay Zeka Endüstri Uygulamaları Zirvesi’nde Tencent Bulut, büyük model bilgi motorunun Tencent Bulut Akıllı Ajan Geliştirme Platformu’na (TCADP) yükseltildiğini ve DeepSeek-R1, V3 modelleri ile internet aramasını entegre ederek resmi olarak dış kullanıma açıldığını duyurdu. Tencent ayrıca dünya modeli Hunyuan 3D sahne modelini piyasaya sürmeyi ve kurumsal düzeyde hibrit çıkarım modeli, uç cihaz hibrit çıkarım modeli ve çok modlu temel modeli açık kaynak yapmayı planlıyor. Yakın zamanda Tencent Hunyuan, görsel derin çıkarım modeli Hunyuan T1 Vision, uçtan uca sesli arama modeli Hunyuan Voice ve Hunyuan Görüntü 2.0 modelini güncelledi. (Kaynak: WeChat)
JD Industrial, tedarik zinciri odaklı endüstriyel büyük model Joy industrial’ı yayınladı: JD Industrial, endüstriyel alana yönelik, tedarik zinciri senaryolarını merkeze alan Joy industrial büyük modelini yayınladı. Bu model, JD Industrial ve yukarı akış tedarikçilerine hizmet vermek üzere talep aracısı, operasyon aracısı, gümrük aracısı gibi yapay zeka akıllı ajanlarını ve aşağı akış kurumsal kullanıcılar için ürün uzmanı ve entegrasyon uzmanı gibi yapay zeka ürünlerini piyasaya sürdü. Gelecekteki hedef, otomotiv satış sonrası, yeni enerjili araçlar, robot üretimi gibi dikey sektörler için endüstriyel büyük modeller oluşturmaktır. (Kaynak: WeChat)
🧰 Araçlar
Wen Xiaobai AI, Deep Research benzeri bir deneyim sunan “Xiaobai Araştırma Raporu” özelliğini başlattı: Wen Xiaobai AI, kendi geliştirdiği Yuanshi modeline dayanan “Xiaobai Araştırma Raporu” adlı yeni bir özellik ekledi. Bu özellik, insan düşüncesini taklit ederek çok turlu düşünme ve araç çağırma işlemleri gerçekleştirebiliyor, otomatik olarak derinlemesine araştırma raporları, tezler, sektör analizleri oluşturabiliyor ve bunları görselleştirilmiş web sayfası formatında sunarak PDF/DOCX olarak dışa aktarmayı destekliyor. Kullanıcılar basit talimatlarla yaklaşık 20 dakika içinde veri analizi, grafikler ve çok kaynaklı bilgi entegrasyonu içeren on binlerce kelimelik raporlar elde edebiliyor. Bu özellik, mali tablo yorumlama, pazar araştırması, ürün önerisi gibi çeşitli senaryolar için uygun olup, bilgi işleme ve rapor yazma verimliliğini önemli ölçüde artırmayı amaçlıyor. (Kaynak: WeChat)

AI Baby Monitor: Yerelleştirilmiş video LLM bebek izleme uygulaması: Bir geliştirici, AI Baby Monitor adlı yerelleştirilmiş bir video LLM bebek izleme uygulaması oluşturdu. Bu uygulama, video akışını izleyerek ve önceden ayarlanmış güvenlik talimatlarına göre değerlendirme yaparak, güvenlik kurallarının ihlal edildiğini tespit ettiğinde bir bip sesiyle uyarı veriyor. Proje, Qwen 2.5VL ve vLLM kullanıyor ve akış düzenlemesi için Redis, kullanıcı arayüzü için Streamlit’ten yararlanıyor. Geliştiricinin ilk amacı, beşiğinden tırmanmaya çalışan kızını izlemekti ve ayrıca bilinçsizce telefonunu kontrol etme davranışını izlemek için de kullanmıştı. Gelecekte daha fazla arka uç ve görüntü “yasak bölge” özelliğini desteklemeyi planlıyor. (Kaynak: Reddit r/LocalLLaMA)

Beelzebub: LLM’leri kullanarak gelişmiş aldatma sistemleri oluşturmak için açık kaynaklı bir honeypot çerçevesi: Beelzebub, son derece gerçekçi ve dinamik aldatma ortamları oluşturmak için büyük dil modellerini (LLM’ler) yenilikçi bir şekilde entegre eden açık kaynaklı bir honeypot çerçevesidir. Bu çerçeve, tüm bir işletim sistemini simüle edebilir ve saldırganlarla son derece ikna edici bir şekilde etkileşim kurabilir. Örneğin, bir SSH honeypot senaryosunda, LLM, gerçek bir sistemde yürütülmemiş olsalar bile komutlara makul yanıtlar verebilir. Amacı, saldırganları mümkün olduğunca uzun süre meşgul etmek, onları gerçek sistemlerden uzaklaştırmak ve taktikleri, teknikleri ve prosedürleri hakkında değerli veriler toplamaktır. Proje GitHub’da açık kaynak olarak yayınlanmıştır ve topluluktan geri bildirim ve katkı beklemektedir. (Kaynak: Reddit r/LocalLLaMA)

Langflow: Güçlü yapay zeka ajanı ve iş akışı oluşturma ve dağıtma aracı: Langflow, yapay zeka destekli ajanlar ve iş akışları oluşturmak ve dağıtmak için bir araçtır. Görsel bir oluşturma deneyimi ve yerleşik bir API sunucusu sunar, her ajanı bir API uç noktasına dönüştürerek çeşitli uygulamalara kolay entegrasyon sağlar. Langflow, ana akım LLM’leri, vektör veritabanlarını ve sürekli büyüyen bir yapay zeka araçları kütüphanesini destekler; çoklu ajan düzenlemesi, diyalog yönetimi, anında test için Playground, kod erişimi, LangSmith gibi gözlemlenebilirlik entegrasyonları ve kurumsal düzeyde güvenlik ve ölçeklenebilirlik özelliklerine sahiptir. Proje açık kaynaklıdır ve DataStax aracılığıyla tam olarak yönetilen bir hizmet olarak edinilebilir. (Kaynak: GitHub Trending)
Pathway: Gerçek zamanlı analiz ve LLM boru hatlarını destekleyen Python akış işleme ETL çerçevesi: Pathway, akış işleme, gerçek zamanlı analiz, LLM boru hatları ve RAG (geri alma artırılmış üretim) için tasarlanmış bir Python ETL çerçevesidir. Çeşitli Python ML kütüphaneleriyle entegre edilebilen, kullanımı kolay bir Python API sunar. Kodu, geliştirme ve üretim ortamlarında genel olarak kullanılabilir ve toplu iş ve akış verilerini etkili bir şekilde işler. Pathway, Differential Dataflow tabanlı ölçeklenebilir bir Rust motoru tarafından desteklenir, artımlı hesaplamayı, çoklu iş parçacığını, çoklu işlemi ve dağıtılmış hesaplamayı destekler; tüm boru hattı bellekte tutulur ve Docker ve Kubernetes aracılığıyla dağıtımı kolaydır. (Kaynak: GitHub Trending)
Point-Battle: MLLM dil güdümlü işaretleme yeteneği arenası: Topluluk üyeleri, mevcut ana akım çok modlu büyük dil modellerinin (MLLM) dil güdümlü işaretleme görevlerindeki performansını değerlendiren bir platform olan Point-Battle’ı denemeye davet ediyor. Kullanıcılar resim yükleyebilir veya önceden ayarlanmış resimleri seçebilir, istemler girebilir, çeşitli modellerin cevaplarını nasıl “işaretlediğini” gözlemleyebilir ve en iyi performans gösteren model için oy kullanabilir. Bu, araştırmacıların ve geliştiricilerin farklı MLLM’lerin görsel içeriği anlama ve metin talimatlarına göre uzamsal konumlandırma yapma konusundaki yetenek farklılıklarını anlamalarına yardımcı olur. (Kaynak: Reddit r/deeplearning)
FullFront: MLLM’lerin tam ön uç mühendislik sürecindeki yeteneklerini değerlendiren bir ölçüt: FullFront, çok modlu büyük dil modellerinin (MLLM) web tasarımı (kavramsallaştırma), web algılama soru-cevap (görsel organizasyon ve öğe anlama) ve web kodu oluşturma (uygulama) dahil olmak üzere tüm ön uç geliştirme sürecindeki yeteneklerini değerlendirmek için tasarlanmış yeni bir ölçüttür. Mevcut ölçütlerden farklı olarak FullFront, gerçek web sayfalarını temiz, standartlaştırılmış HTML’ye dönüştürmek için iki aşamalı bir süreç kullanır, aynı zamanda görsel tasarım çeşitliliğini korur ve telif hakkı sorunlarından kaçınır. SOTA MLLM’ler üzerinde yapılan kapsamlı testler, sayfa algılama, kod oluşturma (özellikle görüntü işleme ve düzen) ve etkileşim uygulama konularındaki önemli sınırlamalarını ortaya koymuştur. (Kaynak: HuggingFace Daily Papers)
📚 Öğrenme Kaynakları
Menlo Research, konuşma verisi olmadan konuşma komutu eğitimi sağlayan SpeechLess modelini yayınladı: Menlo Research’ün “SpeechLess” adlı makalesi Interspeech 2025 tarafından kabul edildi ve ilgili model yayınlandı. Bu araştırma, düşük kaynaklı dillerin konuşma komutu verisi eksikliği sorununa yönelik olarak, tamamen sentetik veri kullanarak konuşma komutu modellerini eğitme yöntemini öneriyor. Temel adımları şunlardır: 1. Gerçek konuşmayı ayrık token’lara dönüştürme (niceleyici eğitimi); 2. Metinden simüle edilmiş konuşma token’ları üretmek için SpeechLess modelini eğitme; 3. Bu metinden sentetik konuşma token’ı boru hattını kullanarak LLM’yi konuşma komutu öğrenimi için eğitme. Sonuçlar, tamamen sentetik konuşma token’ları üzerinde eğitimin oldukça etkili olduğunu ve düşük kaynaklı senaryolarda konuşma sistemleri oluşturmak için yeni yollar açtığını gösteriyor. (Kaynak: Reddit r/LocalLLaMA)

LLM güdümlü kod mutasyonu ile metin sıkıştırma algoritması evrimi: Bir geliştirici, basit bir LZ77 tarzı metin sıkıştırıcısının kodunda küçük mutasyonlar yaparak metin sıkıştırma algoritmalarını evrimleştirmek için LLM (büyük dil modeli) kullanmayı denedi. Bu yöntem, çoklu nesil evrim yoluyla, her nesilde elitleri ve hayatta kalanları koruyarak ve ebeveyn nesillerden yavru nesiller üreterek çalışır. Seçim kriteri tamamen sıkıştırma oranına dayanır; sıkıştırma-açma gidiş dönüşü başarısız olursa aday atılır. Deney, 30 nesilde sıkıştırma oranını 1.03’ten 1.85’e yükseltti. Proje GitHub’da açık kaynak olarak yayınlandı (think-a-tron/minevolve). (Kaynak: Reddit r/MachineLearning)

Quartet: Yerel FP4 eğitimi ile LLM’ler için en iyi performans elde edilebilir: LLM hesaplama taleplerinin hızla artmasıyla birlikte, düşük hassasiyetli algoritma eğitimi verimliliği artırmanın anahtarı haline geldi. NVIDIA Blackwell mimarisi FP4 işlemlerini desteklese de, mevcut FP4 eğitim algoritmaları hassasiyet düşüşü ve karma hassasiyete bağımlılık sorunlarıyla karşı karşıyadır. Araştırmacılar, donanım destekli FP4 eğitimini sistematik olarak inceledi ve uçtan uca FP4 eğitimi gerçekleştiren Quartet yöntemini önerdi; ana hesaplamalar düşük hassasiyette tamamlanır. Llama benzeri modeller üzerinde yapılan kapsamlı değerlendirmelerle, yeni düşük hassasiyetli ölçekleme yasaları ortaya çıkarıldı, farklı bit genişliklerindeki performans ödünleşimleri nicelendirildi ve Quartet’in hassasiyet ve hesaplama açısından neredeyse optimal düşük hassasiyetli eğitim tekniği olduğu belirlendi. Optimize edilmiş CUDA çekirdekleri kullanılarak, Quartet milyar ölçekli modellerde SOTA düzeyinde FP4 hassasiyetini başarıyla elde etti. (Kaynak: HuggingFace Daily Papers)
Sentetik Veri Pekiştirmeli Öğrenme (Synthetic Data RL): Modelleri ince ayarlamak için yalnızca görev tanımı yeterli: Bu çalışma, modelleri pekiştirmeli öğrenme ile ince ayarlamak için yalnızca görev tanımından üretilen sentetik verileri kullanan Synthetic Data RL çerçevesini önermektedir. Yöntem, öncelikle görev tanımından ve alınan belgelerden soru-cevap çiftleri üretir, ardından modelin çözülebilirliğine göre soru zorluğunu ayarlar ve modelin örnekler üzerindeki ortalama geçiş oranına dayanarak RL eğitimi için soruları seçer. Qwen-2.5-7B üzerinde, bu yöntem GSM8K, MATH, GPQA gibi birçok ölçütte önemli gelişmeler kaydetmiş, denetimli ince ayarı geride bırakmış ve tam insan verisi kullanan RL etkisine yaklaşarak insan etiketlemesini azaltma potansiyelini göstermiştir. (Kaynak: HuggingFace Daily Papers)
TabSTAR: Anlamsal hedef farkındalığına sahip temsillerle tablo temel modeli: Derin öğrenmenin birçok alanda başarıya ulaşmasına rağmen, tablo öğrenme görevlerinde hala gradyan artırma karar ağaçlarından (GBDT’ler) daha iyi değildir. Araştırmacılar, metin özelliklerini içeren tablo verileri için transfer öğrenmeyi sağlamayı amaçlayan, anlamsal hedef farkındalığına sahip temsillerle bir tablo temel modeli olan TabSTAR’ı tanıttı. TabSTAR, önceden eğitilmiş metin kodlayıcısını çözer ve hedef token’ı girerek modele göreve özgü gömülmeleri öğrenmek için gerekli bağlamı sağlar. Bu model, metin özelliklerini içeren sınıflandırma görevlerinde, hem orta hem de büyük ölçekli veri kümelerinde SOTA performansına ulaşır ve ön eğitim aşaması, veri kümesi sayısının ölçekleme yasasını gösterir. (Kaynak: HuggingFace Daily Papers)
TIME: Gerçek dünya senaryoları için çok düzeyli LLM zaman çıkarımı ölçütü: Zaman çıkarımı, LLM’lerin gerçek dünyayı anlaması için kritik öneme sahiptir. Mevcut çalışmalar, gerçek dünya zaman çıkarımının zorluklarını göz ardı etmektedir: yoğun zaman bilgisi, hızla değişen olay dinamikleri ve karmaşık sosyal etkileşimlerin zaman bağımlılıkları. Bu nedenle araştırmacılar, 3 düzey ve 11 ince taneli alt görevi kapsayan 38.522 S-C çifti içeren çok düzeyli bir ölçüt olan TIME’ı ve sırasıyla farklı gerçek dünya zorluklarını yansıtan TIME-Wiki, TIME-News ve TIME-Dial olmak üzere üç alt veri kümesini önermektedir. Araştırma, çeşitli modeller üzerinde kapsamlı deneyler ve derinlemesine analizler yapmış ve insan tarafından etiketlenmiş bir alt küme olan TIME-Lite’ı yayınlamıştır. (Kaynak: HuggingFace Daily Papers)
LLM Çıkarımı ve Dinamik Notlar: Karmaşık Soru-Cevap Yeteneğini Geliştirme: Yinelemeli RAG, çok adımlı soru-cevaplama işlemlerinde, bağlamın aşırı uzaması ve ilgisiz bilgilerin birikmesi gibi zorluklarla karşılaşır, bu da modelin işleme ve çıkarım yeteneğini etkiler. Araştırmacılar, her adımda alınan belgelerden kısa ve ilgili notlar üreten “Not Yazma” (Notes Writing) yöntemini önermektedir. Bu, gürültüyü azaltır, önemli bilgileri korur, böylece LLM’nin etkili bağlam uzunluğunu dolaylı olarak artırır ve çıkarım ile planlama yeteneğini geliştirir. Bu yöntem çerçeveden bağımsızdır ve farklı yinelemeli RAG yöntemlerine entegre edilebilir ve deneylerde önemli performans artışı göstermiştir. (Kaynak: HuggingFace Daily Papers)
s3 çerçevesi: Az miktarda veri ile RL aracılığıyla verimli arama ajanları eğitme: Geri alma artırılmış üretim (RAG) sistemleri, LLM’lerin harici bilgiye erişmesini sağlar. Son araştırmalar, pekiştirmeli öğrenme (RL) yoluyla LLM’leri arama ajanı olarak kullanmaktadır, ancak mevcut yöntemler ya geri almayı optimize ederken aşağı akış faydasını göz ardı eder ya da tüm LLM’yi ince ayarlayarak geri alma ile üretimi birleştirir. Araştırmacılar, arama motorunu üreticiden ayıran ve arama motorunu eğitmek için ödül olarak “RAG’ın Ötesindeki Kazanç”ı (Gain Beyond RAG) kullanan, hafif, modelden bağımsız bir yöntem olan s3 çerçevesini önermektedir. s3, 70 kat daha fazla veri kullanan temel çizgiyi yalnızca 2.4k eğitim örneğiyle aşmış ve birden fazla S-C ölçütünde daha iyi performans göstermiştir. (Kaynak: HuggingFace Daily Papers)
ReflAct: Hedef durum yansıması yoluyla LLM ajanlarının dünyada karar vermesini sağlama: Mevcut LLM ajanları (ReAct tabanlı olanlar gibi), karmaşık ortamlarda düşünme ve eylemi iç içe geçirirken, genellikle gerçekçi olmayan veya tutarsız çıkarımlar üretir, bu da gerçek durum ile hedefin uyumsuzluğuna yol açar. Araştırmacılar, bunun ReAct’in tutarlı iç inançları ve hedef hizalamasını sürdürmedeki zorluğundan kaynaklandığını analiz etmektedir. Bu nedenle, çıkarımı bir sonraki eylemi planlamaktan ajanın hedeflerine göre durumunu sürekli olarak yansıtmaya kaydıran yeni bir omurga ağı olan ReflAct’i önermektedirler. Kararları açıkça duruma dayandırarak ve sürekli hedef hizalamasını zorlayarak, ReflAct politika güvenilirliğini önemli ölçüde artırmış ve ALFWorld gibi görevlerde ReAct’i büyük ölçüde geride bırakmıştır. (Kaynak: HuggingFace Daily Papers)
FREESON: Geri alıcısız geri alma artırılmış çıkarım çerçevesi: Büyük çıkarım modelleri (LRM’ler), çok adımlı çıkarım ve arama motorlarını çağırma konusunda üstün performans gösterir, ancak mevcut geri alma artırılmış yöntemler bağımsız geri alma modellerine dayanır, bu da LRM’lerin geri almadaki rolünü sınırlar ve temsil darboğazları nedeniyle hatalara yol açabilir. Araştırmacılar, LRM’lerin üretici ve geri alıcı olarak hareket ederek kendi başlarına bilgi almasını sağlayan FREESON çerçevesini önermektedir. Bu çerçeve, geri alma görevleri için özel olarak CT-MCTS algoritmasını tanıtır ve LRM’nin külliyatta cevap bölgesine doğru ilerlemesini sağlar. Deneyler, FREESON’un birden fazla açık alan S-C ölçütünde bağımsız geri alıcı kullanan çok adımlı çıkarım modellerinden önemli ölçüde daha iyi performans gösterdiğini ortaya koymaktadır. (Kaynak: HuggingFace Daily Papers)
LLMSynthor: McGill Üniversitesi istatistiksel olarak kontrol edilebilir veri sentezi için yeni bir çerçeve önerdi: Mevcut veri sentezi yöntemlerinin makullük, dağılım tutarlılığı ve ölçeklenebilirlik konularındaki eksikliklerini gidermek için McGill Üniversitesi ekibi LLMSynthor çerçevesini tanıttı. Bu çerçeve, büyük modellerin doğrudan veri üretmesini sağlamak yerine, onları “yapı duyarlı üreteçlere” dönüştürür. Yapısal çıkarım, istatistiksel hizalama (ham veriler yerine istatistiksel özetleri karşılaştırma), örnek başına değil, örneklenebilir dağılım kuralları oluşturma ve yinelemeli hizalama süreci aracılığıyla, yapısal ve istatistiksel olarak gerçek verilere son derece yakın ve sağduyuya uygun sentetik veri kümeleri üretir. Bu yöntemin teorik bir yakınsama garantisi vardır ve e-ticaret işlemleri, nüfus istatistikleri ve kentsel ulaşım gibi birçok gerçek dünya senaryosunda doğrulanmıştır ve çeşitli büyük modellerle uyumludur. (Kaynak: 量子位)

💼 İş Dünyası
Hygon Information ve Sugon, birleşme olasılığıyla büyük bir varlık yeniden yapılandırması planlıyor: Çip tasarım şirketi Hygon Information ve süper bilgisayar devi Sugon, eş zamanlı olarak hisse senedi işlemlerinin durdurulduğunu duyurdu. Hygon Information, Sugon’un tüm A grubu hisse senedi sahiplerine A grubu hisse senetleri ihraç ederek Sugon’u devralmayı ve eş zamanlı olarak A grubu hisse senetleri ihraç ederek ek fon sağlamayı planlıyor. Hygon Information, üst düzey CPU ve GPU geliştirmeye odaklanırken, Sugon sunucu ve yüksek performanslı bilgi işlem alanında derin bir birikime sahip ve aynı zamanda Hygon Information’ın en büyük hissedarıdır. Bu birleşme başarılı olursa, yaklaşık 400 milyar yuan piyasa değerine sahip yerli bir bilgi işlem devi yaratacak ve Çin’in bilgi işlem endüstrisi yapısı üzerinde derin bir etkiye sahip olacaktır. (Kaynak: 量子位, WeChat)

LMArena.ai, Cohere makalesine yanıt verdi ve 100 milyon dolar fon aldı: Yapay zeka modeli sıralama sitesi LMArena.ai, Cohere şirketi ile karşılaştırmalı değerlendirme konusundaki anlaşmazlığa yanıt verdi ve yakın zamanda 600 milyon dolar değerlemeyle 100 milyon dolar fon aldığını duyurdu. Topluluğun buna tepkisi karışıktı; bazı kullanıcılar LMArena’nın yanıtında istatistiksel olarak şüpheli ifadeler bulunduğunu ve VC’lerin büyük miktarda yatırım yapmasının tarafsız bir karşılaştırma ölçütü olarak güvenilirliğine zarar verebileceğini, ticari modelinin açık modellerin listeye girme şansını veya veri erişilebilirliğini etkileyebileceğinden endişe duyduklarını belirtti. (Kaynak: Reddit r/LocalLLaMA)
JD, Zhihui Jun’un Zhiyuan Robotik şirketine yatırım yaptı: Zhiyuan Robotik yakın zamanda yeni bir finansman turunu tamamladı; yatırımcılar arasında JD ve Shanghai Embodied Intelligence Fund yer alırken, bazı eski hissedarlar da tura katıldı. Zhiyuan Robotik, eski Huawei “dahi çocuğu” Peng Zhihui (Zhihui Jun) tarafından 2023 yılında kuruldu ve somutlaştırılmış akıllı robotların geliştirilmesine odaklanıyor. Bu finansman, Zhiyuan Robotik’in teknoloji geliştirme ve pazar genişletme alanlarındaki yatırımlarını daha da destekleyecektir. (Kaynak: WeChat)
🌟 Topluluk
OpenWebUI’nin Ollama ve MCP araçlarıyla entegrasyon sorunları tartışılıyor: Reddit kullanıcıları, OpenWebUI’yi Ollama arka ucu (devstral:24b modeli) ve MCP aracı (mcp-atlassian) ile birlikte kullanırken sorunlarla karşılaştı: MCP sunucu günlükleri 200 başarılı yanıt gösterse de, OpenWebUI “araçtan veri alınırken bir sorun var gibi görünüyor” veya “araca erişim yetkiniz yok” şeklinde uyarı veriyor. Kullanıcılar hata ayıklama yöntemleri arıyor. Başka bir kullanıcı ise OpenWebUI’deki LLM’nin MCP araçlarını nasıl kullandığını, özellikle LLM’nin hangi aracı kullanacağını nasıl bildiğini ve araç çağırma işleminin neden kararsız olduğunu sordu. (Kaynak: Reddit r/OpenWebUI, Reddit r/OpenWebUI)

Yapay zekanın insanlığın geleceği üzerindeki etkileri tartışılıyor: Bölünme, doğaya dönüş veya birlikte varoluş mu?: Bir Reddit kullanıcısı, yapay zekanın geleceği hakkında bir öngörüde bulunarak, yapay zekanın insanlığı bölebileceğini öne sürdü: Bir grup insan, yapay zekanın işlerini ve yaratıcı faaliyetlerini ellerinden alması nedeniyle hayal kırıklığına uğrayacak ve sonunda doğaya, teknolojisiz bir yaşama dönecek; diğer bir grup ise teknolojiyle derinden bütünleşerek siborg olacak. Güçlü bir güneş patlaması tüm teknolojiyi yok edebilir ve o zaman sadece doğaya uyum sağlayan insanlar hayatta kalabilir. Gönderi ayrıca başka bir olasılık da sundu: İnsanlık, yapay zekayı bir tanrı değil, bir araç olarak kullanarak onunla uyum içinde yaşamayı öğrenir. Yorum bölümünde bu konu, fizibilite, teknoloji bağımlılığı, kaynak dağılımı gibi konular etrafında hararetli bir şekilde tartışıldı. (Kaynak: Reddit r/ArtificialInteligence)
LLM’lerin anlama düzeyi üzerine düşünceler: Gerçekten nasıl çalıştıklarını bilmiyor muyuz?: Bir Reddit kullanıcısı, “LLM’lerin nasıl çalıştığının tam olarak anlaşılmadığı” iddiasını sorguladı. Kullanıcı, dağıtık semantiğin neden bu kadar güçlü olduğunu veya kod üretiminin neden LLM’ler tarafından etkili bir şekilde modellenebildiğini tam olarak anlamasak da, LLM’lerin içindeki kodlayıcı/kod çözücü, ileri beslemeli ağlar gibi mekanizmaların bilindiğini savundu. Kullanıcı, “yeteneklerinin üst sınırını ve ortaya çıkan fenomenleri tam olarak anlamamak” ile “nasıl çalıştıklarını hiç anlamamak” ifadelerini karıştırmanın halkı yanıltacağını ve LLM’lere var olmayan bir “eylemlilik” atfetmek gibi yanlış insanlaştırma anlayışlarını besleyebileceğini belirtti. Yorum bölümünde ise, temel mimariyi bilmenin karmaşık bir sistemin nasıl sonuç ürettiğini anlamakla aynı şey olmadığı, örneğin her bir ileri beslemeli ağın tam olarak ne yaptığının hala bir sır olduğu belirtildi. (Kaynak: Reddit r/ArtificialInteligence)

Sosyal medyada yapay zeka özetleme araçlarının (Grok gibi) kötüye kullanılması “dış kaynaklı düşünme” endişelerini artırıyor: Reddit kullanıcıları, X (eski adıyla Twitter) gibi sosyal medya platformlarında basit içeriklere (örneğin bir sandviç yorumuna) “@grok bunu özetle” şeklinde sıkça yanıt verildiğini gözlemledi. Gönderiyi yapan kişi, bunun insanların temel düşünme ve yargılama çabalarından vazgeçtiğini, normalde kendilerinin yapabileceği küçük karar ve düşünme süreçlerini yapay zekaya devrettiğini ve kendi düşünme yeteneklerine olan bağımlılıklarının azaldığını yansıttığını belirtti. Yorum bölümünde bu görüşe farklı tepkiler geldi; bazıları bunun sadece araçların evrimi olduğunu (geçmişte Google araması yapmak gibi), bazıları bunun tembellik göstergesi olduğunu, bazıları ise bu olgunun belirli platformlarda daha yaygın olduğunu belirtti. (Kaynak: Reddit r/ArtificialInteligence)
Eğitimde yapay zekanın potansiyeli ve üzerine düşünceler: Öğrenmeye yardımcı mı, yetenekleri zayıflatıcı mı?: Bir Reddit kullanıcısı, lise yıllarında yapay zeka olsaydı öğrenme deneyiminin çok farklı olabileceğini, çünkü yapay zekanın bilgiyi ayrıntılı bir şekilde parçalayabildiğini, önyargısız soruları yanıtlayabildiğini ve merakı korumaya yardımcı olabildiğini belirtti. Birçok yorumcu bu görüşe katılarak, yapay zekanın öğrenme verimliliğini ve bilgi keşfinin genişliğini büyük ölçüde artırabileceğini düşündüklerini ifade etti. Ancak bazı yorumcular, mevcut yapay zeka araçlarının “kullanıcıları aptal tutmak” için tasarlanmış olabileceği veya eğitim kaynaklarının eşitsiz dağılımının zengin kesimlerin kaliteli yapay zeka desteği almasına, devlet okulu öğrencilerinin ise kalitesiz yapay zeka araçları nedeniyle zarar görmesine, hatta yapay zeka tarafından sadece itaat etmeyi öğrenmeleri için “eğitilmelerine” yol açabileceği endişelerini dile getirdi. (Kaynak: Reddit r/ArtificialInteligence)
Yapay zeka çağında mesleki değişimler tartışılıyor: Herkes yönetici mi olacak yoksa “yapay zeka uçurumu” mu oluşacak?: Reddit’te bir gönderi, yapay zekanın yaygınlaşmasından sonra gelecekteki çalışma biçimleri hakkında bir tartışma başlattı. Gönderiyi yapan kişi, gelecekte insanların hepsinin yapay zeka araçlarının yöneticisi olup haftada sadece birkaç saat mi çalışacağını hayal etti. Yorum bölümünde bu görüşe farklı tepkiler geldi: Bazıları yapay zekanın yönetim kademelerinin yerini alabileceğini düşündü; bazıları gelecekteki toplumun “robot sahibi olanlar” ve “robot sahibi olmayanlar” olarak sınıfsal bir ayrışma yaşayacağını öne sürdü; bazıları ise bu değişimin zaten yaşandığını ve çok da uzak olmadığını belirtti. Tartışmanın temelinde, yapay zekanın iş sorumluluklarını ve insanların ekonomik sistemdeki rolünü nasıl yeniden şekillendireceği yatıyordu. (Kaynak: Reddit r/ArtificialInteligence)
Yapay zeka destekli iletişim: Sosyal anksiyetesi olanların e-posta yazma sorununu çözüyor: Bir Reddit kullanıcısı, yapay zekanın e-posta iletişimini nasıl geliştirmesine yardımcı olduğunu paylaştı. Kullanıcı, düzgün e-postalar yazmakta iyi olmadığını, ya Shakespeare gibi aşırı resmi ya da modası geçmiş bir müşteri hizmetleri robotu gibi yazdığını belirtti. Şimdi yapay zeka ile e-posta taslağı hazırlayıp kişisel tarzını ekleyerek, e-posta başlangıçları (“Umarım bu e-posta size ulaştığında iyisinizdir” gibi) gibi sosyal zorlukları etkili bir şekilde çözdüğünü söyledi. Bu gönderi, benzer sosyal anksiyete veya yazma zorluğu yaşayan birçok kullanıcının sempatisini kazandı ve yapay zekanın günlük iletişimde pratik değer gösterdiğini düşündürdü. (Kaynak: Reddit r/artificial)
💡 Diğer
Claude Sonnet 4: Algoritmalarla yontulmuş bir bilgi örneği, mükemmellik aynı zamanda bir kusur: Felsefi bir makale, Claude Sonnet 4’ü algoritmalarla özenle yontulmuş bir “bilgi örneği”ne benzetiyor. Yazar, cevaplarının akıcı, mantıksal olarak bütünlüklü ve görünüşte kusursuz olduğunu, ancak bu mükemmelliğin kendisinin, gerçek bilginin sahip olduğu hatalar, çelişkiler ve “bilmiyorum” dürüstlüğü gibi “kusurlu” özellikleri gizlediğini savunuyor. Makale, yapay zeka bilgi kaynakları ile insan deneyimi arasındaki farkları tartışıyor ve yapay zekanın hafızaya sahip olduğunu ancak deneyimden yoksun olduğunu belirtiyor. Aynı zamanda, yapay zekaya aşırı güvenmenin bağımsız düşünme yeteneğini zayıflatabileceği konusunda uyarıyor ve yapay zekanın belirsizliği ortadan kaldırdığını, bunun hem değeri hem de potansiyel tehlikesi olduğunu düşünüyor. (Kaynak: WeChat)

Yapay zeka tarafından üretilen reklamların mevcut durumu ve geleceği: Hintli bir şirketin reklamı “ucuzluk hissi” tartışmalarına yol açtı: Reddit’te bir gönderi, tanınmış bir Hintli şirketin tamamen yapay zeka ile ürettiği bir televizyon reklamını sergiledi ve kullanıcılar arasında yapay zeka tarafından üretilen içeriğin kalitesi ve gelecekteki eğilimler hakkında bir tartışma başlattı. Birçok yorumcu, reklamın kaba bir şekilde yapıldığını ve etkisiz olduğunu düşündü, ancak bazıları bunun Hindistan reklam pazarının zaten çok sayıda düşük maliyetli üretime sahip olmasını yansıtabileceğini belirtti. Tartışma, yapay zeka reklamlarının kişiselleştirme potansiyeline (akıllı TV’lerin kullanıcı verilerine göre gerçek zamanlı reklamlar üretmesi gibi) ve insanların bu “kaba hisse” giderek alışıp alışmayacağına, hatta bunu bekleyip beklemeyeceğine kadar uzandı. (Kaynak: Reddit r/ChatGPT)

Düşük kaynaklı ortamlarda büyük ve küçük modeller için optimizasyon stratejileri tartışılıyor: Reddit topluluğu, düşük kaynaklı ortamlarda büyük modeller için optimizasyon tekniklerine (PEFT, LoRA, nicelleştirme gibi) öncelik vermenin mi, yoksa küçük modellerin performansını büyük modellere匹敵 edecek şekilde artırmaya çalışmanın mı daha pratik olduğunu tartışıyor. Tartışmacılar, milyarlarca parametrelik modellerin bilgi ve “çıkarım” yeteneklerini 100 milyon parametre gibi küçük modellere (Deepseek Qwen’in damıtılmış modelleri gibi) sıkıştırmanın fizibilitesini ve küçük modellerin parametre sayısının alt sınırını merak ediyor. Bu, topluluğun yapay zekanın yaygınlaştırılması ve verimli dağıtımına yönelik sürekli ilgisini yansıtıyor. (Kaynak: Reddit r/deeplearning)