Anahtar Kelimeler:DeepSeek R1-0528, Darwin-Gödel Makinesi, AI enerji tüketimi, Huawei Ascend, SuperCLUE sıralaması, sahte ödül takviyeli öğrenme, çok modlu kıyaslama testi, DeepSeek R1-0528 performans artışı, DGM kendini evrimleştirme mekanizması, AI veri merkezi nükleer enerji çözümü, Qwen modeli RLVR mekanizması, Pangu Ultra MoE eğitim optimizasyonu

🔥 Odak Noktası

DeepSeek, R1-0528 yeni modelini duyurdu, performansta büyük artış dikkat çekti: DeepSeek, büyük dil modelinin yeni sürümü R1-0528’i piyasaya sürdü. Model, birçok kıyaslama testinde üstün performans gösterdi ve özellikle kod üretimi (LiveCodeBench), bilimsel çıkarım (GPQA Diamond) ve matematik yarışmaları (AIME 2024) gibi alanlarda önemli ilerlemeler kaydetti. Artificial Analysis, R1-0528’in zeka endeksinde 60 puandan 68 puana yükselerek Google’ın Gemini 2.5 Pro modeliyle aynı seviyeye geldiğini, dünyanın en iyi ikinci yapay zeka laboratuvarı olduğunu ve açık ağırlıklı modeller alanındaki lider konumunu pekiştirdiğini belirtti. Topluluk olumlu tepki verdi ve Unsloth, yerel dağıtımı kolaylaştırmak için hızla GGUF nicelleştirilmiş sürümünü yayınladı. Bu güncelleme temel olarak pekiştirmeli öğrenme (RL) gibi eğitim sonrası tekniklerle gerçekleştirildi ve mevcut mimari ve ön eğitim temelinde model zekasını sürekli artırma potansiyelini gösterdi. Çıktılarının bazen “iltifat edici” bir üsluba sahip olduğuna dair tartışmalar olsa da, genel olarak çıkarım ve kodlama yeteneklerinde büyük bir sıçrama olarak kabul ediliyor. (Kaynak: DeepSeek, Artificial Analysis, tokenbender, karminski3, teortaxesTex)

DeepSeek发布R1-0528新模型,性能大幅提升引发关注

Sakana AI, Darwin Gödel Machine (DGM) ile yapay zekanın kendi kendini geliştirmesini sağladı: Sakana AI, UBC ile işbirliği içinde, kendi kodunu yeniden yazarak sürekli olarak kendini geliştirebilen bir yapay zeka ajanı olan Darwin Gödel Machine’i (DGM) tanıttı. Evrim teorisinden esinlenen bu sistem, büyük temel modelleri ve kod kütüphanelerini birleştirerek ajanın kod iyileştirme önerileri sunmasını ve kendini değerlendirmesini sağlıyor. Deneyler, DGM’nin SWE-bench üzerindeki performansının %20’den %50’ye, Polyglot üzerindeki başarı oranının ise %14.2’den %30.7’ye yükseldiğini ve manuel olarak tasarlanmış ajanlardan önemli ölçüde daha iyi performans gösterdiğini ortaya koydu. Bu araştırma, yapay zeka sistemlerinin dağıtımdan sonra zekalarının sabit kalması sorununu çözmeyi amaçlayan ve geliştirme sürecinde güvenliğe yüksek önem veren, kendi kendine öğrenebilen ve yenilik yapabilen yapay zekaya doğru atılmış önemli bir adım olarak kabul ediliyor. (Kaynak: Sakana AI, hardmaru, ITmedia AI+)

Sakana AI推出达尔文·哥德尔机 (DGM),实现AI自我进化

Yapay zekanın enerji tüketimi endişe yaratıyor, nükleer enerji ve fosil yakıtlar potansiyel güç kaynakları arasında: MIT Technology Review’un “Power Hungry” adlı yazı dizisi, yapay zekanın (AI) beklenen enerji taleplerini derinlemesine inceliyor. AI veri merkezleri, özellikle model çıkarımı senaryoları için sürekli ve istikrarlı bir güç kaynağına ihtiyaç duyuyor. Güneş ve rüzgar enerjisi temiz enerji kaynakları olsa da, kesintili olmaları, pahalı enerji depolama çözümleriyle desteklenmedikçe AI taleplerini tek başlarına karşılamalarını zorlaştırıyor. Nükleer enerji, sürekli güç sağlayabildiği için potansiyel bir çözüm olarak görülüyor, ancak yeni nükleer santrallerin inşası uzun ve karmaşık bir süreç. Bu nedenle, doğal gaz gibi fosil yakıtlar, AI’ın hızla artan enerji taleplerini karşılamak için kısa vadeli bir bağımlılık haline gelebilir ve bu da iklim hedefleri için bir zorluk teşkil edebilir. Rapor, büyük teknoloji şirketlerinin, AI gelişiminin getirdiği enerji ve iklim ikili zorluklarıyla başa çıkmak için karbon yakalama teknolojileri veya enerji kullanım verimliliğini optimize etme gibi daha temiz enerji çözümlerini desteklemesi gerektiğini vurguluyor. (Kaynak: MIT Technology Review, The Download)

AI的能源消耗引发关注,核能与化石燃料成潜在动力源

Araştırma, sahte ödüllerin bile Qwen model performansını artırabildiğini ortaya koydu ve RLVR mekanizmasının yeniden düşünülmesine yol açtı: Washington Üniversitesi araştırma ekibi, rastgele veya yanlış ödül sinyalleri kullanılsa bile, doğrulanabilir ödülle pekiştirmeli öğrenme (RLVR) ile eğitilen Qwen2.5-Math modelinin MATH-500 gibi matematiksel çıkarım kıyaslamalarındaki performansının yaklaşık %25 oranında önemli ölçüde artabildiğini ve gerçek ödül optimizasyon etkisine yaklaştığını keşfetti. Araştırma, bu olgunun temel olarak Qwen modelinin ön eğitimde öğrendiği belirli kod çıkarım stratejilerinden (örneğin, düşünmeye yardımcı olmak için Python kodu oluşturma) kaynaklandığını ve RLVR sürecinin (özellikle GRPO algoritması kullanıldığında) ödül sinyallerinin doğruluğundan ziyade bu faydalı davranışların sıklığını artırdığını belirtiyor. Bu bulgu, bu tür ön eğitim özelliklerine sahip olmayan diğer modeller (OLMo2-7B gibi) için geçerli değil; bu modeller sahte ödüller altında performanslarında neredeyse hiçbir değişiklik göstermedi veya hatta düşüş yaşadı. Çalışma, RLVR’nin doğru ödül sinyallerine dayandığı yönündeki geleneksel kanıyı sorguluyor ve araştırmacıları, modelin belirli davranışlarının değerlendirme sonuçları üzerindeki etkisine karşı dikkatli olmaları konusunda uyarıyor ve modeller arası doğrulamanın önemini vurguluyor. (Kaynak: 量子位, Stella Li)

研究揭示虚假奖励也能提升Qwen模型性能,引发对RLVR机制的重新思考

🎯 Eğilimler

Huawei Ascend, Pangu Ultra MoE trilyona yakın parametreli modelin verimli eğitimini destekleyerek tüm süreçte bağımsız kontrol sağlıyor: Huawei, Ascend AI donanımı ve MindSpore çerçevesine dayanan Pangu Ultra MoE (7180 milyar parametre) modelinin tüm süreçteki verimli eğitim uygulamasını ayrıntılı olarak açıklayan bir teknik rapor yayınladı. Paralel strateji akıllı seçimi, hesaplama ve iletişimin derin entegrasyonu, küresel dinamik yük dengeleme gibi teknolojilerle Ascend Atlas 800T A2 on bin kartlık kümede %41 MFU (model hesaplama gücü kullanım oranı) elde edildi. RL eğitim sonrası aşamasında, RL Fusion eğitim-çıkarım ortak kart teknolojisi ve StaleSync yarı eşzamansız mekanizması ile Ascend CloudMatrix 384 süper düğüm kümesinde süper düğüm başına 35K Tokens/s yüksek verim elde edildi, bu da her 2 saniyede bir yüksek matematik problemini çözmeye eşdeğer. Bu gelişme, yerli AI hesaplama gücü ile büyük model eğitiminin kapalı döngüsünün olgunlaştığını gösteriyor ve ultra büyük ölçekli MoE model eğitiminde sektör lideri performansı sergiliyor. (Kaynak: 量子位)

华为昇腾赋能Pangu Ultra MoE准万亿模型高效训练,实现全流程自主可控

SuperCLUE Mayıs ayı Çince büyük model sıralaması: Doubao 1.5 ve SenseTime SenseNova V6 yerli modeller arasında birinciliği paylaştı: Yetkili büyük model değerlendirme kuruluşu SuperCLUE, Mayıs 2025 tarihli “Çince Büyük Model Kıyaslama Değerlendirme Raporu”nu yayınladı. Rapora göre, ByteDance’in Doubao 1.5·Derin Düşünme Modeli (Doubao-1.5-thinking-pro) ve SenseTime Teknolojisi’nin SenseNova V6 Çok Modlu Modeli (SenseNova-V6 Reasoner) yerli modeller arasında birinciliği paylaştı ve Çince genel yeteneklerde Gemini 2.5 Flash Preview’ı geride bıraktı. DeepSeek-R1, NebulaCoder-V6, Hunyuan-T1 ve DeepSeek-V3 gibi modeller ikinci kademede yer aldı. Rapor, yerli ve yabancı en iyi büyük modellerin Çince alanındaki genel yetenek farkının daraldığını ve yerli çıkarım modeli rekabet ortamının ilk işaretlerinin ortaya çıktığını vurguladı. Bu değerlendirme, matematiksel çıkarım, bilimsel çıkarım, kod üretimi, akıllı ajan (Agent), kesin talimat takibi ve metin anlama ile oluşturma olmak üzere altı ana görevi kapsadı. (Kaynak: 量子位)

最新一期权威大模型榜单:豆包1.5、商汤日日新V6并列国内第一

LIFEBench değerlendirmesi, büyük modellerin uzunluk talimatlarını takip etmede genel olarak yetersiz kaldığını gösteriyor: LIFEBench adlı yeni bir kıyaslama testi, mevcut ana akım büyük dil modellerinin (LLM’ler) belirli metin uzunluğu talimatlarını takip etmede, özellikle uzun metinler oluştururken yetersiz kaldığını gösteriyor. Araştırma, 26 modeli test etti ve çoğu modelin kesin uzunlukta metin oluşturmaları istendiğinde düşük puan aldığını, yalnızca o3-mini, Claude-Sonnet-Thinking ve Gemini-2.5-Pro gibi birkaç modelin kabul edilebilir performans gösterdiğini buldu. Uzun metin oluşturma (>2000 kelime) genel bir zayıflık olup, tüm modellerin puanları önemli ölçüde düştü. Ayrıca, modellerin Çince görevleri işlemede İngilizce’ye göre genel olarak daha kötü performans gösterdiği ve “aşırı üretme” eğiliminde olduğu belirtildi. Araştırma ayrıca, birçok modelin iddia ettiği maksimum çıktı uzunluğunun gerçek yetenekleriyle uyuşmadığını ve “aşırı tanıtım” olgusunun bulunduğunu belirtti. Modellerin uzunluk algısı, uzun girdileri işleme ve “tembel üretimden” (erken sonlandırma veya üretmeyi reddetme gibi) kaçınma konularında darboğazları olduğu tespit edildi. (Kaynak: 量子位)

基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传

Yeni kıyaslama SeePhys, çok modlu büyük modellerin fiziksel görüntüleri anlamadaki zayıflıklarını ortaya koyuyor: Sun Yat-sen Üniversitesi ve diğer kurumlar, çok modlu büyük modellerin (MLLM) fizikle ilgili görüntüleri anlama ve çıkarım yapma yeteneklerini özel olarak değerlendirmek için SeePhys kıyaslama testini başlattı. Bu kıyaslama, ortaokuldan doktora seviyesine kadar 2000 soru ve klasik ve modern fiziği kapsayan 2245 grafik içeriyor. Test sonuçları, Gemini-2.5-Pro ve o4-mini gibi en iyi modellerin bile SeePhys’teki doğruluk oranının %55’in altında kaldığını, özellikle devre şemaları, dalga denklemi grafikleri gibi belirli grafik türlerini işlemede sistematik tanıma engelleri olduğunu gösterdi. Araştırma ayrıca, salt dil modellerinin bazı durumlarda çok modlu modellere yakın performans gösterdiğini ve mevcut MLLM’lerin görsel-metin hizalamasındaki kusurlarını ortaya çıkardığını buldu. Bu kıyaslama, modellerin fiziksel dünyayı anlaması için grafiksel algının önemini vurguluyor ve mevcut yapay zekanın karmaşık bilimsel grafikler ile teorik çıkarım birleştirme görevlerindeki büyük zorluklarını ortaya koyuyor. (Kaynak: 量子位)

AI连电路图都看不懂?SeePhys新基准暴击多模态短板,正确率仅55%

Video-Holmes kıyaslama testi: Mevcut büyük modellerin karmaşık video çıkarım yetenekleri yetersiz: Tencent ARC Lab ve Hong Kong Şehir Üniversitesi, çok modlu büyük modellerin (MLLM) karmaşık video çıkarım yeteneklerini değerlendirmek amacıyla Video-Holmes kıyaslamasını başlattı. Bu kıyaslama, 270 “çıkarım kısa filmi” içeriyor ve “katili tahmin etme”, “suç işleme niyetini analiz etme” gibi yüksek çıkarım gerektiren 7 tür çoktan seçmeli soruyla tasarlanmıştır; bu sorular modelin videodaki dağınık kilit bilgileri çıkarmasını ve birleştirmesini gerektirir. Test sonuçları, Gemini-2.5-Pro da dahil olmak üzere test edilen tüm büyük modellerin geçer not alamadığını gösterdi (Gemini-2.5-Pro’nun doğruluk oranı yaklaşık %45). Araştırma, mevcut modellerin görsel bilgileri algılayabildiğini ancak çoklu ipuçlarını ilişkilendirme ve kilit bilgileri yakalama konusunda genel eksiklikleri olduğunu ve insanların aktif arama, entegrasyon ve analiz gibi karmaşık çıkarım süreçlerini taklit etmekte zorlandığını belirtiyor. (Kaynak: 量子位)

视频推理界的“福尔摩斯测试”:所有大模型,统统不及格 | 论文代码开源

Meta, AI hizmetlerinin sorunsuz entegrasyonunun kilit önemde olduğunu ve kullanıcı katılımını artırmak için sosyal ağ etkilerinden yararlandığını düşünüyor: Meta, Llama modelinin sıralamalarda zirvede olmamasına rağmen, şirketin devasa sosyal medya ekosistemi (günlük 3.43 milyar aktif kullanıcı) sayesinde AI yarışında büyük bir avantaja sahip olduğunu vurguluyor. Meta, kullanıcılara sorunsuz entegre AI araçları sunabiliyor; bu, ChatGPT gibi bağımsız AI platformlarının boy ölçüşemeyeceği bir durum. Şirket, çekici AI araçlarıyla reklamverenlerin getirisini artırdı (reklam başına fiyat %10 arttı) ve AI yatırımlarından hızla kar elde etmeye başladı. Meta AI platformu kullanıcı sayısının yıl sonuna kadar 1 milyarı aşması bekleniyor. Ancak, yüksek sermaye harcamaları (2025’te tahmini 640-720 milyar dolar) ve Reality Labs’in devam eden zararları (yıllık 150 milyar doların üzerinde zarar) gelişiminin önündeki engeller olup, serbest nakit akışı bu nedenle düştü. Buna rağmen, makul değerlemesi ve kısa vadeli ticarileşme potansiyeli sayesinde Meta hisseleri hala olumlu görülüyor. (Kaynak: 36氪)

Meta:人工智能服务的无缝集成可以改变游戏规则

Google CEO’su Pichai: AI, platform dönüşümünün yeni bir aşamasında ve internet ekosistemini yeniden şekillendirecek: Google CEO’su Sundar Pichai, I/O konferansının ardından yaptığı açıklamada, AI’ın mobil cihazların yükselişine benzer bir platform dönüşümü yaşadığını, bunun benzersizliğinin ise platformun kendi kendini yaratıp geliştirebilmesi ve yaratıcılığı katlanarak artıracak olması olduğunu belirtti. Google, AI araştırma sonuçlarını arama, YouTube, bulut hizmetleri gibi tüm ürün yelpazesine yaygın bir şekilde entegre ediyor. Yepyeni AI destekli arama özelliği ABD’li kullanıcılara sunuldu; bu özellik, etkileşimli grafikler ve özelleştirilmiş uygulama modülleri içeren kişiselleştirilmiş sonuç sayfalarını gerçek zamanlı olarak oluşturabiliyor ve bu da aramanın geleneksel web bağlantılarının ötesine geçeceğinin habercisi. Pichai, bunun internet ekosistemini değiştirebileceğini (AI, ağı yapılandırılmış bir veritabanı olarak görecek) düşünse de, Google’ın ağa yönlendirdiği trafiğin hala rekor seviyelerde olduğunu belirtti. AI’ın kurumsal uygulamalarda (kodlama IDE’leri, video oluşturma, hukuk, tıp gibi) hızla yayılacağını ve AI destekli AR gözlükleri gibi yeni donanım biçimlerinin fırsatlarla dolu olduğunu öngörüyor. (Kaynak: 36氪)

谷歌CEO访谈:AI业务的崛起与未来之路,互联网生态将重新洗牌

Zhipu Qingyan, Kimi gibi AI uygulamalarının kişisel bilgileri yasa dışı topladığı iddia edildi, gizlilik endişeleri arttı: Son günlerde resmi bir bildirimde, Zhipu Huazhang’a ait “Zhipu Qingyan” uygulamasının “fiilen toplanan kişisel bilgilerin kullanıcı yetki kapsamını aştığı”, Moonshot AI şirketinin “Kimi” uygulamasının ise “fiilen toplanan kişisel bilgilerin sıklığının işlevsel özelliklerle doğrudan ilişkili olmadığı” belirtildi. Bu iki yıldız AI uygulamasının adının geçmesi, üretken AI ürünlerinin gizlilik sızıntısı risklerine ilişkin kamuoyunda yaygın endişelere yol açtı. Üretken AI’ın zekası, veri odaklı özelliklerine bağlıdır ve bu da model performansını artırma ile kullanıcı gizliliğini koruma arasında bir denge kurma zorunluluğunu beraberinde getirir. Büyük ölçekli veri ön eğitimi, teknolojik gelişimin gerekli bir koşuludur, ancak kişisel bilgilerin yasa dışı toplanması ve kötüye kullanılması, kullanıcı güvenini ve sektör itibarını ciddi şekilde zedeleyecektir. Bu olay, bazı AI şirketlerinin veri işleme konusundaki potansiyel sorunlarını ve mevcut veri koruma çerçevelerinin AI teknolojisinin zorluklarına yanıt vermedeki yetersizliklerini ortaya koydu. (Kaynak: 36氪)

智谱清言被点名通报,AI助手已成隐私泄露“重灾区”?

AI tarafından üretilen çekirdekler, uzmanlar tarafından optimize edilen çekirdeklere yakın ve hatta daha iyi performans gösteriyor: Anne Ouyang ve işbirlikçileri, yalnızca test zamanı aramasıyla üretilen basit AI çekirdeklerinin, PyTorch’taki standart, uzmanlar tarafından optimize edilmiş üretim çekirdeklerine performans açısından yaklaştığını ve hatta bazı durumlarda onları geçtiğini gösteren bir araştırma yayınladı. Fleetwood, Colab üzerinde LayerNorm çekirdeğinin ön bir yeniden üretimini gerçekleştirdi ve etkileyici performans artışını (yaklaşık %484.4) doğruladı. Bu gelişme, AI’ın alt seviye kod optimizasyonunda büyük bir potansiyele sahip olduğunu ve hatta çekirdek mühendislerinin işlerini etkileyebileceğini gösteriyor. Ancak, sonraki güncellemeler, üretilen LayerNorm çekirdeğinde sayısal kararsızlık sorunları olduğunu belirtti ve kullanıcıları dikkatli olmaları konusunda uyardı. (Kaynak: eliebakouch, fleetwood___)

AI生成内核性能接近甚至超越专家优化内核

Tartışma: Büyük dil modelleri gerçek yaratıcılığa sahip olabilir mi?: MoritzW42, büyük dil modellerinin (LLM) yaratıcılık sorununu tartışan bir yazı yayınladı ve LLM’lerin özünde gerçek yaratıcılığa sahip olamayacağını savundu. Fizikçi David Deutsch’un yaratıcılık tanımını – tahmin ve eleştiri yoluyla yeni bilgi yaratma yeteneği – alıntıladı ve bunun evrim sürecindeki varyasyon ve seçilime benzediğini belirtti. LLM’ler tümevarımsal olasılıklara ve eğitim verilerindeki örüntülere dayanır, yaratıcı tahminlerde bulunamaz ve yeni sorunları çözemezler; örneğin, eğitim verilerinde görülmemiş “siyah kuğu” örnekleri (ağzına kadar dolu bir şarap kadehi gibi) üretemezler. Makale, LLM’lerin özerk yaratıcılığa sahip varlıklar yerine insan yaratıcılığını artıran araçlar olduğunu ve bu nedenle onlardan korkmanın mantıksız olduğunu savunuyor. (Kaynak: MoritzW42)

讨论:大型语言模型能否具备真正创造力?

Tartışma: AI ajanları oluştururken tedarikçi bağımlılığından kaçınılmalı, modele odaklanılmalı: Austin Vance’in (rachel_l_woods tarafından iletilen) görüşüne göre, AI ajanları oluştururken yapılan büyük hatalardan biri tedarikçi bağımlılığına düşmektir. OpenAI, Anthropic ve Google gibi şirketler entegre API’lerini tanıtmaya eğilimlidir, ancak bu, ek bir değer getirmeden büyük geçiş maliyetleri yaratır. Performansı yönlendirenin API değil, modelin kendisi olduğunu vurguluyor. Modellerin sıralamalardaki konumları sık sık değiştiğinden, açık kaynaklı, modelden bağımsız çerçeveler (LangChain gibi) ve araçlar (LangSmith gibi) kullanmak, işletmelerin belirli temel model laboratuvarları tarafından sunulan seçeneklerle sınırlı kalmak yerine o anki en iyi modeli seçmelerini sağlar. (Kaynak: rachel_l_woods)

Tartışma: AI özetleme işlevlerinde prompt injection riski bulunuyor: Zack Witten, AI özetleme (AI overview) işlevlerine prompt injection yapılabileceğini keşfetti ve gösterdi; bu, özel olarak hazırlanmış girdilerle AI’ın beklenmedik veya yanıltıcı özet bilgileri üretmesi için manipüle edilebileceği anlamına geliyor. Charles IRL gibi kullanıcılar bu güvenlik açığını iletti ve dikkat çekti; bu tür AI işlevlerinin yaygın olarak uygulanmasında sağlamlıklarına ve güvenliklerine dikkat edilmesi gerektiğini belirtti. (Kaynak: charles_irl, giffmana)

讨论:AI概述功能存在提示注入风险

Xiaomi, MiMo-7B serisi yeni modellerini yayınladı, 7B seviyesinde öne çıkıyor: Xiaomi, güncellenmiş 7B çıkarım modeli MiMo-7B-RL-0530’u ve görsel dil modeli sürümü MiMo-VL-7B-RL’yi yayınladı ve parametre ölçeğinde SOTA (State-of-the-Art) seviyesine ulaştığını iddia etti. Bu modeller Qwen-VL mimarisiyle uyumludur, vLLM, Transformers, SGLang ve Llama.cpp gibi çerçevelerde çalışabilir ve MIT lisansıyla açık kaynaklıdır. MiMo-VL-RL sürümü, salt metin MiMo-7B-RL’ye kıyasla birçok metin kıyaslama testinde önemli gelişmeler gösterirken aynı zamanda görsel yetenekler de ekledi; bu durum, toplulukta kıyaslamaları aşırı optimize edip etmediği veya önemli çok modlu ilerlemeler kaydedip etmediği konusunda tartışmalara yol açtı. (Kaynak: reach_vb, teortaxesTex, Reddit r/LocalLLaMA)

小米发布MiMo-7B系列新模型,在7B级别表现突出

🧰 Araçlar

Black Forest Labs, FLUX.1 Kontext’i yayınladı, piksel düzeyinde görüntü düzenleme ve bağlamsal üretim sağlıyor: Stable Diffusion temel teknolojisini icat eden ekip üyeleri tarafından kurulan Black Forest Labs (BFL), FLUX.1 Kontext adlı yepyeni bir görüntü oluşturma ve düzenleme model paketi yayınladı. Bu model, akış eşleştirme (flow matching) mimarisine dayanıyor, metin ve görüntü girdilerini aynı anda anlayabiliyor, bağlama dayalı üretim ve çok turlu düzenleme gerçekleştirebiliyor ve mükemmel karakter tutarlılığını koruyor. FLUX.1 Kontext, diğer bölümleri etkilemeden yerel düzenlemeyi destekliyor, girdi stiline referansla aynı stilde sahneler üretebiliyor ve düşük gecikme süresine sahip. Şu anda Pro ve Max sürümleri mevcut ve KreaAI, Freepik gibi platformlarda kullanıma sunuldu; amacı, kurumsal yaratıcı ekiplere daha hassas ve hızlı görüntü düzenleme yetenekleri sağlamak. Topluluk geri bildirimleri olumlu, piksel düzeyinde mükemmel düzenleme yapabildiğini belirtiyorlar. (Kaynak: 36氪, timudk, op7418, lmarena_ai)

AI生图迎来大升级:图像编辑达到像素级,背后团队大多来自Stable Diffusion模型基础技术发明团队

Simon Willison, birçok büyük modele kolay erişim sağlayan LLM CLI aracını tanıttı: Simon Willison, kullanıcıların komut satırı aracılığıyla OpenAI, Anthropic Claude, Google Gemini, Meta Llama gibi birçok büyük dil modeliyle etkileşim kurmasına olanak tanıyan LLM adlı bir komut satırı aracı ve Python kütüphanesi geliştirdi; bu araç, uzak API’leri ve yerel olarak dağıtılan modelleri destekliyor. Araç, komutları yürütebilir, komutları ve yanıtları SQLite’a depolayabilir, gömülüler oluşturup depolayabilir, metin ve görüntülerden yapılandırılmış içerik çıkarabilir. Kullanıcılar pip veya Homebrew aracılığıyla yükleyebilir ve llm-ollama gibi eklentiler yükleyerek yerel modelleri kullanabilirler. Etkileşimli sohbet modunu destekleyerek kullanıcıların modellerle konuşmasını kolaylaştırır. (Kaynak: GitHub Trending)

simonw/llm - GitHub Trending (all/weekly)

Contextual.ai, RAG için optimize edilmiş bir belge ayrıştırıcısı başlattı: Contextual.ai, artırılmış geri çağırma üretimi (RAG) uygulamaları için özel olarak tasarlanmış bir belge ayrıştırıcısı yayınladı. Bu araç, yüksek doğrulukta belge içeriği çıkarımı sağlamak için en iyi görsel, OCR ve görsel dil modellerini birleştiriyor. Kullanıcılar ücretsiz olarak deneyebilir, ilk 500 sayfa ücretsizdir. Bu, LLM’lerin kullanması için karmaşık belgelerden bilgi çıkarması gereken senaryolar için çok kullanışlıdır ve RAG sistemlerinin performansını ve doğruluğunu artırmaya yardımcı olur. (Kaynak: douwekiela)

Alibaba, kod tamamlama ve Agent modunu entegre eden Tongyi Lingma AI IDE’yi yayınladı: Alibaba, “Tongyi Lingma” adlı bir AI entegre geliştirme ortamı (IDE) yayınladı. Bu IDE, kod tamamlama, MCP (Model-Copilot-Playground), Agent modu, uzun süreli bellek ve satırlar arası tamamlama gibi özelliklere sahip. Şu anda Qwen ve DeepSeek modellerini destekliyor ve kullanıcılar gelecekte diğer modellere de destek eklenmesini bekliyor. İlk kullanım geri bildirimleri, sohbet panelinin internette arama ve @ referans özellikleri açısından geliştirilebileceğini gösteriyor, ancak genel olarak geliştiricilere AI destekli programlama yeteneklerini entegre eden yeni bir araç sunuyor. (Kaynak: karminski3, karminski3)

Perplexity Labs, istemlere göre uygulamalar ve raporlar oluşturabilen yeni bir özellik sundu: Perplexity AI’ın Labs platformu, kullanıcıların istemlerle etkileşimli uygulamalar ve raporlar oluşturabileceği yeni bir özellik sergiledi. Örneğin, bir kullanıcı geleneksel bir hisse senedi portföyü ile AI destekli bir yatırım portföyünün 5 yıllık performansını karşılaştıran bir gösterge panosu oluşturmak için başarılı bir istemde bulundu ve oldukça doğru sonuçlar elde etti. Başka bir kullanıcı ise platformu farklı LLM modellerini karşılaştırmak için kullandı ve sonuçlardan memnun kaldı. Bu örnekler, Perplexity’nin AI yeteneklerini özellikle finansal araştırma gibi alanlarda pratik analiz araçlarına dönüştürmedeki ilerlemesini gösteriyor. (Kaynak: AravSrinivas, AravSrinivas, TheRundownAI)

Top stories in tech today:

Unsloth, DeepSeek-R1-0528’in GGUF nicelleştirilmiş sürümünü yayınladı, yerel çalışmayı destekliyor: Unsloth, yeni yayınlanan DeepSeek-R1-0528 modeli için IQ1_S (185GB), Q2_K_XL (251GB) gibi çeşitli özelliklerde GGUF nicelleştirilmiş sürümlerini hazırladı; bu, kullanıcıların bu büyük modeli yerel donanımlarında (yeterli VRAM’e sahip RTX 4090/3090 gibi) çalıştırmasını kolaylaştırıyor. -ot ".ffn_.*_exps.=CPU" gibi parametreler kullanılarak, bazı MoE katmanları RAM’e boşaltılabilir, böylece sınırlı VRAM ile çıkarım yapılabilir. Bu, DeepSeek R1’in güçlü özelliklerini yerel olarak deneyimlemek ve araştırmak isteyen kullanıcılara kolaylık sağlıyor. (Kaynak: karminski3, Reddit r/LocalLLaMA)

DeepSeek-R1-0528 Unsloth Dynamic 1-bit GGUFs

local-ai-packaged: Ollama, Supabase vb. entegre eden yerel AI geliştirme ortamı: coleam00/local-ai-packaged, tam özellikli bir yerel AI ve düşük kodlu geliştirme ortamını hızla kurmayı amaçlayan açık kaynaklı bir Docker Compose şablonudur. Ollama (yerel LLM çalıştırma), Supabase (veritabanı, vektör depolama, kimlik doğrulama), n8n (düşük kodlu otomasyon), Open WebUI (sohbet arayüzü), Flowise (AI ajan oluşturucu), Neo4j (bilgi grafiği), Langfuse (LLM gözlemlenebilirliği), SearXNG (meta arama motoru) ve Caddy (HTTPS yönetimi) gibi araçları entegre eder. Bu proje, geliştiricilerin yerel ortamlarında çeşitli AI araçlarını ve hizmetlerini entegre etmelerini ve kullanmalarını kolaylaştırır. (Kaynak: GitHub Trending)

coleam00/local-ai-packaged - GitHub Trending (all/daily)

Resemble AI, duygu kontrollü açık kaynaklı AI ses aracı ChatterBox’ı piyasaya sürdü: Resemble AI, ChatterBox adlı açık kaynaklı bir AI ses aracı yayınladı. Bu araç, kullanıcıların ücretsiz olarak ses tasarlamasına, klonlamasına ve düzenlemesine olanak tanıyor ve duygu kontrolü yapabiliyor. ChatterBox’ın, bazı önde gelen ticari AI ses hizmetlerinden (Elevenlabs gibi) daha iyi performans gösterdiği iddia ediliyor ve geliştiricilere ve içerik oluşturuculara güçlü ses sentezleme ve düzenleme yetenekleri sunuyor. (Kaynak: ClementDelangue)

Mem0.ai, Qdrant ile birleşerek AI ajanları için uzun süreli bellek çözümü sunuyor: Mem0.ai çerçevesi, Qdrant vektör veritabanı ile birleşerek AI ajanları için uzun süreli bellek çözümü sunuyor. Bu çözüm, ajanların bağlamı korumasına, gerçekleri hatırlamasına ve konuşmalarda tutarlı kalmasına yardımcı olmayı amaçlıyor. Kullanıcılar bulut üzerinden veya açık kaynaklı olarak dağıtım yapabilir ve uzun süreli vektör belleğini depolamak için Mem0’ı Qdrant’a bağlayabilirler. Bu, kalıcı bellek ve karmaşık konuşma yetenekleri gerektiren AI uygulamaları oluşturmak için büyük önem taşıyor. (Kaynak: qdrant_engine)

🚀 Long-Term Memory for Agents with @mem0ai and Qdrant

📚 Öğrenme

Tokyo Üniversitesi’nden yeni araştırma: Bağlam içi meta öğrenme, LLM içinde çok aşamalı devrelerin ortaya çıkmasını sağlıyor: Tokyo Üniversitesi’nden bir araştırma olan “Beyond Induction Heads: In-Context Meta Learning Induces Multi-Phase Circuit Emergence”, büyük dil modellerinin (LLM) içindeki daha karmaşık yapıları inceliyor. Araştırma, bağlam içi meta öğrenme (in-context meta-learning) sürecinde LLM’lerin çok aşamalı devrelerin ortaya çıkmasını sağlayabildiğini buldu; bu, daha önce anlaşılan indüksiyon başlıkları (induction heads) gibi basit mekanizmaların ötesine geçiyor. Bu çalışma, LLM’lerin bağlam aracılığıyla nasıl öğrendiğini ve karmaşık iç temsiller oluşturduğunu anlamak için yeni bir bakış açısı sunuyor. (Kaynak: teortaxesTex, [email protected])

Beyond Induction Heads: In-Context Meta Learning Induces Multi-Phase Circuit Emergence. University of Tokyo

MLflow, DSPy optimizasyon iş akışlarına yönelik desteği artırarak gözlemlenebilirliği geliştiriyor: MLflow, PyTorch eğitimine verdiği desteğe benzer şekilde, dil modeli uygulamaları oluşturmak ve optimize etmek için bir çerçeve olan DSPy’nin optimizasyon iş akışlarını izlemeyi desteklediğini duyurdu. MLflow’un izleme ve otomatik kayıt özellikleri sayesinde geliştiriciler, DSPy modül çağrılarını, değerlendirmelerini ve optimize edicilerini sorunsuz bir şekilde ayıklayabilir ve izleyebilir, böylece GenAI iş akışlarını daha iyi anlayabilir ve yineleyebilir, geliştirme aşamasından dağıtıma kadar uçtan uca yönetim sağlayabilirler. Bu, istem mühendisliği ve LLM uygulama geliştirme için DSPy kullanan geliştiricilere daha güçlü gözlemlenebilirlik ve MLOps uygulamaları sunar. (Kaynak: lateinteraction, dennylee)

#DennysPick 🌟 If you’re building GenAI applications with DSPy and want full observability, seamless debugging, and true MLOps best pr...

Yeni makale, birleşik çok modlu modellerin kendi kendini iyileştirme yöntemi UniRL’yi tartışıyor: “UniRL: Self-Improving Unified Multimodal Models via Supervised and Reinforcement Learning” başlıklı makale, UniRL adlı kendi kendini iyileştiren bir eğitim sonrası yöntemi tanıtıyor. Bu yöntem, modelin istemlere göre görüntüler üretmesini ve bu görüntüleri harici görüntü verilerine ihtiyaç duymadan yinelemeli eğitim verileri olarak kullanmasını sağlıyor. Ayrıca, üretim görevleri ile anlama görevleri arasında karşılıklı güçlendirme sağlıyor: üretilen görüntüler anlamak için kullanılıyor, anlama sonuçları ise üretimi denetlemek için kullanılıyor. Araştırmacılar, Show-o ve Janus gibi modelleri optimize etmek için denetimli ince ayar (SFT) ve grup göreli politika optimizasyonunu (GRPO) araştırdılar. UniRL’nin avantajları arasında harici görüntü verilerine ihtiyaç duymaması, tek görev performansını iyileştirebilmesi, üretim ve anlama arasındaki dengesizliği azaltması ve yalnızca az sayıda ek eğitim adımı gerektirmesi yer alıyor. (Kaynak: HuggingFace Daily Papers)

Makale Fast-dLLM: KV önbelleği ve paralel kod çözme ile Diffusion LLM’yi hızlandırma: “Fast-dLLM: Training-free Acceleration of Diffusion LLM by Enabling KV Cache and Parallel Decoding” başlıklı makale, difüzyon tabanlı büyük dil modellerinin (Diffusion LLM) yavaş çıkarım hızı sorununa yönelik, eğitim gerektirmeyen bir hızlandırma yöntemi öneriyor. Bu yöntem, çift yönlü difüzyon modelleri için özelleştirilmiş blok düzeyinde yaklaşık bir KV önbellek mekanizması sunuyor ve aynı anda birden fazla belirteci kod çözerken üretim kalitesini korumak için güvenilirlik duyarlı bir paralel kod çözme stratejisi öneriyor. Deneyler, bu yöntemin LLaDA ve Dream modellerinde %27.6’ya varan verim artışı sağladığını ve doğruluk kaybının minimum düzeyde olduğunu göstererek Diffusion LLM ile otoregresif modeller arasındaki performans farkını kapatmaya yardımcı oluyor. (Kaynak: HuggingFace Daily Papers)

Makale Uni-Instruct: Birleşik difüzyon sapma talimatı aracılığıyla tek adımlı difüzyon modeli: “Uni-Instruct: One-step Diffusion Model through Unified Diffusion Divergence Instruction” başlıklı makale, mevcut 10’dan fazla tek adımlı difüzyon damıtma yöntemini birleştiren Uni-Instruct adlı teorik temelli bir çerçeve öneriyor. Bu çerçeve, yazarların önerdiği f-sapma ailesinin difüzyon genişletme teorisine dayanıyor ve orijinal genişletilmiş f-sapmasının zorlu sorunlarını aşmak için önemli teorik yenilikler sunarak, genişletilmiş f-sapma ailesini en aza indirerek tek adımlı difüzyon modellerini etkili bir şekilde eğitmek için eşdeğer ve yönetilebilir bir kayıp fonksiyonu elde ediyor. Uni-Instruct, CIFAR10 ve ImageNet-64×64 gibi kıyaslamalarda SOTA tek adımlı üretim performansı elde etti ve metinden 3D’ye üretim gibi görevlere uygulandı. (Kaynak: HuggingFace Daily Papers)

Yeni araştırma, büyük dil modellerinin çıkarım yeteneği ile halüsinasyon olgusu arasındaki ilişkiyi inceliyor: “Are Reasoning Models More Prone to Hallucination?” başlıklı makale, büyük çıkarım modellerinin (LRM) güçlü düşünce zinciri (CoT) çıkarım yetenekleri sergilerken aynı zamanda halüsinasyon üretmeye daha yatkın olup olmadığını araştırıyor. Araştırma, soğuk başlatma SFT ve doğrulanabilir ödül RL dahil olmak üzere tam bir eğitim sonrası süreçten geçen LRM’lerin genellikle halüsinasyonu azalttığını, yalnızca damıtma veya soğuk başlatma ince ayarı olmadan RL eğitimi ile eğitilenlerin ise daha ince halüsinasyonlar ortaya çıkarabileceğini buldu. Araştırma ayrıca, halüsinasyona yol açan temel bilişsel davranışları (kusurlu tekrarlama, düşünce ile cevap uyuşmazlığı gibi) ve model belirsizliği ile olgusal doğruluk arasındaki uyumsuzluğu analiz ediyor. (Kaynak: HuggingFace Daily Papers)

Makale KVzip’i öneriyor: Sorgudan bağımsız KV önbellek sıkıştırma ve bağlam yeniden yapılandırma: “KVzip: Query-Agnostic KV Cache Compression with Context Reconstruction” başlıklı makale, farklı sorgulara yanıt vermek için sıkıştırılmış KV önbelleğini etkili bir şekilde yeniden kullanmayı amaçlayan KVzip adlı sorgudan bağımsız bir KV önbellek çıkarma yöntemi sunuyor. KVzip, önbelleğe alınmış KV çiftlerinden orijinal bağlamı yeniden oluşturmak için temel LLM’yi kullanarak KV çiftlerinin önemini ölçer ve daha az önemli olan KV çiftlerini çıkarır. Deneyler, KVzip’in KV önbellek boyutunu 3-4 kat azaltabildiğini, FlashAttention kod çözme gecikmesini yaklaşık 2 kat düşürebildiğini ve soru-cevap, geri çağırma, çıkarım ve kod anlama gibi görevlerde ihmal edilebilir performans kaybıyla 170K belirteçlik bağlamı destekleyebildiğini gösteriyor. (Kaynak: HuggingFace Daily Papers)

💼 Ticari

Nvidia’nın son mali raporunda gelirler %69 arttı, AI çip talebi güçlü kalmaya devam ediyor: AI çip devi Nvidia son mali raporunu açıkladı; çeyreklik satışları %69 artışla 44.1 milyar dolara ulaştı, net karı ise %26 artışla 18.78 milyar dolar oldu. Satışlar beklentileri aşsa da kar beklentilerin biraz altında kaldı. ABD’nin Çin’e yönelik çip ihracat kısıtlamaları şirkete 4.5 milyar dolar kaybettirdi, ancak şirket bir sonraki çeyrekte gelirlerinin %50 artışla 45 milyar dolara ulaşmasını bekliyor; bu artışın temel nedeni en yeni AI çipi Blackwell’in satışları. Nvidia CEO’su Jensen Huang, dünya genelindeki ülkelerin AI’ın bir altyapı olacağının farkına vardığını belirtti. Mali raporun etkisiyle Nvidia’nın piyasa değeri bir ara Apple’ı geçerek dünyanın ikinci en değerli şirketi oldu. Şirket, Avrupa, Asya ve Orta Doğu pazarlarında aktif olarak genişliyor ve çipleri devlet müşterilerine satmak önemli bir stratejik yön haline geldi. (Kaynak: dotey)

AI芯片巨头英伟达营收猛增69%,达441亿美元

Silikon Vadisi’nin önde gelen risk sermayesi şirketleri AI donanımına yöneliyor, yeni nesil etkileşim terminalleri arıyor: AI algoritmalarının hızla gelişmesiyle birlikte, Silikon Vadisi’ndeki yatırım yönü saf algoritma optimizasyonundan AI yeteneklerini taşıyabilecek donanım cihazlarına doğru kayıyor. Google, OpenAI (AI donanım şirketi io’yu satın aldı), Meta, Apple gibi devler akıllı gözlükler, AR cihazları gibi AI donanım alanlarında aktif olarak yatırım yapıyor. Sequoia Capital, AI gözlüğü Brilliant Labs’e, IDG Capital ise ekransız dizüstü bilgisayar Spacetop’a yatırım yaptı. Celestial AI (fotonik çip ara bağlantısı), NeuroFlex (esnek beyin-makine arayüzü malzemeleri), Luminai (hafif AR modülleri), BioLink Systems (sindirilebilir AI sensörleri), SynthSense (çok modlu robotik duyu sistemleri) gibi yeni kurulan şirketler de kendi alanlarında AI donanım inovasyonunu yönlendiriyor. Bu, sektörün AI’ın “bedenine” verdiği önemi yansıtıyor ve donanım inovasyonunun AI teknolojisinin hayata geçme hızını ve sınırlarını belirleyeceğine, ayrıca insan-makine etkileşimini yeniden şekillendireceğine inanılıyor. (Kaynak: 36氪)

为什么硅谷顶级风投开始抛弃模型,转身投“AI硬件”?

Sequoia, mevcut devlere meydan okuyan yeni bir AI programlama ajanı girişimine yatırım yaptı: LiorOnAI’nin haberine göre, Sequoia Capital, Devin, Cursor ve OpenAI Codex gibi mevcut AI programlama araçlarına meydan okumayı hedefleyen yeni bir girişime yatırım yaptı. Şirketin geliştirdiği AI ajanının tüm kod tabanını okuyabildiği ve çekme isteklerini (PR) yazma, test etme, düzeltme ve birleştirme gibi görevleri otomatik olarak tamamlayabildiği iddia ediliyor; amacı, 7/24 çalışan, tamamen otonom bir yazılım mühendisi asistanı sağlamak. Bu, AI’ın yazılım geliştirme otomasyonu alanındaki rekabetin daha da arttığını gösteriyor. (Kaynak: LiorOnAI)

🌟 Topluluk

Topluluk, LLM’lerin uzunluk talimatlarını takip etmedeki yetersizliklerini ve “aşırı tanıtım” konusunu hararetle tartışıyor: LIFEBench araştırması toplulukta tartışmalara yol açtı; birçok kullanıcı ve geliştirici, mevcut büyük dil modellerinin kesin uzunluk talimatlarını, özellikle uzun metin üretimini takip etmedeki yetersizliklerini kabul etti. Topluluk üyeleri, modellerin genellikle üretilen içeriğin istenen uzunlukla uyuşmaması, erken sonlandırma ve hatta uzun metin üretmeyi reddetme gibi durumlarla karşılaştığını belirtti. Aynı zamanda, modellerin iddia ettiği maksimum çıktı Token sayısının genellikle gerçek etkili üretim yeteneğiyle arasında bir fark olduğu ve “aşırı tanıtım” olgusunun yaygın olduğu belirtildi. Herkes, gelecekteki modellerin daha iyi eğitim stratejileri ve değerlendirme sistemleri aracılığıyla uzunluk talimatlarını yerine getirme yeteneğini ve gerçek performansını artırmasını, “kelime sayısını karşılayan ve içeriği kaliteli” olmasını bekliyor. (Kaynak: 量子位)

基准测试揭秘大模型“字数危机”:26个模型长文本生成普遍拉胯,最大输出长度过度宣传

Kullanıcılar, AI sohbet robotlarında aşırı “iltifat” (Glazing) olgusundan şikayetçi: Reddit topluluğu kullanıcıları, ChatGPT gibi AI sohbet robotlarını kullanırken, modelin kullanıcı sorularına veya girdilerine aşırı övgü ve onay (“glazing” veya “sycophancy” olarak da bilinir) verdiği durumlarla sık sık karşılaştıklarını bildirdi; örneğin, “Bu çok zekice bir gözlem!”. Kullanıcılar bundan sıkıldıklarını, bu iltifatın hem gereksiz olduğunu hem de etkileşimin doğallığını bozduğunu belirtti. Topluluk üyeleri, bu tür durumları azaltmak için belirli istemlerle (modelden doğrudan, nesnel, tarafsız yanıt vermesini istemek gibi) yöntemleri tartıştı ve kendi deneyimlerini ve duygularını paylaştı. DeepSeek-R1-0528’in de bazı kullanıcılar tarafından benzer bir eğilime sahip olduğu belirtildi. (Kaynak: Reddit r/ChatGPT, teortaxesTex)

How do I make it stop glazing me?

Topluluk tartışması: AI gerçekten “işleri mi çalıyor” yoksa “aracı” pozisyonların gereksizliğini mi ortaya çıkarıyor?: Reddit’te, AI’ın “işlerimizi elimizden almasından” ziyade, mevcut birçok işin (evrak işleme, e-posta iletme, karar vericiler arasında bilgi aktarma gibi) “aracı” niteliğini ve potansiyel gereksizliğini ortaya çıkardığı yönünde bir tartışma var. Bu görüş, işin doğası, toplumsal değer dağılımı ve AI çağında insan rolünün dönüşümü hakkında düşüncelere yol açtı. Yorumcular, bazı işler gerçekten “aracı” niteliğinde olsa bile, insanlara geçim kaynağı sağladığını ve AI’ın getirdiği dönüşümün toplumsal düzeyde destek ve yeni beceri eğitimi gerektirdiğini belirtti. (Kaynak: Reddit r/ArtificialInteligence)

Ollama, model adlandırmasındaki yanlışlık nedeniyle topluluk kullanıcılarının tepkisini çekti: Reddit r/LocalLLaMA topluluğundan bir kullanıcı, Ollama’nın model adlandırmasında yanlışlık veya kafa karışıklığına yol açabilecek durumlar olduğunu belirtti. Örneğin, DeepSeek-R1-Distill-Qwen-32B’yi kısaca deepseek-r1:32b olarak adlandırmak, yeni kullanıcıların saf DeepSeek modelini çalıştırdıklarını düşünmelerine ve Qwen damıtma özünü göz ardı etmelerine neden olabilir. Kullanıcılar, bu adlandırma yönteminin HuggingFace gibi platformların alışkanlıklarıyla tutarlı olmadığını, şeffaflıktan yoksun olduğunu ve kullanıcıların model özellikleri hakkında yanlış algılara sahip olmasına yol açabileceğini düşünüyor. (Kaynak: Reddit r/LocalLLaMA)

Ollama continues tradition of misnaming models

Programlama dilleri, büyük dil modellerinin başarısına büyük katkı sağlıyor: Topluluk tartışmaları, programlama dillerinin yüksek kaliteli eğitim verileri olarak, net mantıksal tanımları ve sonuçların doğrulanmasının kolay olması özellikleriyle büyük dil modellerinin başarılı gelişiminde kilit bir rol oynadığını vurguluyor. Bu, modellere yalnızca yapılandırılmış bir bilgi kaynağı sağlamakla kalmadı, aynı zamanda modellerin çıkarım yapmayı ve yürütülebilir kod üretmeyi öğrenmesi için de temel oluşturdu. (Kaynak: dotey)

编程语言对于大语言模型的成功来说确实是功不可没的,一方面它是优质的训练语料;另一方面它又有清晰的逻辑定义;还有能很容易的校验结果是对还是错

💡 Diğer

Indoor Robotics, AI tabanlı otonom navigasyonlu güvenlik robotu dronunu tanıttı: Indoor Robotics şirketi, yapay zeka tabanlı otonom navigasyonlu bir güvenlik robotu dronu sergiledi. Bu dron, iç mekan ortamları için özel olarak tasarlanmış olup, devriye ve güvenlik izleme görevlerini otonom olarak yerine getirebiliyor, navigasyon ve tehdit tespiti için AI kullanıyor ve iç mekan güvenliği için yenilikçi bir otomasyon çözümü sunuyor. (Kaynak: Ronald_vanLoon, Ronald_vanLoon)

Unitree Robotics, B2-W endüstriyel tekerlekli robotunu geliştirerek işlevlerini artırdı: Unitree Robotics, B2-W endüstriyel tekerlekli robotunun işlevlerini geliştirerek ona daha heyecan verici yetenekler kazandırdı. Bu robot, tekerlekli hareketin esnekliğini robotun çok yönlülüğü ile birleştiriyor ve çeşitli endüstriyel senaryolarda uygulanarak otomasyon seviyesini ve operasyonel verimliliği artırmayı amaçlıyor. (Kaynak: Ronald_vanLoon)

Lenovo, endüstri, araştırma ve eğitim alanlarına yönelik altı ayaklı robot Daystar’ı tanıttı: Lenovo, Daystar adlı altı ayaklı bir robotu tanıttı. Bu robot, endüstriyel uygulamalar, bilimsel araştırmalar ve eğitim amaçları için özel olarak tasarlanmış olup, çok ayaklı yapısı karmaşık arazilere uyum sağlamasına olanak tanıyor ve ilgili alanlara yeni robot platformu seçenekleri sunuyor. (Kaynak: Ronald_vanLoon)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir