Anahtar Kelimeler:Büyük Dil Modelleri, Pekiştirmeli Öğrenme, Yapay Zeka Altyapısı, Çok Modlu Yapay Zeka, Yapay Zeka Etiği, Kuantum Hesaplama, Yapay Zeka Ajanları, Richard Sutton’un LLM Eleştirileri, OpenAI Yıldız Geçidi Projesi, Meta Kod Dünya Modeli CWM, Flash Attention 4 Performans Optimizasyonu, Unitree G1 Robot Güvenlik Açığı
🔥 Odak Noktası
Richard Sutton’dan LLM’lere Yönelik Sorgulamalar : Pekiştirici öğrenmenin babası Richard Sutton, Büyük Dil Modelleri’nin (LLM’ler) “acı derslerini” sorgulayarak, mevcut LLM mimarisinin Yapay Genel Zeka’ya (AGI) giden nihai yol olmadığını savundu. Sürekli ve görev başında öğrenmeyi sağlayacak yeni mimarilere ihtiyaç duyulduğunu, böylece yapay zeka ajanlarının insanlar ve hayvanlar gibi öğrenebileceğini ve bunun mevcut LLM yaklaşımlarını eskimiş hale getirebileceğini öne sürdü. Bu görüş, yapay zeka topluluğunda geniş çaplı tartışmalara yol açarak yapay zeka öğrenme paradigmalarının yeniden düşünülmesini teşvik etti. (Kaynak: dwarkesh_sp, finbarrtimbers, scaling01, dejavucoder, teortaxesTex, jpt401)
OpenAI’ın Trilyon Dolarlık AI Altyapı Bahsi : OpenAI, NVIDIA, Oracle ve SoftBank ile iş birliği yaparak “Stargate” adlı süper veri merkezi projesi için trilyonlarca dolara varan yatırım yapmayı planladığını duyurdu. Bu projenin 17 gigawatt elektrik kapasitesine ihtiyaç duyacağı, bunun da 17 nükleer santralin üretim kapasitesine eşdeğer olduğu belirtildi. Bu eşi benzeri görülmemiş sermaye yatırımı, yapay zekanın katlanarak artan altyapı ihtiyaçlarını karşılamayı hedefliyor ve 2029 yılına kadar 125 milyar dolarlık yıllık gelir elde etmesi bekleniyor. Bu durum, yapay zeka silahlanma yarışının yeni bir aşamaya girdiğini ve tekil algoritma atılımlarından ziyade hesaplama gücü ölçeğine vurgu yapıldığını gösteriyor. (Kaynak: Reddit r/ArtificialInteligence, cnbc.com, atroyn, jonst0kes, scaling01)
OpenAI, Fonksiyon Çağırma Desteğini Dosya ve Görüntülerle Genişletti : OpenAI, fonksiyon çağırma özelliğini güncelleyerek artık dosya ve görüntüleri araç çağrılarının çıktısı olarak desteklediğini duyurdu. Bu, modellerin doğrudan görsel ve dosya verileriyle etkileşime girebileceği anlamına geliyor; örneğin “grafik oluştur” veya “görüntü yükle” gibi fonksiyonları çağırabilir ve bu dosyaları daha sonraki işlemler için modele geri döndürebilir, bu da modelin karmaşık görevlerdeki uygulama yeteneklerini büyük ölçüde genişletiyor. (Kaynak: OpenAIDevs)
Anthropic Claude Model Kalitesi Sorunları Sonrası Analiz : Anthropic, Claude’un yanıt kalitesinde aralıklı düşüşlere neden olan üç karmaşık ve birbiriyle örtüşen altyapı hatasını ortaya koyan ayrıntılı bir olay sonrası analiz raporu yayımladı. Bu rapor, büyük ölçekli yapay zeka sistemlerinin güvenilirliğini sürdürmede karşılaşılan zorlukları gözler önüne serdi ve en iyi yapay zeka şirketlerinin bile sistem istikrarı ve performans düşüşü sorunlarıyla sürekli olarak başa çıkması gerektiğini vurguladı. (Kaynak: dl_weekly)
🎯 Gelişmeler
Gemini Flash Model Güncellemesi Verimlilik ve Güvenilirliği Artırdı : Google AI geliştiricileri, Gemini 2.5 Flash ve Flash-Lite modellerini güncelleyerek araç kullanımını, sistem güvenilirliğini ve genel verimliliği artırdıklarını duyurdu. Yeni sürüm, önizleme modelleri aracılığıyla kullanıcılara en yeni özellikleri hızla sunuyor ve -latest takma adıyla kod güncellemelerini atlamayı destekliyor. Bazı kullanıcılar, güncellenen modelin performansta hafif bir artış sağlarken maliyetleri yaklaşık %30 azalttığını ve token verimliliğini önemli ölçüde artırdığını bildirdi. (Kaynak: nin_artificial, scaling01)
Meta, Code World Model (CWM)’i Yayımladı : Meta AI, kod üretimi ve çıkarımına odaklanan 32 milyar parametreli açık kaynaklı bir model olan Code World Model’i (CWM) tanıttı. CWM, statik kod, yürütme izleri ve ajan etkileşimlerini birleştirerek eğitildi; kodun sözdizimini ve semantiğini anlayabiliyor, Python yürütmesini simüle edebiliyor ve çok turlu yazılım mühendisliği görevlerini destekliyor. Ayrıca uzun bağlamları (131k token) işleme yeteneğine sahip ve SWE-bench Verified ile LiveCodeBench gibi kod karşılaştırma testlerinde üstün performans gösterdi. (Kaynak: TheTuringPost, awnihannun, ImazAngel)
Tencent Hunyuan, Parça Düzeyinde 3D Üretim için Hunyuan3D-Part’ı Tanıttı : Tencent Hunyuan, açık kaynaklı bir parça düzeyinde 3D şekil oluşturma modeli olan Hunyuan3D-Part’ı yayımladı. Bu model, P3-SAM (yerel 3D parça segmentasyon modeli) ve X-Part (parça oluşturma modeli) olmak üzere iki büyük yenilik getirerek 3D nesne şekillerinin yüksek derecede kontrol edilebilirliğini ve yüksek kaliteli üretimini sağladı. Eğitim sürecinde 2D SAM kullanımından kaçınıldı ve 3,7 milyon şekil içeren büyük ölçekli bir veri seti kullanılarak 3D üretim alanında lider sonuçlar elde edildi. (Kaynak: ImazAngel)
NVIDIA Jet-Nemotron Modeli Çıkarım Hızını Büyük Ölçüde Artırdı : NVIDIA araştırma ekibi, mevcut en iyi açık kaynaklı modellerden (Qwen3, Gemma3, Llama3.2 gibi) 53 kat daha hızlı çıkarım yapabilen ve aynı zamanda önemli bir doğruluk seviyesini koruyan yeni bir “hibrit yapı” modeli olan Jet-Nemotron’u tanıttı. Bu atılım, MLP ağırlıklarını dondurarak ve dikkat mekanizmasını optimize ederek eğitim maliyetlerini düşüren PortNAS çerçevesi sayesinde gerçekleşti. Temel yenilik olan JetBlock, dinamik evrişim kullanarak matematiksel çıkarım ve bilgi alma görevlerindeki doğruluk oranını daha da artırdı. (Kaynak: 量子位)
Tsinghua Üniversitesi OpenLens AI ile Tıbbi Araştırmalarda Tam Otomasyon Sağladı : Tsinghua Üniversitesi Otomasyon Bölümü’nden Suo Jinli’nin araştırma grubu, tıbbi bilişim için özel olarak tasarlanmış ilk tam otonom yapay zeka araştırma çerçevesi olan OpenLens AI’ı yayımladı. Bu sistem, literatür taramasından deney tasarımına, veri analizinden kod üretimine ve yayınlanabilir makale oluşturmaya kadar tüm araştırma zincirini otomatik olarak kapatabiliyor, böylece araştırma döngüsünü aylardan saatlere indiriyor. OpenLens AI, modüler ajan iş birliği ve tıbba özel kalite kontrol mekanizmaları aracılığıyla araştırmanın titizliğini, izlenebilirliğini ve yüksek kaliteli çıktısını garanti ederek tıbbi araştırmaların “sıfır insan müdahalesi” çağına girdiğini müjdeliyor. (Kaynak: 量子位)
Alibaba Tongyi Qianwen, Yerel Tam Modal Büyük Model Qwen3-Omni’yi Yayımladı : Alibaba Tongyi Qianwen, yeni nesil yerel tam modal büyük model olan Qwen3-Omni’yi resmen yayımladı. Bu model, metin, görüntü, ses ve video gibi çeşitli girdi biçimlerini sorunsuz bir şekilde işleyebiliyor ve gerçek zamanlı akış yanıtları aracılığıyla aynı anda metin ve doğal konuşma çıktısı üretebiliyor, bu da çok modlu yapay zekanın uygulama sınırlarını ve etkileşim deneyimini daha da genişletiyor. (Kaynak: 36氪)
🧰 Araçlar
Unsloth GPT-OSS Pekiştirici Öğrenme ile Çıkarım Verimliliğini Artırdı : Unsloth AI, GPT-OSS için pekiştirici öğrenme güncellemesini yayımlayarak çıkarım hızını ve VRAM verimliliğini önemli ölçüde artırdı. Yeni sürüm, GPT-OSS RL çıkarım hızını 3 kat (yaklaşık 21 token/saniye), BF16 çıkarım hızını yaklaşık 30 token/saniye artırırken, VRAM kullanımını %50 azalttı ve 8 kat daha uzun bağlam uzunluğunu destekleyerek GPT-OSS 20B modelinin 15GB VRAM içinde çalışmasını sağladı. Ayrıca, güncelleme ödül aldatmacasına karşı stratejiler içeriyor ve Vision RL’yi destekliyor. (Kaynak: danielhanchen, Reddit r/LocalLLaMA)
vLLM, Performansı Artırmak İçin Hibrit Modelleri Destekliyor : vLLM projesi, v1 sürümünün Mamba, Mamba2 ve doğrusal dikkat mekanizmaları dahil olmak üzere hibrit modelleri birinci sınıf vatandaş olarak resmi olarak desteklediğini duyurdu. Bu güncelleme, farklı türdeki model mimarilerini entegre ederek çıkarım performansını ve verimliliğini daha da artırmayı hedefliyor. (Kaynak: vllm_project)
CompLLM Sıkıştırma Teknolojisi Uzun Bağlamlı Soru-Cevabı Optimize Ediyor : CompLLM, LLM’ler için tasarlanmış, uzun bağlam işlemindeki hesaplama zorluklarını çözmeyi amaçlayan bir yazılım sıkıştırma teknolojisidir. Bu teknoloji, bağlamı bağımsız parçalara ayırarak sıkıştırıyor, doğrusal ölçeklenebilirlik, kısa dizilerden 100k token’a kadar genelleme yeteneği ve sorgular arası parça yeniden kullanımını sağlıyor. 2 kat sıkıştırma oranında CompLLM, ilk token oluşturma süresini (TTFT) 4 kat hızlandırabilir ve KV önbellek boyutunu %50 azaltırken, sıkıştırılmamış bağlamın performansını korur veya aşar. (Kaynak: HuggingFace Daily Papers, gabriberton)
LMCache Açık Kaynak Uzantısı LLM Çıkarım Verimliliğini Artırıyor : LMCache, büyük ölçekli çıkarım için bir önbellek katmanı olarak hizmet veren açık kaynaklı bir LLM hizmet motoru uzantısıdır. KV önbelleğini akıllıca yöneterek ve önceki metinlerin anahtar-değer durumlarını GPU, CPU ve yerel disk arasında yeniden kullanarak RAG maliyetlerini (4-10 kat) azaltır, ilk token oluşturma süresini (TTFT) kısaltır ve yük altında verimi artırır. NVIDIA, bunu Dynamo çıkarım projesine entegre etti. (Kaynak: TheTuringPost)
Qwen3 Coder Modeli Yerel Kodlama Yeteneklerini Geliştiriyor : Qwen3 Coder modeli, özellikle Cline ve LM Studio gibi araçlarla birleştirildiğinde tüketici düzeyindeki donanımlarda yüksek kaliteli kodlama deneyimi sunabilmesi nedeniyle yerel kodlama görevlerindeki “şaşırtıcı kararlılığı” ile dikkat çekti. Bu, geliştiricilere yerel ortamlarda LLM destekli kodlama için güçlü bir destek sağlıyor. (Kaynak: ImazAngel)
mlx-lm ve oLLM Kütüphane Güncellemeleri Yerel LLM Çıkarımını Güçlendiriyor : mlx-lm kütüphanesi güncellenerek Meta’nın Code World Model’i gibi modeller eklendi ve hibrit SSM ile kayan pencere dikkat mekanizmasının toplu çıkarım yetenekleri geliştirildi. Aynı zamanda, hafif bir Python kütüphanesi olan oLLM de tüketici düzeyindeki donanımlarda Qwen3-next-80B, GPT-OSS ve Llama3 gibi LLM’leri çalıştırmayı destekleyerek yerel model çıkarımı için daha geniş seçenekler ve daha yüksek verimlilik sunuyor. (Kaynak: awnihannun, ImazAngel, huggingface)
Replit, AI Ajanı ve Otomasyon Özelliklerini Geliştirdi : Replit, platformundaki yapay zeka ajanları ve otomasyon oluşturma yeteneklerini güçlendiriyor; artık geliştiriciler, zamanlanmış otomasyonları doğrudan kontrol panelinden gerçek zamanlı olarak test edip takip edebiliyor, bu da geliştirme verimliliğini ve kolaylığını büyük ölçüde artırıyor. (Kaynak: amasad)
OpenWebUI Kullanıcıları GPT-OSS Model Akış Sorunları Bildirdi : OpenWebUI kullanıcıları, platformu kullanarak GPT-OSS 20B bulut modelini akışla aktarırken “502: Yukarı Akış Hatası” ile karşılaştıklarını bildirdi; aynı modelin CLI ve Ollama Web UI üzerinde sorunsuz çalıştığı belirtildi. Bu durum, OpenWebUI’ın belirli LLM modelleriyle entegrasyonunda veya akış mekanizmasında sorunlar olabileceğini ve kullanıcı deneyimini etkilediğini gösteriyor. (Kaynak: Reddit r/OpenWebUI)
DeepAgent Desktop, Modelden Bağımsız Kodlama Ajanını Tanıttı : DeepAgent Desktop yayımlandı ve kodlama ajanının performans açısından Claude Code ve GPT-5 (Codex)’i geride bıraktığını iddia ediyor. Bu araç, hem CLI hem de editörde güçlü kodlama ajanı yetenekleri sunuyor ve karmaşık görevleri ele almak için birden fazla en son teknolojili modeli akıllıca kullanıyor. Bu, modelden bağımsız entegrasyon yaklaşımlarının kodlama ajanı alanında daha verimli olabileceğini gösteriyor. (Kaynak: matanSF)
AI Yerel Tarayıcı Söylentileri Pazar Dengelerini Değiştirebilir : OpenAI ve Google’ın “yapay zeka yerlisi” tarayıcılar piyasaya süreceği söylentileri dolaşıyor. Bu hamle, teknoloji devlerinin dağıtım, veri toplama ve sorunsuz yapay zeka otomasyonu alanındaki stratejik bir adımı olarak görülüyor ve yapay zeka tarayıcı eklentileri ve uzantıları sunan startup’lar için büyük bir darbe olabilir, yapay zekanın kullanıcıların günlük bilgisayar deneyimine daha derinlemesine entegre olacağını işaret ediyor. (Kaynak: dotey)
📚 Öğrenme
Python Veri Yapıları İçin Ücretsiz Kitap Önerisi : Donald R. Sheehy’nin “A First Course on Data Structures in Python” adlı eseri, veri yapıları, algoritmik düşünme, karmaşıklık analizi, özyineleme/dinamik programlama ve arama yöntemlerini öğrenmek için mükemmel bir ücretsiz kaynak olarak önerildi. Bu beceriler, yapay zeka ve makine öğrenimi alanlarının temelini oluşturur ve bu alanlara derinlemesine dalmak isteyen öğrenciler için çok değerlidir. (Kaynak: TheTuringPost, huggingface)
Derin Öğrenme ve LLM Öğrenme Kaynakları Talebi : Bir kullanıcı Reddit’te LLM’lerin iç mimarisi ve derin öğrenme hakkında en iyi öğrenme kaynaklarını sordu ve özellikle François Chollet ile Matthew Watson’ın “Deep Learning with Python, Third Edition” adlı kitabından bahsetti. Bu, yapay zeka topluluğunun yüksek kaliteli, derinlemesine LLM ve derin öğrenme eğitim içeriğine olan ihtiyacını yansıtıyor. (Kaynak: Reddit r/deeplearning)
AI Uzmanlık Yol Haritası ve AI Kısa Tarihi Paylaşıldı : Sosyal medyada, yapay zeka alanında kariyer yapmak isteyenler için öğrenme yolları ve temel beceriler konusunda rehberlik sağlayan bir yapay zeka uzmanlık yol haritası paylaşıldı. Aynı zamanda, yapay zeka teknolojisinin gelişim sürecini ve önemli kilometre taşlarını anlamalarına yardımcı olmak için yapay zekanın kısa tarihi hakkında kaynaklar da paylaşıldı. (Kaynak: Ronald_vanLoon, Ronald_vanLoon)
DSPy Başlangıç Kılavuzu ve Eğitimleri Paylaşıldı : DSPy’nin başlangıç kılavuzu sosyal medyada paylaşıldı; bu kılavuz, ana sayfasındaki örneklerin nasıl çalıştırılacağını, RAG, matematiksel çıkarım ve yapay zeka ajanları oluşturma hakkında ayrıntılı eğitimleri içeriyor. Ayrıca, kullanıcıların DSPy’nin çözdüğü sorunları ve pratik uygulama yöntemlerini kavramsal olarak anlamalarına yardımcı olacak video kaynakları da sunuldu. (Kaynak: lateinteraction)
💼 İş Dünyası
Applied Compute 500 Milyon Dolarlık Yeni Bir Finansman Turu Aldı : Üç eski OpenAI araştırmacısı tarafından kurulan ve hizmet olarak pekiştirici öğrenme (RL as a service) sunmaya odaklanan Applied Compute adlı startup’ın, Lux Capital liderliğinde 500 milyon dolarlık bir değerleme üzerinden yeni bir finansman turu gerçekleştirdiği bildirildi. Bu, önceki finansman turundan sadece üç ay sonra gerçekleşti ve pazarın RLaaS modeline ve ekibine olan yüksek güvenini gösteriyor. (Kaynak: steph_palazzolo)
Mistral AI, ASML Liderliğinde 1.7 Milyar Euro C Serisi Finansman Turunu Tamamladı : Avrupalı yapay zeka unicorn’u Mistral AI, 1,7 milyar Euro (yaklaşık 14,2 milyar CNY) değerinde C Serisi finansman turunu tamamladı ve yatırım sonrası değeri 11,7 milyar Euro’ya ulaştı. ASML, 1,3 milyar Euro ile tura liderlik etti ve %11 hisse aldı. Bu hamle, Avrupalı teknoloji devleri ile yapay zeka startup’ları arasında stratejik bir ittifak olarak görülüyor ve endüstriyel üretim alanında yapay zeka değerini ortaya çıkarmayı, Avrupa’nın yapay zeka alanındaki bağımsız gelişimini teşvik etmeyi ve dikey yapay zeka uygulamalarına odaklanmayı amaçlıyor. (Kaynak: 36氪)
Hengwei Technology, Shuxing Information’ı Satın Alarak AIRaaS’ta Öncü Oldu : Hengwei Technology, Shanghai Shuxing Information’ın %75 hissesini satın aldığını duyurarak, A-hisse piyasasında bir halka açık şirketin AIRaaS (AI Result as a Service) hedefini satın aldığı ilk örnek oldu. Bu, yapay zeka endüstrisinin sadece “hesaplama gücü satmaktan” “sonuç satmaya” doğru bir iş modeline geçişini işaret ediyor. Shuxing Information, büyük model teknolojisini endüstriyel senaryolarla birleştirme yeteneği sayesinde hızlı tüketim malları, otomotiv ve finans gibi sektörlerde kâr elde etti ve Hengwei Technology’ye donanım satışından yüksek katma değerli hizmetlere geçiş yapma fırsatı sundu. (Kaynak: 36氪)
🌟 Topluluk
ChatGPT 4o Performans Düşüşü Kullanıcıların Büyük Tepkisini Çekti : ChatGPT Plus kullanıcıları, GPT-4o modelinin performansında ve “kişiliğinde” belirgin bir düşüş olduğunu yaygın olarak bildirdi. Birçok kullanıcı, 4o’yu seçseler bile, özellikle “hassas” veya “duygusal” istemleri işlerken konuşmaların gizlice GPT-5’e yönlendirildiğini iddia etti, bu da yanıtların “soğuk, tembel ve duygusal zekadan yoksun” hale gelmesine neden oldu. Kullanıcılar bu durumdan “aldatılmış” ve ihanete uğramış hissederek OpenAI’ın şeffaflığını ve dürüstlüğünü sorguladı ve ücretli ürünlerinden duydukları memnuniyetsizliği dile getirdi. (Kaynak: Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, menhguin)
AI Ajanları: Abartı ve Gerçeklik Arasındaki Fark : Sosyal medyadaki yapay zeka ajanları hakkındaki tartışmalar, onların iddialı vizyonları ile mevcut gerçek yetenekleri arasındaki farkı ortaya koydu. Eski Google CEO’su Eric Schmidt, “yapay zekanın kendini geliştirebileceğine dair hiçbir kanıt olmadığını” belirtti. Geliştiriciler, yapay zeka ajanlarına daha fazla özgürlük vermenin genellikle daha kötü sonuçlara yol açtığını, gerçek anlamda başarılı ajanların ise sıkı bir şekilde kontrol edilen ve belirli görevlere odaklanmış yardımcı araçlar olduğunu bildirdi. Bu durum, yapay zeka ajanlarının olgunluk seviyesinin beklentilerin çok altında olduğunu ve hala yoğun insan müdahalesi ile detaylı yönetim gerektirdiğini gösteriyor. (Kaynak: Reddit r/ArtificialInteligence, dotey)
Flash Attention 4 Performansının Derinlemesine Analizi Büyük İlgi Gördü : 4000 kelimelik Flash Attention 4 derinlemesine teknik analiz makalesi, bu teknolojinin %20’lik performans artışını nasıl sağladığını ayrıntılı olarak açıklayarak geniş çaplı tartışmalara yol açtı. Makale, temel optimizasyonlarının daha karmaşık warp-specialized asenkron boru hatları, “yazılım softmax” için yenilikçi kübik yaklaşımlı üstel fonksiyon ve sayısal kararlılık için verimli yeniden ölçeklendirme içerdiğini ortaya koydu. Bu teknik detaylar, yapay zeka topluluğuna verimli dikkat mekanizmaları hakkında derinlemesine bir anlayış kazandırdı. (Kaynak: charles_irl, akshat_b, TheZachMueller, jonst0kes, atroyn, swyx, dejavucoder)
AI’ın İstihdam ve Sosyal Etkileri Üzerine Derinlemesine Tartışma : Sam Altman, gelecekte ekonomik görevlerin %30-40’ının yapay zeka tarafından yerine getirileceğini ve bunun mesleki dönüşümü hızlandıracağını öngördü. “Öğrenmeyi öğrenme”, adaptasyon, dayanıklılık, insan ihtiyaçlarını anlama ve kişilerarası etkileşimlerin gelecekteki temel beceriler olduğunu vurguladı. Tartışmalar ayrıca, “zihin uyuşturucuları” ve yapay zeka tarafından üretilen içeriğin interneti kirletmesi gibi yapay zekanın sosyal etik üzerindeki etkilerini, yapay zekanın iş görevlerini değiştirme ve yeni fırsatlar yaratma arasındaki dengeyi de kapsadı. (Kaynak: dotey, Ronald_vanLoon, TheEthanDing, swyx, cloneofsimo, MillionInt, glennko, Reddit r/ArtificialInteligence)
AI Etiği: Güven, Gizlilik ve Kontrol Zorlukları : Sosyal medya tartışmaları, veri gizliliği, yapay zeka ajanlarının reklam finansmanı ve güven sorunları ile yapay zekanın artan gücünün toplum üzerindeki geniş etkileri dahil olmak üzere yapay zeka etiği zorluklarına odaklandı. Topluluk, yapay zeka sistemlerinin şeffaflığını artırmaya çağırdı ve yapay zekanın “zekanın kendisi için zeka” mı yoksa insan refahını mı önceliklendirmesi gerektiği konusunda bir tartışma başlattı. Bu tartışmalar, halkın yapay zeka gelişim yönüne dair derin endişelerini yansıtıyor. (Kaynak: Ronald_vanLoon, pmddomingos, Reddit r/ChatGPT, Reddit r/ArtificialInteligence)
💡 Diğer
Unitree G1 Robotunda Bluetooth Güvenlik Açığı Ortaya Çıktı : Unitree G1 insansı robotunun (Go2, H1, B2 dahil olabilir) ciddi bir Bluetooth güvenlik açığına sahip olduğu ortaya çıktı. Bluetooth menzili içindeki herhangi bir cihaz, sabit kodlanmış bir AES anahtarını kullanarak root komutlarını çalıştırabilir, böylece robotu kontrol edebilir veya bir arka kapı yerleştirebilir. Bazı eski bellenim sürümlerindeki güvenlik açıkları düzeltilmiş olsa da, sabit kodlanmış anahtarın temel güvenlik kusuru hala devam ediyor ve yapay zeka robotlarının güvenliğine ilişkin endişeleri artırıyor. (Kaynak: Sentdex, teortaxesTex)
AI ve Kuantum Hesaplamanın Sinerjik Gelişimi : Sosyal tartışmalar, kuantum hesaplamanın siber güvenlik alanındaki dönüştürücü potansiyelini vurguladı ve NVIDIA’nın hibrit kuantum-klasik programlamayı desteklemek için CUDA-Q ve DGX Quantum gibi platformlar geliştirerek kuantum startup’larına aktif olarak yatırım yaptığını belirtti. Bu durum, sektörün kuantum teknolojisi ile yapay zekanın sinerjisini ve ticari uygulamalardaki potansiyelini giderek daha fazla fark ettiğini gösteriyor. (Kaynak: Ronald_vanLoon, TheTuringPost)
Modular Manifolds: Sinir Ağı Optimizasyonunda Yeni Bir Teori : Thinking Machines, ağırlık matrislerine manifold kısıtlamaları uygulayarak optimize edicileri ortaklaşa tasarlayarak daha istikrarlı ve yüksek performanslı sinir ağı eğitimi sağlayan “Modular Manifolds” teorisini öne sürdü. Bu teori, sinir ağı optimizasyonunun geometrik özelliklerini derinlemesine inceleyerek Adam gibi geleneksel optimizasyon yöntemlerinin ötesine geçmeyi hedefliyor ve yapay zeka araştırmaları için yeni bir yön sunuyor. (Kaynak: thinkymachines, dejavucoder, johnschulman2, giffmana, menhguin, jeremyphoward, rown, suchenzang, teortaxesTex, zacharynado)