Anahtar Kelimeler:LLM etkileşim arayüzü, AGI tartışması, Gemini Uygulama stratejisi, AI eş etiği, Qwen3 modeli, RAG teknolojisi, Transformer alternatif mimarisi, AI model yayınlama, Karpathy görselleştirme etkileşim arayüzü, Agentic RAG temel unsurları, Liquid Foundation Models mimarisi, Phi-4-Reasoning eğitim yöntemi, NotebookLM sistem istemi ters mühendisliği

🔥 Odak

Karpathy’nin gelecekteki LLM etkileşim arayüzleri üzerine vizyonu: Karpathy, gelecekte LLM’lerle etkileşimin mevcut metin terminali modunu aşarak görsel, üretken, etkileşimli 2D tuval arayüzlerine dönüşeceğini öngörüyor. Bu arayüzler, kullanıcı ihtiyaçlarına göre anında oluşturulacak, resimler, grafikler, animasyonlar gibi çeşitli öğeleri entegre ederek daha yüksek bilgi yoğunluğu ve daha sezgisel bir deneyim sunacak; bu, “Iron Man” gibi bilim kurgu eserlerindeki tasvirlere benziyor. Mevcut Markdown, kod blokları vb.nin sadece erken prototipler olduğunu düşünüyor (kaynak: karpathy)

Karpathy'nin gelecekteki LLM etkileşim arayüzleri üzerine vizyonu

AGI’nin kritik bir dönüm noktası olup olmadığı şiddetli tartışmalara yol açıyor: Arvind Narayanan ve Sayash Kapoor, AI Snake Oil’de yayınladıkları makalede AGI (Yapay Genel Zeka) kavramını derinlemesine inceliyor ve bunun net bir teknolojik dönüm noktası veya ani bir değişim noktası olmadığını savunuyorlar. Makale, ekonomik etki (yayılma zaman alır), jeopolitik (yetenek güce eşit değildir), riskler (yetenek ve gücü ayırt etme), tanım zorlukları (geriye dönük yargılama) gibi çeşitli açılardan, belirli bir AGI yetenek eşiğine ulaşılsa bile bunun hemen yıkıcı ekonomik veya sosyal etkilere yol açmayacağını savunuyor. AGI’ye aşırı odaklanmanın, mevcut AI’nin gerçek sorunlarına yönelik dikkati dağıtabileceğini belirtiyorlar (kaynak: random_walker, random_walker, random_walker, random_walker, random_walker)

AGI'nin kritik bir dönüm noktası olup olmadığı şiddetli tartışmalara yol açıyor

Google DeepMind yöneticisi Gemini App stratejisini açıklıyor: Demis Hassabis, Josh Woodward’ın Gemini App’in gelecek stratejisi hakkındaki açıklamasını iletti ve onayladı. Strateji üç ana çekirdek etrafında dönüyor: Kişiselleştirme (Personal), kullanıcıların Google ekosistemi verilerini (Gmail, Photos vb.) entegre ederek kullanıcıyı daha iyi anlayan hizmetler sunmak; Proaktiflik (Proactive), kullanıcı sormadan önce ihtiyaçları öngörerek içgörüler ve eylem önerileri sunmak; Güçlü Yetenek (Powerful), DeepMind modellerini (örneğin 2.5 Pro) araştırma, düzenleme ve çok modlu içerik üretimi için kullanmak. Hedef, kullanıcının bir uzantısı gibi hissettiren, güçlü bir kişisel AI asistanı oluşturmak (kaynak: demishassabis)

Meta’nın AI arkadaşları geliştirmesi etik ve sosyal tartışmalara yol açıyor: Mark Zuckerberg bir röportajda, Meta’nın insanların sosyal ihtiyaçlarını karşılamak için AI arkadaşları/partnerleri geliştirdiğini belirtti (“ortalama bir Amerikalının 3 arkadaşı var, ancak ihtiyaç 15”). Bu plan geniş çaplı tartışmalara yol açtı; bir yandan yalnız insanlar için teselli sağlayabilirken, diğer yandan gerçek sosyal etkileşimi daha da aşındırıp aşındırmayacağı, sosyal atomizasyonu artırıp artırmayacağı ve veri gizliliği gibi etik endişeleri gündeme getirdi (kaynak: Reddit r/artificial, dwarkesh_sp, nptacek)

Meta'nın AI arkadaşları geliştirmesi etik ve sosyal tartışmalara yol açıyor

🎯 Gelişmeler

AI model yayınlama dalgası devam ediyor: Son zamanlarda birçok kurum yeni modeller yayınladı: Alibaba Qwen3 serisini (0.6B’den 235B MoE’ye kadar) yayınladı; AI2, Gemma 3 1B ve Llama 3.2 1B’den daha iyi performans gösteren OLMo 2 1B modelini yayınladı; Microsoft Phi-4 serisini (Mini 3.8B, Reasoning 14B) yayınladı; DeepSeek Prover V2 671B MoE’yi yayınladı; Xiaomi MiMo 7B’yi yayınladı; Kyutai Helium 2B’yi yayınladı; JetBrains Mellum 4B kod tamamlama modelini yayınladı. Açık kaynak topluluğu modellerinin yetenekleri hızla artmaya devam ediyor (kaynak: huggingface, teortaxesTex, finbarrtimbers, code_star, scaling01, ClementDelangue, tokenbender, karminski3)

AI model yayınlama dalgası devam ediyor

Qwen3 serisi modelleri dikkat çekici performans sergiliyor: Topluluk geri bildirimleri Qwen3 serisi modellerinin üstün performans gösterdiğini ortaya koyuyor. Qwen3 32B’nin o3-mini seviyesine ulaştığı ve daha düşük maliyetli olduğu düşünülüyor; Qwen3 4B, belirli testlerde (örneğin “strawberry” kelimesindeki R harfini sayma) ve RAG görevlerinde mükemmel performans gösteriyor, hatta kullanıcılar tarafından Gemini 2.5 Pro yerine kullanılıyor; 30B MoE modeli çok dilli çeviride (lehçeler dahil) olağanüstü yeteneklere sahip. Bir kullanıcı, Qwen3 235B MoE’nin cevap veremediğinde zorla uydurmak yerine bilgi sınırlarını kabul ettiğini gözlemledi, bu da halüsinasyon yönetiminde iyileşmeler olabileceğini düşündürüyor (kaynak: scaling01, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA, teortaxesTex, scaling01)

Qwen3 serisi modelleri dikkat çekici performans sergiliyor

Geri çağırma ve RAG teknolojisi gelişmeye devam ediyor: Akıl yürütme görevleri için özel olarak eğitilmiş ilk geri çağırıcı olan ReasonIR-8B yayınlandı ve ilgili benchmark testlerinde SOTA (State-of-the-Art) sonuçlar elde etti. Agentic RAG kavramı vurgulanıyor; çekirdeği, RAG sürecini geliştirmek için bellek (kısa ve uzun vadeli), araç çağırma ve akıl yürütme (planlama, yansıtma) kullanmaktır. Bir kullanıcı, Agentic RAG görevlerinde yerel LLM’leri (Qwen3, Gemma3, Phi-4) karşılaştırmalı olarak test etti ve Qwen3’ün daha iyi performans gösterdiğini buldu (kaynak: Tim_Dettmers, Muennighoff, bobvanluijt, Reddit r/LocalLLaMA)

Geri çağırma ve RAG teknolojisi gelişmeye devam ediyor

Liquid AI, Transformer alternatifi mimari sunuyor: Liquid AI tarafından önerilen Liquid Foundation Models (LFMs) ve Hyena Edge modeli, Transformer mimarisine potansiyel bir alternatif olarak tanıtıldı. LFMs, dinamik sistemlere dayanır ve özellikle bellek verimliliği ve çıkarım hızı açısından sürekli girdileri ve uzun dizi verilerini işleme verimliliğini artırmayı hedefler ve gerçek donanım üzerinde benchmark testleri yapılmıştır (kaynak: TheTuringPost, Plinz, maximelabonne)

Liquid AI, Transformer alternatifi mimari sunuyor

NVIDIA Parakeet ASR modeli rekor kırdı: NVIDIA tarafından yayınlanan Parakeet-tdt-0.6b-v2 otomatik konuşma tanıma (ASR) modeli, Hugging Face’in Open-ASR-Leaderboard’unda %6.05 kelime hata oranı (WER) ile sektördeki en iyi seviyeye ulaştı. Bu model sadece yüksek doğruluk oranına sahip olmakla kalmaz, aynı zamanda hızlı çıkarım hızına (RTFx 3386) ve şarkıdan şarkı sözü transkripsiyonu, hassas zaman damgası/sayı biçimlendirme gibi yenilikçi özelliklere de sahiptir (kaynak: huggingface, ClementDelangue)

NVIDIA Parakeet ASR modeli rekor kırdı

Google Arama AI Modu ABD kullanıcılarına tamamen açıldı: Google, arama ürünündeki AI Modu (AI Mode) için bekleme listesini kaldırarak tüm ABD bölgesindeki Labs kullanıcılarına açtığını duyurdu. Aynı zamanda, kullanıcıların alışveriş, yerel yaşam planlaması gibi görevleri tamamlamalarına yardımcı olmak için yeni özellikler ekledi ve AI yeteneklerini temel arama deneyimine daha fazla entegre etti (kaynak: Google)

Gemini App yerel görüntü düzenleme özelliğini sunuyor: Google’ın Gemini App’i, kullanıcılara yerel görüntü düzenleme özelliklerini sunmaya başladı. Bu, kullanıcıların doğrudan Gemini uygulaması içinde resimler üzerinde değişiklik yapabileceği anlamına geliyor, bu da çok modlu etkileşim yeteneklerini artırıyor ve kullanıcıların tek bir arayüzde görüntüyle ilgili daha fazla görevi tamamlamasını sağlıyor (kaynak: m__dehghani)

Gemini App yerel görüntü düzenleme özelliğini sunuyor

Meta SAM 2.1 modeli yeni görüntü düzenleme özelliklerini güçlendiriyor: Meta, en son Segment Anything Model (SAM) 2.1 teknolojisinin Instagram’ın yeni Edits uygulamasındaki Cutouts (kesip çıkarma) özelliğini nasıl desteklediğini açıklayan bir blog yazısı yayınladı. Bu, temel model araştırmasının nasıl hızla tüketiciye yönelik ürün özelliklerine dönüştüğünü ve görüntü düzenlemenin akıllı seviyesini nasıl yükselttiğini gösteriyor (kaynak: AIatMeta)

Claude Code özelliği Max aboneliğine entegre edildi: Anthropic, kod işleme ve araç kullanma özelliği olan Claude Code’un artık Claude Max abonelik planına dahil olduğunu duyurdu, kullanıcılar ek Token ücreti ödemeden kullanabilirler. Ancak topluluk kullanıcıları, Max aboneliğiyle gelen API çağrı sayısı sınırının (örneğin 5 saatte 225 çağrı), araçları sık kullanan (her çağrı 2 API tüketir) senaryolar için hızla tükenebileceğine dikkat çekti (kaynak: dotey, vikhyatk)

Claude Code özelliği Max aboneliğine entegre edildi

CISCO, siber güvenlik için özel LLM yayınladı: CISCO, seçkin siber güvenlik metin külliyatı (tehdit istihbaratı, güvenlik açığı veritabanları, olay müdahale belgeleri ve güvenlik standartları dahil) üzerinde Llama 3.1 8B’yi ön eğitmeye devam ederek Foundation-Sec-8B modelini piyasaya sürdü. Bu model, birden fazla güvenlik alanındaki kavramları, terminolojiyi ve uygulamaları derinlemesine anlamayı hedefliyor ve LLM’lerin dikey alanlardaki uygulamalarının bir başka örneğidir (kaynak: reach_vb)

🧰 Araçlar

Transformer Lab: Yerel LLM deney platformu: Kullanıcıların kendi bilgisayarlarında LLM’lerle etkileşim kurmasını, eğitmesini, ince ayar yapmasını (MLX/Apple Silicon, Huggingface/GPU, DPO/ORPO vb. destekler) ve değerlendirmesini sağlayan açık kaynaklı masaüstü uygulaması. Model indirme, RAG, veri kümesi oluşturma, API gibi özellikler sunar ve Windows, MacOS, Linux’u destekler (kaynak: transformerlab/transformerlab-app)

Transformer Lab: Yerel LLM deney platformu

Runway Gen-4 References: Güçlü görüntü referanslı üretim aracı: Runway’in Gen-4 References özelliği, güçlü görüntü üretme ve düzenleme yeteneklerini sergiliyor. Kullanıcılar referans görüntüleri kullanarak, metin istemleriyle birleştirerek tutarlı tarzda karakterler, dünya görüşleri, oyun öğeleri, grafik tasarım unsurları üretebilir, hatta bir sahnenin stilini başka bir odanın dekorasyonuna uygulayarak yapı ve ışıklandırma tutarlılığını koruyabilir (kaynak: c_valenzuelab, c_valenzuelab, c_valenzuelab, c_valenzuelab, c_valenzuelab)

Runway Gen-4 References: Güçlü görüntü referanslı üretim aracı

Gradio, MCP protokolünü entegre ederek LLM bağlantısını açıyor: Gradio, Model Context Protocol (MCP) desteğini güncelledi, bu da Gradio tabanlı AI uygulamalarının (metinden sese, görüntü işleme vb.) kolayca MCP sunucularına dönüştürülmesini ve Claude, Cursor gibi MCP destekleyen LLM istemcilerine bağlanmasını sağlıyor. Bu, LLM’lerin araç çağırma yeteneklerini büyük ölçüde genişletiyor ve Hugging Face’teki yüz binlerce AI uygulamasını LLM ekosistemine bağlama potansiyeli taşıyor (kaynak: _akhaliq, ClementDelangue, swyx, ClementDelangue)

Gradio, MCP protokolünü entegre ederek LLM bağlantısını açıyor

LangChain Agent Chat UI, Artifacts’ı destekliyor: LangChain’in Agent Chat UI’si, Artifacts (yapı taşları) desteğini ekledi. Bu, AI tarafından oluşturulan UI bileşenlerinin (grafikler, etkileşimli öğeler vb.) sohbet arayüzünün dışında oluşturulmasına olanak tanır ve akış (streaming) ile birleştiğinde, geleneksel sohbet balonlarının ötesinde daha zengin etkileşimli kullanıcı deneyimleri oluşturabilir (kaynak: hwchase17, Hacubu, LangChainAI)

Alibaba MNN çerçevesi: Uç cihazlarda LLM ve Diffusion dağıtımı: Alibaba’nın MNN’i hafif bir derin öğrenme çerçevesidir; MNN-LLM ve MNN-Diffusion bileşenleri, mobil cihazlarda, PC’lerde ve IoT cihazlarında büyük dil modellerini (Qwen, Llama gibi) ve Stable Diffusion modellerini verimli bir şekilde çalıştırmaya odaklanır. Proje, Android ve iOS için eksiksiz çok modlu LLM uygulama örnekleri sunar (kaynak: alibaba/MNN)

Alibaba MNN çerçevesi: Uç cihazlarda LLM ve Diffusion dağıtımı

Perplexity, WhatsApp doğruluk kontrolü botunu başlattı: Perplexity AI, artık kullanıcıların WhatsApp mesajlarını özel numarasına (+1 833 436 3285) ileterek hızlı bir şekilde doğruluk kontrolü sonuçları almasına olanak tanıyor. Bu, grup sohbetlerinde yaygın olarak dolaşan ve yanıltıcı olabilecek bilgileri doğrulamak için çok kullanışlıdır (kaynak: AravSrinivas)

Brave tarayıcısı, çerez (Cookie) pencereleriyle savaşmak için AI kullanıyor: Brave tarayıcısı, web sayfalarındaki çerez onay bildirim pencerelerini otomatik olarak algılamak ve engellemek için AI ve topluluk geri bildirimlerini kullanan Cookiecrumbler adlı yeni bir araç çıkardı. Kullanıcıların gezinme deneyimini ve gizlilik korumasını iyileştirmeyi ve kesintileri azaltmayı amaçlıyor (kaynak: Reddit r/artificial )

Brave tarayıcısı, çerez (Cookie) pencereleriyle savaşmak için AI kullanıyor

Açık kaynak robot kolu SO-101 yayınlandı: TheRobotStudio, SO-100’ün yeni nesil versiyonu olarak SO-101 standart açık robot kolu tasarımını yayınladı. Kablolama iyileştirildi, montaj basitleştirildi ve ana kolun motoru güncellendi. Tasarım, uçtan uca robot AI’nın erişilebilirliğini artırmak için açık kaynaklı LeRobot kütüphanesiyle birlikte kullanılmak üzere tasarlandı. DIY kılavuzları ve kit satın alma seçenekleri sunulmaktadır (kaynak: TheRobotStudio/SO-ARM100)

Açık kaynak robot kolu SO-101 yayınlandı

📚 Öğrenme

Microsoft Phi-4-Reasoning teknik raporu analizi: Rapor, güçlü küçük akıl yürütme modelleri eğitmenin temel deneyimlerini ortaya koyuyor: özenle oluşturulmuş SFT (denetimli ince ayar) performans artışının ana kaynağıdır, RL (pekiştirmeli öğrenme) ise işin süsüdür; SFT için modele en “öğretici” (zorluk seviyesi uygun) veriler seçilmelidir; standart cevabı olmayan verilerin zorluğunu değerlendirmek için öğretmen modelin çoğunluk oylaması kullanılmalıdır; alan özelinde ince ayarlanmış modellerin sinyalleri, nihai SFT veri karışım oranını yönlendirmek için kullanılmalıdır; SFT’ye akıl yürütmeye özgü sistem istemleri eklemek sağlamlığı artırmaya yardımcı olur (kaynak: ClementDelangue, seo_leaders)

Microsoft Phi-4-Reasoning teknik raporu analizi

Google NotebookLM sistem istemlerinin tersine mühendisliği: Bir kullanıcı, tersine mühendislik yoluyla Google NotebookLM’in olası sistem istemlerini türetti. Temel fikir, kısa bir süre içinde (örneğin 5 dakika), “hevesli rehber + sakin analist” ikili rol sesi benimseyerek, verilen kaynaklara sıkı sıkıya bağlı kalarak, verimlilik ve derinlik arayan öğrenciler için nesnel, tarafsız ve ilginç içgörüler damıtmak; nihai hedef, eyleme geçirilebilir veya aydınlanma sağlayan bilişsel değer sunmaktır (kaynak: dotey, dotey, karminski3)

Agentic RAG temel kavram analizi: Agentic RAG, geleneksel RAG sürecini geliştirmek için AI Agent’ları kullanır. Temel unsurları şunlardır: 1) Bellek (Memory), mevcut konuşmayı izleyen kısa süreli bellek ve geçmiş bilgileri depolayan uzun süreli bellek olarak ikiye ayrılır; 2) Araçlar (Tools), LLM’nin önceden tanımlanmış araçlarla etkileşime girmesini sağlayarak yeteneklerini genişletir; 3) Akıl Yürütme (Reasoning), karmaşık sorunları küçük adımlara ayırmayı içeren planlama (Planning) ve ilerlemeyi değerlendirip yöntemleri ayarlamayı içeren yansıtma (Reflecting) (kaynak: bobvanluijt)

Agentic RAG temel kavram analizi

MILS: Saf metin LLM’lerinin çok modlu içeriği anlamasını sağlama: Meta ve diğer kurumlar, saf metin LLM’lerinin ek eğitim olmadan görüntüleri, videoları ve sesleri doğru bir şekilde tanımlamasını sağlayan Multimodal Iterative LLM Solver (MILS) yöntemini önerdi. MILS, LLM’yi önceden eğitilmiş çok modlu gömme modelleriyle eşleştirir; bu modeller, üretilen metnin medya içeriğiyle eşleşme derecesini değerlendirir ve LLM, bu geri bildirime dayanarak eşleşme derecesi hedefe ulaşana kadar açıklamayı yinelemeli olarak optimize eder. Birden fazla veri kümesinde, özel olarak eğitilmiş çok modlu modelleri geride bırakmıştır (kaynak: DeepLearningAI)

MILS: Saf metin LLM'lerinin çok modlu içeriği anlamasını sağlama

Jupyter Notebook gizli özelliklerinin keşfi: AI çağında, Python geliştiricileri için önemli bir araç olan Jupyter Notebook’un potansiyeli tam olarak keşfedilmemiştir. Temel veri analizi ve görselleştirmenin yanı sıra, gizli özelliklerini kullanarak hızla Web uygulamaları oluşturmak veya REST API’leri oluşturmak, uygulama senaryolarını genişletmek mümkündür (kaynak: jeremyphoward)

Jupyter Notebook gizli özelliklerinin keşfi

LlamaIndex fatura kontrol Agent’ı oluşturma eğitimi: LlamaIndex, LlamaIndex.TS ve LlamaCloud kullanarak otomatik fatura kontrol Agent’ı oluşturma eğitimi ve açık kaynak kodunu yayınladı. Bu Agent, faturaların ilgili sözleşme şartlarına uygun olup olmadığını otomatik olarak kontrol edebilir, karmaşık sözleşmeleri ve farklı düzenlerdeki faturaları işleyebilir, bilgileri tanımlamak için LLM’leri, sözleşmeleri eşleştirmek için vektör aramayı kullanabilir ve uygun olmayan maddeler için ayrıntılı açıklamalar sunabilir; bu, Agentic belge iş akışlarının pratik uygulamasını gösterir (kaynak: jerryjliu0)

LLM değerlendirmesinin zorlukları ve yansımaları: Topluluk tartışmaları, LLM değerlendirmesindeki zorlukları vurguluyor. Bir yandan, sınırlı sayıda sorusu olan benchmark testleri (AIME gibi) için, rastgelelik etkisi nedeniyle tek çalıştırma sonuçları çok gürültülüdür ve güvenilir sonuçlar elde etmek için birden çok (örneğin 50-100 kez) çalıştırma yapılması ve hata aralıklarının raporlanması gerekir. Diğer yandan, Agent’ları eğitmek veya değerlendirmek için kullanım metriklerini (kullanıcı beğenileri/beğenmemeleri gibi) aşırı optimize etmek, beklenmedik sonuçlara (modelin olumsuz geri bildirim alan bir dili kullanmayı bırakması gibi) yol açabilir ve daha kapsamlı değerlendirme yöntemleri gerektirir (kaynak: _lewtun, zachtratar, menhguin)

LLM değerlendirmesinin zorlukları ve yansımaları

Shunyu Yao: AI ilerlemesi üzerine düşünceler ve beklentiler: _jasonwei, Shunyu Yao’nun blog yazısındaki görüşlerini özetledi. Makale, AI gelişiminin “devre arasında” olduğunu, ilk yarının yöntem makaleleri tarafından yönlendirildiğini, ikinci yarıda ise değerlendirmenin eğitimden daha önemli olacağını savunuyor. Kritik dönüm noktası, RL’nin (pekiştirmeli öğrenme) doğal dil akıl yürütme ön bilgilerini birleştirmesiyle gerçekten etkili olmaya başlamasıdır. Gelecekte, değerlendirme sistemlerini yeniden düşünmek, sadece benchmark testlerinde “zirveye tırmanmak” yerine gerçek dünya uygulamalarına daha yakın hale getirmek gerekiyor (kaynak: _jasonwei)

💼 İş Dünyası

LlamaIndex, Databricks ve KPMG’den stratejik yatırım aldı: LlamaIndex, Databricks ve KPMG’den yatırım aldığını duyurdu. Bu yatırım, LlamaIndex’in kurumsal düzeydeki AI uygulamalarındaki konumunu, özellikle yapılandırılmamış belgeleri (sözleşmeler, faturalar gibi) işlemek için AI Agent’ları kullanarak iş akışlarını otomatikleştirme konusunda güçlendirmeyi amaçlıyor. İşbirliği, LlamaIndex’in çerçevesini, LlamaCloud araçlarını ve Databricks ile KPMG’nin AI altyapısı ve çözüm sunumundaki avantajlarını birleştirecek (kaynak: jerryjliu0, jerryjliu0)

LlamaIndex, Databricks ve KPMG'den stratejik yatırım aldı

Modern Treasury, AI Agent’ını başlattı: Modern Treasury, AI Agent ürününü yayınladı. Bu Agent, ödeme kanalları ve banka entegrasyonları arasındaki ödeme bilgilerini anlamak için özel olarak tasarlanmıştır ve Modern Treasury’nin uzmanlığını daha fazla kullanıcıya ulaştırmayı hedefler. Workspace platformuyla birleşerek, AI destekli izleme, görev yönetimi ve işbirliği özellikleri sunarak finansal operasyonların akıllı seviyesini yükseltir (kaynak: hwchase17, hwchase17)

Sam Altman, Microsoft CEO’su Satya Nadella’yı OpenAI’de ağırladı: OpenAI CEO’su Sam Altman, sosyal medyada Microsoft CEO’su Satya Nadella ile yeni ofislerinde buluştuğu bir fotoğraf yayınladı ve OpenAI’nin son gelişmeleri hakkında konuştuklarını belirtti. Bu buluşma, iki şirketin AI alanındaki sıkı işbirliği ilişkisini vurguluyor (kaynak: sama)

Sam Altman, Microsoft CEO'su Satya Nadella'yı OpenAI'de ağırladı

🌟 Topluluk

Karpathy’nin “Vibe Coding” deneyi ve yansımaları: Andrej Karpathy, LLM (Claude/o3) kullanarak “Vibe Coding” (doğrudan kod yazmak yerine esas olarak doğal dil talimatları aracılığıyla) ile eksiksiz bir Web uygulaması (MenuGen, menü öğesi resim oluşturucu) oluşturma deneyimini paylaştı. Yerel demonun heyecan verici olmasına rağmen, bunu gerçek bir uygulama olarak dağıtmanın hala zorluklarla dolu olduğunu, LLM’lerin doğrudan yönetmekte zorlandığı çok sayıda yapılandırma, API anahtar yönetimi, hizmet entegrasyonu vb. içerdiğini fark etti. Bu durum, mevcut AI destekli geliştirmenin sınırlılıkları hakkında tartışmalara yol açtı (kaynak: karpathy, nptacek, RichardSocher)

Karpathy'nin "Vibe Coding" deneyi ve yansımaları

Topluluk eski AI modellerinin korunması çağrısında bulunuyor: OpenAI gibi şirketlerin eski modelleri kullanımdan kaldırma uygulamalarına karşı toplulukta, GPT-4-base, Sydney (erken Bing Chat) gibi dönüm noktası niteliğinde veya benzersiz yeteneklere sahip modellerin, AI tarihi araştırmaları, bilimsel keşifler (örneğin RLHF olmayan önceden eğitilmiş modellerin özelliklerini anlama) ve belirli model sürümlerine bağımlı kullanıcılar için önemli bir değere sahip olduğu ve sadece ticari nedenlerle kalıcı olarak arşivlenmemesi gerektiği yönünde sesler yükseliyor (kaynak: jd_pressman, gfodor)

Geliştirici model tercihleri tartışması: Cursor tarafından yayınlanan geliştirici model tercihleri grafiği tartışmalara yol açtı. Grafik, geliştiricilerin farklı görevlerdeki (kod oluşturma, hata ayıklama, sohbet vb.) model seçimlerini gösteriyor. Topluluk üyeleri kendi deneyimleriyle yorum yapıyor; örneğin tokenbender kodlama için Gemini 2.5 Pro + Sonnet kombinasyonunu, arama için o3/o4-mini’yi tercih ediyor; Cline kullanıcıları ise Gemini 2.5 Pro’nun uzun bağlam yeteneğini daha çok seviyor. Bu, farklı modellerin belirli senaryolardaki avantajlarını/dezavantajlarını ve kullanıcı seçimlerinin çeşitliliğini yansıtıyor (kaynak: tokenbender, cline, lmarena_ai)

Geliştirici model tercihleri tartışması

AI araçlarının günlük işlere bağımlılığı artıyor: Topluluk tartışmaları, AI araçlarının (ChatGPT, Gemini, Claude gibi) giderek yeni bir oyuncaktan günlük iş akışlarının bir parçasına dönüştüğünü yansıtıyor. Kullanıcılar kodlama, belge özetleme, görev yönetimi, e-posta işleme, müşteri araştırması, veri sorgulama gibi alanlardaki pratik uygulamalarını paylaşıyor ve AI’nin verimliliği önemli ölçüde artırdığını, ancak hala manuel kontrol ve denetim gerektirdiğini belirtiyorlar. Ancak bazı kullanıcılar model performansındaki dalgalanmaların veya belirli özelliklerin (bellek gibi) yeni sorunlara (örüntü çökmesi gibi) yol açabileceğine de dikkat çekiyor (kaynak: Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence, cto_junior, Reddit r/ChatGPT)

LLM halüsinasyonları ve güven sorunları ilgi görmeye devam ediyor: Kullanıcılar, ChatGPT o3 modelinin bilgi kaynağı sorulduğunda, 2018’de bir konferansta “bizzat duyduğunu” iddia ettiği bir vakayı paylaştı; bu, LLM’lerin bilgi uydurma (halüsinasyon) sorununu vurguluyor. Bu, kullanıcıların AI tarafından üretilen içeriği eleştirel bir gözle incelemesi ve doğruluk kontrolü yapması gerektiğini, çıktısına tamamen güvenmemesi gerektiğini bir kez daha hatırlatıyor (kaynak: Reddit r/ChatGPT, Reddit r/artificial)

LLM halüsinasyonları ve güven sorunları ilgi görmeye devam ediyor

AI’nin mühendislerin yerini alacağı tartışmaları yeniden alevlendi: Facebook’un kıdemli yazılım mühendislerini AI ile değiştirmeyi planladığına dair (doğrulanmamış) söylentiler toplulukta tartışmalara yol açtı. Çoğu yorumcu, mevcut LLM yeteneklerinin (özellikle kıdemli) mühendislerin yerini almaktan çok uzak olduğunu, daha çok yardımcı bir araç olarak görüldüğünü belirtiyor. Deneyimli geliştiriciler, LLM tarafından üretilen “neredeyse doğru” kodun genellikle hiç kod olmamasından daha fazla zaman aldığını ve karmaşık görevlerin Prompt aracılığıyla etkili bir şekilde tanımlanmasının zor olduğunu belirtiyorlar. Bu tür söylentiler daha çok işten çıkarma bahanesi veya AI yeteneklerinin abartılması olabilir (kaynak: Reddit r/ArtificialInteligence)

Yüzlerce tekrar eden resim üretme eğiliminin eleştirisi: Toplulukta “aynı veya benzer 100 resmi tekrar tekrar üretme” eğiliminin durdurulması çağrısında bulunan gönderiler ortaya çıktı. Gönderiyi yapanlar, bu uygulamanın AI görüntü üretiminin rastgeleliğini (bilinen bir gerçek) kanıtlamak dışında bir yenilik sunmadığını ve çok sayıda tekrar eden üretimin büyük miktarda hesaplama kaynağı tükettiğini, gereksiz enerji israfına neden olduğunu ve diğer kullanıcıların normal kullanımını etkileyebileceğini savunuyor (kaynak: Reddit r/ChatGPT, Reddit r/ChatGPT)

Yüzlerce tekrar eden resim üretme eğiliminin eleştirisi

💡 Diğer

AI gelişimi enerjiye daha yüksek talepler getiriyor: a16z gibi kurumlar ve tartışmalar, yapay zeka projelerinin, ileri üretim teknolojilerinin (çip gibi) ve elektrikli araçlar gibi gelişmelerin enerji arzına büyük talep getirdiğini vurguluyor. Güvenilir ve yeterli enerji arzının (elektrik ve kritik mineraller dahil) sağlanması, ulusal rekabet gücü ve teknolojik gelişimin temel altyapı güvencesi olarak kabul ediliyor (kaynak: espricewright, espricewright, espricewright)

Beyin-bilgisayar arayüzü (BCI) teknolojisi yeniden ilgi görüyor: Topluluk, beyin-bilgisayar arayüzü (BCI) ve ilgili yeni donanımların (sessiz konuşma cihazları, akıllı gözlükler, ultrasonik cihazlar gibi) araştırma ve tartışma sıcaklığının yeniden arttığını gözlemliyor. Gelecekte düşünce yoluyla doğrudan AI ile etkileşim kurmanın olası bir gelişme yönü olduğu görüşü, ilgili teknolojilerin yeniden popülerleşmesini sağlıyor (kaynak: saranormous)

AI’nin robotik alanındaki uygulamaları ve zorlukları: AI destekli robot teknolojisi ilerlemeye devam ediyor; uygulama senaryoları arasında lojistikte (Figure ve UPS işbirliği), yiyecek-içecek sektöründe (hamburger yapan robotlar) insansı robotlar yer alıyor. Pazar tahminleri insansı robot pazarının potansiyelinin büyük olduğunu gösteriyor. Ancak aynı zamanda, genel amaçlı robot otomasyonunu gerçekleştirmek hala donanım (sensörler, aktüatörler gibi) geliştirme zorluklarıyla karşı karşıya; sadece güçlü AI modellerine güvenmek “robot sorununu çözmek” için yeterli olmayabilir (kaynak: TheRundownAI, aidan_mclau)

AI'nin robotik alanındaki uygulamaları ve zorlukları

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir