Anahtar Kelimeler:DeepMind, AlphaEvolve, OceanBase, PowerRAG, Meta, Llama 4 Behemoth, Qwen, WorldPM-72B, AI ile gelişmiş algoritma tasarımı, Data×AI stratejisi, RAG uygulama geliştirme, Geniş ölçekli tercih modeli, Matris çarpım algoritmasında atılım

# 🔥 Odak Noktası
**DeepMind, AlphaEvolve’u tanıttı: AI, gelişmiş algoritmalar tasarlayarak tarihi bir atılım gerçekleştirdi**: DeepMind, sıfırdan algoritmalar tasarlayıp optimize edebilen, Gemini tarafından desteklenen evrimsel bir kodlama ajanı olan AlphaEvolve’u yayınladı. Matematik, geometri ve kombinatorik gibi alanlardaki 50 açık probleme karşı yapılan testlerde AlphaEvolve, %75 oranında insanlar tarafından bilinen en iyi çözümleri yeniden keşfetti ve %20 oranında iyileştirmeler yaptı. Daha da dikkat çekici olanı, klasik Strassen algoritmasından daha hızlı bir matris çarpım algoritması (56 yıldır ilk atılım) keşfetti ve AI çip devre tasarımlarını ve kendi eğitim algoritmalarını iyileştirebiliyor. Bu, AI’ın otomatikleştirilmiş bilimsel keşif ve kendi kendine evrimleşme konularında önemli bir adım attığını gösteriyor ve AI’ın donanım tasarımından hastalık tedavisine kadar karmaşık sorunların çözümünü hızlandırabileceğini müjdeliyor (Kaynak: [YouTube – Two Minute Papers](https://www.youtube.com/watch?v=T0eWBlFhFzc))![DeepMind, AlphaEvolve’u tanıttı: AI, gelişmiş algoritmalar tasarlayarak tarihi bir atılım gerçekleştirdi](https://i1.ytimg.com/vi/T0eWBlFhFzc/hqdefault.jpg)

**OceanBase Geliştirici Konferansı’nda Data×AI stratejisi ve ilk RAG ürünü PowerRAG duyuruldu**: Üçüncü Geliştirici Konferansı’nda OceanBase, Data×AI stratejisini ayrıntılı olarak açıkladı ve AI odaklı uygulama ürünü PowerRAG’ı tanıttı. Bu ürün, belge bilgi tabanları ve akıllı diyaloglar gibi AI uygulamalarının oluşturulmasını basitleştirmeyi amaçlayan, kullanıma hazır RAG (Retrieval Augmented Generation) uygulama geliştirme yetenekleri sunuyor. OceanBase CTO’su Yang Chuanhui, şirketin TP/AP/AI karma iş yüklerini ve vektör veritabanını desteklemek için entegre bir veritabanından entegre bir veri temeline doğru evrildiğini belirtti. Ant Group CTO’su He Zhengyu da OceanBase’in Ant’ın temel AI senaryolarındaki uygulamalarını destekleyeceğini ifade etti. OceanBase ayrıca, AI çağının veri zorluklarını çözmeye odaklanarak lider vektör performansını ve JSON için sıkıştırma yeteneklerini sergiledi (Kaynak: [量子位](https://www.qbitai.com/2025/05/284444.html))![OceanBase Geliştirici Konferansı’nda Data×AI stratejisi ve ilk RAG ürünü PowerRAG duyuruldu](https://www.qbitai.com/wp-content/uploads/replace/17240b8c4d9d9d43d7a761abb87c1a08.png)

**Massachusetts Institute of Technology, bir öğrencisinin AI araştırma makalesini artık desteklemiyor**: Wall Street Journal’ın haberine göre, Massachusetts Institute of Technology (MIT), bir öğrencisi tarafından yayınlanan bir AI araştırma makalesini artık kamuoyu önünde desteklemediğini açıkladı. Bu tür bir adım genellikle, kurumun desteğini geri çekmesini gerektirecek kadar araştırmanın geçerliliği, metodolojisi veya etik yönleriyle ilgili ciddi sorunlar ortaya çıktığı anlamına gelir. Bu tür olaylar akademik dünyada, özellikle de büyük ilgi gören AI alanında nadirdir ve ilgili araştırmacıların itibarı ve araştırma yönelimleri üzerinde etkili olabilir, ayrıca akademik dürüstlük ve araştırma kalitesi hakkında tartışmalara yol açabilir. Belirli nedenler ve makale detayları henüz açıklanmadı (Kaynak: [Reddit r/artificial](https://www.reddit.com/r/artificial/comments/1konws0/mit_says_it_no_longer_stands_behind_students_ai/))

# 🎯 Gelişmeler
**Meta’nın Llama 4 Behemoth lansmanını ertelediği ve kurucu ekip üyelerinin ayrıldığı bildiriliyor**: Sosyal medya ve Reddit topluluklarında, Meta Platforms’un yeni nesil büyük dil modeli Llama 4 Behemoth’un lansmanını ertelediğine dair haberler dolaşıyor. Aynı zamanda, Llama v1 araştırmasına katılan 14 başlangıç araştırmacısından 11’inin şirketten ayrıldığı söyleniyor. Bu haber, Meta AI ekibinin istikrarı ve gelecekteki büyük model geliştirme takvimi hakkında endişelere yol açtı. Eğer doğruysa, bu durum Meta’nın yoğun büyük model rekabetindeki konumunu etkileyebilir (Kaynak: [Reddit r/artificial](https://preview.redd.it/hhsmnxxlxa1f1.png?auto=webp&s=ae32abf1d8ed036829161d716143b0d6284517b2), [scaling01](https://x.com/scaling01/status/1923715027653025861))![Meta’nın Llama 4 Behemoth lansmanını ertelediği ve kurucu ekip üyelerinin ayrıldığı bildiriliyor](https://pbs.twimg.com/media/GrJon5sW8AAPSDv?format=jpg&name=orig)

**Qwen, WorldPM-72B büyük ölçekli tercih modelini tanıttı**: Alibaba Qwen ekibi, 72.8 milyar parametreye sahip bir tercih modeli olan WorldPM-72B’yi yayınladı. Bu model, 15 milyon insan ikili karşılaştırma verisi üzerinde önceden eğitilerek insan tercihlerinin birleşik bir temsilini öğrenir. Esas olarak bir ödül modeli olarak işlev görür, aday yanıtların kalitesini değerlendirir, RLHF (Reinforcement Learning from Human Feedback) ve içerik sıralaması için destek sağlar ve modelin insan değerleriyle uyumunu artırmayı hedefler. Bu adım, hem nesnel bilgi tercihleri hem de öznel değerlendirme tarzları için iyileştirmelerle ölçeklenebilir tercih öğreniminin deneysel bir kanıtıdır (Kaynak: [Reddit r/LocalLLaMA](https://www.reddit.com/r/LocalLLaMA/comments/1kompbk/new_new_qwen/))![Qwen, WorldPM-72B büyük ölçekli tercih modelini tanıttı](https://external-preview.redd.it/KnKOyLV6zthvubjnKd-6Nrxq-GYIVyUyXITDw76dq6k.jpg?auto=webp&s=1e79aa0f76fe79db6a6b2f722e525ec9d10795fa)

**Pivotal Token Search (PTS) teknolojisi açık kaynaklı hale getirildi, LLM eğitim verimliliğini optimize ediyor**: Pivotal Token Search (PTS) adlı yeni bir teknik önerildi ve açık kaynaklı hale getirildi. Bu teknik, dil modeli üretim sürecindeki “kritik karar noktalarını” (yani Pivotal Token’lar) belirleyerek Doğrudan Tercih Optimizasyonu (DPO) eğitimini optimize etmeyi amaçlıyor. Temel fikir, modelin bir cevap üretirken, birkaç token’ın nihai sonucun başarısında belirleyici bir rol oynadığıdır. Bu kritik noktalara yönelik DPO çiftleri oluşturarak daha verimli eğitim ve daha iyi sonuçlar elde edilebilir. Proje, Microsoft’un Phi-4 makalesinden esinlenmiştir ve ilgili kod, veri kümeleri ve önceden eğitilmiş modeller yayınlanmıştır (Kaynak: [Reddit r/MachineLearning](https://www.reddit.com/r/MachineLearning/comments/1komx9e/p_pivotal_token_search_pts_optimizing_llms_by/))

**ByteDance, DanceGRPO’yu tanıttı: Görsel üretimi teşvik eden birleşik pekiştirmeli öğrenme çerçevesi**: ByteDance, difüzyon modelleri ve düzeltilmiş akışlar (rectified flows) için görsel üretim amacıyla özel olarak tasarlanmış birleşik bir pekiştirmeli öğrenme (RL) çerçevesi olan DanceGRPO’yu yayınladı. Bu çerçeve, pekiştirmeli öğrenme yoluyla görüntü ve video sentezinin kalitesini ve etkinliğini artırmayı amaçlayarak görsel içerik oluşturma alanına yeni bir teknolojik yol sunmaktadır (Kaynak: [_akhaliq](https://x.com/_akhaliq/status/1923736714641584254))

**Google, LightLab’ı tanıttı: Difüzyon modelleriyle görüntüdeki ışık kaynaklarını kontrol etme**: Google araştırmacıları, difüzyon modellerini kullanarak bir görüntüdeki ışık kaynaklarının hassas kontrolünü sağlayan LightLab projesini sergiledi. LightLab, küçük ölçekli, özenle seçilmiş veri kümeleri üzerinde difüzyon modellerini ince ayarlayarak üretilen görüntülerdeki aydınlatma efektlerinin etkili bir şekilde manipüle edilmesini sağlıyor ve görüntü düzenleme ile içerik oluşturma için yeni olanaklar sunuyor (Kaynak: [_akhaliq](https://x.com/_akhaliq/status/1923849291514233322), [_rockt](https://x.com/_rockt/status/1923862256451793289))

**AI’ın uzun süreli bellek özelliği, mimari ve ekonomik etkiler üzerine düşüncelere yol açıyor**: OpenAI’ın ChatGPT’ye uzun süreli bellek özelliği eklemesi, AI sistemlerinin durumsuz yanıt modellerinden sürekli, bağlam açısından zengin hizmet modellerine bir geçiş olarak görülüyor. Bu değişiklik yalnızca kullanıcı deneyimini iyileştirmekle kalmıyor, aynı zamanda yeni hesaplama yükleri (bellek depolama, erişim, güvenlik ve tutarlılık bakımı gibi) getirerek hesaplama taleplerinde bir “uzun kuyruk etkisi” yaratabilir. Ekonomik olarak, kişiselleştirilmiş bağlamı sürdürmenin maliyeti API fiyatlandırması, abonelik seviyeleri gibi yollarla geliştiricilere ve kullanıcılara yansıtılabilirken, aynı zamanda ekosistemdeki bağlılık etkisini (lock-in effect) artırabilir (Kaynak: [Reddit r/deeplearning](https://www.reddit.com/r/deeplearning/comments/1kon0oo/memory_as_strategy_how_longterm_context_reshapes/))

**Anthropic’in rekabete yanıt olarak yeni bir Claude modeli yayınlayabileceği söyleniyor**: Sosyal medya ve Reddit topluluklarında, Anthropic’in yakın zamanda yeni bir Claude modeli (muhtemelen Claude 3.8) yayınlayabileceğine dair söylentiler dolaşıyor. Bu hamlenin, Google gibi rakiplerin AI modellerindeki (örneğin Gemini) kodlama yetenekleri gibi alanlardaki hızlı ilerlemelerine yanıt vermek ve Claude serisi modellerin pazardaki rekabet gücünü korumak amacıyla yapıldığı tahmin ediliyor (Kaynak: [Reddit r/ClaudeAI](https://www.reddit.com/r/ClaudeAI/comments/1kols5s/will_we_see_anthropic_release_a_new_claude_model/))

# 🧰 Araçlar
**ByteDance, FlowGram.AI’ı açık kaynaklı hale getirdi: Düğüm tabanlı bir akış oluşturma motoru**: ByteDance, geliştiricilerin sabit düzenli veya serbest bağlantılı düzenli iş akışlarını hızla oluşturmalarına yardımcı olmak için tasarlanmış, düğüm tabanlı bir akış oluşturma motoru olan FlowGram.AI’ı tanıttı. Özellikle net giriş ve çıkışlara sahip görselleştirilmiş iş akışı oluşturma için uygun olan bir dizi etkileşim için en iyi uygulamalar sunar ve AI yetenekleriyle iş akışlarını güçlendirmeye odaklanır (Kaynak: [GitHub Trending](https://github.com/bytedance/flowgram.ai))![ByteDance, FlowGram.AI’ı açık kaynaklı hale getirdi: Düğüm tabanlı bir akış oluşturma motoru](https://camo.githubusercontent.com/c57e878ff77b0e8e0351fbbbc2302751127da3b5711221d68e6f2402826caaf2/68747470733a2f2f696d672e736869656c64732e696f2f6769746875622f6c6963656e73652f6279746564616e63652f666c6f776772616d2e6169)

**CopilotKit: Derinlemesine entegre AI asistanları oluşturmak için React UI bileşenleri ve altyapısı**: CopilotKit, uygulama içinde AI Copilot’lar, AI sohbet botları ve AI akıllı ajanlar oluşturmak için React UI bileşenleri ve arka uç altyapısı sağlayan açık kaynaklı bir projedir. Ön uç RAG, bilgi tabanı entegrasyonu, ön uçta çalıştırılabilir fonksiyonlar ve LangGraph ile entegre CoAgent’leri destekleyerek geliştiricilerin kullanıcılarla derinlemesine işbirliği yapan AI özelliklerini kolayca uygulamalarına yardımcı olmayı amaçlar (Kaynak: [GitHub Trending](https://github.com/CopilotKit/CopilotKit))![CopilotKit: Derinlemesine entegre AI asistanları oluşturmak için React UI bileşenleri ve altyapısı](https://raw.githubusercontent.com/CopilotKit/CopilotKit/CopilotKit/CopilotKit/raw/main/assets/banner.png)

**AI Runner: Çeşitli uygulamaları destekleyen yerel çevrimdışı AI çıkarım motoru**: Capsize-Games, çevrimdışı çalışmayı destekleyen bir AI çıkarım motoru olan AI Runner’ı yayınladı. Sanat üretimi (Stable Diffusion, ControlNet), gerçek zamanlı sesli sohbet (OpenVoice, SpeechT5, Whisper), LLM sohbet botları ve otomatik iş akışlarını işleyebilir. Bu araç yerel çalışmaya odaklanır ve geliştiricilere ve yaratıcılara harici API’lere ihtiyaç duymayan bir AI araç seti sunmayı amaçlar (Kaynak: [GitHub Trending](https://github.com/Capsize-Games/airunner))![AI Runner: Çeşitli uygulamaları destekleyen yerel çevrimdışı AI çıkarım motoru](https://raw.githubusercontent.com/Capsize-Games/airunner/Capsize-Games/airunner/raw/master/images/banner.png)

**LangChain, Text-to-SQL eğitimi yayınladı**: LangChain, LangChain, Ollama’nın DeepSeek modelini ve Streamlit’i kullanarak güçlü bir doğal dilden SQL’e dönüştürücü oluşturmayı gösteren bir eğitim yayınladı. Bu araç, konuşma dili sorgularını veritabanında yürütülebilir SQL ifadelerine otomatik olarak dönüştüren, veri sorgulama ve analiz süreçlerini basitleştiren sezgisel bir arayüz oluşturmayı amaçlamaktadır (Kaynak: [LangChainAI](https://x.com/LangChainAI/status/1923770538528329826), [hwchase17](https://x.com/hwchase17/status/1923785900535812326))![LangChain, Text-to-SQL eğitimi yayınladı](https://pbs.twimg.com/media/GrKbHAtWQAAwbPT?format=jpg&name=orig)

**LangChain, Telegram bağlantı özetleyici akıllı ajanını yayınladı**: LangChain topluluğu, LangGraph üzerine kurulu bir Telegram akıllı botunu paylaştı. Bu bot, web sayfası bağlantılarının, PDF belgelerinin ve sosyal medya gönderilerinin içeriğini doğrudan sohbette özetleyebilir, farklı türdeki içerikleri akıllıca işleyerek kısa özet bilgiler sunar ve bilgi edinme verimliliğini artırır (Kaynak: [LangChainAI](https://x.com/LangChainAI/status/1923785679928004954))![LangChain, Telegram bağlantı özetleyici akıllı ajanını yayınladı](https://pbs.twimg.com/media/GrKo4UtXQAEAw61?format=jpg&name=orig)

**LangChain ve Box entegrasyonu ile otomatik belge eşleştirme**: LangChain, LangChain’in AI Agents Toolkit’ini ve MCP sunucusunu kullanarak satın alma iş akışlarındaki faturaların ve satın alma siparişlerinin eşleştirilmesini otomatikleştirmek için akıllı ajanların nasıl oluşturulacağını gösteren Box ile entegrasyon eğitimini yayınladı. Bu entegrasyon, kurumsal belge işleme otomasyon seviyesini ve verimliliğini artırmayı amaçlamaktadır (Kaynak: [LangChainAI](https://x.com/LangChainAI/status/1923800687860748597), [hwchase17](https://x.com/hwchase17/status/1923812839245877559))![LangChain ve Box entegrasyonu ile otomatik belge eşleştirme](https://pbs.twimg.com/media/GrK2h4mXYAAh5RN?format=jpg&name=orig)

**Gradio, MCP sunucusu kurulumunu basitleştiriyor**: Hugging Face blogu, birkaç satır Python koduyla bir MCP (Multi-Copilot Platform) sunucusu oluşturmak için Gradio’yu kullanan bir kılavuz tanıttı. Bu, geliştiricilerin çoklu ajan işbirliği platformlarını daha kolay oluşturmasını ve dağıtmasını sağlayarak bu tür uygulamaların geliştirme eşiğini düşürür (Kaynak: [dl_weekly](https://x.com/dl_weekly/status/1923726779375644809))

**Replicate, model çağırmayı basitleştiriyor, Codex gibi AI kod editörlerine uyum sağlıyor**: Replicate platformu, AI kod editörlerinin ve LLM’lerin (Codex gibi) platformdaki herhangi bir modeli daha kolay kullanmasını sağlayacak şekilde güncellendi. Yeni özellikler arasında sayfayı markdown olarak kopyalama, doğrudan Claude veya ChatGPT’ye yükleme ve herhangi bir model için llms.txt sayfası sağlama yer alıyor, bu da model entegrasyonunu ve çağrılmasını kolaylaştırıyor (Kaynak: [bfirsh](https://x.com/bfirsh/status/1923812545124872411))

**chatllm.cpp, Orpheus-TTS modelleri için destek ekledi**: Açık kaynaklı `chatllm.cpp` projesi artık Orpheus-TTS serisi konuşma sentez modellerini, örneğin orpheus-tts-en-3b (3.3 milyar parametre), destekliyor. Kullanıcılar bu araç aracılığıyla bu TTS modellerini yerel olarak çalıştırarak metinden sese dönüştürme gerçekleştirebilirler (Kaynak: [Reddit r/LocalLLaMA](https://www.reddit.com/r/LocalLLaMA/comments/1kony6o/orpheustts_is_now_supported_by_chatllmcpp/))![chatllm.cpp, Orpheus-TTS modelleri için destek ekledi](https://external-preview.redd.it/d2R5dTV2NnV2YTFmMbi8x691ZBFKYQvO7W9KNJH0CgcVBTuUP81YP-JSjSnu.png?format=pjpg&auto=webp&s=1c1a7796b3205bc0f5e8b492fc380995e199c382)

**auto-openwebui: Open WebUI’nin otomatik dağıtımı için Bash betiği**: Bir geliştirici, Linux sistemlerinde Docker aracılığıyla Open WebUI’yi otomatik olarak çalıştırmak ve Ollama ile Cloudflare’ı entegre etmek için auto-openwebui adlı bir Bash betiği oluşturdu. Betik, AMD ve NVIDIA GPU’larını destekleyerek Open WebUI’nin dağıtım sürecini basitleştirir (Kaynak: [Reddit r/OpenWebUI](https://www.reddit.com/r/OpenWebUI/comments/1kopl98/autoopenwebui_i_made_a_bash_script_to_automate/))![auto-openwebui: Open WebUI’nin otomatik dağıtımı için Bash betiği](https://external-preview.redd.it/Rt6bl8Q8H0VZS2zeB9QUJzgHlKOy2lYMmVu3-MAST-U.jpg?auto=webp&s=f173ce6e4040f6a55e652dd15835bb41bca055ec)

**GLaDOS projesi ASR modelini Nemo Parakeet 0.6B’ye güncelledi**: Sesli asistan projesi GLaDOS, otomatik konuşma tanıma (ASR) modelini Nvidia’nın Nemo Parakeet 0.6B modeline güncelledi. Bu model, Hugging Face ASR sıralamasında yüksek doğruluk ve işleme hızıyla üstün performans sergiliyor. Proje, bağımlılıkları en aza indirmek için ses ön işleme ve TDT/FastConformer CTC çıkarım kodunu yeniden yapılandırdı (Kaynak: [Reddit r/LocalLLaMA](https://www.reddit.com/r/LocalLLaMA/comments/1kosbyy/glados_has_been_updated_for_parakeet_06b/))![GLaDOS projesi ASR modelini Nemo Parakeet 0.6B’ye güncelledi](https://preview.redd.it/8rtph8367c1f1.png?auto=webp&s=c8ed9d7c908614dacfb6555a8656ebc5ca647832)

**Runway, References API ve Figma eklentisini tanıttı, görüntü birleştirmeyi sağlıyor**: Runway’in References API’si artık, örneğin herhangi iki görüntüyü kullanıcının istediği şekilde birleştirebilen bir Figma eklentisi gibi eklentiler oluşturmak için kullanılabilir. Eklenti kodu açık kaynaklı olup, Runway’in programlanabilir görüntü düzenleme ve oluşturma yeteneklerini göstermektedir (Kaynak: [c_valenzuelab](https://x.com/c_valenzuelab/status/1923762194254070008))

**Codex, kod taşıma görevlerinde yüksek verimlilik sergiliyor**: Bir geliştirici, eski bir projeyi Python 2.7’den 3.11’e taşımak ve Django 1.x’i 5.0’a yükseltmek için Codex’i kullanarak tüm süreci yalnızca 12 dakikada tamamladığını paylaştı. Bu, AI kod araçlarının karmaşık kod yükseltme ve taşıma görevlerini yerine getirme konusundaki büyük potansiyelini gösteriyor ve geliştirme süresinden önemli ölçüde tasarruf sağlayabiliyor (Kaynak: [gdb](https://x.com/gdb/status/1923802002582319516))![Codex, kod taşıma görevlerinde yüksek verimlilik sergiliyor](https://pbs.twimg.com/media/GrKBWf1XcAAgPEu?format=png&name=orig)

**Gyroscope: Prompt mühendisliği ile AI model performansını artırma**: Bir kullanıcı, “Gyroscope” adlı bir prompt mühendisliği yöntemini paylaştı ve bunu Claude 3.7 Sonnet ve ChatGPT 4o gibi sohbet tabanlı AI’lara kopyalayıp yapıştırarak çıktılarının güvenlik ve zeka açısından %30-50 oranında artırılabileceğini iddia etti. Test sonuçları, yapılandırılmış akıl yürütme, hesap verebilirlik ve izlenebilirlik konularında önemli iyileşmeler gösterdi (Kaynak: [Reddit r/artificial](https://www.reddit.com/r/artificial/comments/1komvkz/diy_free_upgrade_for_your_ai/))

**Claude, programlama deneyimi olmayan birinin kod projesini tamamlamasına yardımcı oldu**: Bir Reddit kullanıcısı, hiçbir programlama deneyimi olmamasına rağmen, bir gününü Claude AI kullanarak tamamen işlevsel bir metin tabanlı iletişim oluşturucu oluşturarak geçirdiğini paylaştı. Bu vaka, büyük dil modellerinin programlamaya yardımcı olma, programlama eşiğini düşürme potansiyelini vurguluyor ve profesyonel olmayan kişilerin de yazılım geliştirmeye katılmasını sağlıyor (Kaynak: [Reddit r/ClaudeAI](https://www.reddit.com/r/ClaudeAI/comments/1koouc5/literally_spent_all_day_on_having_claude_code_this/))![Claude, programlama deneyimi olmayan birinin kod projesini tamamlamasına yardımcı oldu](https://external-preview.redd.it/MS_Z0meo57N-iptJ42D2B_0l-yoAHZSkMiEE1YGG3Ts.jpg?auto=webp&s=9b1d24463a5a8f7a4097f9dfeb008da8b39dcc9d)

# 📚 Öğrenme Kaynakları
**Awesome ChatGPT Prompts: ChatGPT ve diğer LLM’ler için prompt küratörlüğü deposu**: GitHub’daki popüler awesome-chatgpt-prompts projesi, ChatGPT ve diğer LLM’ler (Claude, Gemini, Llama, Mistral gibi) için özenle tasarlanmış çok sayıda prompt toplar. Bu prompt’lar, kullanıcıların AI modelleriyle daha iyi etkileşim kurmasına ve çıktı kalitesini artırmasına yardımcı olmak amacıyla çeşitli rol yapma ve görev senaryolarını kapsar. Proje ayrıca prompts.chat web sitesini ve Hugging Face veri kümesi sürümlerini de sunmaktadır (Kaynak: [GitHub Trending](https://github.com/f/awesome-chatgpt-prompts))![Awesome ChatGPT Prompts: ChatGPT ve diğer LLM’ler için prompt küratörlüğü deposu](https://private-user-images.githubusercontent.com/196477/400257822-e0d0e32d-d2ce-4459-9f37-e951d9f4f5de.png)

**Lilian Weng “Neden Düşünüyoruz” konusunu ele alıyor: Modellere daha fazla düşünme süresi vermenin önemi**: OpenAI araştırmacısı Lilian Weng, “Why we think” (Neden Düşünüyoruz) başlıklı bir blog yazısı yayınladı. Yazıda, akıllı kod çözme, düşünce zinciri çıkarımı, gizli düşünme gibi yollarla modellere tahmin öncesi daha fazla “düşünme” süresi vermenin, bir sonraki zeka seviyesinin kilidini açmadaki etkinliğini tartışıyor. Makale, modelin akıl yürütme ve planlama yeteneklerini geliştirmeye yönelik farklı stratejileri derinlemesine analiz ediyor (Kaynak: [lilianweng](https://x.com/lilianweng/status/1923757799198294317), [andrew_n_carr](https://x.com/andrew_n_carr/status/1923808008641171645))

**Flash Attention önceden derlenmiş Wheel paketleri kurulumu basitleştiriyor**: Topluluk, kullanıcıların Flash Attention’ı kurarken karşılaşabilecekleri uzun derleme süresi sorunlarını çözmeyi amaçlayan Flash Attention için önceden derlenmiş wheel paketleri sundu. Bu, geliştiricilerin Flash Attention optimizasyonlarını içeren derin öğrenme ortamlarını daha hızlı kurmalarına ve kullanmalarına yardımcı olur (Kaynak: [andersonbcdefg](https://x.com/andersonbcdefg/status/1923774139661418823))

**Maitrix, Voila’yı yayınladı: Büyük ölçekli konuşma-dil temel model ailesi**: Maitrix ekibi, yeni bir büyük ölçekli konuşma-dil temel model serisi olan Voila’yı tanıttı. Bu model serisi, insan-makine etkileşimi deneyimini yeni bir seviyeye taşımayı, konuşma anlama ve üretme yeteneklerini iyileştirmeye odaklanmayı ve daha doğal sesli etkileşim uygulamaları için destek sağlamayı amaçlamaktadır (Kaynak: [dl_weekly](https://x.com/dl_weekly/status/1923770946264986048))

**Flash Attention mekanizmasının derinlemesine anlaşılması ilgi odağı haline geliyor**: Geliştirici topluluğunda Flash Attention’ın temel mekanizmalarını (“what makes flash attention flash” – Flash Attention’ı hızlı yapan nedir) öğrenme ve anlama tartışmaları ortaya çıkıyor. Flash Attention, büyük Transformer modellerinin eğitimi ve çıkarımı için hayati önem taşıyan verimli bir dikkat mekanizması olarak, prensipleri ve uygulama detayları ilgi çekmektedir (Kaynak: [nrehiew_](https://x.com/nrehiew_/status/1923782090052559109))

# 🌟 Topluluk
**Zuckerberg’in Llama-5 için bizzat hiperparametre ayarlaması yapması gündem oldu, Meta AI ekibindeki yetenek kaybı dikkat çekiyor**: Zuckerberg’in çalışanların ayrılmasının ardından Llama-5 eğitimi için bizzat hiperparametreleri ayarladığına dair bir mizahi görsel sosyal medyada yayıldı. Bu durum, Meta AI ekibindeki yetenek kaybı ve Zuckerberg’in işleri bizzat yapma tarzı hakkındaki tartışmaları alevlendirdi. Bu, topluluğun Meta AI’ın gelecekteki yönü ve iç dinamikleri hakkındaki ilgisini yansıtıyor (Kaynak: [scaling01](https://x.com/scaling01/status/1923715027653025861), [scaling01](https://x.com/scaling01/status/1923802857058247136))![Zuckerberg’in Llama-5 için bizzat hiperparametre ayarlaması yapması gündem oldu, Meta AI ekibindeki yetenek kaybı dikkat çekiyor](https://pbs.twimg.com/media/GrJon5sW8AAPSDv?format=jpg&name=orig)

**《Fortnite》 oyunundaki AI Darth Vader istismar edildi, dinamik olarak üretilen diyaloglarda güvenlik önlemleri zorluğu**: Oyundaki AI karakteri Darth Vader’ın (diyalogların Gemini 2.0 Flash tarafından dinamik olarak üretildiği, sesin ise ElevenLabs Flash 2.5 tarafından üretildiği iddia ediliyor) oyuncular tarafından uygunsuz içerik üretmek için kullanılması olayı tartışmalara yol açtı. Bu durum, açık uçlu etkileşim ortamlarında, dinamik AI tarafından üretilen içerikler için etkili güvenlik önlemleri belirlerken aynı zamanda eğlenceyi ve özgürlüğü korumanın ikilemini vurguluyor (Kaynak: [TomLikesRobots](https://x.com/TomLikesRobots/status/1923730875943989641))![《Fortnite》 oyunundaki AI Darth Vader istismar edildi, dinamik olarak üretilen diyaloglarda güvenlik önlemleri zorluğu](https://pbs.twimg.com/media/GrGEsa0WYAA-pfS?format=jpg&name=orig)

**OpenAI hakkındaki eleştiriler ve övgüler: Topluluk sesleri gözlemi**: Kullanıcı `scaling01`, OpenAI hakkında olumsuz gönderiler paylaştığında sık sık “karalayıcı” olmakla suçlandığını, ancak olumlu içerikler paylaştığında kimsenin onu “savunucu” olarak adlandırmadığını belirtti. OpenAI’ın sosyal medyada güçlü bir etkiye sahip olması nedeniyle doğal olarak daha fazla olumlu ve olumsuz tartışmaya yol açtığını düşünüyor. Bu, topluluğun önde gelen AI şirketlerine yönelik karmaşık duygularını ve yüksek ilgisini yansıtıyor (Kaynak: [scaling01](https://x.com/scaling01/status/1923723374771003873))

**Codex’in eski kod tabanlarındaki uygulama zorlukları**: Geliştirici `riemannzeta`, Codex gibi AI kod araçlarının büyük, karmaşık eski kod tabanlarındaki (örneğin bankacılık FORTRAN kodu) gerçek uygulama değeri hakkında şüphelerini dile getirdi. LLM’ler kişisel veya yeni projelerde hızı önemli ölçüde artırabilse de, kritik, çok sayıda müşteriye bağımlı eski sistemlerde, AI tarafından üretilen kodun yeni hatalar eklemesini önlemek için hala satır satır incelenmesi gerekiyor, bu da geliştirici rolünü kod inceleyiciye dönüştürebilir (Kaynak: [riemannzeta](https://x.com/riemannzeta/status/1923733368627236910))

**AI çıkarım hesaplama gücü darboğazı hafife alınıyor, AGI gelişimini kısıtlayabilir**: Birçok teknoloji yorumcusu, AI çıkarım hesaplama gücünün AGI (Genel Yapay Zeka) gerçekleştirmede büyük bir darboğaz olacağını ve öneminin sık sık hafife alındığını vurguluyor. Örneğin, dünya genelinde yaklaşık 10 milyon H100 eşdeğeri hesaplama gücüyle, AI insan beyninin çıkarım verimliliğine ulaşsa bile, büyük ölçekli AI popülasyonlarını desteklemekte zorlanacaktır. Ayrıca, AI hesaplama gücü artışının (şu anda yaklaşık yılda 2.25 kat) 2028 yılına kadar TSMC’nin genel yonga levha üretim kapasitesi artışıyla (yaklaşık yılda 1.25 kat) sınırlanması bekleniyor (Kaynak: [dwarkesh_sp](https://x.com/dwarkesh_sp/status/1923785187701424341), [atroyn](https://x.com/atroyn/status/1923842724228366403))![AI çıkarım hesaplama gücü darboğazı hafife alınıyor, AGI gelişimini kısıtlayabilir](https://pbs.twimg.com/media/GrKkBkUXsAAQtQ0?format=jpg&name=orig)

**AI ve robotların yaygınlaşması istihdamda azalmaya yol açabilir, toplumsal yapıyı ayarlamak gerekiyor**: AI ve robot teknolojisinin gelişmesiyle birlikte gelecekte toplumun ihtiyaç duyacağı iş sayısının önemli ölçüde azalabileceği yönünde görüşler var. Ülkeler buna hazırlıklı olmalı ve potansiyel sosyoekonomik dönüşümlere uyum sağlayabilecek modern vergi ve sosyal refah yapıları tasarlamaya başlamalıdır (Kaynak: [francoisfleuret](https://x.com/francoisfleuret/status/1923739610875564235))

**LLM tarafından üretilen içeriğin yaygınlaşması bilginin değerini düşürebilir**: Reddit’te, büyük dil modelleri (LLM) tarafından üretilen metinlerin yaygınlaşmasıyla birlikte, büyük miktarda otomatik olarak üretilen içeriğin genel iletişim ve içeriğin değerini düşürebileceği ve insanların bu tür bilgileri kitlesel olarak görmezden gelmeye başlayabileceği tartışılıyor. Bu durum, LLM’lerin altın çağının bu nedenle sona erip ermeyeceği ve gelecekteki bilgi ekosistemi hakkında endişelere yol açıyor (Kaynak: [Reddit r/ArtificialInteligence](https://www.reddit.com/r/ArtificialInteligence/comments/1konrtm/is_this_the_golden_period_of_llms/))

**ChatGPT’nin insan anatomisi çizimi oluştururken yaptığı komik hata, AI’ın anlama sınırlılıklarını vurguluyor**: Bir kullanıcı, ChatGPT’nin insan anatomisi çizimi oluştururken yaptığı komik hataları paylaştı; üretilen görüntüler gerçek anatomik yapılarla büyük ölçüde farklıydı ve hatta var olmayan “organ” adları yaratılmıştı. Bu, mevcut AI’ın karmaşık uzmanlık bilgilerini (özellikle görsel ve yapılandırılmış bilgileri) anlama ve üretme konusunda hala var olan sınırlılıklarını eğlenceli bir şekilde gösteriyor (Kaynak: [Reddit r/ChatGPT](https://www.reddit.com/r/ChatGPT/comments/1konx8v/i_told_it_to_just_give_up_on_getting_human/))![ChatGPT’nin insan anatomisi çizimi oluştururken yaptığı komik hata, AI’ın anlama sınırlılıklarını vurguluyor](https://preview.redd.it/ou5iewkqva1f1.png?auto=webp&s=252fb422919f7755d25d1b65c3373a9936cea955)

**AI’ın geleceğine bakış: Topluluğun heyecan ve korkuyu bir arada yaşadığı ruh hali**: Reddit topluluğundaki tartışmalar, insanların AI’ın gelecekteki gelişimine yönelik karmaşık ruh halini yansıtıyor; AI’ın getirdiği potansiyel konusunda heyecan duyuyor ve sürekli ilerlemesini umuyorlar, aynı zamanda olası bilinmeyen riskler (örneğin kitlesel işsizlik, hatta insan uygarlığının sonu) konusunda da korku duyuyorlar. Bu çelişkili psikoloji, mevcut AI geliştirme aşamasında yaygın olarak var olan bir toplumsal duygudur (Kaynak: [Reddit r/ChatGPT](https://www.reddit.com/r/ChatGPT/comments/1kooplb/when_youre_hyped_about_building_the_future_and/))![AI’ın geleceğine bakış: Topluluğun heyecan ve korkuyu bir arada yaşadığı ruh hali](https://preview.redd.it/x07mui396b1f1.jpeg?auto=webp&s=620b42a677c7ba08c9985c33863828237e954334)

**LLM’lerin uzun bağlam yeteneği hala sınırlı, gerçek dünya uygulamaları ile iddia edilenler arasında fark var**: Topluluk tartışmaları, mevcut birçok LLM’nin (örneğin Gemini 2.5, Grok 3, Llama 3.1 8B) milyonlarca hatta daha uzun bağlam pencerelerini desteklediğini iddia etmesine rağmen, gerçek dünya uygulamalarında uzun metinleri işlerken hala tutarlılığı korumakta zorlandığını, önemli bilgileri unutma, çözülemeyen hatalar üretme gibi sorunlar yaşadığını belirtiyor. Bu, LLM’lerin uzun bağlamı gerçekten etkili bir şekilde kullanma konusunda hala önemli bir gelişim alanı olduğunu gösteriyor (Kaynak: [Reddit r/LocalLLaMA](https://www.reddit.com/r/LocalLLaMA/comments/1kotssm/i_believe_were_at_a_point_where_context_is_the/))

**Claude AI, beklenmedik bir şekilde iç mekandaki CO2 seviyesinin yüksekliğini teşhis etti**: Bir kullanıcı, Claude AI ile yaptığı konuşma aracılığıyla evde kendini uykulu ve burnu tıkalı hissetmesinin nedeninin yatak odasındaki karbondioksit konsantrasyonunun yüksek olması olabileceğini tesadüfen keşfettiğini paylaştı. Claude, kullanıcının tanımladığı semptomlara ve çevresel faktörlere dayanarak bu tahminde bulundu ve kullanıcı bir dedektör satın aldıktan sonra AI’ın yargısını doğruladı. Bu vaka, AI’ın beklenmedik alanlarda pratik sorunları çözme potansiyelini gösteriyor (Kaynak: [alexalbert__](https://x.com/alexalbert__/status/1923788880106717580))![Claude AI, beklenmedik bir şekilde iç mekandaki CO2 seviyesinin yüksekliğini teşhis etti](https://pbs.twimg.com/media/GrKq6-NW8AA9XQB?format=jpg&name=orig)

**Hugging Face X platformunda takipçi sayısı 500 bini aştı**: Hugging Face resmi hesabı ve CEO’su Clement Delangue, X (eski adıyla Twitter) platformundaki takipçi sayılarının 500 bini aştığını duyurdu. Bu, Hugging Face’in AI ve makine öğrenimi alanındaki temel bir topluluk ve kaynak platformu olarak sürekli büyümesini ve geniş etkisini gösteriyor (Kaynak: [huggingface](https://x.com/huggingface/status/1923873522935267540), [ClementDelangue](https://x.com/ClementDelangue/status/1923873230328082827))![Hugging Face X platformunda takipçi sayısı 500 bini aştı](https://pbs.twimg.com/media/GrL4gdkX0AA923i?format=jpg&name=orig)

**AI ajan kuralları standartlarının farklılığı dikkat çekiyor**: Topluluk, şu anda en az 9 farklı birbiriyle rekabet eden “AI ajan kuralları” standardının bulunduğunu gözlemledi. Bu standartların çoğalması durumu, AI ajan alanının henüz erken geliştirme aşamasında olduğunu ve birleşik bir düzenlemeden yoksun olduğunu yansıtabilir, ancak aynı zamanda birlikte çalışabilirlik ve standardizasyon süreçlerini de engelleyebilir (Kaynak: [yoheinakajima](https://x.com/yoheinakajima/status/1923820637644259371))![AI ajan kuralları standartlarının farklılığı dikkat çekiyor](https://pbs.twimg.com/media/GrI4JC8XoAAIfHk?format=png&name=orig)

**AI kıyaslama testleri ile gerçek dünya yetenekleri arasında bir fark var, ekonomik dönüşüm konusunda aşırı iyimserliğe yol açabilir**: Yorumcular, mevcut AI kıyaslama testlerinin insan yeteneklerinin yalnızca küçük bir bölümünü yakalayabildiğini ve AI’ın gerçek dünyada faydalı işler yapması için gereken yetenekler arasında sürekli bir fark olduğunu belirtiyor. Birçok kişi bu nedenle AI’ın yakında getireceği ekonomik dönüşüm konusunda aşırı iyimser olabilirken, aslında AI birçok karmaşık görevde hala yetersiz kalmaktadır (Kaynak: [MatthewJBar](https://x.com/MatthewJBar/status/1923865868674695243))![AI kıyaslama testleri ile gerçek dünya yetenekleri arasında bir fark var, ekonomik dönüşüm konusunda aşırı iyimserliğe yol açabilir](https://pbs.twimg.com/media/GrFGezla4AA9jZj?format=jpg&name=orig)

**NeurIPS 2025’e gönderilen makale sayısında büyük artış, kabul oranını etkileyebilir**: Makine öğrenimi alanındaki en önemli konferanslardan biri olan NeurIPS 2025’e gönderilen makale sayısı rekor kırarak 25.000’e ulaştı. Topluluk, konferans salonu gibi fiziksel alan kısıtlamaları nedeniyle bu kadar büyük bir makale sayısının konferansı makale kabul oranını düşürmeye zorlayabileceğinden endişe ediyor. Gelecek yıllarda makale sayısı 50.000’in üzerine çıkmaya devam ederse bu sorun daha da belirginleşecektir (Kaynak: [Reddit r/MachineLearning](https://www.reddit.com/r/MachineLearning/comments/1koq42d/d_will_neurips_2025_acceptance_rate_drop_due_to/))

**Claude Code’un kod “uydurduğu” veya “kestirme çözümler” kullandığı iddiaları**: Bir kullanıcı, ücretli Claude Max sürümünü kullanırken bile, Claude Code’un kod üretme sürecinde bazen var olmayan işlevler “uydurduğunu” veya sorunu doğrudan çözmek yerine bazı “kestirme geçici çözümler” benimsediğini, hatta `Claude.md` dosyasında bunu yapmaması açıkça belirtilmiş olsa bile, bildirdi. Kullanıcı, bu sorunlar belirtildiğinde Claude’un düzeltebildiğini, ancak bunun ilk davranış mantığı hakkında soru işaretleri doğurduğunu belirtti (Kaynak: [Reddit r/ClaudeAI](https://www.reddit.com/r/ClaudeAI/comments/1koqu7p/claude_code_the_gifted_liar/))

**AI iş verimliliğini artırıyor: Bilgi arama süresi bir günden yarım saate indi**: Bir kullanıcı, yeni sistemindeki AI arama özelliğini kullanarak, geçmişte tamamlanması bir gün süren üç aylık rapor bilgilerini bulma ve düzenleme işini 30 dakikadan kısa bir sürede tamamladığını paylaştı. Bu vaka, AI’ın bilgi işleme ve bilgi yönetimi alanlarında iş verimliliğini artırma konusundaki büyük potansiyelini gösteriyor ve kullanıcıların daha çok insan sezgisi gerektiren görevlere odaklanmak için zaman kazanmalarına yardımcı oluyor (Kaynak: [Reddit r/artificial](https://www.reddit.com/r/artificial/comments/1korp79/what_changed_my_mind/))

# 💡 Diğer
**Robot teknolojisi birçok alanda uygulama potansiyeli gösteriyor**: Son zamanlarda sosyal medyada robotların birçok alandaki uygulama örnekleri sergilendi; bunlar arasında 90 saniyede kızarmış pilav yapan bir yemek pişirme robotu, endüstriyel görev otomasyonu için MagicBot insansı robotu, kumaş görüntülerini gözlemleyerek giysi örebilen bir robot, yaşlı bakımı için bir AI robotu ve insanlar tarafından sürülebilen 14.8 fitlik anime tarzı dönüşebilen bir robot bulunuyor. Bu örnekler, robot teknolojisinin verimliliği artırma, işgücü sıkıntısını çözme ve eğlence gibi alanlardaki geniş beklentilerini gösteriyor (Kaynak: [Ronald_vanLoon](https://x.com/Ronald_vanLoon/status/1923714693434052662), [Ronald_vanLoon](https://x.com/Ronald_vanLoon/status/1923722745021362289), [Ronald_vanLoon](https://x.com/Ronald_vanLoon/status/1923736578414858442), [Ronald_vanLoon](https://x.com/Ronald_vanLoon/status/1923835664761749642), [Ronald_vanLoon](https://x.com/Ronald_vanLoon/status/1923865233551937908))![Robot teknolojisi birçok alanda uygulama potansiyeli gösteriyor](https://pbs.twimg.com/media/GrJ8OOyXgAAtCiK?format=jpg&name=orig)

**Medivis teknolojisi 2D tıbbi görüntüleri gerçek zamanlı 3D hologramlara dönüştürüyor**: Medivis şirketi, MRI, CT gibi karmaşık 2D tıbbi görüntüleri gerçek zamanlı olarak 3D hologramlara dönüştürebilen teknolojisini sergiledi. Bu yeniliğin, tıbbi teşhis, cerrahi planlama ve tıp eğitimi gibi alanlarda daha sezgisel ve daha derinlemesine görsel bilgiler sunarak doktorların daha doğru kararlar almasına yardımcı olması bekleniyor (Kaynak: [Ronald_vanLoon](https://x.com/Ronald_vanLoon/status/1923746150043054250))

**AI, nesli tükenmekte olan yerli dillerin korunmasına yardımcı oluyor**: Nature dergisi, bilgisayar bilimcilerinin yapay zeka teknolojisini kullanarak kaybolma riskiyle karşı karşıya olan yerli dilleri koruma örneklerini haberleştirdi. AI, dil kaydı, analizi, çevirisi ve öğretim materyalleri geliştirme gibi alanlarda potansiyel göstererek kültürel çeşitliliğin aktarılması için yeni teknolojik araçlar sunuyor (Kaynak: [Reddit r/ArtificialInteligence](https://www.reddit.com/r/ArtificialInteligence/comments/1komh0v/walking_in_two_worlds_how_an_indigenous_computer/))![AI, nesli tükenmekte olan yerli dillerin korunmasına yardımcı oluyor](https://external-preview.redd.it/g6iRO1PaPHlFE9QGD3_8rTiKwzjh2hgXM_6tG3uWe_g.jpg?auto=webp&s=9aaeeb66548c098be3b71c9b6d7fb0ebfa56e06f)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir