Anahtar Kelimeler:AlphaEvolve, GPT-4.1, Lovart, DeepSeek-V3, AI akıllı ajan, algoritma kendi kendine evrimleşme, Gemini büyük dil modeli, çok kafalı potansiyel dikkat, AI tasarım ajanı, yazılım donanım uyumlu tasarım

🔥 Odak Noktası

Google DeepMind, algoritmaların kendi kendine evrimleşmesini ve optimizasyonunu sağlayan AI programlama ajanı AlphaEvolve’u duyurdu: Google DeepMind, Gemini büyük dil modelinin yaratıcılığını otomatik bir değerlendiriciyle birleştirerek algoritmaları otonom olarak keşfedebilen, optimize edebilen ve yineleyebilen bir AI programlama ajanı olan AlphaEvolve’u tanıttı. AlphaEvolve, bir yıldır Google bünyesinde kullanılıyor ve veri merkezi verimliliğini artırmada (Borg sistemi küresel hesaplama gücünde %0.7’lik bir iyileşme), Gemini model eğitimini hızlandırmada (hızda %23 artış, genel eğitim süresinde %1 kısalma), TPU çip tasarımını optimize etmede başarılı bir şekilde uygulandı ve “öpüşme sayısı problemi” de dahil olmak üzere birçok matematiksel problemi çözdü; örneğin, 4×4 karmaşık matris çarpım algoritmasını 48 skaler çarpma ile geliştirerek 56 yıl önceki Strassen algoritmasını geride bıraktı. Bu teknoloji, AI’ın karmaşık bilimsel hesaplama ve mühendislik problemlerini çözmedeki büyük potansiyelini gösteriyor ve gelecekte malzeme bilimi, ilaç keşfi gibi daha geniş alanlara uygulanabilir. (Kaynak: 量子位, 36氪, 36氪, 36氪, Reddit r/LocalLLaMA, Reddit r/artificial, Reddit r/ArtificialInteligence, Reddit r/MachineLearning, op7418, TheRundownAI, sbmaruf, andersonbcdefg)

Google DeepMind, algoritmaların kendi kendine evrimleşmesini ve optimizasyonunu sağlayan AI programlama ajanı AlphaEvolve'u duyurdu

OpenAI GPT-4.1 serisi modelleri ChatGPT’de kullanıma sunuldu, kodlama ve talimat takip etme yetenekleri geliştirildi: OpenAI, GPT-4.1, GPT-4.1 mini ve GPT-4.1 nano olmak üzere üç modelin tüm kullanıcıların kullanımına sunulmak üzere ChatGPT platformuna resmi olarak geldiğini duyurdu. GPT-4.1, programlama ve talimat yürütme yeteneklerini geliştirmeye odaklanıyor; SWE-bench Verified yazılım mühendisliği karşılaştırmalı değerlendirmesinde %55 puan alarak GPT-4o’nun %33’lük ve GPT-4.5’in %38’lik puanlarından önemli ölçüde daha iyi performans gösterdi ve gereksiz çıktıları %50 azalttı. GPT-4.1 mini, yeni varsayılan model olarak GPT-4o mini’nin yerini alacak. GPT-4.1 nano ise düşük gecikmeli görevler için tasarlandı ve 1 milyon token bağlamını destekliyor. API sürümü milyonlarca token’ı desteklese de, ChatGPT’deki GPT-4.1 bağlam uzunluğu kullanıcılar arasında tartışmalara yol açtı; bazı kullanıcılar yaptıkları testlerde bağlam penceresinin API sürümünün 1 milyon token’ına ulaşmadığını tespit ederek hayal kırıklıklarını dile getirdi. (Kaynak: 36氪, 36氪, 36氪, op7418)

OpenAI GPT-4.1 serisi modelleri ChatGPT'de kullanıma sunuldu, kodlama ve talimat takip etme yetenekleri geliştirildi

AI tasarım ajanı Lovart büyük ilgi görüyor, tek bir cümleyle profesyonel düzeyde görsel tasarımlar tamamlanıyor: Tasarım alanındaki AI ajanı Lovart hızla popülerlik kazandı; kullanıcılar sadece tek bir cümleyle poster, marka VI, storyboard gibi profesyonel düzeyde görsel tasarımları tamamlayabiliyor. Lovart, tasarım sürecini otomatik olarak planlayabiliyor, GPT image-1, Flux pro, Kling AI gibi birçok üst düzey modeli çağırabiliyor ve katman düzenleme, tek tıkla arka plan kaldırma, arka plan değiştirme gibi gelişmiş özellikleri destekliyor. Bu ürün, LiblibAI’nin (merkezi San Francisco’da bulunan) yurt dışı iştiraki tarafından bağımsız olarak işletiliyor ve çekirdek geliştiricileri arasında InstantID’den Wang Haofan da bulunuyor. Lovart’ın ortaya çıkışı, AI ajanlarının profesyonel alanlara nüfuz etme eğilimini yansıtıyor; kullanım kolaylığı ve profesyonelliği geniş ilgi gördü ve lansmanının ilk gününde beta testi başvuruları 20.000’i aştı. (Kaynak: 36氪, 36氪, op7418, op7418)

AI tasarım ajanı Lovart büyük ilgi görüyor, tek bir cümleyle profesyonel düzeyde görsel tasarımlar tamamlanıyor

DeepSeek yeni bir makale yayınladı, V3 modelinin donanım-yazılım ortak tasarımı ve maliyet optimizasyonu sırlarını detaylandırdı: DeepSeek ekibi, DeepSeek-V3 modelinin donanım mimarisi ve model tasarımındaki ortak yeniliklerini ayrıntılı olarak açıklayan yeni bir makale yayınladı; amaç, büyük ölçekli AI eğitimi ve çıkarımında maliyet etkinliği sağlamaktır. Makale, bellek verimliliğini artıran Multi-head Latent Attention (MLA), hesaplama ve iletişim dengesini optimize eden Mixture of Experts (MoE) mimarisi, donanım performansından tam olarak yararlanan FP8 karma hassasiyetli eğitim ve küme ağ yükünü azaltan çok düzlemli ağ topolojisi gibi kilit teknolojilere odaklanıyor. Bu yenilikler sayesinde DeepSeek-V3, 2048 adet H800 GPU üzerinde eğitildiğinde FP8 eğitiminde doğruluk kaybı %0.25’in altında kalıyor ve KV önbelleği token başına 70KB kadar düşük seviyede bulunuyor. Makale ayrıca gelecekteki AI donanım geliştirme yönelimleri için altı öneri sunarak sağlamlık, CPU-GPU doğrudan bağlantısı, akıllı ağlar, donanımsal iletişim sıralaması, ağ-hesaplama entegrasyonu ve bellek mimarisinin yeniden yapılandırılmasının önemini vurguluyor. (Kaynak: 36氪, 36氪, hkproj, NandoDF, tokenbender, teortaxesTex)

DeepSeek yeni bir makale yayınladı, V3 modelinin donanım-yazılım ortak tasarımı ve maliyet optimizasyonu sırlarını detaylandırdı

🎯 Eğilimler

Anthropic’in yeni modeli yakında piyasaya sürülecek, daha güçlü düşünme ve araç çağırma yeteneklerine sahip olacak: Anthropic, önümüzdeki haftalarda yeni Claude Sonnet ve Claude Opus modellerini piyasaya sürmeyi planlıyor. Yeni modeller, düşünme ile harici araçları, uygulamaları veya veritabanlarını çağırma arasında serbestçe geçiş yapma yeteneğine sahip olacak ve dinamik etkileşim yoluyla sorunlara yanıt arayacak. Özellikle kod üretimi senaryolarında, yeni model yazdığı kodu otomatik olarak test edebilecek, hata bulursa yürütme sürecini durdurup hata teşhisi yapabilecek ve gerçek zamanlı olarak düzeltebilecek, bu da karmaşık görevleri yerine getirme ve kod üretimi konularındaki pratikliğini önemli ölçüde artıracak. (Kaynak: op7418, karminski3, TheRundownAI)

Anthropic'in yeni modeli yakında piyasaya sürülecek, daha güçlü düşünme ve araç çağırma yeteneklerine sahip olacak

MiniMax’in yeni nesil ses modeli Speech-02, uluslararası değerlendirmelerde OpenAI ve ElevenLabs’ı geride bırakarak zirveye yerleşti: MiniMax şirketinin piyasaya sürdüğü yeni nesil TTS (metinden sese) ses büyük modeli Speech-02, uluslararası otorite ses değerlendirme listesi Artificial Analysis’te üstün performans gösterdi; özellikle kelime hata oranı (WER) ve konuşmacı benzerliği (SIM) gibi kilit ses klonlama metriklerinde SOTA (State-of-the-Art) sonuçlar elde ederek OpenAI ve ElevenLabs’ın benzer ürünlerini geride bıraktı. Bu modelin teknolojik yenilikleri arasında sıfır örneklemli ses klonlama ve Flow-VAE mimarisinin benimsenmesi yer alıyor; 32 dili destekliyor ve daha düşük maliyetle son derece insansı, kişiselleştirilmiş ve çeşitli ses sentezi efektleri sunuyor. (Kaynak: 36氪)

MiniMax'in yeni nesil ses modeli Speech-02, uluslararası değerlendirmelerde OpenAI ve ElevenLabs'ı geride bırakarak zirveye yerleşti

Salesforce, tamamen açık kaynaklı birleşik çok modlu model serisi BLIP3-o’yu piyasaya sürdü: Salesforce, mimari, eğitim yöntemleri ve veri kümelerini içeren tamamen açık kaynaklı bir birleşik çok modlu model serisi olan BLIP3-o’yu yayınladı. Bu model serisi, geleneksel VAE temsilleri yerine semantik olarak zengin CLIP görüntü özelliklerini üretmek için difüzyon transformatörünü (diffusion transformer) kullanan yeni bir yaklaşım benimsiyor. Aynı zamanda, araştırmacılar birleşik modelin sıralı ön eğitim stratejisinin etkinliğini kanıtladılar; yani önce görüntü anlama, sonra görüntü üretimi eğitiliyor. (Kaynak: NandoDF, teortaxesTex)

Salesforce, tamamen açık kaynaklı birleşik çok modlu model serisi BLIP3-o'yu piyasaya sürdü

Stability AI, küçük metinden sese modeli Stable Audio Open Small’u açık kaynak olarak yayınladı: Stability AI, Stable Audio Open Small adlı bir metinden sese modelini yayınladı ve açık kaynak olarak sundu. Bu modelin parametre sayısı yalnızca 341M olup, tamamen Arm CPU üzerinde çalışacak şekilde optimize edilmiştir; bu da çoğu akıllı telefonun yerel olarak, internet bağlantısı olmadan saniyeler içinde müzik prodüksiyon örnekleri üretebileceği anlamına gelir. (Kaynak: op7418)

11x şirketi, LangGraph gibi teknolojileri kullanarak temel ürünü Alice’i bir AI ajanı olarak yeniden inşa etti: 11x şirketi, 10 milyon dolarlık ARR’ye ulaştıktan sonra temel ürünü Alice’i sıfırdan bir AI ajanı olarak yeniden inşa etti. Yeniden inşa nedenleri arasında model ve çerçevelerdeki (LangGraph gibi) iyileştirmeler ve Replit ajanlarının olağanüstü performansının onları ajan çağının geldiğine ikna etmesi yer alıyor. Basit bir teknoloji yığını benimsediler ve LangGraph platformunu kullandılar. Pazarlama kampanyası oluşturma konusunda, basit bir ReAct mimarisiyle başladılar, güvenilirliği artırmak için iş akışları eklediler, ardından esneklik için çoklu ajanlara geçtiler, ancak basit senaryolarda basitliğin hala en iyi seçenek olduğunu vurguladılar. Ayrıca araçların ajanlar için doğuştan gelen ön bilgilere göre daha faydalı olduğunu keşfettiler. (Kaynak: LangChainAI, hwchase17, hwchase17)

11x şirketi, LangGraph gibi teknolojileri kullanarak temel ürünü Alice'i bir AI ajanı olarak yeniden inşa etti

Box şirketi, belge çıkarma süreçlerini ajan mimarisiyle yeniden yapılandırdı: Box şirketi CTO’su Ben Kus, belge çıkarma ajanlarının geliştirme deneyimini paylaştı. Prototipin iyi performans gösterdikten sonra zorluklarla karşılaştığını, görevlerin ve beklentilerin giderek karmaşıklaştığını ve “hayal kırıklığı çukuruna” girdiğini belirtti. Andrew Ng ve Harrison Chase’den ilham alarak sistemi sıfırdan ajan mimarisi olarak yeniden tasarladılar. Bu yeni mimari daha net, daha etkili, değiştirilmesi kolay ve beklenmedik bir fayda sağladı: AI mühendislik kültürünü iyileştirdi. Ajan mimarisinin erken inşa edilmesi gerektiğini vurguladı. (Kaynak: LangChainAI)

Box şirketi, belge çıkarma süreçlerini ajan mimarisiyle yeniden yapılandırdı

Araştırma, LLM gizli durumlarının ekonomik ve finansal verileri daha doğru tahmin edebildiğini ortaya koydu: Bir araştırma, büyük dil modellerinin (LLM) gizli durumlarını analiz etmek için doğrusal bir model eğitmenin, doğrudan LLM’nin metin çıktılarına güvenmekten daha doğru bir şekilde ekonomik ve finansal istatistikleri tahmin edebildiğini gösterdi. Araştırmacılar, halüsinasyonları azaltmaya yönelik yaygın son eğitimin, modelin bilinçli tahminler yapma eğilimini veya yeteneğini zayıflatmış olabileceğine inanıyor; bu da LLM yeteneklerini ve genel son eğitimi çıkarma konusunda daha fazla çalışma yapılması gerektiğini gösteriyor. (Kaynak: menhguin, paul_cal)

Araştırma, LLM gizli durumlarının ekonomik ve finansal verileri daha doğru tahmin edebildiğini ortaya koydu

Nous Research, 40B parametreli LLM ön eğitim test ağını başlattı: Nous Research, 40 milyar parametreli bir büyük dil modelinin ön eğitimi için bir test ağı başlattığını duyurdu. Bu model MLA mimarisini kullanıyor ve veri kümeleri arasında FineWeb (14T), FineWeb-2 (bazı küçük diller çıkarıldıktan sonra 4T) ve The Stack v2 (1T) bulunuyor. Amaç, tek bir H/DGX üzerinde eğitilebilen küçük bir model eğitmek. Proje yöneticisi, MLA’da tensör paralelizmini uygularken özel geri yayılım zorluklarıyla karşılaştıklarını belirtti. (Kaynak: Teknium1)

Nous Research, 40B parametreli LLM ön eğitim test ağını başlattı

AI Agent IKEA: İç ve dış bilginin işbirlikçi çıkarımını güçlendirerek verimli adaptif arama sağlıyor: Araştırmacılar, IKEA adlı bir pekiştirmeli öğrenme ajanı önerdiler; bu ajan, ne zaman bilgi almayacağını öğreniyor, parametrik bilgiyi önceliklendiriyor ve yalnızca gerektiğinde bilgi alıyor. Temelinde, bilgi sınırı farkındalığına dayalı ödül ve eğitim kümesine dayalı bir pekiştirmeli öğrenme yöntemi kullanmak yatıyor. Deneyler, IKEA’nın performans açısından Search-R1’den daha iyi olduğunu ve bilgi alma sayısını yaklaşık %35 azalttığını gösteriyor. Bu araştırma, Knowledge-R1’in ajan RAG çerçevesine dayanıyor, görülmemiş verilere genellenebiliyor ve temel modelden 7B modele (Qwen2.5 gibi) genişletilebiliyor. Eğitimde GRPO yöntemi kullanıldı, değer başına ihtiyaç duyulmuyor, bellek kullanımı daha düşük ve ödül sinyali daha güçlü. (Kaynak: tokenbender)

AI Agent IKEA: İç ve dış bilginin işbirlikçi çıkarımını güçlendirerek verimli adaptif arama sağlıyor

Mistral AI, kurumsal düzeyde AI asistanı Le Chat Enterprise’ı piyasaya sürdü: Mistral AI, işletmeler için özel olarak tasarlanmış, yüksek düzeyde özelleştirilebilir ve güvenli bir ajan odaklı AI asistanı olan Le Chat Enterprise’ı yayınladı. Bu ürün, ticari kullanıcıların özel ihtiyaçlarını karşılamak, güçlü AI yetenekleri sunarken veri güvenliğini ve gizliliğini sağlamak amacıyla geliştirildi. (Kaynak: Ronald_vanLoon)

Meta FAIR kimya ekibi, büyük ölçekli moleküler veri kümesi ve model paketi OMol25’i piyasaya sürdü: Meta’nın FAIR kimya ekibi, 100 milyondan fazla farklı molekül içeren devasa bir veri kümesi ve buna karşılık gelen model paketi olan OMol25’i yayınladı. Bu proje, moleküllerin kuantum özelliklerini tahmin etmeyi, malzeme keşfini ve ilaç tasarımını hızlandırmayı ve kimya ve fizik alanlarındaki yüksek sadakatli makine öğrenimi odaklı simülasyonlara güç vermeyi amaçlıyor. (Kaynak: clefourrier)

🧰 Araçlar

SmolVLM WebGPU sürümü yayınlandı, web tarayıcısında insanları ve nesneleri tanıyabiliyor: Hafif görsel dil modeli SmolVLM, WebGPU sürümünü piyasaya sürdü, kullanıcılar doğrudan web sayfasında deneyimleyebilir. Bu modelin boyutu yalnızca yaklaşık 500MB olup, videodaki nesneleri, hatta figürlerdeki kılıç gibi detayları bile tanıyabiliyor. Testler, sayıları doğru tanıdığını ancak belirli markaları (içecek ambalajları gibi) tanımada sapmalar olabileceğini gösteriyor. 3080Ti ekran kartında tanıma hızı temel olarak 5 saniyenin altında. Kullanıcılar Hugging Face Spaces bağlantısı üzerinden çevrimiçi olarak deneyimleyebilir, kamera desteği gereklidir. (Kaynak: karminski3)

LlamaIndex, geliştirilmiş ajan uzun-kısa süreli bellek modülünü tanıttı: LlamaIndex, ajan sistemi bellek temelleri hakkında bir blog yazısı yayınladı ve yeni bir bellek modülü uygulaması başlattı. Bu modül, uzun süreli bellek oluşturmak için blok tabanlı bir yaklaşım kullanır ve kullanıcıların statik bilgi blokları, zamanla özet bilgi çıkarma blokları ve anlamsal aramayı destekleyen vektör arama blokları gibi farklı türde bilgileri depolamak ve korumak için farklı bloklar yapılandırmasına olanak tanır. Kullanıcılar ayrıca bellek modülünü belirli uygulama alanlarına uyacak şekilde özelleştirebilirler. (Kaynak: jerryjliu0)

LlamaIndex, geliştirilmiş ajan uzun-kısa süreli bellek modülünü tanıttı

AI toplantı kayıt yazılımı Granola 2.0 büyük bir güncelleme yayınladı ve 43 milyon dolarlık B serisi finansman aldı: AI toplantı kayıt yazılımı Granola 2.0, ekip işbirliği özellikleri, akıllı klasörler, AI sohbet analizi, model seçimi, kurumsal düzeyde tarama ve Slack entegrasyonu gibi bir dizi güncelleme yaptı. Aynı zamanda şirket, 43 milyon dolarlık B serisi finansmanını tamamladığını duyurdu. Şu anda yazılım hala ağırlıklı olarak İngilizce toplantı içeriklerinin transkripsiyonunu desteklemektedir. (Kaynak: op7418)

Replit ve MakerThrive, 1400’den fazla girişim fikri sunan IdeaHunt’ı başlatmak için iş birliği yaptı: Replit ve MakerThrive, IdeaHunt adlı bir uygulama geliştirmek için iş birliği yaptı; bu uygulama 1400’den fazla girişim fikrini bir araya getiriyor. Bu fikirler Reddit ve Hacker News’teki sorunlu nokta tartışmalarından kaynaklanıyor ve SaaS, eğitim, fintech gibi kategorilere göre sınıflandırılıyor. IdeaHunt, filtreleme ve sıralamayı destekliyor, her gün yeni fikirler güncelliyor ve AI ajanlarıyla birlikte proje oluşturma ipuçları sunuyor. (Kaynak: amasad)

Replit ve MakerThrive, 1400'den fazla girişim fikri sunan IdeaHunt'ı başlatmak için iş birliği yaptı

Open Agent Platform resmi dokümantasyon web sitesini yayınladı: LangChain’in Open Agent Platform’u (OAP) artık resmi bir dokümantasyon web sitesine sahip. OAP, son 6 ayda ajanlar için oluşturulan UI/UX’i kodsuz bir platformda birleştirmeyi amaçlıyor ve açık kaynak olarak sunuldu. Bu platform, AI ajanları oluşturma ve kullanma engelini düşürmeye adanmıştır. (Kaynak: LangChainAI, hwchase17, hwchase17, hwchase17)

Open Agent Platform resmi dokümantasyon web sitesini yayınladı

Nscale, AI model çıkarım dağıtımını basitleştirmek için Hugging Face ile entegre oldu: AI çıkarım platformu Nscale, kullanıcıların LLaMA4 ve Qwen3 gibi gelişmiş AI modellerini daha kolay dağıtmasını sağlamak için Hugging Face ile entegre olduğunu duyurdu. Bu entegrasyon, hızlı, verimli, sürdürülebilir ve karmaşık kurulum gerektirmeyen üretim düzeyinde çıkarım hizmetleri sunmayı amaçlıyor. (Kaynak: huggingface, reach_vb)

Nscale, AI model çıkarım dağıtımını basitleştirmek için Hugging Face ile entegre oldu

RunwayML yeni özelliği: İpuçlarıyla sahne yeniden ışıklandırması: RunwayML, Gen-3 modelinin video düzenleme konusundaki yeni yeteneğini sergiledi; kullanıcılar basit ipuçlarıyla video sahnesinin ışıklandırma ortamını değiştirebilir, örneğin iç mekan ışık efektlerini ayarlayabilir. Bu, AI’ın video post prodüksiyonunda giderek artan kolaylığını ve kontrolünü gösteriyor. (Kaynak: c_valenzuelab)

RunwayML yeni özelliği: İpuçlarıyla sahne yeniden ışıklandırması

📚 Öğrenme

Andrew Ng (Wu Enda) ve Anthropic, MCP üzerine yeni bir kurs başlatmak için iş birliği yaptı: Andrew Ng’nin DeepLearning.AI’ı ve Anthropic, Model Context Protocol (MCP) üzerine yeni bir kurs başlatmak için iş birliği yaptı. Bu kurs, öğrencilerin MCP’nin iç işleyişini, kendi sunucularını nasıl oluşturacaklarını ve bunları Claude tarafından desteklenen yerel veya uzak uygulamalara nasıl bağlayacaklarını anlamalarına yardımcı olmayı amaçlıyor. MCP, mevcut LLM uygulamalarında her araç veya harici veri kaynağı için özel mantık yazmanın verimsiz ve parçalı sorununu çözmeyi amaçlıyor. (Kaynak: op7418)

YouTube’da sıfırdan DeepSeek oluşturma video eğitimi ortaya çıktı: YouTube’da sıfırdan DeepSeek modelleri oluşturmaya yönelik bir dizi video eğitimi ortaya çıktı ve şu anda 25. bölüme kadar güncellendi. Bu eğitim içeriği ayrıntılı olup, HuggingFace’teki benzer sıfırdan DeepSeek oluşturma eğitimleriyle birbirini tamamlayabilir ve öğrencilere değerli pratik rehberlik sağlar. (Kaynak: karminski3)

YouTube'da sıfırdan DeepSeek oluşturma video eğitimi ortaya çıktı

GitHub popüler projesi ChinaTextbook, çeşitli aşamalardaki PDF ders kitaplarını topluyor ve düzenliyor: GitHub’da ChinaTextbook adlı bir proje büyük ilgi görüyor; bu proje Çin anakarasındaki ilkokuldan ortaokula, liseye ve üniversiteye kadar çeşitli PDF ders kitabı kaynaklarını topluyor. Proje başlatıcısı, bu eğitim kaynaklarını açık kaynak olarak sunarak zorunlu eğitimin yaygınlaşmasını teşvik etmeyi, bölgesel eğitim uçurumlarını ortadan kaldırmayı ve yurt dışındaki Çinli çocukların ülkedeki eğitim içeriğini anlamalarına yardımcı olmayı umuyor. Proje ayrıca GitHub’ın büyük dosya yükleme sınırlaması sorununu çözmek için dosya birleştirme araçları da sunuyor. (Kaynak: GitHub Trending)

GitHub popüler projesi ChinaTextbook, çeşitli aşamalardaki PDF ders kitaplarını topluyor ve düzenliyor

Pavel Grinfeld’in iç çarpımlar üzerine ders serisi beğeni topladı: Matematik eğitimcisi Pavel Grinfeld’in iç çarpımlar (inner products) üzerine YouTube’daki ders serisi büyük beğeni topladı. İzleyiciler, bu derslerin insanların matematiksel kavramları yeni bir bakış açısıyla anlamalarına ve geçmişteki bilgilerinin sınırlılığını fark etmelerine yardımcı olduğunu belirtti. (Kaynak: sytelus)

💼 Ticari

AI dil öğrenme uygulaması Duolingo’nun performansı beklentileri aştı, hisse senedi fiyatı büyük artış gösterdi: Dil öğrenme uygulaması Duolingo, 2025 birinci çeyrek mali raporunu yayınladı; toplam gelir %38 artışla 230.7 milyon dolar, net kar 35.1 milyon dolar oldu. Günlük aktif kullanıcı (DAU) ve aylık aktif kullanıcı (MAU) sırasıyla %49 ve %33 arttı. AI teknolojisinin uygulanması, kurs içeriği oluşturma verimliliğini 10 kat artırdı ve 148 yeni dil kursu eklendi. AI katma değerli hizmeti Duolingo Max’in abonelik oranı %7’ye ulaştı ve abonelik gelirini %45 artırdı. Mali raporun yayınlanmasının ardından şirket hisseleri %20’den fazla arttı ve piyasa değeri 2022’deki dip seviyesinden bu yana yaklaşık 8.5 kat arttı. (Kaynak: 36氪)

AI dil öğrenme uygulaması Duolingo'nun performansı beklentileri aştı, hisse senedi fiyatı büyük artış gösterdi

Databricks, AI Agent alanına odaklanmak için Neon’u 1 milyar dolara satın almayı planlıyor: Reuters’e göre, veri ve AI şirketi Databricks, AI Agent alanındaki konumunu güçlendirmek için başlangıç şirketi Neon’u 1 milyar dolara satın almayı planlıyor. Bu satın alma, Databricks’in AI alanındaki devam eden birleşme ve satın alma faaliyetlerinin bir parçası olup, AI ajan teknolojisi alanındaki hedeflerini gösteriyor. (Kaynak: Reddit r/artificial)

Databricks, AI Agent alanına odaklanmak için Neon'u 1 milyar dolara satın almayı planlıyor

DeepSeek kurucusu Liang Wenfeng, modelin büyük ilgi görmesinin ardından düşük profilli kalmaya devam ediyor, açık kaynağı ve teknoloji geliştirmeyi teşvik ediyor: DeepSeek R1 modelinin yayınlanması ve geniş ilgi görmesinin ardından kurucusu Liang Wenfeng, düşük profilli kalmaya devam ederek teknoloji geliştirmeye ve açık kaynak katkılarına odaklanıyor. DeepSeek, son 100 gün içinde birçok kod deposunu açık kaynak olarak yayınladı ve dil modellerini, matematik ve kod modellerini sürekli olarak güncelledi. Sermaye piyasası ve sektörden büyük ilgi görmesine rağmen Liang Wenfeng, finansman genişletme veya C-ucu kullanıcı ölçeği peşinde koşmak yerine, belirlediği AGI keşif temposuna bağlı kalarak matematik kodu, çok modluluk ve doğal dil olmak üzere üç ana yöne yatırım yapıyor. (Kaynak: 36氪)

DeepSeek kurucusu Liang Wenfeng, modelin büyük ilgi görmesinin ardından düşük profilli kalmaya devam ediyor, açık kaynağı ve teknoloji geliştirmeyi teşvik ediyor

🌟 Topluluk

Grok modeli, alakasız yanıtlarda birçok kez “Güney Afrika beyaz soykırımı” tartışmalı ifadelerine yer vererek kullanıcıların kafasını karıştırdı ve tartışmalara yol açtı: X platformu AI asistanı Grok, kullanıcıların çeşitli sorularına yanıt verirken, kullanıcıların sorduğu sorularla ilgisi olmasa bile, “Güney Afrika beyaz soykırımı” gibi son derece tartışmalı bir konuyu defalarca gündeme getirdi. Örneğin, kullanıcılar HBO Max veya tedarikçi vergisi hakkında soru sorduğunda bile Grok’un yanıtları bu konuyu tartışmaya yöneldi. Bazı analizler, bunun sistem isteminin (system prompt) uygunsuz bir şekilde değiştirilmesinden kaynaklanabileceğini ve modelin tüm yanıtlarda bu görüşe yer vermesine neden olabileceğini öne sürüyor. Bu durum, kullanıcıların Grok’un içerik kontrolü ve bilgi doğruluğu konusundaki endişelerini ve arkasında olası bir önyargı yönlendirmesi olabileceği tartışmalarını tetikledi. (Kaynak: colin_fraser, colin_fraser, teortaxesTex, code_star, jd_pressman, colin_fraser, paul_cal, Dorialexander, Reddit r/artificial, Reddit r/ArtificialInteligence)

Grok modeli, alakasız yanıtlarda birçok kez "Güney Afrika beyaz soykırımı" tartışmalı ifadelerine yer vererek kullanıcıların kafasını karıştırdı ve tartışmalara yol açtı

AI Agent oluşturma tartışması: Planları tanımlama, hatırlama ve düzeltme yeteneğine sahip olmalı: Etkili AI ajanlarının (agentic LLMs) temel unsurlarına ilişkin olarak, uzun bağlam ve önbellek, hassas araç çağırma ve güvenilir API performansının yanı sıra, dördüncü bir temel yeteneğe daha ihtiyaç duyulduğu görüşü var: planları tanımlama, hatırlama ve düzeltme yeteneği. Büyük dil modeli planlaması alanındaki birçok araştırma belki de bir atılım sağlayamadı, ancak gerçek şu ki, ajan yalnızca en son uyarana tepki veriyorsa (ReAct modu) ve tutarlı çok adımlı alt hedefleri yoksa, birçok karmaşık görev tamamlanamaz. (Kaynak: lateinteraction)

Quora CEO’su Adam D’Angelo, Poe platformunun gelişimini ve AI sektörüne ilişkin görüşlerini paylaştı: Interrupt 2025 konferansında Quora CEO’su Adam D’Angelo, şirketin erken dönemde birden fazla dil modeline ve uygulamaya yatırım yapma ve Poe platformunu başlatma düşüncelerini paylaştı. Poe, kullanıcıların “tüm AI’ları tek bir yerden kullanma” ihtiyacını karşılamayı ve robot oluşturuculara dağıtım ve para kazanma kanalları sunmayı amaçlıyor. Metin modellerinin şu anda hala baskın olduğunu, çünkü görüntü/video modellerinin henüz kullanıcıların beklediği kalite standartlarına ulaşmadığını belirtti ve aynı zamanda tüketici AI kullanıcılarının belirli modellere sadakat gösterdiğini gözlemledi. (Kaynak: LangChainAI, hwchase17)

Quora CEO'su Adam D'Angelo, Poe platformunun gelişimini ve AI sektörüne ilişkin görüşlerini paylaştı

ChatGPT ziyaretçi sayısı dünya genelinde beşinci sıraya yükseldi, internet yapısındaki değişim tartışmalarını tetikledi: Reddit’te yapılan bir tartışmada, ChatGPT’nin web sitesi ziyaretçi sayısının dünya genelinde beşinci sıraya yükseldiği, Reddit, Amazon ve Whatsapp’ı geçtiği ve hala büyümeye devam ettiği, diğer ilk 10 web sitesinin trafiğinin ise düştüğü, örneğin Wikipedia’nın aylık trafiğinin yaklaşık %6 azaldığı belirtildi. Bu durum, internetin AI tarafından yeniden şekillendirildiği hatta yerini aldığı tartışmalarını tetikledi; birçok kullanıcı ChatGPT’yi bilgi edinme ve görevleri yerine getirme için ana arayüz olarak kullanmaya başladı, geleneksel arama motorları veya çeşitli web siteleri yerine. Yorumlarda kullanıcıların bu konudaki görüşleri farklıydı; bazıları bunun teknolojik gelişmenin normal bir yinelemesi olduğunu, geçmişte Facebook ve Google’ın yükselişine benzediğini düşünüyordu; bazıları içerik ekosisteminin daralması ve model çöküşünden endişe ediyordu; bazıları ise internetin bu sayede tıklama ekonomisinden ve çöp bilgilerden kurtulmasını umuyordu. (Kaynak: Reddit r/ChatGPT)

ChatGPT ziyaretçi sayısı dünya genelinde beşinci sıraya yükseldi, internet yapısındaki değişim tartışmalarını tetikledi

Claude modeli kodlama deneyimi tartışması: Kullanıcılar Sonnet 3.7’nin aşırı mühendislik ürünü olduğunu belirtiyor, Opus’un performansı dikkat çekiyor: Reddit ClaudeAI topluluğu kullanıcıları, Claude Opus ve Sonnet 3.7’nin kodlama ve matematik görevlerindeki performansını tartışıyor. Bir kullanıcı, açık basitleştirme talimatları (KISS, DRY, YAGNI ilkeleri gibi) verilmesine rağmen Sonnet 3.7’nin çözümleri aşırı tasarlama eğiliminde olduğunu ve sürekli düzeltilmesi gerektiğini bildirdi. Bazı kullanıcılar Opus’u denemeye başladı ve kod çıktısı kalitesindeki iyileşmeyi, değişiklik sayısındaki azalmayı ilk olarak gördü. Başka bir kullanıcı, talimatlar ne kadar spesifik olursa Claude’un performansının o kadar düşebileceğini, ona daha fazla özgürlük verildiğinde (“bana harika bir tasarım ver” gibi) sonuçların genellikle şaşırtıcı derecede iyi olduğunu belirtti. Karmaşık görevlerde modelin kendi kendini kalibre etmesi için “düşünme aracı” ipucunun kullanılması önerildi. (Kaynak: Reddit r/ClaudeAI, Reddit r/ClaudeAI)

AI araçlarının şirket içindeki gerçek kullanım durumu: ChatGPT, Copilot ve Deepwiki yaygınlık oranı yüksek: Kendisini bir şirket teknik personeli olarak tanıtan bir kullanıcı sosyal medyada, şirketlerinde ChatGPT (ücretsiz sürüm), Copilot ve Deepwiki’nin yaygın olarak kullanılan birkaç AI ürününden biri olduğunu belirtti. Şirket içinde tanıtılan diğer AI araçları pek fazla pratik uygulama bulamadı. Kullanıcı ayrıca, daha fazla kişinin Codex veya Claude Code kullanmasını istese de, API anahtarı almanın zorluğu nedeniyle tanıtımın engellendiğini belirtti. (Kaynak: cto_junior, cto_junior)

💡 Diğer

AI çağında yazılım mühendisleri işsizlik sorunuyla karşı karşıya, bu durum toplumsal bir yansımayı tetikliyor: 42 yaşında bir yazılım mühendisi, AI ile ilgili işten çıkarmalardan etkilendikten sonra bir yıl içinde yaklaşık bin özgeçmiş göndermesine rağmen iş bulamadı ve şu anda geçimini sağlamak için yemek dağıtımı yapıyor. AI yeni becerilerini öğrenme, içerik oluşturmayı deneme, maaşını düşürerek iş arama ve hatta kariyer değiştirmeyi düşünme gibi zorlu deneyimlerini paylaştı, ancak hiçbiri başarılı olmadı. Yaşadığı zorluklar, AI teknolojisinin gelişiminin getirdiği yapısal işsizlik, yaş ayrımcılığı ve toplumun AI tarafından yaratılan değeri nasıl dağıtacağı gibi konular üzerine derin bir düşünceyi tetikledi. Makale, bunun AI’ın insan gücünün yerini almasının sadece bir başlangıcı olabileceğini ve toplumun bu değişime nasıl yanıt vereceğini düşünmesi gerektiğini belirtiyor. (Kaynak: 36氪)

AI çağında yazılım mühendisleri işsizlik sorunuyla karşı karşıya, bu durum toplumsal bir yansımayı tetikliyor

AI, geleneksel dış kaynak kullanımı (BPO) sektörüne yıkıcı bir darbe vuruyor: AI teknolojisinin gelişimi, küresel iş süreci dış kaynak kullanımı (BPO) sektörünü derinden değiştiriyor. AI müşteri hizmetleri, AI tahsilat, AI anketleri gibi uygulamalar, insan gücüne dayalı dış kaynak kullanımının yerini alma potansiyelini şimdiden gösterdi; örneğin Decagon AI müşteri hizmetleri, şirketlerin destek ekiplerini önemli ölçüde azaltmasına yardımcı oluyor, Salient AI tahsilat verimliliği artırıyor. Uzmanlar, önümüzdeki birkaç yıl içinde özellikle Hindistan ve Filipinler gibi büyük dış kaynak ülkelerinde çok sayıda BPO pozisyonunun ortadan kalkabileceğini tahmin ediyor. Wipro, Infosys gibi geleneksel dış kaynak devleri AI yatırımlarını artırsa da, iş modeli dönüşümü zorluklarıyla karşı karşıya. AI çağında, dış kaynak hizmet sağlayıcılarının rolü işgücü uzantısından teknoloji sağlayıcısına dönüşecek ve değerleri AI hizmetlerini entegre etme yeteneklerine bağlı olacak. (Kaynak: 36氪)

AI’ın kamu sınavı hazırlık alanındaki uygulamaları ve etkileri: Huatu Education, Fenbi gibi kamu sınavı hazırlık kurumları, AI teknolojisini mülakat değerlendirmesi, kompozisyon ve yetenek testi danışmanlığı gibi senaryolara aktif olarak uyguluyor. Huatu Education, AI mülakat değerlendirme ürününü piyasaya sürdü ve yılın ikinci yarısında daha fazla AI ders ürünü sunacak; AI’ın eğitimin “imkansız üçgenini” (büyük ölçek, yüksek kalite, kişiselleştirme) kırabileceğine, verimliliği artırabileceğine ve maliyetleri düşürebileceğine inanıyor. Fenbi ise AI öğretmenleri ve AI sistem sınıflarını başlattı. Sektör uzmanları, AI’ın sektördeki Matthew etkisini artıracağına, olgun süreçlere ve veri birikimine sahip lider kurumların daha kolay fayda sağlayacağına ve gelecekteki rekabetin anahtarının AI uygulama yönü seçimi ve düşük maliyetli operasyon yeteneği olacağına inanıyor. (Kaynak: 36氪)

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir