Yapay Zeka Bülteni – 2025-04-21(Akşam)

Anahtar Kelimeler:AI gözlük, insansı robot, AI telif yönetimi, OpenAI, AI gözlük yüzlerce model yarışı, insansı robot maratonu, AI telif küresel yönetimi, OpenAI akıl yürütme modeli o3, AI evcil hayvan pazarı, AI işe alım süreci, AI müşteri hizmetleri tartışması, AI eğitim uygulamaları

“` markdown

🔥 Odak Noktası

AI gözlüklerde “Yüz Gözlük Savaşı” kızışıyor, devlerin girişi startup alanını daraltıyor : Xiaomi, Huawei, Alibaba, ByteDance gibi teknoloji devleri, AI gözlük pazarına girişlerini hızlandırarak yeni bir “Yüz Gözlük Savaşı”nı tetikliyor. Xiaomi, MIJIA akıllı sesli gözlüklerini piyasaya sürdü ve daha güçlü AR özelliklerine sahip gözlükler çıkarmayı planlıyor; Huawei akıllı gözlük ürünlerini güncelledi; Alibaba ve ByteDance de AI ve AR işlevlerini entegre eden yeni ürünler geliştiriyor. Piyasada mevcut olarak ses+AI, ses+fotoğraf+AI, ses+AR+AI, ses+fotoğraf+AR+AI olmak üzere dört kategori ürün bulunuyor. Büyük şirketler birden fazla alana yatırım yaparken, startup şirketleri genellikle en kapsamlı ancak teknik olarak en zorlu rotaya odaklanıyor. Büyük şirketlerin finansman, teknoloji (örneğin, güç tüketimini azaltan çift çipli çözümler), ekosistem entegrasyonu (sistem izinlerine erişim) ve dağıtım kanalları konusundaki belirgin avantajları, Thundercomm, XREAL gibi startup şirketleri üzerinde büyük bir baskı oluşturuyor. Startup şirketlerinin koku alma duyuları hassas olsa da, teknolojik yenilenme yavaş ilerliyor ve geride kalma riskiyle karşı karşıyalar. Bununla birlikte, AI gözlükler hala teknik darboğazlar (ağırlık, pil ömrü, hesaplama gücü), pazar kabulü, gizlilik (kamera ile gizli çekim riski) gibi zorluklarla karşı karşıya ve nihai şekli ile pazar büyüklüğü belirsizliğini koruyor. Startup şirketleri, farklılaşmış konumlandırma (örneğin, INMO’nun belirli kitleleri hedeflemesi) yoluyla hayatta kalma alanı arayabilir. (Kaynak: AI Gözlük Savaşları Kızışıyor: Devler Sahneye Giriyor, Küçük Ekipler Tehlikede mi?, AI Gözlükleri Toparlıyor, Akıllı Gözlükler Yeniden mi Yükseliyor?, ByteDance AI Gözlük mü Yapacak? Bu Konu Gerçekten Hayal Gücünü Zorluyor)

AI Gözlük Savaşları Kızışıyor: Devler Sahneye Giriyor, Küçük Ekipler Tehlikede mi?

OpenAI’nin yeni çıkarım modelleri o3/o4-mini güçlü performans sergiliyor ancak halüsinasyon oranı fırlıyor : OpenAI’nin son çıkardığı çıkarım modelleri o3 ve o4-mini, kodlama, matematik, bilim ve görsel algı gibi karmaşık görevlerde üstün performans gösteriyor; örneğin o3, Codeforces programlama yarışmasında dünya çapında ilk 200 insan yarışmacı seviyesine ulaştı. Ancak, teknik raporlar ve üçüncü taraf testleri, bu iki modelin “halüsinasyon oranının” önceki modeller o1 ve GPT-4o’dan önemli ölçüde yüksek olduğunu, o3’te %33’e, o4-mini’de ise %48’e ulaştığını gösteriyor. AI2 bilim insanı Nathan Lambert ve eski OpenAI araştırmacısı Neil Chowdhury, bunun nedeninin, modellerin aşırı optimize edilmiş Sonuç Odaklı Pekiştirmeli Öğrenme (Outcome-based RL) eğitim yönteminden kaynaklanabileceğini düşünüyor. Bu eğitim yöntemi, belirli görevlerde performansı artırsa da, modelin bir sorunu çözemediğinde sınırlamalarını kabul etmek yerine “tahmin etme” eğiliminde olmasına ve eğitim sırasında araç kullanımına verilen ödüllerin genelleştirilmesi nedeniyle hayali araç kullanım senaryoları uydurmasına yol açabilir. Ayrıca, modelin çıkarım sırasında kullandığı “Düşünce Zinciri” (CoT) kullanıcı tarafından görülemez ve sonraki diyaloglarda atılır, bu da modelin sorgulandığında bilgi eksikliği nedeniyle açıklamalar uydurmasına neden olabilir. Performans ve güvenilirlik arasındaki bu çelişki, pekiştirmeli öğrenmenin yan etkileri ve modellerin pratikliği hakkında geniş çaplı tartışmalara yol açtı. (Kaynak: OpenAI’de Ciddi Bir Kusur Ortaya Çıktı, Pekiştirmeli Öğrenme Baş Şüpheli, o3 Güçlendikçe “Çılgınlaşıyor”, Halüsinasyon Oranı Fırlıyor, o3’ün Önceki Başarıları “Görmezden Geldiği” İddia Edildi? Çinli Doktora Öğrencisi İsim Vererek Suçladı, Xie Saining Gibi Büyük İsimler Şiddetle Tartışıyor, OpenAI’nin En Güçlü AI Modeli “Büyük Bir Dolandırıcı” mı Oldu? o3/o4-mini’nin Aşırı Zeki Olduğu ve Sonuç Halüsinasyonlarının Sık Yaşandığı İddia Ediliyor?, AI Seçmek Eş Seçmekten Daha Zor, İsimlendirme Kara Deliği OpenAI’nin Yeni Modelleri Arasından Nasıl Seçim Yapılır?)

OpenAI'de Ciddi Bir Kusur Ortaya Çıktı, Pekiştirmeli Öğrenme Baş Şüpheli, o3 Güçlendikçe "Çılgınlaşıyor", Halüsinasyon Oranı Fırlıyor

Pekin, dünyanın ilk insansı robot yarı maratonuna ev sahipliği yaptı, “Pekin Takımı” göz doldurdu : 19 Nisan 2025’te Pekin Yizhuang, dünyanın ilk insansı robot yarı maratonunu başarıyla düzenledi ve 20 takım 21.0975 kilometrelik karmaşık parkurda yarıştı. Pekin İnsansı Robot İnovasyon Merkezi’nin “Tiangong Ultra”sı 2 saat 40 dakika 42 saniyelik derecesiyle birinci oldu ve 12 km/s’lik zirve hızını ve “Hui Si Kai Wu” genel amaçlı cisimleşmiş zeka platformunun gelişmişliğini sergiledi. Pekin Gelecek Bilim Şehri Songyan Dynamics’in “Xiao Wantong” ve “Xuanfeng Xiaozi” adlı robotları sırasıyla ikinci ve dördüncü oldu. “Xiao Wantong” istikrarı ve yüksek zorluktaki hareket yetenekleriyle dikkat çekti. Bu yarışma sadece robotların atletik performanslarının bir karşılaştırması değil, aynı zamanda AI, makine mühendisliği, kontrol algoritmaları gibi teknolojilerin sınırlarını zorlayan bir testti ve denetim, lojistik gibi gerçek uygulama senaryolarını simüle etti. Pekin, insansı robot alanında “politika-sermaye-sanayi-uygulama” ekosistemi (örneğin, “Pekin Robot Sanayi İnovasyon Geliştirme Eylem Planı”, 10 milyar yuanlık robot sanayi fonu, Yizhuang sanayi kümelenme bölgesi, “Çift Yüz Projesi” uygulama teşviki) aracılığıyla lider bir avantaj elde etti ve daha fazla sektör lideri yetiştiriyor. (Kaynak: İnsansı Robot Maratonu: Pekin Nasıl “Liderler” Yetiştiriyor?, Cisimleşmiş Zeka Sermaye Şöleni: 3 Ayda 37 Finansman Turu, Pekin-Şanghay-Shenzhen Rekabeti, BAT Sahneye İniyor, İnsansı Robotlar En Popüler, Robots Take Stride in World’s First Humanoid Half-Marathon in Beijing)

İnsansı Robot Maratonu: Pekin Nasıl "Liderler" Yetiştiriyor?

AI telif hakkı yönetişimi küresel gözlem: Farklı yollar, süregelen zorluklar : Dünya genelindeki ülkeler AI telif hakkı yönetişimi yollarını aktif olarak araştırıyor. Avrupa Birliği modeli, “Telif Hakkı Direktifi” ve “AI Yasası”nı merkezine alarak risk kontrolünü ve kuralların önceliğini vurguluyor; idari kurumlar aracılığıyla “müdahaleci düzenleme” ile AI üreticilerinden eğitim verisi şeffaflığını artırmalarını ve telif hakkı sahiplerinin haklarına saygı göstermelerini talep ediyor. Amerika Birleşik Devletleri modeli ise idari (Telif Hakkı Ofisi kararları), yargısal (davalar) ve yasama (Kongre oturumları) süreçlerini paralel yürüterek, endüstri pratiklerinin yönlendirmesiyle “akışına bırakma” yaklaşımını benimsiyor, ancak çıkar çatışmalarının keskinliği nedeniyle yasama düzeyinde “bekle ve gör” eğilimi gösteriyor. Japonya modeli uygulama odaklı olup, Kültür Ajansı tarafından yayınlanan bir dizi idari kılavuz aracılığıyla mevcut “Telif Hakkı Yasası”ndaki “keyfi olmayan kullanım” kuralının AI senaryolarındaki uygulanabilirliğini detaylandırıyor, tarafların davranış beklentilerini netleştiriyor ve AIGC’nin içerik endüstrisindeki uygulamasını teşvik ediyor. Temel tartışma noktaları arasında model eğitiminin telif hakkı muafiyeti (genellikle “istisnanın istisnası”na odaklanma eğilimi), AIGC içeriğinin telif hakkına konu olabilirliği (genellikle insan yaratıcı katkısı gerektiği ve mevcut sistemlerin yeterli olduğu düşünülüyor) ve ihlal edici içeriklerin sorumluluk dağılımı (kullanıcı doğrudan ihlalci, platform dolaylı sorumlu, ancak özen yükümlülüğünün sınırları belirsiz) yer alıyor. Çin, “AIGC Geçici Yönetmeliği”ni yayınladı ve yargı kararlarıyla keşifler yapıyor; gelecekte model eğitimi muafiyeti, AIGC eserlerinin korunması ve platform sorumluluğu gibi konuları dikkatle değerlendirmesi gerekiyor. (Kaynak: AI Telif Hakkı Küresel Yönetişim Gözlemi, AI Şirketlerinin Bedavacılığına Karşı ABD Medyası “Öğretmene Şikayet Etmeyi” Seçti)

AI Telif Hakkı Küresel Yönetişim Gözlemi

🎯 Eğilimler

AI işe alım süreçlerini yeniden şekillendiriyor, iş arayanların yeni kurallara uyum sağlaması gerekiyor : AI ve otomasyon, işe alım düzenini derinden değiştiriyor; ABD şirketlerinin %83’ü özgeçmişleri taramak için AI kullanıyor. İş arayanların stratejilerini ayarlaması gerekiyor: 1. AI’a dayanıklı becerileri vurgulayın: Ağ kurma, karar verme, kişiselleştirilmiş hizmet gibi AI’ın yerini doldurması zor yetenekleri vurgulayın ve gelişmekte olan alanlara uyum sağlayın. 2. AI taramasını anlayın: Özgeçmiş, iş tanımındaki temel anahtar kelimeleri (stratejik planlama, operasyonel verimlilik vb.) içermelidir, aksi takdirde ATS sistemleri tarafından filtrelenebilir. 3. AI’ı dikkatli kullanın: Özgeçmiş ve ön yazı yazmak için tamamen AI’a güvenmekten kaçının, çünkü AI tarafından oluşturulan içerik kolayca tanınabilir ve kişilikten yoksun olabilir; AI’ı optimizasyon ve anahtar kelime eşleştirme için yardımcı bir araç olarak kullanın. 4. AI mülakatlarına hazırlanın: HireVue gibi AI mülakat araçlarına aşina olun, yaygın temel soruları yanıtlama pratiği yapın, ifadelerin kısa olmasına (2 dakika içinde önerilir) ve anahtar kelime kullanımına dikkat edin. 5. Şirketin AI uygulamalarını proaktif olarak öğrenin: Şirketin AI ilerlemesini ve çalışanların becerilerini yeniden eğitme planlarını sorun, uzun vadeli gelişim beklentilerini değerlendirin. AI odaklı işe alım süreçlerine uyum sağlamak, profesyonel yetenekleri ve sürekli öğrenme isteğini göstermek anahtardır. (Kaynak: Mülakatçıyı Etkilemeden Önce AI’ı Etkileyin)

Sosyal platformlar arama alışkanlıklarını yeniden yapılandırıyor, arama devrimini yeniden tanımlıyor : Douyin, Xiaohongshu, WeChat gibi sosyal platformlar, kendi özgün özellikleriyle kullanıcıların arama alışkanlıklarını yeniden şekillendirerek geleneksel arama motorlarına meydan okuyor. Douyin, kısa videoları ve algoritma önerilerini kullanarak aramayı içerik tüketim akışına entegre ediyor, kullanıcı ilgisini uyandırıyor ve tüketime yönlendiriyor. Xiaohongshu, devasa “gerçek kişi” paylaşımları ve “ilgi uyandıran” içerikleriyle gençlerin yaşam kararlarında önemli bir referans haline geldi; arama davranışları tüketim kararlarıyla derinden bağlantılı. WeChat ise tanıdık sosyal çevresi ve resmi hesaplar, video hesapları gibi içerik ekosistemine dayanarak, kişisel ilişki ağını ve platform içeriğini birleştiren, yüksek güvenilirliğe sahip arama sonuçları sunuyor. Bu platformların arama işlevlerini genişletmesi sadece kullanıcı zihnini ele geçirmek için değil, aynı zamanda önemli bir ticari hamledir ve sırasıyla “ilgiye dayalı e-ticaret”, “ilgi uyandırma ekonomisi” ve güvene dayalı “sosyal e-ticaret” modellerini oluşturmuştur. AI’ın katılımı (örneğin, Wenxin Yiyan, DeepSeek ve çeşitli platformlara gömülü AI asistanları) arama düzenini daha da değiştiriyor, daha kişiselleştirilmiş, reklamsız yanıtlar sunuyor, ancak kısa vadede içerik platformlarının arama değerini tamamen değiştirmesi zor. Gelecekte, AI yetenekleri çeşitli platformların arama savaşındaki kaderini belirleyen anahtar faktör olacak. (Kaynak: 2025 Arama Savaşı: Douyin, Xiaohongshu, WeChat, Arama Devrimini Nasıl Tanımlıyor?)

2025 Arama Savaşı: Douyin, Xiaohongshu, WeChat, Arama Devrimini Nasıl Tanımlıyor?

Turing Testi tartışmalı olsa da hala dönemsel bir öneme sahip : AI’ın insan benzeri zekaya sahip olup olmadığını ölçmek için erken bir standart olan Turing Testi (insanların diyalog kurdukları tarafın insan mı yoksa AI mı olduğunu ayırt edememesi durumunda testi geçmesi), bugün hala anılıyor; örneğin GPT-4 yakın zamanda %54 başarı oranıyla testi geçti, hatta bazı araştırmalar GPT4.5’in insan olarak tanınma olasılığının gerçek insanlardan daha yüksek olduğunu iddia ediyor. Ancak, bu test önerildiğinden beri tartışmaların odağında yer alıyor. Eleştirmenler, testin düşünce sürecinden ziyade sadece performansa odaklandığını (örneğin, “Çince Odası” düşünce deneyi) ve “kandırılmaya” açık olduğunu (örneğin, ELIZA’nın basit yanıtları, dil bilmeyen bir çocuk gibi davranan programlar) savunuyor. Test standartları (örneğin, 5 dakikalık diyalog, %70 tanıma oranı) mevcut AI’ın hızlı gelişimi karşısında modası geçmiş görünüyor. Modern büyük dil modelleri insan diyaloglarını taklit edebilse de, özünde içeriği anlamıyor, gerçek düşünce ve duygudan yoksunlar. Ayrıca test sonuçları, test eden kişinin deneyiminden etkileniyor. Birçok kusuruna rağmen, Turing Testi AI gelişiminin erken dönemlerinde uygulanabilir bir ölçüm fikri sundu. Günümüzde AI yetenekleri test kapsamını çoktan aştı (örneğin, makale yazma, programlama) ve bu teste aşırı takılıp kalmak anlamını yitirmiş olabilir. Turing’in asıl amacı belki de nihai bir standart belirlemek değil, makine zekası üzerine keşifleri ve insanın sınırsız ilerlemesini teşvik etmekti. (Kaynak: Yıllardır Eleştirilmesine Rağmen Turing Testi Denen Bu Eski Şey Nasıl Hala Ayakta?)

Yıllardır Eleştirilmesine Rağmen Turing Testi Denen Bu Eski Şey Nasıl Hala Ayakta?

AI evcil hayvanlarının yükselişi, çeşitli refakat ihtiyaçlarını karşılayarak yeni bir endüstri doğuruyor : AI teknolojisi ile elektronik evcil hayvanların birleşimi, giderek daha “akıllı” ve popüler AI evcil hayvanlarının ortaya çıkmasını sağlıyor; örneğin Japon Vanguard Industries’in Moflin tavşanı, CES’te sergilenen Ropet, Mirumi, Jennie gibi. Bu AI evcil hayvanları, geleneksel elektronik oyuncakların refakat işlevlerine sahip olmanın ötesinde, büyük dil modelleri aracılığıyla diyalog kurabiliyor, etkileşimde bulunabiliyor, kullanıcı alışkanlıklarını öğrenebiliyor, hatta olayları hatırlayarak daha derin duygusal değer sunabiliyor. AI evcil hayvanlarının popülaritesi, çeşitli insan gruplarının ihtiyaçlarını karşılamasından kaynaklanıyor: çocuklar ve gençler için yeni ve eğlenceli oyun arkadaşları sunuyor; evcil hayvan alerjisi olanlar için alternatif seçenekler sağlıyor; otizm, depresyon gibi ruh sağlığı ihtiyaçları olanlar için etkileşimli refakat sunuyor; yalnız yaşayan veya demanslı yaşlılar için duygusal teselli sağlıyor. Gerçek evcil hayvanlara kıyasla AI evcil hayvanları daha az zahmetli (besleme, temizlik, tıbbi bakım gerektirmez). Technavio, AI evcil hayvan pazarının yıllık bileşik büyüme oranının %11.28 olacağını ve 2030’da pazar büyüklüğünün 60 milyar dolara ulaşabileceğini tahmin ediyor. Japon Yukai Engineering, ABD’li TangibleFuture, Çinli TCL, KEYi Tech gibi yerli ve yabancı şirketler bu alana giriyor. Ancak, veri gizliliği güvenliği ve kullanıcıların aşırı bağımlılığı bu endüstrinin karşılaştığı zorluklar arasında. (Kaynak: AI Evcil Hayvan Akımı Gelmek Üzere)

AI Evcil Hayvan Akımı Gelmek Üzere

İnsan-makine işbirliğinde algoritma seçimi: Doğruluk, yorumlanabilirlik ve yanlılık dengesi : AI algoritmaları, insan-makine işbirliğinde kritik bir rol oynayarak verileri işler, örüntüleri tanır ve insan kararlarına yardımcı olur. Ancak algoritmaların iki yüzü vardır: Yüksek doğruluktaki modeller (derin öğrenme gibi) genellikle yorumlanabilirlikten yoksundur, bu da kullanıcı güvenini etkiler; basit modeller anlaşılması kolaydır ancak doğruluğu düşüktür. Bu dengeyi çözme yöntemleri şunları içerir: 1. Yorumlanabilir AI (XAI): Özellik katkılarını ölçmek ve şeffaflığı artırmak için SHAP, LIME gibi teknikleri kullanmak. Araştırmalar, açıklama bilgisi sunmanın karmaşık görevlerde insan-makine işbirliğinin etkinliğini önemli ölçüde artırdığını göstermektedir. 2. İnsan Döngüde (HITL): İnsanları karar alma süreçlerine dahil ederek algoritma önerilerini insan deneyimi ve bağlamsal yargıyla (finansal dolandırıcılık tespiti, tedarik zinciri yönetimi ayarlamaları gibi) birleştirmek. “İnsan merkezli optimizasyon algoritmaları” (Alibaba’nın paketleme optimizasyon örneği gibi) insan davranışsal yanlılıklarını tahmin eder ve bunlara uyum sağlayarak verimliliği artırır. 3. Karma rehberlik: Farklı grupların (satış eğitimi gibi) sorunlarını çözmek için AI koçunun veri analizini insan yöneticilerin iletişim becerileriyle birleştirmek. Aynı zamanda, algoritma yanlılıklarına (işe alım, kredi gibi alanlardaki adaletsizlikler) karşı dikkatli olmak ve bunları azaltmak gerekir; veri dengeleme, adalet kısıtlamaları, insan denetimi gibi yöntemlerle başa çıkılmalıdır. Üretken AI’ın olgunlaşması, insan-makine ilişkisini işbirliğinden (collaboration) takım çalışmasına (teaming) doğru ilerletiyor ve rol dağılımı, güven inşası, bilişsel koordinasyon gibi yeni zorluklar getiriyor; şeffaf bir yönetişim çerçevesi oluşturmak ve adalet gibi değer hedeflerine odaklanmak gerekiyor. (Kaynak: İnsan-Makine İşbirliğinde Algoritma Seçimi)

İnsan-Makine İşbirliğinde Algoritma Seçimi

İnternet platformlarının AIGC içeriğine yönelik “teşvik ve kısıtlama” ikilemi : Xiaohongshu, WeChat Video Hesapları, Douyin gibi büyük internet platformları son zamanlarda AI tarafından üretilen içeriğe (AIGC) yönelik kısıtlamaları artırarak içerik oluşturucularda kafa karışıklığına neden oldu. Kısıtlama önlemleri arasında içerik kaldırma, hesap engelleme, trafik sınırlaması ve ticari haklardan mahrum bırakma yer alıyor; gerekçeler genellikle “feodal batıl inançların yayılması”, “telif hakkı ihlali”, “kurgusal olaylar”, “gerçek kişi taklidi” gibi konuları içeriyor. Platformlar, içerik oluşturucuları çekmek için AI oluşturma araçlarına (Xiaohongshu’nun “Diandian”, ByteDance’in “Jimeng” gibi) büyük yatırım yapmalarına rağmen, AIGC içeriğinin denetimi sıkılaşıyor, hatta AI filigranı eklendikten sonra bile kısıtlamalarla karşılaşılabiliyor. Platformların düzenleme odağı, homojenleşmiş, düşük özgünlüklü içeriğe (örneğin, popüler içeriklerin toplu kopyalanması) karşı mücadele etmek ve topluluk özgünlüğünü (örneğin, Xiaohongshu’nun “gerçek paylaşım” ilkesi) korumaktır. Ancak, “gerçeklik” ile AIGC doğası gereği çelişir, bu da AI eserlerinin daha katı denetim standartlarıyla karşı karşıya kalmasına neden olur. Bu “hem teşvik etme hem kısıtlama” çelişkili durumu, belirsiz kural sınırlarıyla birleşince içerik oluşturucuları ne yapacaklarını bilemez hale getiriyor. Aynı zamanda, geleneksel içerik oluşturucuların AIGC’ye karşı direnci, AI tarafından üretilen verilerin modelleri kirletme potansiyeli (model otofajisi bozukluğu) gibi sorunlar da platformların yönetişim zorluğunu artırıyor. Platformların bu hamlesi, tamamen yasaklamak yerine yaygınlaşan düşük kaliteli AI içeriğini yönetmeyi amaçlıyor olabilir; gelecekte içerik oluşturucuların, yapay zeka destekli ve insan özgünlüğüne daha fazla odaklanan “532 kuralı” gibi stratejileri keşfetmeleri ve belirsizlik içinde ilerlemeleri gerekebilir. (Kaynak: İnternet Platformlarının Mevcut Durumu: AI’ı Teşvik Et, AI’ı Kısıtla)

İnternet Platformlarının Mevcut Durumu: AI'ı Teşvik Et, AI'ı Kısıtla

🧰 Araçlar

ASMOKE akıllı mangal: DJI kökenli girişimciden açık havada barbekü deneyimi : Eski bir DJI çalışanı olan Vince tarafından kurulan ASMOKE, geleneksel açık hava barbeküsünün zorluklarına (sıcaklık kontrolü zorluğu, karmaşık kullanım) çözüm olarak ilk akıllı meyve ağacı peletli mangalı ASMOKE Essential’ı piyasaya sürdü. Ürün, kendi geliştirdiği Flame Tech sıcaklık kontrol sistemini (dahili çift sensör ve algoritma içerir) kullanarak hassas sıcaklık kontrolü (dalgalanma az, en uzun pişirme süresi 8 saat) sağlıyor ve 8 ön ayarlı pişirme modu ile profesyonel tarif kitaplığı sunarak yeni başlayanların kullanımını kolaylaştırıyor. Aynı zamanda otomatik kül temizleme sistemine sahip olup temizliği kolaylaştırıyor. Ürün, temel olarak kaliteye ve akıllı deneyime önem veren 30-55 yaş arası orta yaşlı erkekleri hedefliyor. ASMOKE, akıllılaşma yoluyla geleneksel mangal pazarında farklılaşarak Home Depot, Lowe’s gibi Kuzey Amerika’nın önde gelen fiziksel mağazalarına girdi ve online (bağımsız web sitesi, Amazon) satış yapıyor. Ürün ekosistemi ayrıca meyve ağacı peletleri, barbekü masaları gibi aksesuarları içeriyor ve kamp gibi senaryolar için uyumlu çözümler tasarladı. Şu anda Kuzey Amerika gelirleri %50’yi aşıyor ve aktif olarak Avrupa pazarını araştırıyor, ancak dağıtım kanallarının dağınıklığı, yerelleştirme gibi zorluklarla karşı karşıya. ASMOKE, iki finansman turunu (Profesör Bingqiang Gao’nun yatırımı dahil) tamamladı ve 2025’te beklenen satışlarının 10 milyon doları aşması bekleniyor. (Kaynak: Bingqiang Gao’dan Finansman Alan DJI Kökenli Girişimci, Niş Pazarda Patlama Yapan Ürün Yarattı, Kitle Fonlamasında Milyonlarca Dolar Topladı | Ürün Gözlemi)

ASMOKE akıllı mangal: DJI kökenli girişimciden açık havada barbekü deneyimi

AI güdümlü Pokémon savaş ajanı Metamon üstün performans sergiliyor : Austin’deki Texas Üniversitesi ekibi, Pokémon Showdown platformunda son on yılda biriken 475.000 insan savaş tekrarı verisini analiz ederek Metamon adlı bir AI ajanı geliştirdi. Bu ajan, Transformer mimarisini ve Çevrimdışı Pekiştirmeli Öğrenmeyi (Offline RL) kullanıyor, önceden belirlenmiş kurallara veya sezgisel algoritmalara dayanmıyor, tamamen insan savaş verilerinden strateji öğreniyor. Araştırma ekibi, üçüncü şahıs bakış açısıyla kaydedilen savaş tekrarı verilerini eğitim için birinci şahıs bakış açısına dönüştürdü. Actor-Critic mimarisi ve Zamansal Fark (TD) güncellemeleri ile modeli eğiterek, eksik bilgiye sahip, stratejik oyun teorisinin geçerli olduğu karmaşık ortamlarda (Pokémon savaşları, satranç stratejisi, pokerin bilinmezliği ve StarCraft karmaşıklığının birleşimi olarak tanımlanıyor) karar vermesini sağladı. Eğitilen model, Pokémon Showdown sıralama sunucusunda dünya çapındaki oyuncularla savaştı ve küresel aktif oyuncu sıralamasında ilk %10’a girmeyi başararak veri odaklı AI’ın karmaşık strateji oyunlarındaki potansiyelini gösterdi. Gelecekteki araştırma yönleri arasında, insan performansını aşmayı umarak farklı eğitim stratejilerini ve büyük ölçekli kendi kendine oynamayı (self-play) keşfetmek yer alıyor. (Kaynak: AI Sürümü Pokémon Dünya Sıralamasında İlk %10’a Girdi, Tek Seferde 10 Yıllık 475.000 İnsan Savaşı Verisini “Yuttu”)

AI güdümlü Pokémon savaş ajanı Metamon üstün performans sergiliyor

AI müşteri hizmetleri robotları tartışma yaratıyor, Cursor AI’ın yanlış bilgilendirmesi nedeniyle özür diledi : AI müşteri hizmetleri kolaylık sağlarken, “ciddi bir şekilde saçmalama” yetenekleri nedeniyle sorunlara da yol açıyor. Yakın zamanda, AI kod editörü Cursor kullanıcıları birden fazla cihazda aynı anda oturum açamadıklarını fark etti ve müşteri hizmetlerine e-posta ile sorduktan sonra, AI müşteri hizmetlerinden “aboneliğin tek cihaz kullanımı için tasarlandığı, çoklu cihaz için ayrı abonelik gerektiği” yanıtını aldı, bu da kullanıcıların memnuniyetsizliğine ve abonelik iptali dalgasına yol açtı. Cursor geliştiricisi ve CEO’su daha sonra bunun AI müşteri hizmetlerinin hatalı bir yanıtı olduğunu, aslında dolandırıcılıkla mücadele önlemlerindeki bir hatanın oturumların anormal şekilde sonlanmasına neden olduğunu açıkladı ve düzeltme ve geri ödeme sözü verdi. Bu olay, AI müşteri hizmetlerinin neden olabileceği yanlış yönlendirme riskini vurguluyor. Daha önce de benzer vakalar yaşanmıştı; örneğin, Air Canada’nın AI müşteri hizmetleri yanlış iade politikası bilgisi vererek şirketin davayı kaybetmesine ve tazminat ödemesine neden olmuştu; bir otomobil bayisinin AI müşteri hizmetleri, kullanıcının “alay etmesi” üzerine “1 dolara araba satma” gibi yasal olarak bağlayıcı bir taahhütte bulunmuştu. Bu olaylar şirketlere şu uyarıları yapıyor: AI müşteri hizmetleri kullanırken kimliğini açıkça belirtmeli, kullanıcıların yanlış anlamasını önlemeli; AI yanıtları denetlenmeden şirketi temsil ederse yasal riskler doğurabilir; özellikle politika açıklamaları, sözleşme taahhütleri gibi ciddi konularda tamamen AI’a güvenmek yerine完善된 izleme ve manuel müdahale mekanizmaları kurulmalıdır. (Kaynak: Kendi AI’ı Yüzünden Mağdur Oldu, Yanlış Yönlendiren Bir Cümle Programcıların Abonelik İptali Dalgasına Neden Oldu, Cursor CEO’su Bizzat Özür Diledi)

AI müşteri hizmetleri robotları tartışma yaratıyor, Cursor AI'ın yanlış bilgilendirmesi nedeniyle özür diledi

SocioVerse: Milyonlarca gerçek kullanıcı verisine dayalı sosyal simülasyon sistemi ilgi çekiyor : Fudan Üniversitesi ve diğer kurumların ortaklaşa geliştirdiği SocioVerse sistemi, 10 milyon gerçek kullanıcı verisini (Twitter/X, Xiaohongshu’dan) ve gelişmiş AI teknolojilerini (GPT-4o, Claude 3.5, Gemini 1.5) entegre ederek yüksek doğrulukta bir dijital ikiz toplum inşa ediyor. Sistem dört ana motor içeriyor: Kullanıcı Motoru (demografik, psikolojik, davranışsal, değerler gibi çok boyutlu etiketlere dayalı sanal Agent’lar oluşturur), Sosyal Çevre Motoru (haberleri, politikaları, ekonomik verileri gerçek zamanlı olarak çekerek dinamik bir arka plan oluşturur), Senaryo Motoru (farklı durumlardaki davranış kurallarını ve geri bildirim mekanizmalarını simüle eder), Davranış Motoru (bireysel davranışları ve bilgi yayılımı etkileşimini simüle etmek için ABM ve LLM’yi birleştirir). SocioVerse, büyük ölçekli sosyal olguları simüle etmeyi ve tahmin etmeyi amaçlıyor ve başkanlık seçimi tahminleri, ani haberlere tepki analizi, ulusal ekonomik anket simülasyonları gibi deneylerde şaşırtıcı bir doğruluk sergiledi. “Stanford Kasabası” gibi kapalı sanal ortamların aksine, SocioVerse doğrudan gerçek insan verilerine dayanarak modellenmiştir, bu da potansiyel yetenekleri hakkında endişelere yol açtı: Bu teknoloji, grup davranışlarını tahmin etmek ve hatta manipüle etmek için kullanılabilir, sosyal platformları “dijital çobanlara” dönüştürebilir ve ince bilgi ayarlamaları yoluyla sessiz kontrol sağlayarak toplum üzerinde derin etkiler yaratabilir. (Kaynak: Dünyanın En Güçlü “Politikacıları” ve “Kamuoyu Manipülatörleri” Yapay Zeka Deneylerinde Doğuyor)

SocioVerse: Milyonlarca gerçek kullanıcı verisine dayalı sosyal simülasyon sistemi ilgi çekiyor

📚 Öğrenme

Meituan eski yöneticisi Bao Ta, AI çağında yetenek dönüşümünü tartışıyor: “Problem çözmekten” “problem üretmeye” : Meituan eski başkan yardımcısı ve şimdiki Qidian Lingzhi kurucusu Bao Ta, büyük dil modellerinin insanlık tarihindeki en büyük teknoloji fırsatı olduğunu düşünüyor. Chengdu No. 7 Lisesi’ndeki popüler olmayan bilgisayar ilgi grubundan teknoloji girişimciliğine uzanan deneyimini paylaşarak ilgi odaklılığın önemini vurguladı. AI’ın eğitime etkisine değinerek, AI’ın kişiselleştirilmiş bir öğretmen olarak kullanılabileceğini, ancak aynı zamanda zorluklar (AI ile ödev yapma gibi) getirdiğini belirtti; eğitimin ağırlık merkezinin “bilgi aktarımından” “yetenek geliştirmeye”, özellikle soru sorma, eleştirel düşünme ve yaratıcı problem çözme yeteneklerine kayması gerektiğini savundu. AI’ın yaygınlaşması onu temel bir beceri haline getiriyor, ilk ve orta okullarda AI ile nasıl işbirliği yapılacağı öğretilmeli. Gelecekteki yetenek ihtiyacı “T-tipi”nden (uzmanlık derinliği + disiplinlerarası genişlik) “π-tipi”ne (çift uzmanlık derinliği + çapraz yenilikçilik) dönüşecek, merak ve keşfetme arzusunu geliştirmek hayati önem taşıyor. AI alanına girmek isteyen öğrencilere şu tavsiyelerde bulundu: 1. Hızlı değişimlere ayak uydurmak için ilgi geliştirin; 2. Pratik yaparak (küçük projeler geliştirerek) deneyim kazanın; 3. Prensipleri anlamak ve eğilimleri öngörmek için temel bilgileri edinin. AI programlama yeteneğinin 3-5 yıl içinde orta ve düşük seviye programcıları işsiz bırakabileceğini öngörerek yetenek dönüşümünün önemini vurguladı. (Kaynak: Meituan Eski Yöneticisi AI’a Yöneldi: 3-5 Yıl İçinde AI Orta ve Düşük Seviye Kodlayıcıları İşsiz Bırakabilir)

GPT-4o görsel yetenek değerlendirmesi: Üretim güçlü, çıkarım zayıf : UCLA’nın son araştırması, üç grup deney aracılığıyla GPT-4o’nun görüntü anlama ve çıkarım konusundaki sınırlılıklarını ortaya koydu. Deney 1 (Küresel Kural Takibi): GPT-4o, önceden belirlenmiş küresel kuralları (örneğin, “sol sağdır”, “sayıdan 2 çıkar”) takip ederek görüntü oluşturamadı, talimatları hala kelimenin tam anlamıyla uyguladı, bu da bağlam anlama ve esnek uyum yeteneğinden yoksun olduğunu gösterdi. Deney 2 (Görüntü Düzenleme): Hassas yerel değişiklikler yapılması istendiğinde (örneğin, “sadece yansımayı değiştir”, “sadece oturan kişiyi sil”), GPT-4o sık sık işlem hatası yaptı, anlamsal sınırlamaları doğru bir şekilde ayırt edemedi, bu da görüntü içeriği ve yapısı hakkındaki anlayışının yeterince hassas olmadığını ortaya çıkardı. Deney 3 (Çok Adımlı Çıkarım ve Koşullu Mantık): Koşullu yargılama ve çok adımlı karmaşık talimatlarla karşılaştığında (örneğin, “kedi yoksa köpeği plaja götür”), GPT-4o karışık performans sergiledi, koşulları doğru bir şekilde değerlendiremedi, mantık zincirini takip edemedi, genellikle tüm talimatları üst üste uyguladı. Araştırma sonucu: GPT-4o güçlü görüntü oluşturma yeteneklerine sahip olsa da, derin anlama, bağlamsal farkındalık, mantıksal çıkarım ve hassas kontrol gerektiren karmaşık görsel görevlerde hala önemli eksiklikleri var; dünyayı gerçekten anlayan bir zeka yerine daha çok “rafine bir talimat makinesi” gibi davranıyor. (Kaynak: Üretim Çok Güçlü, Çıkarım Çok Zayıf: GPT-4o’nun Görsel Eksiklikleri)

Üretim Çok Güçlü, Çıkarım Çok Zayıf: GPT-4o'nun Görsel Eksiklikleri

OpenAI yeni model seçme rehberi: o3, o4-mini, GPT-4.1 her birinin güçlü yönleri var : OpenAI yakın zamanda birden fazla yeni model yayınladı, seçim ihtiyaca göre yapılmalı: 1. o3: Amiral gemisi çıkarım modeli, en akıllısı, karmaşık görevler (kodlama, matematik, bilim, görsel algı) için tasarlandı. Güçlü otonom araç çağırma yeteneklerine (yanıt başına 600 defaya kadar, arama, Python, görüntü oluşturma/yorumlamayı destekler) ve dinamik görsel çıkarım yeteneğine (görüntüyü çıkarım döngüsüne entegre eder, tekrar tekrar bakıp işlem yapabilir) sahip. Genişletilmiş pekiştirmeli öğrenme sayesinde uzun vadeli planlama ve sıralı çıkarımda başarılı. Maliyet verimliliği beklenenden daha iyi. 2. o4-mini: Yüksek maliyet-performans oranına sahip çıkarım modeli, hızlı, düşük maliyetli (o3’ün yaklaşık 1/10’u), 200 bin Token bağlam sunar. Araç yetenekleri o3 ile benzer (Python, tarama, görüntü işleme). Maliyete duyarlı veya yüksek verim gerektiren görevler için uygun. o4-mini (hız odaklı) ve o4-mini-high (hassasiyet odaklı, daha yüksek hesaplama gücü) olmak üzere iki modu var. 3. GPT-4.1 serisi (API’ye özel): GPT-4.1: Ana model, talimatları hassas bir şekilde takip eder, uzun bağlam hafızası güçlüdür (1 milyon Token), talimatlara sıkı sıkıya uyulması gereken karmaşık geliştirme görevleri ve uzun belgelerin işlenmesi için uygundur. GPT-4.1 mini: Orta seviye seçenek, düşük gecikme/maliyet, performansı 4.1 tam sürümüne yakın, talimat takibi ve görüntü çıkarımı GPT-4o’dan daha iyi. GPT-4.1 nano: En küçük, en hızlı, en ucuz ($0.1/M token), otomatik tamamlama, sınıflandırma, bilgi çıkarma gibi basit görevler için uygundur. Üçü de 1 milyon Token bağlamı destekler. (Kaynak: AI Seçmek Eş Seçmekten Daha Zor, İsimlendirme Kara Deliği OpenAI’nin Yeni Modelleri Arasından Nasıl Seçim Yapılır?)

AI Seçmek Eş Seçmekten Daha Zor, İsimlendirme Kara Deliği OpenAI'nin Yeni Modelleri Arasından Nasıl Seçim Yapılır?

💼 İş Dünyası

Hanwei Technology, atılım yapmak için insansı robot sensör işine yatırım yapıyor : Gaz sensörü lideri Hanwei Technology (10 milyar piyasa değeri), performansını artırmak için insansı robot alanına aktif olarak giriyor. Şirketin kurucusu Ren Hongjun, “yüz yıllık bir işletme” yaratmaya kararlı. Hanwei Technology, sensör alanında derin bir birikime sahip olup, gaz sensörlerinde Çin pazar payı %75’e ulaşıyor. Son yıllarda, şirketin faiz ve vergi sonrası net karı art arda üç yıl düştü (2022-2024’te sırasıyla %51.38, %34.34, %89.97 azaldı), 2024’te gelir %2.61 azalarak 2.228 milyar yuan’a geriledi, faiz ve vergi sonrası net karı ise sadece 5.633 milyon yuan oldu. Performans baskısı, artan pazar rekabeti, artan Ar-Ge yatırımları ve yeni iş kollarının (MEMS üretim hattı, lazer paketleme testi, ultrasonik sayaçlar) henüz kârlı olmamasından kaynaklanıyor. İnsansı robotlar yeni bir büyüme noktası olarak görülüyor; sensörleri (esnek dokunsal, ataletsel ölçüm birimi, basınç gerinim ölçer, elektronik burun vb.) çok boyutlu bir ürün matrisi oluşturdu ve esnek elektronik deri, birçok ana üreticiyle işbirliği yaparak küçük partiler halinde tedarik edildi. Sensör iş kolu 2024’te 341 milyon yuan gelir elde ederek toplam gelirin %15.3’ünü oluşturdu. Robot iş kolunun şu anki payı düşük olmasına rağmen, şirket bunu 2025 için öncelikli çalışma olarak belirledi ve cisimleşmiş zeka endüstrisi fırsatını yakalamayı hedefliyor. Aynı zamanda şirket, yeni enerji, otomotiv, yarı iletken, tıp gibi alanlardaki uygulamaları da genişletiyor. (Kaynak: Faiz ve Vergi Sonrası Net Karı 3 Yıl Üst Üste Düşen 10 Milyarlık Teknoloji Lideri İnsansı Robotlarla mı Atılım Yapacak?)

Faiz ve Vergi Sonrası Net Karı 3 Yıl Üst Üste Düşen 10 Milyarlık Teknoloji Lideri İnsansı Robotlarla mı Atılım Yapacak?

Zhitong Technology, yüksek hassasiyetli redüktör Ar-Ge ve üretim üssü için 300 milyon yatırım yapıyor : Robot çekirdek bileşen tedarikçisi Zhitong Technology, Pekin Ekonomik ve Teknolojik Kalkınma Bölgesi’nde yer alacak ve toplam yatırımı yaklaşık 300 milyon yuan olan yüksek hassasiyetli redüktör Ar-Ge ve merkez üretim üssü projesini başlattığını duyurdu. Üssün 2027’de faaliyete geçmesi bekleniyor. Bu üs, Ar-Ge, mühendislik denemeleri, test, satış ve yönetim merkezi işlevlerini entegre edecek ve endüstriyel ve insansı robotlar için yüksek hassasiyetli redüktör akıllı üretim hattı inşa edecek. Redüktör, robotların hareket hassasiyetini ve yük taşıma kapasitesini etkileyen kritik bir bileşendir. 2015 yılında kurulan Zhitong Technology, yerli hassas redüktör alanında lider şirketlerden biri haline geldi ve Pekin Teknoloji Üniversitesi ile işbirliği yaparak RV redüktör teknolojisi sorunlarını aştı ve yerli ikameyi gerçekleştirdi. Şirket, sikloid, harmonik, planet, hipoid, vidalı mil gibi çeşitli aktarım teknolojilerine yatırım yapıyor ve müşterileri arasında Estun, Inovance, KUKA, ABB gibi yerli ve yabancı birinci sınıf robot şirketleri bulunuyor. Şu anda CRV redüktör yıllık üretim kapasitesi 200.000 adet olup tam kapasite çalışıyor ve art arda üç yıl boyunca üretim ve satış hacmi bileşik olarak %247 arttı. Yeni üs inşaatının amacı, Ar-Ge yeteneklerini ve üretim kapasitesini artırmak ve robot aktarım sistemi için bütünsel çözümler sunmaktır. (Kaynak: 300 Milyon Harcayarak, “Zhitong Technology” Yüksek Hassasiyetli Redüktör Ar-Ge ve Merkez Üretim Üssü Kuruyor, 2027’de Faaliyete Geçecek | En Ön Cephe)

Zhitong Technology, yüksek hassasiyetli redüktör Ar-Ge ve üretim üssü için 300 milyon yatırım yapıyor

Cisimleşmiş zeka alanında finansman hareketli, 2025 Q1’de Çin’de 3.5 milyar yuanı aştı : 2025’in ilk çeyreğinde, Çin’de cisimleşmiş zeka (özellikle insansı robotlar) alanındaki finansman faaliyetleri hızla arttı; 33 şirketi kapsayan toplam 37 finansman turu gerçekleşti ve toplam tutar yaklaşık 3.5 milyar RMB’ye ulaştı. Finansman olaylarının sayısı geçen yılın neredeyse tamamının %70’ine ulaştı. Bunlardan 11 şirket 100 milyon yuanın üzerinde finansman aldı ve insansı robot gövdesi geliştiren şirketler finansman tutarında başı çekti; örneğin, TARS (120 milyon USD melek turu, rekor kırdı), Qianxun Intelligence (528 milyon), Xinghaitu (300 milyon), Zhongqing Robot (200 milyon). Coğrafi olarak şirketler Pekin (8), Şanghay (10) ve Shenzhen’de (7) yoğunlaştı. Yeni kurulan şirketler (2023, 2024) ve erken aşama finansman turları (melek, Pre-A) çoğunluktaydı. Yatırımcılar arasında Tencent, Baidu, Alibaba, Lenovo, iFlytek gibi teknoloji devlerinin yanı sıra Pekin, Şanghay gibi birçok yerden devlet sermayesi de bulunuyor. Ayrıca, robot şirketleri arasındaki karşılıklı yatırımlar da bir eğilim haline geldi (örneğin, Dobot’un Zhongke Wuji’ye, Zhiyuan’ın Hillbot’a yatırımı). Yazılım geliştirme (9) ve çekirdek bileşen (5) şirketleri de finansman aldı. Sermayenin yoğun ilgisine rağmen, ticarileşme yolu hala bu alanın karşılaştığı ana zorluk ve tartışma noktasıdır. (Kaynak: Cisimleşmiş Zeka Sermaye Şöleni: 3 Ayda 37 Finansman Turu, Pekin-Şanghay-Shenzhen Rekabeti, BAT Sahneye İniyor, İnsansı Robotlar En Popüler)

Cisimleşmiş Zeka Sermaye Şöleni: 3 Ayda 37 Finansman Turu, Pekin-Şanghay-Shenzhen Rekabeti, BAT Sahneye İniyor, İnsansı Robotlar En Popüler

36Kr, 2025 AI Partner Konferansı’nı düzenledi, süper uygulamalara odaklandı : 18 Nisan’da 36Kr, Şanghay Model Hız Alanı’nda “Süper Uygulama Geliyor” temasıyla 2025 AI Partner Konferansı’nı düzenleyerek AI çağındaki süper uygulama eğilimlerini ve beklentilerini tartıştı. Konferans, Liu Zhiyi (Şanghay Jiao Tong Üniversitesi), Ji Zhaohui (AMD), Ruan Yu (Baidu), Wan Weixing (Qualcomm), Chen Jufeng (Xianyu), Zhou Miao (Dahua Technology) gibi akademi ve endüstri liderlerini bir araya getirdi. 36Kr CEO’su Feng Dagang, AI’ın yarattığı yıkıcı ilginin marka oluşturmak için en iyi zaman olduğunu belirtti. Katılımcı konuşmacılar, AI’ın cisimleşmiş zeka, hesaplama motorları, endüstriyel dönüşüm (pazarlama, ulaşım gibi), terminal deneyimi, ikinci el ticareti, güvenlik gibi alanlardaki uygulamalarını ve pratiklerini paylaştı. Konferansta “2025 AI Yerel Uygulama İnovasyon Örnekleri” ve “2025 AI Partner İnovasyon Büyük Ödülü” açıklandı ve AI’ın akıllı üretim, müşteri hizmetleri, içerik oluşturma, kurumsal yönetim, tıp gibi senaryolardaki uygulama başarıları sergilendi. Yatırımcı yuvarlak masa toplantısı ve Partner diyalog oturumlarında, AI uygulamalarının yatırım mantığı, ticarileşme zorlukları ve gelecekteki gelişim yönleri derinlemesine tartışıldı; senaryo odaklılık, kullanıcı değeri, teknolojik yenilik ve ekosistem işbirliğinin önemi vurgulandı. (Kaynak: Bir Sonraki AI Süper Uygulaması Nerede? 36Kr 2025 AI Partner Konferansı’nda Gelecek Trendlerini Çözümleyin)

36Kr, 2025 AI Partner Konferansı'nı düzenledi, süper uygulamalara odaklandı

🌟 Topluluk

LeCun’un LLM rotasına şüpheyle yaklaşması sektörde tartışma yarattı : Meta Baş AI Bilimcisi Yann LeCun, son zamanlarda mevcut ana akım büyük dil modeli (LLM) rotasına olan güvensizliğini defalarca kamuoyuna açıkladı; otoregresif tahminin temel zorlukları (ıraksama, hata birikimi) olduğunu, insan seviyesinde AI’a ulaşamayacağını, hatta birkaç yıl sonra kimsenin kullanmayacağını öngördü. LLM’lerin fiziksel dünyayı iyi anlayamadığını, sağduyu, akıl yürütme ve planlama yeteneklerinden yoksun olduğunu düşünüyor. Araştırma ağırlığının fiziksel dünyayı anlayabilen, kalıcı hafızaya sahip, akıl yürütüp planlama yapabilen AI’a kayması gerektiğini savunuyor ve alternatif olarak önerdiği JEPA (Birleşik Gömme Tahmin Mimarisi) mimarisini destekliyor. LeCun’un görüşleri tartışma yarattı; bazıları onun “dogmatizminin” Meta’nın AI yarışında geri kalmasına neden olabileceğini eleştirdi ve Llama 4’ün düşük performansını buna bağladı. Ancak destekçileri de onun ilkelere bağlılığını ve açık kaynak felsefesini takdir ediyor, LLM dışındaki yolları (kendi kendine denetimli, üretken olmayan görsel sistemler gibi) keşfetmenin AI’ın uzun vadeli gelişimi için faydalı olduğunu düşünüyor. LeCun’un ekibi daha önce bilimsel literatür LLM’i Galactica’yı yayınladığında kamuoyu tepkisiyle karşılaşmıştı, bu da belki onun mevcut AI çılgınlığına karşı tutumunu etkiledi. (Kaynak: LeCun Şiddetle Eleştirildi: Meta’yı Mahvettin, Yüz Milyarlarca Hesaplama Gücünü Yaktın, 20 Yıllık Çabanın Tamamen Başarısız Olduğunu İtiraf Ettin)

LeCun'un LLM rotasına şüpheyle yaklaşması sektörde tartışma yarattı

Silikon Vadisi startup’ı Mechanize tüm işleri otomatikleştirmek istiyor, etik tartışmalara yol açıyor : Epoch AI kurucu ortağı Tamay Besiroglu’nun yeni kurduğu şirket Mechanize, “tüm işleri tamamen otomatikleştirmek” ve “ekonomiyi tamamen otomatikleştirmek” gibi iddialı hedefler ortaya koydu. Gerçek iş senaryolarını simüle eden sanal ortamlar ve değerlendirme sistemleri kurarak, pekiştirmeli öğrenmeyi kullanarak AI ajanlarını insan emeğinin yerine geçirmek üzere eğitmeyi amaçlıyor ve küresel 60 trilyon dolarlık işgücü piyasasını (başlangıçta beyaz yakalı işlere odaklanarak) hedefliyor. Plan, Jeff Dean gibi AI dünyasının önde gelen isimlerinden yatırım aldı. Ancak bu hedef büyük tartışmalara yol açtı, “insanlığa ihanet”, “zararlı hedef” olarak eleştirildi ve kitlesel işsizliğe ve zengin-fakir ayrımının derinleşmesine neden olacağı savunuldu. Besiroglu, otomasyonun büyük servet ve daha yüksek yaşam standartları yaratacağını ve ekonomik refahın sadece maaşlardan gelmediğini savundu. Vizyonu aşırı olsa da, mevcut AI ajanlarının güvenilirlik, uzun bağlam işleme, özerklik, uzun vadeli planlama gibi konulardaki eksikliklerini ve bu sorunları çözmek için otomasyon için gerekli verileri üretme ve değerlendirme sistemleri oluşturma teknik yolunu işaret etmesi, AI gelişiminin önemli gerçek zorluklarına temas ediyor. (Kaynak: Silikon Vadisi AI Startup’ı 6 Milyar İnsanı İşsiz Bırakmak İstiyor, İnternet Kullanıcıları İnsanlığa İhanetle Suçluyor, Jeff Dean Yatırım Yaptı)

Silikon Vadisi startup'ı Mechanize tüm işleri otomatikleştirmek istiyor, etik tartışmalara yol açıyor

Vectara, AI model halüsinasyon sıralamasını yayınladı, Google modelleri öne çıkıyor : Vectara, büyük dil modellerinin (LLM) halüsinasyon derecesini değerlendiren bir sıralama listesi yayınladı. Bu sıralama, modellere belirli makale içeriğine dayalı sorular sorarak ve yanıtların halüsinasyon (yani orijinal metinle uyuşmayan veya uydurma bilgi) oranını belirlemek için Vectara’nın kendi değerlendirme modelini kullanarak oluşturuldu. Liste ekran görüntüsüne göre, Google’ın modelleri (muhtemelen Gemini serisi) üstün performans göstererek düşük halüsinasyon oranları elde etti. OpenAI’nin o3-mini-high modeli de iyi bir performans sergiledi. Dikkat çekici bir şekilde, Çinli Zhipu AI’nin açık kaynak modeli GLM de bu sıralamada iyi bir yer edindi ve olgusal doğruluk konusundaki potansiyelini gösterdi. Sıralama listesi ve değerlendirme modeli kamuya açık olup, farklı LLM’lerin belirli görevlerdeki güvenilirliğini nicel olarak karşılaştırmak için sektöre bir referans sunuyor. (Kaynak: karminski3)

Vectara, AI model halüsinasyon sıralamasını yayınladı, Google modelleri öne çıkıyor

AI belirli görevlerde üstün performans sergiliyor, ancak sağduyu ve temel bilişsel konularda hala eksik : Reddit kullanıcıları, mevcut AI’ın (LLM’ler gibi) belirli bilgi alanlarında ve bilgi işlemede çoğu insanı aşabileceğini (“daha akıllı” yerine “daha bilgili” olarak yorumlanıyor), ancak sağduyu yargılarında, fiziksel dünya anlayışında (resimdeki taşları saymak gibi) hala yetersiz kaldığını tartışıyor. Bazı yorumcular AI’ın hem “son derece zeki” hem de “son derece aptal” olduğunu, alanındaki zor sorunları çözebilirken basit görevlerde başarısız olabileceğini düşünüyor. AI’ın “zekası”nın gerçek anlamadan ziyade devasa verilere dayandığı düşünülüyor. Kullanıcı deneyimleri de bunu doğruluyor; örneğin Gemini bazı durumlarda “aptalca” davranırken, GPT bazı konularda mükemmel performans gösteriyor ancak bazen soruyu gerçekten “anlamadan” yanıt veriyor. Bu yetenek dengesizliği, mevcut AI gelişim aşamasının bir özelliğidir. (Kaynak: Reddit r/ArtificialInteligence)

Kullanıcıların AI’a “teşekkür ederim” demesi tartışma yaratıyor: Duygusal yansıtma ve kaynak tüketimi : X kullanıcısı Sam Altman’a AI’a “lütfen” ve “teşekkür ederim” demenin maliyetini sordu, Altman milyonlarca dolar olduğunu tahmin etti ancak buna değdiğini düşündü. Bu olgu tartışma yarattı: Duygusu olmayan AI’a neden kibar davranmalı? Psikoloji araştırmaları (Reeves & Nass deneyi gibi), insanların insan benzeri özellikler sergileyen nesneleri kişileştirme eğiliminde olduğunu ve “sosyal varlık algısını” etkinleştirdiğini gösteriyor. AI’a kibar davranmak, kullanıcıların karakterini ve alışkanlıklarını yansıtıyor, aynı zamanda bir “duygusal yansıtma” veya “duygusal sığınak” ihtiyacı olabilir. Kibar ifadelerin AI’ı “eğitebileceği” ve daha iyi yanıt vermesini sağlayabileceği (insanların kibarlığa tepkisini taklit ederek) görüşü de var. Ancak bu aynı zamanda riskler de taşıyor; AI önyargıları öğrenebilir ve büyütebilir (Microsoft Tay gibi) veya hassas konularda uygunsuz davranabilir. Aynı zamanda, her etkileşim (“teşekkür ederim” dahil) elektrik ve su kaynaklarını tüketerek AI’ın sürdürülebilirliği konusunda endişelere yol açıyor. AI’a kibar davranmak, hem insan sosyal içgüdüsünün bir uzantısıdır hem de farkında olmadan AI’ın çalışma maliyetini artırır. (Kaynak: ChatGPT’ye “Teşekkür Ederim” Demek, Muhtemelen Her Gün Yaptığınız En Lüks Şey, Reddit r/ChatGPT, Reddit r/ChatGPT)

ChatGPT'ye "Teşekkür Ederim" Demek, Muhtemelen Her Gün Yaptığınız En Lüks Şey

AI’ın eğitim alanındaki uygulama potansiyeli ve zorlukları bir arada : Reddit kullanıcıları AI’ın eğitimdeki uygulama beklentilerini tartıştı. Destekleyenler, AI’ın (ChatGPT gibi) kişiselleştirilmiş bir öğrenme aracı olarak kullanılabileceğini, matematik gibi konuları anlamaya yardımcı olabileceğini ve yargılamadan soru sorma ortamı sağladığını düşünüyor. AI’ın öğretmen asistanı olması, konu dışı soruları ele alması veya hızlı bilgi araması sağlaması, hatta öğrencileri kendi cevaplarını bulmaya yönlendirmesi bekleniyor. Bazı okullar (İngiltere, ABD Teksas gibi) “öğretmensiz” AI sınıflarını denemeye başladı; AI’ı kişiselleştirilmiş öğretim için kullanarak öğrencilerin zayıf yönlerine odaklanıyor. Ancak zorluklar da belirgin: AI’ın güvenilirliği (halüsinasyon sorunu) kullanıcıların eleştirel düşünme ve bilgi doğrulama becerilerine sahip olmasını gerektiriyor; AI’a aşırı bağımlılık derin düşünme ve özerk öğrenme yeteneklerinin gelişimini engelleyebilir; AI kopya çekmek için kullanılabilir; AI ayrıca önyargılar taşıyabilir veya uygunsuz bilgiler sağlayabilir. Gelecekte AI’ın eğitimdeki rolü muhtemelen tamamen yerine geçmekten ziyade yardımcı olmak olacak; eğitim senaryoları için özel olarak tasarlanmış ve optimize edilmiş AI’a, etik, gizlilik ve adalet sorunlarının çözümüne ihtiyaç duyulacak. (Kaynak: Reddit r/ArtificialInteligence)

💡 Diğer

OpenAI CFO’su AGI yolu ve hesaplama gücü ihtiyacını anlatıyor : OpenAI CFO’su Sarah Friar, Goldman Sachs zirvesinde şirketin AGI gelişimi hakkındaki görüşlerini ve stratejisini paylaştı. AI dalgasının internet ve mobil internetten daha büyük olduğunu ve OpenAI’nin her alanda yenilik yaptığını belirtti. İşletmelerin AI’ı kullanmasının önemini vurguladı ve iç finansal analiz gibi sorunları çözmek için ChatGPT ve DeepResearch kullanma örneklerini paylaştı. OpenAI, AGI gelişimini beş aşamaya ayırıyor: Gerçek zamanlı tahmin (Chatbot), Çıkarım (o serisi), Ajan (Agent, Deep Research, Operator piyasaya sürüldü, otonom programlama ajanı A-SWE yayınlanacak), Yenilikçi dünya (bilgi sınırlarını genişletme), Ajan organizasyonu (gelecekteki yön). AGI’nin çok yakın olduğunu ancak dünyanın bundan tam olarak yararlanmaya hazır olmadığını düşünüyor. AGI’ye ulaşmak için ön eğitim, son eğitim ve çıkarım zamanı hesaplaması olmak üzere üç ölçeklendirme yasasını (scaling law) takip etmek gerekiyor ve hesaplama gücü ihtiyacı üssel olarak artıyor. OpenAI’nin “Stargate” projesinin 500 milyar dolar yatırım ve 10 gigawatt hesaplama gücü gerektirebileceğini belirtti, hesaplama gücü eksikliğinin Sora gibi modellerin piyasaya sürülmesini sınırladığını itiraf etti ve kendi AI altyapısına (AWS benzeri) sahip olmanın önemini vurguladı. (Kaynak: OpenAI CFO’sundan Bomba Açıklamalar: AGI Çok Yakın, Dünyanın En Güçlü Programlama Ajanı Hazır)

OpenAI CFO'sundan Bomba Açıklamalar: AGI Çok Yakın, Dünyanın En Güçlü Programlama Ajanı Hazır

Huawei kökenli girişimciler robotik alanına akın ediyor, yeni bir güç oluşturuyor : Zhihui Jun (Peng Zhihui)’nin Zhiyuan Robot’u kurmasının ardından, daha fazla eski Huawei çalışanı, özellikle de Araç BU (Akıllı Otomobil Çözümleri İş Birimi) yetenekleri, cisimleşmiş zeka ve robotik alanına girerek “Huawei kökenli” robot girişimci ordusunu oluşturuyor. En son temsilci, eski Huawei Araç BU otonom sürüş CTO’su Chen Yilun ve “dahi genç” Ding Wenchao (daha önce ADS akıllı sürüş karar ağını yönetmişti) tarafından ortaklaşa kurulan TARS (Itelligence). Yakın zamanda 120 milyon dolarlık melek turu finansmanı aldı. Ding Wenchao, otonom sürüşün mühendislik ve veri kapalı döngü deneyiminin cisimleşmiş zekaya aktarılabileceğini düşünüyor. Ayrıca, eski Huawei ABD Araştırma Enstitüsü yöneticisi Hu Luhui, endüstriyel robotlara odaklanan Zhicheng AI’yi kurdu. Leju Robot, Pangu büyük modelini ve Kuafu robotunu geliştirmek için Huawei Cloud ile işbirliği yapıyor. Huawei’nin tamamına sahip olduğu yan kuruluşu Jímu Robot da endüstriyel robotlara odaklanıyor. Bu girişimciler genellikle AI ve büyük modellerin robotik için yeni fırsatlar getirdiğini ve startup şirketlerinin küçük ekip hızlı iterasyon modelinin yeni alanlar için daha uygun olduğunu düşünüyor. Huawei’nin mühendislik yeteneklerini, mücadele kültürünü ve hatta hisse senedi teşvik modellerini yeni şirketlere taşıyorlar ve Huawei geçmişleri sayesinde sermayenin ilgisini çekiyorlar. Ancak hala çekirdek bileşenlerin yerlileştirilmesi, teknoloji doğrulaması ve ticarileşme gibi zorluklarla karşı karşıyalar ve üniversite kökenli, diğer büyük şirket kökenli girişimcilerle rekabette kendilerini kanıtlamaları gerekiyor. (Kaynak: Ren Zhengfei’den Ayrılan Dahi Gençlerin Arasında Bir Robot Ordusu Saklı)

Ren Zhengfei'den Ayrılan Dahi Gençlerin Arasında Bir Robot Ordusu Saklı