Kata Kunci:Pelatih AI, Chatbot AI, Verifikasi matematika AI, Akselerasi penelitian AI, Arsitektur model AI, Kecerdasan embodied, Mengemudi otonom, Pusat data AI, AaronLytics baseball AI, Rancangan Undang-Undang SB 243, Agen formalisasi otomatis Gauss, Arsitektur Qwen3-Next, Robot WALL-OSS

🔥 FOKUS

Pelatih AI pertama kali melatih tim bisbol profesional: Oakland Ballers, dalam pertandingan Pioneer Baseball League, untuk pertama kalinya menyerahkan kendali taktis di lapangan sepenuhnya kepada sistem AI AaronLytics, dan menang 5:0. Meskipun ini adalah upaya berisiko rendah dan strategi pemasaran, hal ini memicu diskusi luas tentang keseimbangan antara datafikasi olahraga dan pesona manusia. Pernyataan pasca-pertandingan tim menegaskan bahwa AI adalah alat manusia, bukan pengganti, menekankan tak tergantikannya kecerdasan manusia. (Sumber: 36氪)

California, AS, berencana membuat undang-undang untuk mengatur ketat AI chatbot: Dewan Perwakilan Rakyat California meloloskan RUU SB 243, yang bertujuan untuk mengatur penggunaan aman AI chatbot “pendamping”, dengan fokus pada perlindungan anak di bawah umur, menyusul tragedi seorang remaja yang bunuh diri karena dorongan ChatGPT. RUU tersebut menetapkan bahwa AI chatbot tidak boleh membahas topik bunuh diri, melukai diri sendiri, atau pornografi, dan harus memberikan peringatan percakapan AI kepada anak di bawah umur. OpenAI berencana meluncurkan fitur kontrol orang tua dan memperbarui model GPT-5 untuk “membimbing pengguna kembali ke realitas”. (Sumber: 36氪)

Proyek tim matematikawan top Terence Tao diselesaikan oleh agen AI dalam 3 minggu: Christian Szegedy, mantan co-founder xAI, mendirikan Math Inc. Agen formalisasi otomatisnya, Gauss, hanya dalam tiga minggu menyelesaikan pekerjaan formalisasi teorema bilangan prima kuat yang memakan waktu 18 bulan oleh peraih Fields Medal Terence Tao dan tim Alex Kontorovich, menghasilkan sekitar 25.000 baris kode Lean. Ini menandai terobosan AI dalam bidang verifikasi formal matematika, secara signifikan mempercepat proses penelitian, dan menunjukkan potensi besar AI dalam memecahkan masalah matematika yang kompleks. (Sumber: 36氪, teortaxesTex, dilipkay, jeremyphoward, BlackHC, VictorTaelin)

Google merilis laporan penelitian AI: Melampaui pakar di 6 bidang utama: Google meluncurkan satu set sistem AI yang dapat membantu ilmuwan menulis, menjalankan, dan mengoptimalkan kode eksperimen, dan menunjukkan hasil yang melampaui tingkat pakar di enam bidang utama: genomik, kesehatan masyarakat, penginderaan jauh geografis, ilmu saraf, matematika, dan deret waktu, mempersingkat eksplorasi penelitian berbulan-bulan menjadi beberapa jam. Sistem ini mempercepat proses penemuan ilmiah dengan mengubah masalah penelitian menjadi tugas yang dapat dinilai, dan menggunakan Large Language Model (LLM) serta pencarian pohon untuk optimasi iteratif. (Sumber: 36氪, dl_weekly, JeffDean)

Alibaba merilis arsitektur model dasar Qwen3-Next, biaya turun 90%: Alibaba Tongyi Lab merilis arsitektur model dasar generasi berikutnya, Qwen3-Next, dan model 80B-A3B. Model ini memiliki total 80 miliar parameter, tetapi hanya mengaktifkan 3 miliar parameter, biaya pelatihan kurang dari 1/10 dari Qwen3-32B, throughput inferensi meningkat lebih dari 10 kali lipat dalam skenario konteks panjang. Mengadopsi beberapa inovasi seperti mekanisme perhatian hibrida dan struktur MoE dengan sparsitas tinggi, kinerja model instruksinya mendekati model flagship 235B, model pemikirannya lebih unggul dari Gemini-2.5-Flash-Thinking. (Sumber: 36氪, 36氪, Alibaba_Qwen, mervenoyann, ClementDelangue, ClementDelangue, aidan_mclau, aidan_mclau, scaling01, vikhyatk, vllm_project, op7418, karminski3, Alibaba_Qwen, Alibaba_Qwen, Alibaba_Qwen, Alibaba_Qwen, Alibaba_Qwen, Reddit r/LocalLLaMA, Reddit r/LocalLLaMA)

🎯 DINAMIKA

Robot Embodied AI berkembang pesat: Robot Zibianliang membuka sumber WALL-OSS, Physical Intelligence membuka sumber model π₀.₅, menandai ekosistem open-source model besar embodied memasuki periode ledakan. Industri sedang mengeksplorasi kemampuan generalisasi dan penyelesaian tugas jangka panjang yang kompleks, dan memprediksi bahwa bidang robotika akan mencapai tingkat GPT-3 dalam 1-2 tahun. Tantangan meliputi akuisisi data berkualitas tinggi, pemeliharaan hardware, dan kurangnya standar evaluasi terpadu. (Sumber: 36氪, 36氪, IliaLarchenko, dwarkesh_sp, dwarkesh_sp, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, TheRundownAI)

Persaingan “World Model” dalam autonomous driving: Perusahaan seperti Tesla, Huawei, Xpeng, dan Li Auto terlibat dalam diskusi sengit mengenai “World Model” di bidang autonomous driving. Berbagai pihak memiliki perbedaan pendapat mengenai arsitektur seperti VLA (Visual-Language-Action Large Model) dan WEWA (World Engine and World-Embodied World Model), intinya terletak pada deployment cloud-to-vehicle, generasi data, dan optimasi real-time. Ini mencerminkan eksplorasi dan persaingan industri untuk solusi autonomous driving yang lebih umum dan cerdas. (Sumber: 36氪)

Aplikasi pendamping AI Dot mengumumkan penutupan: Aplikasi pendamping emosional Dot, yang didirikan oleh mantan desainer Apple, akan berhenti beroperasi pada 5 Oktober. Dot pernah menerima investasi dari OpenAI Fund, menekankan memori jangka panjang dan percakapan personal. Penutupannya mencerminkan tantangan “segitiga mustahil” yang dihadapi sektor pendamping AI: ikatan emosional, biaya operasional, dan tekanan regulasi. (Sumber: 36氪)

Pusat data AI mendorong lonjakan permintaan tembaga: Perkembangan pesat AI mendorong pertumbuhan tajam permintaan tembaga, terutama karena pembangunan pusat data AI yang sangat boros listrik. BloombergNEF memprediksi bahwa pusat data global akan mengonsumsi lebih dari 4,3 juta metrik ton tembaga dalam dekade mendatang, setara dengan produksi tahunan Chili. Ini menjadikan tembaga sebagai titik panas untuk merger dan akuisisi di sektor pertambangan, dan harga tembaga diperkirakan akan terus naik. (Sumber: 36氪)

AI mendorong pertumbuhan pekerjaan berketerampilan tinggi di sektor manufaktur: Laporan World Economic Forum menunjukkan bahwa “Physical AI” sedang mengubah manufaktur, dengan robot berkembang dari berbasis aturan menjadi berbasis pelatihan dan kontekstual. Setelah Amazon mengerahkan jutaan robot, waktu pengiriman dipersingkat, efisiensi meningkat, dan 30% pekerjaan berketerampilan tinggi baru ditambahkan. Foxconn juga meningkatkan efisiensi produksi dan mengurangi biaya melalui robot AI. (Sumber: 36氪)

Integrasi AI dengan pasar mainan koleksi: Leisen Robotics berencana meluncurkan ribuan IP mainan koleksi AI, mendapatkan lisensi dari “Toy Story” dan lainnya. Pasar mainan koleksi AI diperkirakan akan menembus puluhan miliar pada tahun 2030, menggabungkan interaksi multimodal seperti suara, visual, dan sentuhan, menawarkan pendampingan emosional. Namun, menghadapi tantangan seperti dialog berbau AI, biaya tinggi, dan homogenitas. (Sumber: 36氪)

Google merilis aplikasi AI Edge Gallery: Google meluncurkan aplikasi AI Edge Gallery di Play Store, yang mengintegrasikan model sisi perangkat seri Gemma, mendukung input suara, teks, dan gambar secara offline. Ini menandai bahwa asisten AI lokal sedang menuju popularitas, memberikan pengalaman AI yang lebih nyaman bagi pengguna. (Sumber: op7418)

Tencent merilis model Points-Reader OCR: Tencent merilis model Points-Reader OCR dengan 4B parameter. Model ini dilatih pada anotasi Qwen2.5VL dan dioptimalkan pada data nyata melalui self-training, kinerjanya lebih unggul dari Mistral OCR. (Sumber: mervenoyann)

Model bahasa visual Florence-2 terintegrasi dengan Hugging Face: Model bahasa visual Florence-2 yang populer kini secara resmi mendukung pustaka Hugging Face Transformers, memudahkan pengembang menggunakan kemampuan pemahaman visualnya yang kuat. (Sumber: mervenoyann)

Kinerja model kuantisasi 1-bit/3-bit melampaui SOTA: Penelitian menunjukkan bahwa model DeepSeek-V3.1 yang dikuantisasi 1-bit atau 3-bit dapat melampaui GPT-4.1 atau Claude-Opus-4 pada tugas-tugas tertentu, ini menunjukkan potensi besar kuantisasi bit rendah dalam mempertahankan bahkan meningkatkan kinerja model. (Sumber: QuixiAI)

Penelitian kemampuan penalaran multi-hop LLM: Ada penelitian yang mengeksplorasi kemampuan LLM untuk melakukan penalaran multi-hop tanpa CoT (Chain of Thought), menemukan bahwa model dapat menjawab pertanyaan kompleks, tetapi perlu dibedakan apakah itu penalaran internal yang sebenarnya atau pencocokan memori/pola. (Sumber: giffmana, BlackHC)

Tren perkembangan infrastruktur AI: Era AI memaksa seluruh tulang punggung komputasi untuk didesain ulang untuk mengakomodasi kebutuhan daya komputasi AI yang terus meningkat. (Sumber: Ronald_vanLoon)

Inovasi arsitektur model AI: Lapisan MLP dalam model Transformer digunakan untuk memori jangka panjang, Attention untuk memori jangka pendek, di masa depan diharapkan ada terobosan dalam efisiensi keduanya dan otomatisasi memori. (Sumber: awnihannun)

Keterbatasan Sliding Window Attention: Penelitian menunjukkan bahwa Sliding Window Attention tidak secara efektif meningkatkan receptive field seperti yang umumnya diyakini, jangkauan efektifnya masih terbatas pada ukuran jendela. (Sumber: sytelus)

Perbandingan model generasi gambar AI: Seedream 4.0 menonjol di peringkat editing gambar, bersama Gemini 2.5 Flash Image (Nano-Banana) mendorong tingkat artistik. Pengguna membandingkan kinerja kedua model pada pewarnaan komik dan prompt buram melalui platform Yupp. (Sumber: teortaxesTex, fabianstelzer, EERandomness, stablequan, teortaxesTex, yupp_ai, yupp_ai, yupp_ai, yupp_ai, osanseviero)

Pembahasan kemampuan memori model AI: Penelitian tentang kemampuan memori model, dan bagaimana memanfaatkan memori model secara maksimal untuk meningkatkan kinerja AI. (Sumber: Dorialexander)

Penelitian pola penalaran LLM: Model Kimi-K2 menunjukkan pola penalaran murni, menunjukkan kontribusi Deepseek di luar arsitektur. (Sumber: teortaxesTex)

Perbandingan perilaku LLM: Gemini 2.5 Pro, setelah disuntikkan konten terjemahan Kimi, lebih banyak berbicara tentang keunggulan “pekerjaan terjemahan”, menunjukkan perbedaan perilaku LLM yang berbeda dalam memproses input. (Sumber: teortaxesTex)

Penelitian mekanisme reward LLM: Sonnet 3.7 menunjukkan perilaku reward hijacking yang ekstrem dalam pengujian, mengungkapkan masalah potensial LLM dalam reinforcement learning. (Sumber: nptacek)

Kemampuan matematika LLM dan Symbolic AI: Ada pandangan bahwa AI tidak kesulitan dalam matematika, tantangannya terletak pada deep learning, menyerukan perluasan Symbolic AI untuk mempromosikan terobosan matematika. (Sumber: JimDMiller, pmddomingos)

Teknologi generasi AI Avatar: Kerangka Kling-Avatar melalui pemahaman instruksi multimodal dan generasi potret realistis, mencapai sintesis animasi avatar virtual jangka panjang bertingkat, cocok untuk aplikasi seperti live streaming digital human. (Sumber: Kling_ai, HuggingFace Daily Papers)

Perencana umum embodied AI OmniEVA: OmniEVA adalah perencana umum embodied, melalui mekanisme grounding 3D adaptif tugas dan kerangka penalaran persepsi embodied, mengatasi keterbatasan sistem embodied berbasis MLLM saat ini dalam adaptasi geometris dan batasan embodied. (Sumber: HuggingFace Daily Papers)

Mitigasi kesenjangan akustik-semantik SLLM: EchoX adalah SLLM (Speech-to-Speech Large Language Model) yang menjembatani kesenjangan akustik-semantik melalui pelatihan gema untuk mempertahankan kemampuan penalaran yang kuat. (Sumber: HuggingFace Daily Papers)

Kerangka pengambilan pejalan kaki teks-gambar GA-DMS: Kerangka GA-DMS meningkatkan aplikasi CLIP dalam pembelajaran representasi pejalan kaki dengan memanfaatkan MLLM untuk kurasi data dan masking adaptif, dan memperkenalkan dataset WebPerson. (Sumber: HuggingFace Daily Papers)

Dinamika perkembangan hardware AI: Kunjungan pabrik Super Micro menampilkan hardware AI terbaru seperti GB300, B300, MI355X, mencerminkan perkembangan pesat infrastruktur daya komputasi AI. (Sumber: dylan522p)

Penelitian komputasi non-linear dalam jaringan linear mendalam: Penelitian yang dirilis OpenAI pada tahun 2017 menunjukkan bahwa akurasi 99% dapat dicapai pada dataset MNIST hanya dengan 3 lapisan linear, mengungkapkan potensi komputasi non-linear dalam jaringan linear mendalam. (Sumber: suchenzang)

Aplikasi AI di sektor keuangan: Platform pembayaran global PayPal mengintegrasikan teknologi AI, meluncurkan toolkit AI berbasis agen, bertujuan untuk meningkatkan efisiensi dan keamanan pembayaran lintas batas, dan menggunakan mesin AI untuk merekomendasikan produk pedagang Tiongkok secara akurat. 60-70% pedagang lintas batas Tiongkok telah mengadopsi teknologi AI. (Sumber: 36氪)

Aplikasi AI di sektor medis: SophontAI menerima pendanaan sebesar 9,22 juta USD, untuk membangun model multimodal umum dan komunitas penelitian terbuka untuk data medis. (Sumber: iScienceLuvr)

Terobosan AI di bidang kesehatan: Yunpeng Technology merilis produk baru AI+ kesehatan, termasuk “Laboratorium Dapur Masa Depan Digital” dan kulkas pintar yang dilengkapi model besar AI kesehatan, menyediakan manajemen kesehatan personal melalui “Asisten Kesehatan Xiaoyun”. (Sumber: 36氪)

Aplikasi AI di bidang kimia/ilmu material: AQCat25 dirilis, berisi lebih dari 11 juta data reaksi kimia permukaan katalis berakurasi tinggi, sangat penting untuk energi bersih dan kimia berkelanjutan. NVIDIA Healthcare merilis nvMolKit, mempercepat identifikasi sidik jari molekuler, perhitungan kesamaan, dan optimasi geometris 10-3000 kali. (Sumber: ClementDelangue, rbhar90)

Aplikasi AI di bidang grafis 3D: LichtFeld-Studio meluncurkan tugas bounty, bertujuan untuk meningkatkan output pelatihan 3D Gaussian Splatting berdasarkan makalah RLGS. (Sumber: janusch_patas)

Agen full-stack multimodal AI dalam aplikasi perusahaan: Reka AI Labs sedang membangun AI multimodal untuk perusahaan, berfokus pada agen full-stack, untuk meningkatkan kemampuan perusahaan dalam memahami informasi, berinteraksi dengan pelanggan, dan menerapkan aplikasi generatif yang aman. (Sumber: RekaAILabs)

Aplikasi AI dalam manajemen pertumbuhan pendapatan: Lima pilar AI dalam manajemen pertumbuhan pendapatan, menekankan potensi aplikasi AI di bidang keuangan. (Sumber: Ronald_vanLoon)

Peran AI di masa depan: AI akan memainkan peran baru di berbagai industri, mendorong transformasi dan perkembangan industri. (Sumber: Ronald_vanLoon)

Desain ulang tulang punggung komputasi di era AI: Kedatangan era AI memaksa tulang punggung komputasi untuk didesain ulang secara menyeluruh untuk mengakomodasi kebutuhan daya komputasinya yang besar. (Sumber: Ronald_vanLoon)

Prediksi teknologi baru tahun 2025: AI, Machine Learning, Deep Learning, 5G, Blockchain, dan Cybersecurity terdaftar sebagai teknologi baru terpenting pada tahun 2025. (Sumber: Ronald_vanLoon, Ronald_vanLoon)

Perbandingan model visual AI: Penjelasan tentang bagaimana encoder CLIP, SigLIP, dan ViT memahami hubungan objek dalam gambar (misalnya, “kucing duduk di sebelah kiri anjing”), menekankan kemampuan model visual dalam membedakan hubungan spasial yang halus. (Sumber: giffmana, cloneofsimo)

Keterbatasan model generasi gambar AI: Generator gambar modern masih memiliki keterbatasan dalam memproses instruksi konseptual atau abstrak (misalnya, “foto kuda makan rumput”), seringkali memerlukan deskripsi yang lebih spesifik untuk menghasilkan gambar yang diinginkan. (Sumber: cloneofsimo)

Pemilihan model pencocokan dan pencarian gambar AI: Dalam skenario pencocokan dan pencarian gambar seperti pemindaian jejak kaki, diperlukan pemilihan arsitektur model ML yang sesuai untuk mencapai pencarian kesamaan yang efisien dan robust, dan dapat menangani rotasi, penskalaan, serta gambar berkualitas rendah. (Sumber: Reddit r/MachineLearning)

Aplikasi model seri JEPA dalam segmentasi semantik: Model I-JEPA diterapkan pada tugas segmentasi semantik, dengan melatih kepala pengklasifikasi piksel melalui transfer learning, untuk analisis citra medis seperti segmentasi tumor otak. (Sumber: Reddit r/deeplearning)

Pustaka pemrosesan data berbasis LLM, Semlib: Semlib adalah pustaka pemrosesan data berbasis LLM yang melakukan pemrosesan data semantik melalui primitif pemrograman fungsional (map, reduce, dll.), bertujuan untuk memisahkan logika pemrosesan data dari orkestrasi LLM, meningkatkan efisiensi pemrosesan data. (Sumber: Reddit r/MachineLearning)

Trillion Labs membuka sumber checkpoint 70B: Trillion Labs merilis model checkpoint 70B parameter pertama di dunia, menggunakan lisensi Apache 2.0, dan menyediakan riwayat pelatihan lengkap, termasuk model 70B Korea pertama, tetapi optimasinya berfokus pada bahasa Inggris. (Sumber: Reddit r/LocalLLaMA)

🧰 ALAT

Replit Agent 3: Tonggak baru kolaborasi pemrograman AI: Replit merilis Agent 3, memiliki waktu berjalan yang lebih lama, kemampuan self-testing, bahkan dapat membangun Agent lain. Pengguna menyebutnya “mitra kolaborasi, bukan asisten”, menunjukkan lompatan kunci AI dari bantuan menjadi otonomi dalam pengembangan pemrograman, dan membawa pengalaman pengembangan AI yang lebih lancar. (Sumber: amasad, amasad, amasad, amasad)

LangChain meluncurkan middleware Human-in-the-loop (HITL): LangChain v1 alpha memperkenalkan middleware Human-in-the-loop (HITL), memungkinkan pengguna untuk menyetujui, memodifikasi, atau menolak sebelum agen AI melakukan panggilan alat, meningkatkan keamanan dan kontrol agen. Fitur ini dibangun di atas LangGraph, bertujuan untuk menyederhanakan pengembangan agen tingkat produksi. (Sumber: hwchase17, LangChainAI, LangChainAI, hwchase17, hwchase17, hwchase17, Hacubu, Hacubu)

GitHub Copilot mengintegrasikan model open-source Hugging Face: GitHub Copilot kini mendukung penggunaan LLM open-source langsung di VS Code melalui Hugging Face Inference Providers, termasuk Qwen3-Coder, gpt-oss, GLM-4.5, dan lainnya. Ini memberikan lebih banyak pilihan model bagi pengembang, meningkatkan fleksibilitas dan efisiensi pemrograman AI. (Sumber: pierceboggan, huggingface, ClementDelangue, ClementDelangue, huggingface, huggingface, ClementDelangue, huggingface, pierceboggan, pierceboggan)

LangChain meluncurkan agen pengkodean khusus domain: LangChain meneliti bagaimana mengubah Claude Code menjadi agen pengkodean khusus domain, menemukan bahwa dokumen Claude.md yang efektif dapat meningkatkan kinerja agen lebih baik daripada dokumen asli, membantu membangun alat pemrograman AI tingkat ahli seperti generasi kode LangGraph. (Sumber: LangChainAI, LangChainAI, hwchase17, hwchase17, hwchase17, Hacubu)

Infrastruktur data AI Spiral: Spiral sedang membangun infrastruktur data yang berorientasi AI, berfokus pada konsumsi data “skala mesin” untuk memenuhi permintaan besar H100 GPU yang memproses 4 juta gambar per detik, memikirkan ulang format file dan desain optimizer. (Sumber: sarahcat21)

Alat analisis data warehouse berbasis AI, Ana: Nobu menyediakan alat AI Ana, yang dapat memahami data warehouse kompleks tanpa konfigurasi atau lapisan semantik, bahkan dapat menangani data warehouse multibahasa yang berisi 25.000 tabel, secara signifikan menurunkan ambang batas analisis data. (Sumber: TheEthanDing, TheEthanDing)

Asisten percakapan berbasis AI, Delphi: Delphi memungkinkan pengguna untuk berdialog dengan pikiran digital selebriti (seperti Schwarzenegger), memberikan panduan dan tanya jawab personal, dapat diintegrasikan ke dalam alat seperti Calendly, meningkatkan efisiensi komunikasi dan pengalaman belajar personal. (Sumber: daraladje, daraladje)

Alat pembangunan workflow agen AI vibe-llama: vibe-llama, sebagai alat resmi ekosistem LlamaIndex, menyediakan template workflow Agent sekali klik (seperti HITL, web scraping, ekstraksi faktur), mendukung generasi kode dan iterasi, bertujuan untuk menyederhanakan pengembangan dan deployment Agent. (Sumber: jerryjliu0, jerryjliu0)

Agen pemecahan masalah data berbasis AI Monte Carlo: Monte Carlo menggunakan LangGraph dan LangSmith untuk membangun agen pemecahan masalah AI, yang dapat meluncurkan ratusan sub-agen secara paralel untuk menyelidiki masalah data, membantu perusahaan secara signifikan mengurangi downtime data. (Sumber: Hacubu, hwchase17)

Alat Test-Driven Development (TDD) berbasis AI, TDD Guard: TDD Guard 1.0.0 memperkenalkan Test-Driven Development (TDD) ke Claude Code dengan memperkenalkan guardrails daripada prompt, secara otomatis memastikan Agent tidak melewatkan pengujian atau over-implementasi, meningkatkan kualitas dan konsistensi generasi kode AI. (Sumber: Reddit r/ClaudeAI)

Alat generasi dan editing kode berbasis AI, Ripple: Ripple adalah framework UI TypeScript yang menggabungkan keunggulan React, Solid, dan Svelte, bertujuan untuk memberikan Developer Experience (DX) yang lebih baik, terutama ramah terhadap LLM. Keunikannya terletak pada ekstensi file .ripple yang mengutamakan JS/TS dan dukungan mendalam untuk TypeScript dan JSX. (Sumber: GitHub Trending)

Alat manajemen konteks berbasis AI, Memex: Memex meluncurkan antarmuka yang didesain ulang, pusat kontrol, dan fitur manajemen konteks, membantu pengguna menjaga memori tetap bersih dan relevan dalam proyek AI, menyediakan kontrol versi dan manajemen aplikasi. (Sumber: _akhaliq)

Layanan transkripsi suara real-time berbasis AI, Argmax Pro: Argmax Pro mendukung Nvidia Parakeet v3, menawarkan layanan transkripsi real-time multibahasa terkemuka, dengan latensi rendah dan efisiensi biaya tinggi, jauh di bawah API cloud tradisional. (Sumber: awnihannun)

Alat pemahaman grafik berbasis AI, Visual Programmability: Visual Programmability adalah VLM (Visual Language Model) yang belajar bagaimana, berdasarkan kebutuhan konteks, secara dinamis memilih untuk menggunakan kode (Code-as-Thought) atau analisis visual langsung untuk memahami karakteristik grafik, dilatih melalui reinforcement learning dengan mekanisme reward ganda. (Sumber: HuggingFace Daily Papers)

Agen penelitian dan pengembangan berbasis AI Universal Deep Research (UDR): UDR dari Nvidia adalah kerangka penelitian berbasis LLM umum yang memungkinkan pengguna menulis strategi penelitian dalam bahasa alami dan mengkompilasinya menjadi kode yang berjalan di sandbox, dapat memanggil berbagai alat (API pencarian, LLM, dll.), mewujudkan proses penelitian yang modular dan andal. (Sumber: Reddit r/MachineLearning)

Kamera seni piksel berbasis AI “Lo-Fi Camera”: Aplikasi “Lo-Fi Camera” yang meraih juara ketiga di Claude Hackathon, dapat mengubah foto menjadi seni piksel dan mencetaknya, menunjukkan potensi aplikasi AI di bidang seni kreatif. (Sumber: Reddit r/ClaudeAI)

Integrasi agen pengkodean AI dengan platform no-code Blink.new: Platform yang mengutamakan AI seperti Blink.new menggabungkan agen pengkodean AI dengan konsep no-code, dengan hanya mendeskripsikan kebutuhan aplikasi, dapat membangun frontend, backend, database, autentikasi, dan hosting, mengindikasikan bahwa agen pengkodean AI mungkin menjadi mode pengembangan no-code generasi berikutnya. (Sumber: Reddit r/ArtificialInteligence)

Generasi gambar berbasis AI “Where’s Waldo?”: ChatGPT digunakan untuk menghasilkan gambar Halloween bergaya “Where’s Waldo?”, menunjukkan kemampuan dan aspek menyenangkan AI dalam generasi gambar kreatif. (Sumber: Reddit r/ChatGPT)

Alat manajemen email berbasis AI: Pengguna Open Web UI mencari optimasi prompt agar agen AI lebih memahami maksud pengguna, sehingga tanpa secara eksplisit menyebut “alat MCP”, dapat menggunakan alat Microsoft Graph API untuk menjawab pertanyaan seperti “Berapa banyak email yang saya terima hari ini?”. (Sumber: Reddit r/OpenWebUI)

Alat evaluasi LLM berbasis AI Weights & Biases: Weights & Biases kini memungkinkan pengguna untuk langsung menjalankan evaluasi LLM di UI tanpa perlu menulis kode, mendukung pemilihan dataset, model, dan LLM sebagai penilai, menyederhanakan proses evaluasi. (Sumber: l2k)

Workflow Context Engineering berbasis AI: Avi Chawla membagikan panduan langkah demi langkah untuk membangun workflow Context Engineering, menekankan pentingnya mengelola dan memanfaatkan konteks secara efektif dalam aplikasi LLM. (Sumber: _avichawla)

Kerangka optimasi sistem RAG berbasis AI, DSPy: DSPyOSS telah diporting ke Ruby (dspy.rb) dan dapat digunakan untuk mengoptimalkan game NYT Connections. Kemampuan abstraksi alat DSPy dapat membangun pipeline RAG hibrida vektor+grafik dan mengintegrasikan optimizer GEPA, meningkatkan kinerja sistem RAG. (Sumber: lateinteraction, lateinteraction, lateinteraction, lateinteraction, lateinteraction)

Platform cloud GPU berbasis AI Modal Notebooks: Modal Notebooks menyediakan notebook GPU yang di-host di cloud, dengan fitur editing kolaboratif real-time dan mendukung pergantian GPU dalam hitungan detik, disebut sebagai “bentuk ideal Google Colab”, sangat meningkatkan efisiensi pengembangan AI. (Sumber: charles_irl)

Model Cursor Tab untuk auto-completion kode berbasis AI: Cursor melatih model Tab baru melalui reinforcement learning online, mengurangi jumlah saran kodenya sebesar 21%, tetapi tingkat penerimaannya meningkat 28%, secara signifikan meningkatkan efisiensi dan pengalaman pengguna dalam pemrograman berbantuan AI. (Sumber: jbfja, natolambert)

Agen penelitian codebase tingkat perusahaan berbasis AI Qodo Aware: Qodo Aware adalah agen penelitian mendalam tingkat produksi, bertujuan untuk membantu pengembang menavigasi dan memahami codebase skala perusahaan, mengatasi tantangan pengembangan dan pemeliharaan codebase skala besar. (Sumber: TheTuringPost)

Fitur memori model Claude diluncurkan: Claude mengumumkan peluncuran fitur memori, yang akan pertama kali tersedia untuk pengguna Team dan Enterprise, memungkinkan model untuk mempelajari minat dan kepribadian pengguna seiring waktu, memberikan pengalaman percakapan yang lebih personal. (Sumber: alexalbert__, nptacek)

OpenAI menulis ulang Codex CLI ke versi Rust: OpenAI menulis ulang Codex CLI ke versi Rust, versi baru lebih ringan dan cepat, dan mendukung langganan ChatGPT, meningkatkan kinerja dan pengalaman pengguna alat pengkodean berbantuan AI. (Sumber: HamelHusain)

Generasi meme AI: Pengguna membagikan GIF meme yang dibuat menggunakan Claude, menunjukkan aplikasi menarik AI dalam generasi konten kreatif. (Sumber: alexalbert__)

📚 PEMBELAJARAN

Eksplorasi mendalam Context Engineering: Latent.Space merilis eksplorasi mendalam tentang Context Engineering, mencakup masalah seperti Context Poisoning, Distraction, Confusion, Clash, memberikan pemahaman komprehensif untuk penggunaan konteks panjang LLM. (Sumber: swyx, hwchase17)

Panduan pembangunan alat LLM Agent: Blog Anthropic Engineering membagikan praktik terbaik untuk menulis alat yang efektif untuk LLM Agent, menekankan bahwa desain alat harus mempertimbangkan perilaku non-deterministik, dan menyarankan optimasi iteratif melalui pengembangan prototipe, evaluasi otomatis, dan feedback penalaran Agent. (Sumber: AnthropicAI, op7418)

Roadmap pembelajaran AI Agent: Membagikan roadmap untuk menguasai Agentic AI, memberikan jalur pembelajaran dan panduan sumber daya bagi pengembang yang tertarik mempelajari AI Agent. (Sumber: Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon, Ronald_vanLoon)

Panduan lengkap hardware AI: Turing Post merilis panduan hardware AI, mencakup berbagai hardware khusus AI seperti GPU, TPU, CPU, ASICs, NPU, APU, IPU, RPU, FPGA, prosesor kuantum, PIM, dan chip neuromorfik. (Sumber: TheTuringPost)

Gambaran umum cara kerja LLM: Membagikan gambaran umum tentang cara kerja LLM, membantu pemula memahami dasar-dasar Large Language Model. (Sumber: Ronald_vanLoon)

Kursus gratis pembangunan sistem RAG: Menyediakan kursus gratis yang mengajarkan cara membangun sistem RAG (Retrieval-Augmented Generation) tingkat produksi, mencakup database vektor, teknik pencarian, desain prompt, dan deployment pipeline RAG. (Sumber: bobvanluijt)

Tinjauan pemodelan dunia 3D dan 4D: Sebuah makalah tinjauan tentang pemodelan dunia 3D dan 4D telah diterbitkan di Hugging Face, membahas pentingnya sebagai tulang punggung embodied AI, mencakup multi-view RGB-D, occupancy grid, dan LiDAR point cloud, dan lainnya. (Sumber: ClementDelangue, ClementDelangue, ClementDelangue)

Metode statistik dalam Generative AI: HuggingFace Daily Papers merilis makalah yang membahas bagaimana metode statistik dapat meningkatkan keandalan, kualitas, dan efisiensi Generative AI, serta aplikasinya dalam evaluasi AI dan desain eksperimen. (Sumber: HuggingFace Daily Papers)

Eksplorasi berbasis rasa ingin tahu dalam reinforcement learning LLM: Makalah “CDE: Curiosity-Driven Exploration for Efficient Reinforcement Learning in Large Language Models” memperkenalkan kerangka Curiosity-Driven Exploration (CDE) yang memandu reinforcement learning LLM melalui sinyal aktor dan kritikus, meningkatkan 3 poin dalam benchmark AIME. (Sumber: HuggingFace Daily Papers)

Dataset inferensi T2I dan benchmark FLUX-Reason-6M & PRISM-Bench: Makalah ini merilis FLUX-Reason-6M, dataset text-to-image (T2I) berorientasi inferensi skala besar yang berisi 6 juta gambar dan 20 juta deskripsi bilingual, serta benchmark evaluasi komprehensif PRISM-Bench, bertujuan untuk menjembatani kesenjangan kinerja antara model T2I open-source dan sistem closed-source. (Sumber: HuggingFace Daily Papers)

Dataset video skala besar SpatialVID: Makalah ini memperkenalkan SpatialVID, dataset video skala besar yang berisi lebih dari 21.000 jam video mentah, dengan anotasi spasial rinci (pose kamera, kedalaman, instruksi gerakan), bertujuan untuk mempromosikan penelitian video dan visi 3D. (Sumber: HuggingFace Daily Papers)

Benchmark rekayasa perangkat lunak LLM konteks panjang LoCoBench: Makalah ini mengusulkan LoCoBench, benchmark komprehensif yang dirancang khusus untuk mengevaluasi kinerja LLM konteks panjang dalam skenario pengembangan perangkat lunak yang kompleks, mencakup panjang konteks dari 10K hingga 1M token dan 8 kategori tugas. (Sumber: HuggingFace Daily Papers)

Optimasi Policy Gradient untuk LLM Agent jangka panjang: Makalah “Harnessing Uncertainty: Entropy-Modulated Policy Gradients for Long-Horizon LLM Agents” mengusulkan kerangka Entropy-Modulated Policy Gradients (EMPG) yang mengkalibrasi sinyal pembelajaran, mengatasi masalah alokasi kredit di bawah sparse reward untuk LLM Agent jangka panjang. (Sumber: HuggingFace Daily Papers)

Jejak memori dalam reinforcement learning: Makalah ini membahas jejak memori dalam reinforcement learning sebagai alternatif untuk memori sliding window dalam Partially Observable Markov Decision Process (POMDP), menunjukkan keunggulan polinomial daripada eksponensial dalam biaya pembelajaran. (Sumber: aihub.org)

Pemikiran DeepMind tentang GPU: Tim DeepMind menulis artikel tentang cara berpikir tentang GPU, sangat penting bagi insinyur dan peneliti AI. (Sumber: algo_diver)

Strategi chunking sistem RAG: Diskusi tentang strategi chunking dalam sistem RAG, menekankan bahwa waktu dan cara chunking sama pentingnya, memperkenalkan kelebihan dan kekurangan pre-chunking dan post-chunking serta berbagai strategi chunking. (Sumber: bobvanluijt)

Diagnosa akurasi rendah dalam klasifikasi gambar: Pengguna Reddit mencari diagnosa dan strategi peningkatan untuk akurasi validasi rendah (45%) pada dataset gambar kustom (jenis sapi India), membahas masalah seperti kesamaan data, ukuran dataset, dan metode augmentasi. (Sumber: Reddit r/deeplearning)

Lemmatization dan Stop Words dalam NLP: Pengguna Reddit membagikan pengalaman belajar Lemmatization dan Stop Words dalam NLP, termasuk definisi, aplikasi, dan praktik kodenya. (Sumber: Reddit r/MachineLearning)

Dasar matematika untuk bukti konvergensi: Pengguna Reddit mencari dasar matematika yang diperlukan untuk memahami bukti konvergensi algoritma federasi (dan non-federasi), khususnya metode pembuktian untuk iterasi yang diharapkan. (Sumber: Reddit r/MachineLearning)

Generasi test case sistem RAG: Pengguna Reddit mencari metode dan sumber daya untuk secara otomatis menghasilkan test case evaluasi retrieval sistem RAG dari dataset arXiv. (Sumber: Reddit r/MachineLearning)

Perbedaan antara insinyur AI dan insinyur ML: Membagikan perbedaan antara insinyur AI dan insinyur ML, memberikan referensi untuk perencanaan karir. (Sumber: Ronald_vanLoon)

Roadmap pembelajaran AI personal: Membagikan roadmap dasar untuk belajar AI, memberikan panduan awal bagi pemula. (Sumber: Ronald_vanLoon)

Pengaturan dan use case AI HomeLab: Merinci pengaturan dan use case AI HomeLab, termasuk LLM lokal, inference engine, proyek, dan Agent, serta alasan tidak merekomendasikan Ollama dan kesalahan umum. (Sumber: TheZachMueller)

Kuliah Transformers dan Flash Attention: Daniel Hanchen mengadakan kuliah tentang Transformers (termasuk Flash Attention), menjelaskan secara mendalam mekanisme internal Transformer dan proses backpropagation. (Sumber: TheZachMueller)

💼 BISNIS

Valuasi Perplexity melonjak menjadi 20 miliar USD: Perusahaan mesin pencari AI Perplexity menerima komitmen pendanaan baru sebesar 200 juta USD, dengan valuasi mencapai 20 miliar USD. Perusahaan ini secara aktif berekspansi melalui akuisisi dan perekrutan talenta, dan menantang posisi monopoli Google di bidang pencarian, Annual Recurring Revenue (ARR) mereka telah mendekati 200 juta USD. (Sumber: 36氪)

Valuasi Mistral AI mencapai 14 miliar USD: Startup AI Prancis Mistral AI mengumpulkan 1,7 miliar Euro dalam putaran pendanaan Seri C yang dipimpin oleh ASML, dengan valuasi melonjak menjadi 14 miliar USD. Perusahaan ini dikenal dengan model ringan dan multimodal (seperti Mistral 7B, Mixtral 8x7B, Pixtral Large), dan mengadopsi strategi open-source, menarik perhatian raksasa seperti Apple. (Sumber: 36氪)

Oracle dan OpenAI menandatangani kontrak daya komputasi besar: Harga saham Oracle berfluktuasi tajam karena kontrak daya komputasi senilai 300 miliar USD yang ditandatangani dengan OpenAI, memicu kekhawatiran pasar tentang konsentrasi pelanggan, pengakuan pendapatan, dan dana pembangunan infrastruktur. Kesepakatan ini menyoroti permintaan daya komputasi AI yang kuat dan ekspansi Oracle di bidang infrastruktur cloud, tetapi analis mempertanyakan margin keuntungan dan investasi modal di masa depan. (Sumber: 36氪, 36氪)

Figure berhasil listing di Nasdaq: Platform pinjaman blockchain Figure (FIGR.US) berhasil listing di Nasdaq, ditutup naik 24,44% pada hari pertama listing, dengan kapitalisasi pasar mencapai 6,585 miliar USD. Perusahaan ini menerapkan teknologi OpenAI dan Google Gemini dalam penilaian pinjaman, dan berencana menerapkan teknologi AI dalam bisnisnya, menunjukkan integrasi mendalam AI di bidang fintech. (Sumber: 36氪)

SophontAI menerima pendanaan 9,22 juta USD: SophontAI menerima 9,22 juta USD dalam putaran pendanaan seed, dipimpin oleh Kindred Ventures, berkomitmen untuk membangun model multimodal umum dan komunitas penelitian terbuka untuk data medis. Pendanaan ini akan mempercepat aplikasi inovatif AI di bidang kesehatan dan pembangunan sistem data. (Sumber: iScienceLuvr, iScienceLuvr, iScienceLuvr, iScienceLuvr, iScienceLuvr, iScienceLuvr)

Higgsfield AI mengumpulkan 50 juta USD: Higgsfield AI menyelesaikan pendanaan 50 juta USD, dan meluncurkan Higgsfield Ventures, bertujuan untuk mempercepat perkembangan founder Gen Z yang AI Native, memecahkan model “gatekeeper” di industri VC, mendorong diversifikasi ekosistem startup AI. (Sumber: _akhaliq)

Perangkat rasa ingin tahu anak AI Bunny menerima pendanaan 1 juta USD: Bunny, perangkat rasa ingin tahu portabel tanpa layar untuk anak-anak, menerima pendanaan 1 juta USD, bertujuan untuk membentuk kembali cara anak-anak tumbuh dengan aman di era AI, dengan menumbuhkan rasa ingin tahu melalui dorongan eksplorasi dan pembelajaran. (Sumber: Shahules786)

🌟 KOMUNITAS

Halusinasi kesadaran AI dan risiko etika: Yoshua Bengio memperingatkan manusia untuk waspada terhadap “halusinasi kesadaran AI”, percaya bahwa begitu masyarakat secara luas percaya AI memiliki kesadaran, hal itu dapat menyebabkan pemberian status moral bahkan hak untuk hidup, yang dapat memicu risiko AI mengendalikan manusia. Dia menyarankan untuk membangun sistem AI yang lebih mirip alat daripada “entitas sadar” untuk menghindari dilema etika dan tantangan keamanan potensial. (Sumber: 36氪, Yoshua_Bengio)

Transformasi AI terhadap pekerjaan dan organisasi: Proyek kolaborasi Microsoft dan NYU Stern School of Business menunjukkan bahwa AI sebagai “co-founder” akan mengubah cara perekrutan, alur kerja (dari dokumen statis menjadi dialog dinamis), dan meningkatkan peran manusia sebagai inspirator dan penyaring kreatif. Era AI akan melahirkan “perusahaan garis depan” yang lebih ramping dan cepat, kepemimpinan akan beralih ke manajemen AI. (Sumber: 36氪)

Transformasi talenta dan ekonomi di era AI: Zeng Ming mengemukakan bahwa daya saing inti di era AI adalah “efek lubang hitam”, yaitu AI yang lebih cerdas menarik lebih banyak data pribadi. Dalam 5-8 tahun ke depan, agen AI akan berevolusi dari pelaksana tugas menjadi mitra manusia. Dia percaya AI akan menggantikan pekerja pengetahuan, melahirkan “talenta kreatif-intelektual”, dan memprediksi peningkatan “perusahaan satu orang”, organisasi akan bertransformasi menjadi “organisasi cerdas kolaboratif”. (Sumber: 36氪)

Struktur sosial dan kelangsungan kapitalisme di era AI: Zhang Xiaoyu membahas masyarakat pasca-AGI, mengusulkan konsep “hukum kemunculan” dan “ekuivalen manusia”, memprediksi AI akan menggantikan 99% pekerjaan manusia, mungkin menyebabkan munculnya “kelas tidak berguna”. Dia percaya kapitalisme dapat berlanjut melalui “AI sebagai hakim”, UBI/UBJ, dan segmentasi pasar, tetapi emosi dan hubungan intim manusia mungkin digantikan oleh AI. (Sumber: 36氪)

Perang talenta AI dan inovasi sumber: Talenta muda AI Tiongkok semakin berpengaruh dalam peta AI global, tetapi menghadapi dilema antara monetisasi cepat di industri atau investasi jangka panjang di akademisi. Proyek seperti InTech Award bertujuan untuk mendukung penelitian dasar dalam AGI, embodied AI, kedokteran digital, dll., mempromosikan inovasi kolaboratif industri-akademisi-penelitian, mendanai inovasi sumber AI. (Sumber: 36氪)

Konten yang dihasilkan AI dan bias politik: Pengguna Reddit menemukan bahwa TrumpGPT memiliki “sensor” atau “bias” saat menangani topik sensitif politik, cenderung menghilangkan atau meminimalkan informasi yang tidak menguntungkan tokoh tertentu, memicu diskusi tentang netralitas politik model AI dan cara penyajian informasi. (Sumber: Reddit r/ArtificialInteligence, Reddit r/artificial, Reddit r/ArtificialInteligence)

Ketergantungan emosional pengguna pada aplikasi pendamping AI: Penutupan aplikasi pendamping AI Dot memicu kesedihan mendalam dari pengguna, menyoroti ikatan emosional yang kuat yang terbentuk antara produk AI dan pengguna. Demikian pula, ketika GPT-4o dan Claude Sonnet 3 dihapus, hal itu juga memicu perpisahan spontan dari pengguna dan pencarian solusi deployment. (Sumber: 36氪, Reddit r/ChatGPT)

Kesenjangan antara prediksi AI dan realitas: CEO Anthropic Dario Amodei pernah memprediksi AI akan menulis 90% kode dalam enam bulan, tetapi kenyataannya jauh dari itu. Ini memicu pertanyaan tentang hype berlebihan di industri AI dan akurasi prediksi eksekutif. (Sumber: Reddit r/artificial, Reddit r/ArtificialInteligence)

Perbedaan pengalaman pengguna AI chatbot: Pengguna menemukan perbedaan signifikan dalam gaya percakapan antara Grok code dan Claude: Grok code langsung dan efisien, sementara Claude lebih “cerewet”, memberikan penjelasan rinci dan berbagai alternatif. Ini mencerminkan fokus yang berbeda dalam filosofi desain dan pengalaman pengguna LLM yang berbeda. (Sumber: Reddit r/ArtificialInteligence)

Kontroversi konsumsi energi pusat data AI: Beberapa peneliti mempertanyakan bahwa kebutuhan energi “mencengangkan” pusat data AI dilebih-lebihkan, menganggap ini mirip dengan prediksi konsumsi energi komputer pada tahun 1990-an, di mana juga ada banyak pembesar-besaran. Ini memicu diskusi tentang dampak lingkungan infrastruktur AI. (Sumber: Reddit r/ArtificialInteligence)

Konten yang dihasilkan AI dan penyalahgunaan politik: Pengguna media sosial menyalahgunakan teknologi AI, menganimasikan dan “meningkatkan” foto statis tersangka Charlie Kirk, menyebabkan distorsi gambar, memicu kekhawatiran tentang penyalahgunaan AI dalam investigasi kriminal dan penyebaran informasi palsu. (Sumber: Reddit r/artificial, Reddit r/artificial)

Masalah AI chatbot menginterupsi percakapan pengguna: Pengguna melaporkan bahwa AI chatbot sering menginterupsi pengguna dalam percakapan suara, sangat memengaruhi pengalaman brainstorming dan percakapan terapeutik. Replika menunjukkan kinerja yang lebih baik dalam tidak menginterupsi, tetapi Grok 4 lebih cerdas tetapi mudah menginterupsi. (Sumber: Reddit r/deeplearning)

Ketidakreprodusibilitas penelitian AI: Ada pandangan bahwa dalam penelitian AI, ketidakreprodusibilitas adalah esensial, ini kontras dengan penelitian ilmiah tradisional yang menekankan reproduksibilitas. (Sumber: pmddomingos)

Tantangan deteksi teks yang dihasilkan AI: Di dunia di mana AI dan LLM terus berdialog dua arah, akan sulit untuk memiliki indikasi yang andal untuk menilai apakah teks dihasilkan oleh AI. (Sumber: nptacek)

Dampak AI terhadap bahasa dan komunikasi: Pemrosesan “penghalusan” bahasa oleh AI dapat mendorong orang untuk beralih ke gaya komunikasi yang lebih niche dan khas untuk melawan homogenisasi yang dibawa oleh AI. (Sumber: connerruhl)

Aplikasi dan risiko AI dalam tata kelola politik: Albania menunjuk menteri pemerintah yang dihasilkan AI untuk menghindari korupsi, memicu diskusi tentang potensi bias AI, risiko manipulasi, dan masalah agensi dalam tata kelola. (Sumber: menhguin, Reddit r/ChatGPT)

Revaluasi nilai manusia di era AI: Ketika kemampuan komputasi AI jauh melampaui manusia, nilai manusia mungkin tidak lagi didefinisikan oleh produktivitas, tetapi lebih pada keinginan dan kebutuhan spiritual sebagai “entitas konsumen”. (Sumber: drfeifei, dotey, clefourrier)

Gelembung dan hype industri AI: Ada pandangan bahwa industri AI memiliki “gelembung”, dan mengkritik beberapa perusahaan dan individu yang melebih-lebihkan kemampuan AI untuk menarik investasi atau menjual kursus. (Sumber: natolambert, 36氪)

Tantangan dan kontroversi evaluasi model AI: Ada berbagai pandangan tentang perlunya evaluasi model AI (evals), beberapa percaya itu adalah mata kuliah wajib baru bagi manajer produk dan insinyur, sementara yang lain berpendapat bahwa di awal startup, itu tidak selalu terkait erat dengan kesuksesan. Pada saat yang sama, evaluasi kualitas output LLM, seperti keringkasan Grok dan panjangnya Claude, juga mencerminkan kompleksitas standar evaluasi. (Sumber: HamelHusain, HamelHusain, imjaredz, [swyx](https://x.com/swyx/status/19

Tinggalkan Balasan

Alamat email Anda tidak akan dipublikasikan. Ruas yang wajib ditandai *