Kata Kunci:GPT-5, Komputasi Kuantum, Desain Material AI, Pembelajaran Penguatan, Model Bahasa Besar, Infrastruktur AI, Model Multimodal, Agen AI, Masalah NP Kuantum, Jaringan Saraf Grafik Kristal CGformer, Kerangka Pembelajaran Penguatan RLMT, Perhatian Jarang DeepSeek DSA, Kerangka Tugas Visual Terpadu UniVid

🔥 Fokus

GPT-5 menaklukkan “masalah NP kuantum”: Pakar komputasi kuantum Scott Aaronson untuk pertama kalinya menerbitkan makalah yang mengungkapkan peran pendukung terobosan GPT-5 dalam penelitian teori kompleksitas kuantum. GPT-5 membantu memecahkan tahapan deduksi kunci dalam “versi kuantum dari masalah NP” dalam 30 menit, yang biasanya membutuhkan waktu 1-2 minggu bagi manusia. Pencapaian ini menandai bahwa AI telah mulai menyentuh pekerjaan penemuan ilmiah inti kecerdasan manusia, menandakan lompatan besar dalam potensi AI di bidang penelitian ilmiah. (Sumber: arXiv, scottaaronson.blog)

GPT-5攻克「量子NP难题」

Model desain material AI baru CGformer: Tim Profesor Li Jinjin dan Profesor Huang Fuqiang dari Shanghai Jiao Tong University mengembangkan model desain material AI baru, CGformer. Dengan inovatif menggabungkan mekanisme perhatian global Graphormer dengan CGCNN, serta mengintegrasikan pengkodean sentralitas dan pengkodean spasial, model ini berhasil mengatasi keterbatasan jaringan saraf grafik kristal tradisional. Model ini mampu menangkap informasi global struktur kristal kompleks secara lengkap, secara signifikan meningkatkan akurasi prediksi dan efisiensi penyaringan material baru seperti elektrolit padat ion natrium entropi tinggi. (Sumber: Matter)

新材料研发提速,上交大团队开发新AI材料设计模型CGformer,融合全局注意力机制

Kerangka tugas visual terpadu UniVid: UniVid adalah kerangka inovatif yang memungkinkan Transformer difusi video pra-terlatih untuk beradaptasi dengan berbagai tugas gambar dan video tanpa modifikasi spesifik tugas. Metode ini merepresentasikan tugas sebagai “visual statements”, mendefinisikan tugas dan modalitas keluaran yang diharapkan melalui urutan konteks, menunjukkan potensi besar model generasi video pra-terlatih sebagai dasar terpadu untuk pemodelan visual. (Sumber: HuggingFace Daily Papers)

RLMT merevolusi pasca-pelatihan model besar: Tim Associate Professor Chen Danqi dari Princeton University mengusulkan kerangka “Reinforcement Learning with Model Reward Thinking” (RLMT). Kerangka ini memungkinkan LLM menghasilkan rantai pemikiran yang panjang sebelum merespons, dan menggabungkan model penghargaan berbasis preferensi untuk optimasi RL online. Metode ini secara signifikan meningkatkan kemampuan penalaran dan generalisasi LLM dalam tugas-tugas terbuka, bahkan membuat model 8B melampaui GPT-4o dalam obrolan dan penulisan kreatif. (Sumber: arXiv)

颠覆大模型后训练,陈丹琦团队提出「基于模型奖励思维的强化学习」RLMT

Model pengenalan teks historis CHURRO: CHURRO adalah model bahasa visual (VLM) open-source dengan 3 miliar parameter, dirancang khusus untuk pengenalan teks historis dengan akurasi tinggi dan biaya rendah. Model ini dilatih pada dataset CHURRO-DS yang berisi 99.491 halaman dokumen historis dari 22 abad dan 46 bahasa. Kinerjanya melampaui VLM yang ada seperti Gemini 2.5 Pro, secara signifikan meningkatkan efisiensi penelitian dan pelestarian warisan budaya. (Sumber: HuggingFace Daily Papers)

🎯 Tren

Altman memprediksi super-intelijen AI dan fitur Pulse: Sam Altman memprediksi AI akan sepenuhnya melampaui kecerdasan manusia pada tahun 2030, dan menunjukkan kecepatan perkembangan AI yang luar biasa. OpenAI meluncurkan fitur “mode aktif” ChatGPT, Pulse, menandai transisi AI dari respons pasif menjadi berpikir proaktif untuk pengguna. Fitur ini mampu secara aktif memberikan informasi relevan berdasarkan obrolan pengguna, mencapai layanan yang sangat personal, mengisyaratkan bahwa AI akan menjadi outsourcing alam bawah sadar manusia. (Sumber: 36氪, )

Sam Altman:为什么 2030 年AI 将超过人类智能

Jensen Huang membantah teori gelembung AI dan strategi NVIDIA: Jensen Huang dalam sebuah wawancara membantah teori “kerajaan gelembung AI”, menekankan peran kunci AI dalam ekonomi, dan memprediksi NVIDIA berpotensi menjadi perusahaan pertama dengan kapitalisasi pasar 10 triliun dolar AS. Dia menunjukkan bahwa inferensi AI menyembunyikan permintaan daya komputasi yang sangat besar, dan NVIDIA, melalui desain kolaboratif yang ekstrem, meluncurkan arsitektur baru setiap tahun, serta membuka ekosistem sistem, tidak takut dengan gelombang pengembangan mandiri, bertujuan untuk membentuk sistem ekonomi AI dan mendorong “AI berdaulat” menjadi konsensus baru. (Sumber: 36氪, )

黄仁勋2小时反驳「AI泡沫帝国」论,英伟达将成全球首家十万亿市值公司

DeepSeek merilis open-source V3.2-Exp dan mekanisme DSA: DeepSeek merilis versi eksperimental V3.2-Exp dengan 685B parameter sebagai open-source, dan secara bersamaan menerbitkan makalah yang merinci mekanisme perhatian jarang barunya (DeepSeek Sparse Attention, DSA). DSA bertujuan untuk mengeksplorasi dan memverifikasi optimasi efisiensi pelatihan dan inferensi dalam skenario konteks panjang, secara signifikan meningkatkan efisiensi pemrosesan konteks panjang sambil mempertahankan kualitas keluaran model. (Sumber: 36氪, HuggingFace)

刚刚,DeepSeek开源V3.2-Exp,公开新稀疏注意力机制DSA

GLM-4.6 akan segera dirilis: Model GLM-4.6 dari Zhipu AI diperkirakan akan segera dirilis. Situs web Z.ai mereka telah menandai GLM-4.5 sebagai “model flagship generasi sebelumnya”, mengisyaratkan bahwa versi baru mungkin membawa peningkatan dalam hal panjang konteks dan aspek lainnya, menarik perhatian dan ekspektasi komunitas. (Sumber: Reddit r/LocalLLaMA, karminski3)

GLM4.6 soon ?

Strategi AI Apple dan chatbot internal Veritas: Chatbot AI internal Apple dengan nama kode “Veritas” terungkap, berfungsi sebagai sparring partner untuk Siri dan mampu melakukan operasi dalam aplikasi. Meskipun demikian, Apple tetap tidak meluncurkan chatbot tingkat konsumen, berfokus pada integrasi AI tingkat sistem, dan berencana untuk memperdalam integrasi model pihak ketiga melalui mesin jawaban AI dan antarmuka umum MCP, daripada mengembangkan chatbot sendiri. (Sumber: 36氪)

不做聊天机器人的苹果,做了个聊天机器人

Pertumbuhan pasar AI PC dan hambatan teknologi: Volume pengiriman pasar AI PC diperkirakan akan tumbuh kuat pada tahun 2025-2026, tetapi terutama didorong oleh penghentian dukungan Windows 10 dan siklus penggantian PC, bukan oleh disrupsi teknologi AI. Fungsi AI saat ini sebagian besar merupakan pelengkap PC tradisional, menghadapi tantangan seperti daya komputasi lokal yang tidak memadai, interaksi pasif, dan ekosistem tertutup. Perangkat AI sejati perlu mencapai “daya komputasi lokal sebagai yang utama, komplementer cloud sebagai pendukung” dan persepsi aktif. (Sumber: 36氪)

AI PC还算不上真正的AI设备

AI membanjiri pasar perdagangan listrik: AI banyak digunakan di pasar perdagangan listrik. Perusahaan seperti Qingpeng Smart menggunakan model besar deret waktu untuk memprediksi volume pembangkitan listrik tenaga angin dan surya serta permintaan listrik, membantu keputusan perdagangan. Keunggulan AI dalam memproses data besar diharapkan dapat memperbesar keuntungan, tetapi juga dapat menyebabkan kerugian karena model yang belum matang dan kompleksitas pasar. Industri ini masih dalam tahap eksplorasi. (Sumber: 36氪)

Pembaruan model besar Alibaba Tongyi dan layanan AI full-stack: Alibaba Cloud secara besar-besaran meningkatkan sistem AI full-stack di Apsara Conference, merilis 6 model baru termasuk Qwen3-MAX dan Qwen3-Omni, memposisikan diri sebagai “penyedia layanan AI full-stack”. Alibaba Cloud berkomitmen untuk membangun “Android era AI” dan “komputer generasi berikutnya”, menyediakan layanan cloud AI full-stack mulai dari model dasar hingga infrastruktur, untuk menghadapi evolusi AI Agent dari “kemunculan intelijen” menjadi “tindakan otonom”. (Sumber: 36氪)

迈向超级人工智能之路

Analisis mendalam arsitektur NVIDIA Blackwell: Acara analisis mendalam arsitektur NVIDIA Blackwell akan membahas arsitektur, optimasi, dan implementasinya di cloud GPU. Acara ini akan dipandu oleh para ahli dari SemiAnalysis dan NVIDIA, bertujuan untuk mengungkapkan bagaimana Blackwell GPU, sebagai “GPU dekade berikutnya”, akan mendorong pengembangan daya komputasi AI dan masa depan cloud GPU. (Sumber: TheTuringPost)

TheTuringPost

🧰 Alat

Agentic Harnesses dari Factory AI: Factory AI telah mengembangkan Agentic Harnesses kelas dunia yang secara signifikan meningkatkan kinerja model yang ada, terutama dalam tugas pengkodean, disebut oleh pengguna sebagai “kode curang”. Agen Droids mereka menempati peringkat pertama di Terminal-Bench, dan mencapai refactoring kode yang andal melalui alur kerja verifikasi multi-agen. (Sumber: Vtrivedy10, matanSF, matanSF)

Vtrivedy10

RAGLight, pustaka RAG open-source: LangChainAI merilis RAGLight, pustaka Python ringan untuk membangun sistem RAG tingkat produksi. Pustaka ini dilengkapi dengan pipeline agen berbasis LangGraph, dukungan LLM multi-penyedia, integrasi GitHub bawaan, dan alat CLI, bertujuan untuk menyederhanakan pengembangan dan penerapan sistem RAG. (Sumber: LangChainAI, hwchase17)

LangChainAI

Sistem operasi semantik ArgosOS: ArgosOS adalah aplikasi desktop yang memungkinkan pencarian cerdas dan integrasi konten dokumen melalui arsitektur berbasis tag daripada database vektor. Ini menggunakan LLM untuk membuat tag yang relevan dan menyimpannya dalam database SQLite, sehingga secara cerdas memproses kueri, seperti menganalisis tagihan belanja, menyediakan solusi manajemen dokumen yang akurat dan efisien untuk aplikasi skala kecil. (Sumber: Reddit r/MachineLearning)

Reddit r/MachineLearning

Alat pencarian Web Ollama: Ollama kini mendukung alat pencarian Web, memungkinkan pengguna untuk mengintegrasikan fungsi pencarian Web dalam beban kerja Minions, sehingga memperkaya informasi konteks aplikasi AI dan meningkatkan kemampuannya dalam menangani tugas-tugas kompleks. (Sumber: ollama)

ollama

RAG multimodal lokal Hyperlink: Hyperlink menyediakan fungsi RAG multimodal lokal, memungkinkan pengguna untuk mencari dan meringkas tangkapan layar/galeri foto secara offline. Melalui teknologi OCR dan embedding, alat ini dapat mengubah data gambar yang tidak terstruktur menjadi konten yang dapat dicari, mencapai manajemen dokumen dan ekstraksi informasi yang sepenuhnya pribadi dan di perangkat. (Sumber: Reddit r/LocalLLaMA)

Reddit r/LocalLLaMA

Konektor Azure PostgreSQL LangChain: Microsoft meluncurkan konektor Azure PostgreSQL asli, menyatukan persistensi agen untuk ekosistem LangChain. Konektor ini menyediakan penyimpanan vektor tingkat perusahaan dan manajemen status, menyederhanakan kompleksitas pembangunan dan penerapan agen AI di lingkungan Azure. (Sumber: LangChainAI)

LangChainAI

Standardisasi LLM API dan protokol MCP: Komunitas membahas masalah fragmentasi LLM API, menunjukkan bahwa struktur pesan, pola panggilan alat, dan nama bidang inferensi dari penyedia yang berbeda tidak kompatibel, menyerukan standardisasi protokol JSON API di industri. Pada saat yang sama, pengenalan protokol MCP (Model-Client Protocol) juga memicu diskusi tentang dampaknya terhadap pengembangan agen. (Sumber: AAAzzam, charles_irl)

Aplikasi Grok Code di OpenRouter: Grok Code mendominasi 57,6% lalu lintas pengkodean di platform OpenRouter, melebihi total semua generator kode AI lainnya, dengan Grok Code Fast 1 menempati peringkat pertama, menunjukkan kinerja pasar yang kuat dan preferensi pengguna di bidang pembuatan kode. (Sumber: imjaredz)

imjaredz

📚 Belajar

Kursus dasar AI Cursor Learn: Lee Robinson meluncurkan Cursor Learn, seri video gratis enam bagian yang bertujuan untuk membantu pemula menguasai konsep dasar AI seperti tokens, context, dan agents. Kursus ini berdurasi sekitar 1 jam, menyediakan kuis dan uji coba model AI, menjadikannya sumber daya yang nyaman untuk mempelajari dasar-dasar AI. (Sumber: crystalsssup)

Buku gratis struktur data Python: Donald R. Sheehy menerbitkan buku gratis berjudul “A First Course on Data Structures in Python”, yang mencakup struktur data, pemikiran algoritma, analisis kompleksitas, rekursi/pemrograman dinamis, dan metode pencarian, memberikan dasar yang kuat bagi pelajar di bidang AI dan Machine Learning. (Sumber: TheTuringPost)

TheTuringPost

Model OCR multibahasa dots.ocr: Xiaohongshu Hi Lab merilis dots.ocr, model OCR multibahasa yang kuat, mendukung 100 bahasa, mampu mengurai teks, tabel, rumus, dan tata letak secara end-to-end (output dalam Markdown), dan gratis untuk penggunaan komersial. Model ini berukuran kecil (1.7B VLM) tetapi mencapai kinerja SOTA di OmniDocBench dan dots.ocr-bench. (Sumber: mervenoyann)

mervenoyann

Analisis 8 jenis model bahasa besar: Analytics Vidhya merangkum 8 jenis model bahasa besar utama, termasuk GPT (Generative Pre-trained Transformer), MoE (Mixture of Experts), LRM (Large Reasoning Model), VLM (Visual Language Model), SLM (Small Language Model), LAM (Large Action Model), HLM (Hierarchical Language Model), dan LCM (Large Concept Model), dengan interpretasi rinci tentang arsitektur dan aplikasinya. (Sumber: karminski3)

karminski3

Laporan mingguan AI: Ringkasan makalah terbaru: DAIR.AI menerbitkan pilihan makalah AI minggu ini (22-28 September), mencakup berbagai penelitian mutakhir seperti ATOKEN, LLM-JEPA, Code World Model, Teaching LLMs to Plan, Agents Research Environments, Language Models that Think, Chat Better, Embodied AI: From LLMs to World Models, memberikan dinamika terbaru bagi peneliti AI. (Sumber: dair_ai)

Saran untuk peneliti muda di era AI: Jascha Sohl-Dickstein membagikan saran praktis tentang bagaimana peneliti muda dapat memilih proyek penelitian dan membuat keputusan karir di tahap akhir “Antroposen”. Dia membahas dampak mendalam AGI pada karir akademik dan menekankan perlunya memikirkan kembali arah penelitian dan pengembangan profesional di tengah sistem AI yang akan melampaui kecerdasan manusia. (Sumber: mlpowered)

mlpowered

Konsep RAG dan pembangunan AI Agent: Ronald van Loon membagikan konsep dasar RAG (Retrieval-Augmented Generation) dan pentingnya dalam LLM, serta memberikan 8 langkah kunci untuk membangun AI Agent. Konten ini mencakup konsep AI Agent, stack, keunggulan, dan cara mengevaluasinya melalui kerangka kerja, memberikan panduan dari teori hingga praktik bagi pengembang AI. (Sumber: Ronald_vanLoon, Ronald_vanLoon)

Ronald_vanLoon

Meta mengatasi masalah inefisiensi inferensi LLM: Penelitian Meta mengungkapkan masalah inefisiensi inferensi LLM yang disebabkan oleh pekerjaan berulang dalam rantai pemikiran yang panjang. Mereka mengusulkan untuk mengompres langkah-langkah berulang menjadi tindakan kecil yang diberi nama, memungkinkan model memanggil tindakan ini daripada menyimpulkan ulang, sehingga mengurangi konsumsi token dan meningkatkan efisiensi serta akurasi inferensi, memberikan ide baru untuk mengoptimalkan proses inferensi LLM. (Sumber: ylecun)

ylecun

Kemampuan inferensi visual Veo-3 terungkap: Lisan al Gaib menunjukkan bahwa model video Veo-3 menunjukkan kemampuan penalaran (visual) yang muncul mirip dengan GPT-3, mengisyaratkan bahwa model multimodal asli, setelah sepenuhnya memanfaatkan potensinya, akan membawa pemahaman visual dan manfaat penalaran yang lebih komprehensif. (Sumber: scaling01)

scaling01

💼 Bisnis

Taruhan ratusan miliar OpenAI dan gelembung infrastruktur AI: OpenAI sedang membangun jaringan raksasa yang mencakup chip, komputasi awan, dan pusat data dengan kecepatan pembakaran uang, termasuk investasi 100 miliar dolar AS dari Nvidia dan kemitraan “Stargate” 300 miliar dolar AS dengan Oracle. Meskipun pendapatan tahun 2025 diperkirakan hanya 13 miliar dolar AS, manajemen OpenAI percaya bahwa investasi infrastruktur AI adalah “peluang sekali dalam seabad”, memicu kontroversi apakah infrastruktur AI menghadapi gelembung internet. (Sumber: 36氪)

OpenAI千亿赌局:利益网织就的AI 基建,还是又一个互联网泡沫?

Elon Musk menggugat OpenAI untuk keenam kalinya: Perusahaan xAI milik Elon Musk menggugat OpenAI untuk keenam kalinya, menuduh mereka secara sistematis merekrut karyawan, mencuri kode sumber model besar Grok secara ilegal, dan rencana strategis pusat data serta rahasia dagang lainnya. Gugatan ini menandai persaingan antara dua raksasa AI yang memanas. Musk percaya OpenAI telah menyimpang dari tujuan nirlabanya, sementara OpenAI membantah tuduhan tersebut, menyebutnya sebagai “pelecehan berkelanjutan”. (Sumber: 36氪)

忍无可忍,无须再忍:马斯克第六次起诉

Ilmuwan AI top Steven Hoi bergabung dengan Alibaba Tongyi: Ilmuwan AI terkemuka dunia, IEEE Fellow Steven Hoi, telah bergabung dengan Alibaba Tongyi Lab, dan akan beralih ke penelitian dasar dan mutakhir model besar multimodal. Steven Hoi memiliki lebih dari 20 tahun pengalaman dalam penelitian, pengembangan, dan industri AI, pernah menjabat sebagai Wakil Presiden Salesforce dan mendirikan HyperAGI. Bergabungnya dia menandai investasi besar Alibaba di bidang model besar multimodal untuk mempercepat efisiensi iterasi model dan terobosan inovasi multimodal. (Sumber: 36氪)

曝顶级AI大牛,加入阿里通义,事关下一代大模型

🌟 Komunitas

Penurunan kinerja ChatGPT 4o dan sentimen pengguna: Banyak pengguna ChatGPT melaporkan penurunan kinerja model 4o, dengan masalah “penyusutan” dan “perutean keamanan”, menyebabkan pengguna merasa frustrasi dan tertipu. Banyak pengguna neurodivergen sangat sedih, menganggap 4o pernah menjadi “garis hidup” mereka untuk komunikasi dan pemahaman diri. Pengguna umumnya mempertanyakan kurangnya transparansi OpenAI dan menyerukan agar mereka memenuhi janji “memperlakukan pengguna dewasa” dan menentang mekanisme sensor yang tidak jelas. (Sumber: Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT)

Reddit r/ChatGPT

Kontroversi pekerjaan dan PHK di era AI: Komunitas ramai membahas dampak AI terhadap pasar kerja, termasuk penurunan signifikan jumlah posisi entry-level, PHK perusahaan yang bersamaan dengan investasi AI, serta keaslian alasan PHK AI. Diskusi menunjukkan tren “orang yang memahami AI menggantikan orang yang tidak memahami AI”, dan menyerukan perusahaan untuk mendesain ulang pekerjaan entry-level daripada sekadar memangkasnya, untuk mengembangkan talenta langka yang sesuai dengan kebutuhan era AI. (Sumber: 36氪, 36氪, Reddit r/artificial)

用AI裁掉初级岗位,是在断送企业的未来

Tantangan dan ambang batas penelitian LLM: Komunitas ramai membahas ambang batas penelitian Machine Learning yang semakin tinggi, di mana peneliti individu sulit bersaing dengan raksasa teknologi besar. Menghadapi tantangan seperti makalah yang sangat banyak, daya komputasi yang mahal, dan teori matematika yang kompleks, banyak yang merasa sulit untuk memulai dan mencapai terobosan, memicu kekhawatiran tentang keberlanjutan bidang ini. (Sumber: Reddit r/MachineLearning)

Dampak model MoE pada hosting lokal: Komunitas membahas secara mendalam pro dan kontra model MoE untuk hosting LLM lokal. Pandangan menunjukkan bahwa meskipun model MoE membutuhkan lebih banyak VRAM, efisiensi komputasinya tinggi, dan dapat menjalankan model yang lebih besar melalui offloading CPU, terutama cocok untuk perangkat keras konsumen dengan memori yang cukup tetapi GPU terbatas, menjadikannya cara yang efektif untuk meningkatkan kinerja LLM. (Sumber: Reddit r/LocalLLaMA)

Perkembangan pesat dan aplikasi AI Agents: Komunitas membahas perkembangan pesat AI Agents, yang kemampuannya dalam waktu kurang dari setahun telah meningkat pesat dari “hampir tidak dapat digunakan” menjadi “berkinerja baik” dalam skenario sempit, bahkan “General Agent mulai berguna”, kemajuan yang melebihi ekspektasi. Namun, ada juga pandangan yang menganggap Agent pengkodean saat ini sangat homogen dan kurang memiliki perbedaan yang signifikan. (Sumber: nptacek, HamelHusain)

Tren penelitian RL dan kontroversi GRPO: Komunitas membahas secara mendalam tren terbaru dalam penelitian Reinforcement Learning (RL), khususnya status dan kontroversi algoritma GRPO. Beberapa berpendapat bahwa penelitian RL bergeser ke arah pra-pelatihan/pemodelan, dan GRPO adalah kemajuan open-source yang penting, tetapi karyawan OpenAI lainnya berpendapat bahwa itu jauh tertinggal dari teknologi mutakhir, memicu diskusi sengit tentang inovasi algoritma dan kinerja aktual. (Sumber: natolambert, MillionInt, cloneofsimo, jsuarez5341, TheTuringPost)

natolambert

Konsumsi energi OpenAI dan infrastruktur AI: Komunitas membahas kebutuhan energi OpenAI yang sangat besar di masa depan, diperkirakan akan mengonsumsi lebih banyak energi daripada Inggris atau Jerman dalam lima tahun, dan lebih dari India dalam delapan tahun, memicu kekhawatiran tentang skala pembangunan infrastruktur AI, pasokan energi, dan dampak lingkungan. Pada saat yang sama, pemilihan lokasi pusat data Google juga ditentang oleh penduduk setempat karena masalah konsumsi air. (Sumber: teortaxesTex, brickroad7)

teortaxesTex

Bitter Lesson Sutton dan pengembangan AI: Komunitas membahas “Bitter Lesson” Richard Sutton dan implikasinya terhadap penelitian AI, menekankan bahwa metode komputasi umum lebih unggul daripada pengetahuan a priori manusia. Diskusi berpusat pada hubungan antara “imitasi dan model dunia”, berpendapat bahwa imitasi murni dapat menyebabkan “kultus kargo”, dan imitasi tanpa pengalaman nyata memiliki keterbatasan fundamental. (Sumber: rao2z, jonst0kes)

💡 Lain-lain

Robot bionik BionicWheelBot: Robot BionicWheelBot, dengan meniru gerakan berguling laba-laba roda, mencapai navigasi multifungsi di medan yang kompleks. Inovasi ini menunjukkan potensi penerapan bionik dalam desain robot, memberikan solusi baru bagi robot masa depan untuk menghadapi lingkungan yang berubah-ubah. (Sumber: Ronald_vanLoon)

Ronald_vanLoon

Optimasi penyimpanan PC dan konfigurasi RAID: Pengguna membagikan cara mencapai throughput data hingga 47GB/s melalui konfigurasi RAID0 dan RAID10, menggunakan beberapa saluran PCIe dan hard drive M.2, untuk mempercepat pemuatan model besar. Solusi optimasi ini, sambil memenuhi kebutuhan baca/tulis berkecepatan tinggi, juga mempertimbangkan kapasitas penyimpanan dan redundansi data, menyediakan dasar perangkat keras yang efisien untuk penerapan model AI lokal. (Sumber: TheZachMueller)

TheZachMueller

Pembukaan “Komunitas Industri AI+ Shuxiwan” Liangzhu: “Komunitas Industri AI+ Shuxiwan” Liangzhu, Hangzhou, resmi dibuka, berfokus pada bidang-bidang mutakhir seperti kecerdasan buatan, ekonomi nomaden digital, dan kreativitas budaya. Komunitas ini, melalui kebijakan khusus “Delapan Butir Shuxi” dan tata letak ruang “Empat Lapangan”, memberikan dukungan siklus penuh bagi penjelajah AI, mulai dari ide awal hingga kepemimpinan ekosistem, bertujuan untuk menciptakan ekosistem inovasi di mana teknologi dan humaniora terintegrasi secara mendalam. (Sumber: 36氪)

「非典型人才」集聚「东方硅谷」:良渚何以成为数字经济发展新试验田?