Berita AI – 2025-04-18(Sore)

Kata Kunci:Gemini 2.5 Flash, OpenAI o3, AI pengganti pekerjaan, Komersialisasi AI di bidang medis, Model penalaran hibrida, Fitur anggaran pemikiran, Kemampuan multimodal o4-mini, Asisten pengkodean AI Windsurf, Gerbang rumah AI Agentic, Pengujian patokan VisualPuzzles, Keandalan rekomendasi DeepSeek, Model sumber terbuka AI Zhipu

🔥 Fokus

Google merilis model inferensi hibrida Gemini 2.5 Flash, fokus pada rasio harga-kinerja dan pemikiran terkontrol: Google meluncurkan pratinjau Gemini 2.5 Flash, diposisikan sebagai model inferensi hibrida yang hemat biaya. Keunikannya terletak pada pengenalan fungsi “thinking_budget”, yang memungkinkan pengembang (0-24k token) atau model itu sendiri untuk menyesuaikan kedalaman inferensi berdasarkan kompleksitas tugas. Saat pemikiran dimatikan, biayanya sangat rendah ($0.6/juta token output), dengan kinerja melampaui 2.0 Flash; saat pemikiran diaktifkan ($3.5/juta token output), model ini dapat menangani tugas-tugas kompleks, dengan kinerja yang sebanding dengan o4-mini pada beberapa benchmark (seperti AIME, MMMU, GPQA) dan menempati peringkat teratas di LMArena. Model ini bertujuan untuk menyeimbangkan kinerja, biaya, dan latensi, sangat cocok untuk skenario aplikasi yang membutuhkan fleksibilitas dan kontrol biaya, dan API-nya telah tersedia di Google AI Studio dan Vertex AI. (Sumber: 谷歌首款混合推理Gemini 2.5登场,成本暴降600%,思考模式一开,直追o4-mini谷歌大模型“性价比之王”来了,混合推理模型,思考深度可自由控制,竞技场排名仅次于自家Proop7418JeffDeanReddit r/LocalLLaMAReddit r/LocalLLaMAReddit r/artificial)

Google merilis model inferensi hibrida Gemini 2.5 Flash, fokus pada rasio harga-kinerja dan pemikiran terkontrol

OpenAI merilis model o3 dan o4-mini, memperkuat kemampuan penalaran dan multimodal: OpenAI meluncurkan seri model terkuatnya hingga saat ini, o3, dan o4-mini yang dioptimalkan, dengan fokus pada peningkatan kemampuan penalaran, pemrograman, dan pemahaman multimodal. Khususnya, untuk pertama kalinya, OpenAI mengimplementasikan penalaran “chain-of-thought” berbasis gambar, yang mampu menganalisis detail gambar untuk membuat penilaian kompleks, seperti menyimpulkan lokasi pemotretan yang tepat berdasarkan foto (GeoGuessing). o3 mencapai skor tertinggi baru 136 dalam tes IQ Mensa dan menunjukkan kinerja luar biasa dalam benchmark pemrograman. Sementara itu, o4-mini menunjukkan kemampuan pemecahan masalah matematika yang kuat (seperti masalah Euler) dan pemrosesan visual, sambil mempertahankan efisiensi tinggi dan biaya rendah. Model-model ini telah tersedia untuk pengguna ChatGPT Plus, Pro, dan Team, menunjukkan bahwa OpenAI sedang mendorong evolusi model dari akuisisi pengetahuan menuju penggunaan alat dan penyelesaian masalah kompleks. (Sumber: 实测o3/o4-mini:3分钟解决欧拉问题,OpenAI最强模型名副其实智商136,o3王者归来,变身福尔摩斯“AI查房”,一张图秒定坐标满血版o3探案神技出圈,OpenAI疯狂暗示:大模型不修仙,要卷搬砖了)

OpenAI merilis model o3 dan o4-mini, memperkuat kemampuan penalaran dan multimodal

Peningkatan efisiensi AI menimbulkan kekhawatiran pekerjaan, beberapa perusahaan mulai menggunakan AI untuk menggantikan posisi: Efisiensi tinggi teknologi kecerdasan buatan mendorong perusahaan seperti PayPal, Shopify, United Wholesale Mortgage untuk mulai mempertimbangkan atau secara aktual menggunakan AI untuk menggantikan posisi manusia, terutama di bidang layanan pelanggan, penjualan tingkat pemula, dukungan IT, dan pemrosesan data. Misalnya, chatbot AI PayPal telah menangani 80% permintaan layanan pelanggan, secara signifikan mengurangi biaya. United Wholesale Mortgage menggunakan AI untuk memproses dokumen KPR, meningkatkan efisiensi secara drastis, menggandakan volume bisnis tanpa perlu menambah staf. Beberapa perusahaan bahkan mengusulkan konsep “tim tanpa karyawan”, menuntut penambahan tenaga kerja baru harus terlebih dahulu membuktikan bahwa AI tidak mampu melakukannya. Meskipun banyak perusahaan menghindari mengakui secara terbuka bahwa PHK disebabkan oleh AI, perlambatan perekrutan dan pemangkasan pekerjaan telah menjadi tren, terutama di bawah tekanan biaya, diperkirakan efek penggantian pekerjaan kerah putih oleh AI akan lebih jelas di masa depan. (Sumber: 招聘慢了、岗位少了,AI效率太高迫使人类员工“让位”)

Peningkatan efisiensi AI menimbulkan kekhawatiran pekerjaan, beberapa perusahaan mulai menggunakan AI untuk menggantikan posisi

OpenAI berencana mengakuisisi asisten pengkodean AI Windsurf senilai $3 miliar, perkuat tata letak lapisan aplikasi: OpenAI berencana mengakuisisi startup pengkodean AI Windsurf (sebelumnya Codeium) dengan nilai sekitar $3 miliar, yang akan menjadi akuisisi terbesarnya. Windsurf menyediakan alat bantu pengkodean AI yang mirip dengan Cursor, juga berbasis model Anthropic. Akuisisi ini dipandang sebagai langkah kunci OpenAI untuk berekspansi ke lapisan aplikasi dan memperkuat kontrol ekosistem, bertujuan untuk secara langsung memperoleh pengguna, mengumpulkan data pelatihan, dan bersaing dengan pesaing seperti GitHub Copilot dan Cursor. Analis percaya bahwa seiring dengan peningkatan kemampuan AI, “Vibe Coding” (AI terintegrasi secara mendalam dalam alur kerja pengembangan) menjadi tren, dan menguasai pintu masuk lapisan aplikasi serta data pengguna sangat penting untuk daya saing jangka panjang perusahaan model. Langkah OpenAI ini menunjukkan bahwa tujuan strategisnya telah melampaui penyedia model, berniat membangun platform pengembangan AI yang lengkap. (Sumber: 有了一天涨万星的开源项目 Codex,OpenAI为何仍砸 30 亿美元重金收购 Windsurf ?)

OpenAI berencana mengakuisisi asisten pengkodean AI Windsurf senilai $3 miliar, perkuat tata letak lapisan aplikasi

🎯 Tren

ByteDance merilis model pemikiran mendalam Doubao 1.5 dan pembaruan multimodal, percepat tata letak Agent: Volcano Engine milik ByteDance merilis model pemikiran mendalam Doubao 1.5, yang memiliki kemampuan mirip manusia “melihat, berpikir, dan mencari” secara bersamaan, mampu menangani tugas-tugas kompleks, mendukung input multimodal (teks, gambar), dan memiliki kemampuan pencarian online serta penalaran visual. Pada saat yang sama, mereka merilis model text-to-image Doubao 3.0 (meningkatkan tata letak teks dan realisme gambar) dan model pemahaman visual yang ditingkatkan (meningkatkan akurasi lokalisasi dan pemahaman video). ByteDance percaya bahwa pemikiran mendalam dan multimodal adalah dasar untuk membangun Agent, dan meluncurkan solusi OS Agent serta suite inferensi AI cloud-native, bertujuan untuk menurunkan ambang batas dan biaya bagi perusahaan dalam membangun dan men-deploy aplikasi Agent. Langkah ini dipandang sebagai upaya ByteDance untuk memperjelas kembali strateginya dan fokus pada implementasi aplikasi Agent setelah gempuran dari pesaing seperti DeepSeek. (Sumber: 字节按下 AI Agent 加速键被DeepSeek打蒙的豆包,发起反攻了)

ByteDance merilis model pemikiran mendalam Doubao 1.5 dan pembaruan multimodal, percepat tata letak Agent

ByteDance dan Kuaishou kembali bersaing di bidang pembuatan video AI, fokus pada kinerja model dan implementasi: ByteDance merilis model pembuatan video Seaweed-7B, menekankan parameter rendah (7B), efisiensi tinggi (66,5 juta jam pelatihan GPU H100), dan biaya deployment rendah (satu GPU dapat menghasilkan video 1280×720). Kuaishou merilis model pembuatan video “Kling 2.0” dan model pembuatan gambar “Ketu 2.0”, mengklaim kinerja melampaui Google Veo2 dan Sora, serta meluncurkan fungsi penyuntingan multimodal MVL. Kedua belah pihak menyadari bahwa kemampuan model adalah batas atas produk AI, dan fokus strategis 2025 kembali ke penyempurnaan model. Meskipun jalur komersialisasi berbeda (Jiemeng ByteDance cenderung ke C-end, Kling Kuaishou fokus pada B-end), keduanya berupaya meningkatkan kepraktisan, seperti Kuaishou menekankan pentingnya image-to-video, sementara ByteDance memanfaatkan keunggulan pemrosesan teks untuk memastikan konsistensi narasi video, persaingan semakin ketat. (Sumber: 字节快手,AI视频“狭路又相逢”)

ByteDance dan Kuaishou kembali bersaing di bidang pembuatan video AI, fokus pada kinerja model dan implementasi

Zhipu AI merilis tiga model open-source, perkuat pembangunan ekosistem open-source: Zhipu AI mengumumkan 2025 sebagai “Tahun Open Source” dan merilis tiga model: GLM-Z1-Air (model inferensi), GLM-Z1-Air (kemungkinan salah ketik, mungkin merujuk pada versi cepat atau dasar), GLM-Z1-Rumination (model perenungan), dengan ukuran termasuk 9B dan 32B, menggunakan lisensi MIT. GLM-Z1-Air (32B) menunjukkan kinerja yang mendekati DeepSeek-R1 pada beberapa benchmark, dengan harga inferensi yang jauh lebih rendah. Model perenungan Z1-Rumination mengeksplorasi pemikiran tingkat lebih dalam, mendukung siklus riset tertutup. Sementara itu, Z Fund Zhipu mengumumkan alokasi 300 juta yuan untuk mendukung komunitas AI open-source global, tidak terbatas pada proyek berbasis model Zhipu. Langkah ini sejalan dengan strategi Beijing untuk membangun “Ibukota Open Source Global”. (Sumber: 智谱获2亿元新融资,连发3款开源模型,拿3亿元支持全球开源社区)

Zhipu AI merilis tiga model open-source, perkuat pembangunan ekosistem open-source

Menanamkan Agentic AI di gateway rumah bisa menjadi peluang baru bagi operator: Seiring evolusi AI dari generatif ke agentik (Agentic AI), sistem AI dengan kemampuan penetapan tujuan otonom dan eksekusi tugas menjadi fokus. Eksekutif MediaTek mengusulkan bahwa menanamkan Agentic AI ke dalam gateway rumah berpotensi mengubah peran operator di pasar IoT. Gateway sebagai pusat kecerdasan edge jaringan rumah, dikombinasikan dengan Agentic AI dapat secara proaktif mengelola jaringan (seperti mengoptimalkan panggilan video), mendiagnosis gangguan, meningkatkan keamanan rumah (seperti mengidentifikasi pencurian paket, risiko anak mendekati kolam renang), sehingga mengurangi biaya layanan pelanggan operator (banyak pertanyaan terkait Wi-Fi dapat ditangani oleh AI) dan menyediakan layanan bernilai tambah. Meskipun model monetisasi masih perlu dieksplorasi, ini memberikan jalur potensial bagi operator untuk melampaui peran “pipa” dan menjadi pemberdaya layanan Agentic AI. (Sumber: 将Agentic AI嵌入家庭网关,如何改变运营商在物联网市场的游戏规则?)
Microsoft merilis MAI-DS-R1, pasca-pelatihan berbasis DeepSeek R1 untuk keamanan dan kepatuhan: Tim AI Microsoft merilis model MAI-DS-R1, yang merupakan hasil pasca-pelatihan (post-training) berbasis DeepSeek R1, bertujuan untuk mengisi kesenjangan informasi model asli dan memperbaiki profil risikonya, sambil mempertahankan kemampuan penalaran R1. Data pelatihan mencakup 110.000 sampel keamanan dan ketidakpatuhan dari Tulu 3 SFT, serta sekitar 350.000 sampel multibahasa yang dikembangkan secara internal oleh Microsoft, mencakup berbagai topik yang bias. Langkah ini ditafsirkan oleh sebagian anggota komunitas sebagai upaya Microsoft dalam meningkatkan keamanan dan kepatuhan model, tetapi juga memicu diskusi tentang apakah ini menambahkan “sensor tingkat enterprise”. (Sumber: Reddit r/LocalLLaMA)

Microsoft merilis MAI-DS-R1, pasca-pelatihan berbasis DeepSeek R1 untuk keamanan dan kepatuhan

🧰 Alat

OpenAI merilis Codex CLI open-source, asisten pengkodean AI yang digerakkan oleh terminal: OpenAI merilis proyek open-source baru, Codex CLI, sebuah agen AI yang dioptimalkan untuk tugas pengkodean, yang dapat berjalan di terminal lokal pengembang. Secara default menggunakan model o4-mini terbaru, tetapi pengguna dapat memilih model OpenAI lain melalui API. Codex CLI bertujuan untuk menyediakan cara pengembangan berbasis chat, memahami dan menjalankan operasi codebase lokal, bersaing dengan alat seperti Claude Code dari Anthropic serta Cursor dan Windsurf. Proyek ini mendapatkan lebih dari 14.000 bintang di GitHub dalam satu hari setelah dirilis, menunjukkan minat pengembang terhadap alat pengkodean AI terminal-native. (Sumber: 有了一天涨万星的开源项目 Codex,OpenAI为何仍砸 30 亿美元重金收购 Windsurf ?)
Google AI Studio ditingkatkan, mendukung pembuatan dan berbagi aplikasi AI secara langsung: Google memperbarui platform AI Studio-nya, menambahkan fungsi baru untuk membuat aplikasi AI langsung di dalam platform. Pengguna tidak hanya dapat menggunakan model seperti Gemini untuk pengembangan, tetapi juga dapat menelusuri dan mencoba aplikasi contoh yang dibuat oleh pengguna lain. Peningkatan ini mengubah AI Studio dari tempat uji coba model menjadi platform pengembangan dan berbagi aplikasi yang lebih lengkap, menurunkan ambang batas untuk membangun aplikasi berbasis teknologi AI Google. (Sumber: op7418)

Google AI Studio ditingkatkan, mendukung pembuatan dan berbagi aplikasi AI secara langsung

NVIDIA cuML meluncurkan mode akselerasi GPU tanpa perubahan kode: Tim NVIDIA cuML merilis mode akselerator baru, memungkinkan pengguna menjalankan kode native scikit-learn, umap-learn, dan hdbscan langsung di GPU tanpa mengubah kode apa pun. Fungsi ini diaktifkan melalui python -m cuml.accel your_script.py atau dengan memuat %load_ext cuml.accel di Jupyter Notebook. Uji benchmark menunjukkan bahwa algoritma seperti Random Forest, Linear Regression, t-SNE, UMAP, HDBSCAN dapat memperoleh akselerasi signifikan antara 25x hingga 175x. Mode ini memanfaatkan CUDA Unified Memory (UVM), biasanya tidak perlu khawatir tentang ukuran dataset, tetapi kinerja dataset memori sangat besar akan terpengaruh. (Sumber: Reddit r/MachineLearning)

NVIDIA cuML meluncurkan mode akselerasi GPU tanpa perubahan kode

Alibaba merilis model video frame awal-akhir Wan 2.1 open-source: Alibaba merilis model video Wan 2.1 open-source, yang berfokus pada pembuatan konten video perantara berdasarkan frame awal dan akhir. Ini adalah jenis teknologi pembuatan video spesifik yang dapat diterapkan pada skenario seperti interpolasi frame video, transfer gaya, atau pembuatan animasi berbasis keyframe. Merilis model ini secara open-source memberikan alat baru bagi peneliti dan pengembang untuk mengeksplorasi dan memanfaatkan teknologi ini. (Sumber: op7418)
ViTPose: Model estimasi pose manusia berbasis Vision Transformer: ViTPose adalah model baru yang memanfaatkan arsitektur Vision Transformer (ViT) untuk estimasi pose manusia. Artikel ini memperkenalkan model tersebut, membahas potensi penerapan ViT dalam tugas computer vision (seperti estimasi pose manusia di sini). Model semacam ini biasanya memanfaatkan mekanisme self-attention Transformer untuk menangkap dependensi jarak jauh antara berbagai bagian gambar, sehingga berpotensi meningkatkan akurasi dan robustisitas estimasi pose. (Sumber: Reddit r/deeplearning)

ViTPose: Model estimasi pose manusia berbasis Vision Transformer

ClaraVerse: Asisten AI local-first yang terintegrasi dengan n8n: ClaraVerse adalah asisten AI local-first yang berjalan berbasis Ollama, menekankan privasi dan kontrol lokal. Pembaruan terbaru mengintegrasikan platform otomatisasi n8n, memungkinkan pengguna membangun dan menjalankan alat serta alur kerja kustom (seperti pengecekan email, manajemen kalender, panggilan API, koneksi database, dll.) di dalam asisten, tanpa memerlukan layanan eksternal. Ini memungkinkan Clara memicu tugas otomatisasi lokal melalui perintah bahasa alami, bertujuan untuk menyediakan solusi AI dan otomatisasi lokal yang ramah pengguna dan rendah dependensi. (Sumber: Reddit r/LocalLLaMA)

ClaraVerse: Asisten AI local-first yang terintegrasi dengan n8n

Model CSM 1B TTS mencapai pemrosesan streaming real-time dan fine-tuning: Komunitas open-source mencapai kemajuan pada model text-to-speech (TTS) CSM 1B, mengimplementasikan pemrosesan streaming real-time dan mengembangkan kemampuan fine-tuning (termasuk LoRA dan fine-tuning penuh). Ini berarti model sekarang dapat menghasilkan ucapan lebih cepat dan dapat disesuaikan berdasarkan kebutuhan spesifik. Repositori kode menyediakan demo chat lokal, pengguna dapat mencoba dan membandingkan efeknya dengan model TTS lainnya. (Sumber: Reddit r/LocalLLaMA)

Model CSM 1B TTS mencapai pemrosesan streaming real-time dan fine-tuning

Deebo: Memanfaatkan MCP untuk debugging kolaboratif Agent AI: Deebo adalah server MCP (Machine Collaboration Protocol) Agent eksperimental, yang dirancang untuk memungkinkan Agent AI pengkodean mengalihdayakan tugas debugging kompleks kepadanya. Ketika Agent utama menghadapi kesulitan, ia dapat memulai sesi Deebo melalui MCP. Deebo akan menghasilkan beberapa sub-proses, menguji berbagai solusi perbaikan secara paralel di cabang Git yang berbeda, dan memanfaatkan LLM untuk penalaran. Akhirnya mengembalikan log, saran perbaikan, dan penjelasan. Metode ini memanfaatkan isolasi proses, menyederhanakan manajemen konkurensi, dan mengeksplorasi kemungkinan penyelesaian masalah secara kolaboratif antar Agent AI. (Sumber: Reddit r/OpenWebUI)

Deebo: Memanfaatkan MCP untuk debugging kolaboratif Agent AI

📚 Pembelajaran

CMU merilis benchmark VisualPuzzles, tantang kemampuan penalaran logis murni AI: Peneliti Carnegie Mellon University (CMU) menciptakan benchmark VisualPuzzles, berisi 1168 teka-teki logika visual yang diadaptasi dari ujian pegawai negeri dan sumber lainnya, bertujuan untuk memisahkan kemampuan penalaran multimodal dari ketergantungan pada pengetahuan domain. Pengujian menemukan bahwa bahkan model teratas seperti o1, Gemini 2.5 Pro, kinerjanya jauh di bawah manusia pada tugas penalaran logis murni ini (tingkat kebenaran tertinggi 57,5%, lebih rendah dari level 5% terbawah manusia). Penelitian menunjukkan bahwa peningkatan skala model atau pengaktifan mode “berpikir” tidak selalu meningkatkan kemampuan penalaran murni, dan teknik peningkatan penalaran yang ada memberikan hasil beragam. Ini mengungkapkan bahwa model besar saat ini masih memiliki kesenjangan signifikan dalam pemahaman spasial dan penalaran logis mendalam. (Sumber: 全球顶尖AI来考公,不会推理全翻车,致命缺陷曝光,被倒数5%人类碾压)

CMU merilis benchmark VisualPuzzles, tantang kemampuan penalaran logis murni AI

InternVL3: Mengeksplorasi teknik pelatihan dan pengujian tingkat lanjut untuk model multimodal open-source: Makalah “InternVL3: Exploring Advanced Training and Test-Time Recipes for Open-Source Multimodal Models” memperkenalkan model InternVL3, yang versi 78B-nya mencetak skor 72,2 pada benchmark MMMU, mencetak rekor baru untuk MLLM open-source. Teknik kunci meliputi pra-pelatihan multimodal native, Variable Visual Position Encoding (V2PE) yang mendukung konteks panjang, teknik pasca-pelatihan (post-training) tingkat lanjut (SFT, MPO), serta strategi penskalaan saat pengujian (meningkatkan penalaran matematika). Penelitian ini bertujuan untuk mengeksplorasi metode efektif untuk meningkatkan kinerja model multimodal open-source, dan telah membuka data pelatihan serta bobot model. (Sumber: Reddit r/deeplearning)

InternVL3: Mengeksplorasi teknik pelatihan dan pengujian tingkat lanjut untuk model multimodal open-source

Geobench: Benchmark untuk mengevaluasi kemampuan geolokasi gambar model besar: Geobench adalah situs web benchmark baru yang khusus dirancang untuk mengukur kemampuan Large Language Model (LLM) dalam menyimpulkan lokasi pengambilan gambar berdasarkan gambar seperti Google Street View, mirip dengan bermain game GeoGuessr. Ini mengevaluasi akurasi tebakan model, termasuk tingkat kebenaran negara/wilayah, jarak ke lokasi sebenarnya (rata-rata dan median), dan metrik lainnya. Hasil awal menunjukkan bahwa seri model Gemini Google menonjol dalam tugas ini, kemungkinan karena keunggulannya dalam mengakses data Google Street View. (Sumber: Reddit r/LocalLLaMA)
Membahas praktik standar pembagian dataset: Komunitas machine learning Reddit membahas cara menangani dataset (seperti train/val/test split) ketika tidak ada pembagian standar. Praktik umum meliputi menghasilkan pembagian acak (tetapi dapat mempengaruhi reproduktifitas), menyimpan dan membagikan indeks/file spesifik, menggunakan validasi silang k-fold (k-fold cross-validation). Diskusi menekankan bahwa untuk dataset kecil, cara pembagian memiliki dampak signifikan pada evaluasi kinerja dan klaim SOTA (State-of-the-Art), menyerukan standardisasi atau pembagian informasi pembagian yang lebih luas untuk meningkatkan reproduktifitas dan komparabilitas penelitian. Tantangan dalam praktik meliputi kurangnya platform terpadu dan norma spesifik domain. (Sumber: Reddit r/MachineLearningReddit r/MachineLearning)
Mencari saran tentang embedding kalimat untuk klasifikasi postingan Stack Overflow: Seorang pengguna di Reddit mencari saran tentang penggunaan embedding kalimat (seperti BERT, SBERT) untuk klasifikasi tanpa pengawasan pada postingan Stack Overflow (termasuk judul, deskripsi, tag, jawaban). Tujuannya adalah mencapai klasifikasi tingkat kalimat, melampaui label embedding kata sederhana (seperti “instalasi paket”), mengeksplorasi pengelompokan topik atau jenis pertanyaan yang lebih dalam. Komentar menyarankan untuk memulai dengan pustaka Sentence Transformers, yang dapat menghasilkan embedding tunggal untuk paragraf teks, kemudian menerapkan algoritma clustering. (Sumber: Reddit r/MachineLearning)
Saran tentang jalur belajar AI dan pilihan karir: Seorang siswa SMA di Reddit berkonsultasi tentang pilihan jurusan universitas untuk memasuki bidang rekayasa machine learning (UCSD CS vs Cal Poly SLO CS) dan apakah perlu melanjutkan studi pascasarjana. Komentar menyarankan memilih UCSD yang memiliki kekuatan riset lebih kuat, dan mempertimbangkan studi pascasarjana, karena rekayasa ML biasanya membutuhkan gelar pendidikan lebih tinggi. Sementara itu, ada yang menunjukkan bahwa keterampilan praktis juga penting, dan matematika serta statistika adalah fondasi kunci. Di postingan lain, seseorang bertanya tentang jurusan untuk memanfaatkan atau mengembangkan AI, komentar menyebutkan Ilmu Komputer (CS) yang biasanya membutuhkan gelar Magister/Doktor, serta matematika/statistika, bahkan ada yang menyarankan mempelajari keterampilan praktis seperti industri kejuruan (tukang ledeng/listrik) untuk menghindari risiko penggantian oleh AI. (Sumber: Reddit r/MachineLearningReddit r/ArtificialInteligence)

💼 Bisnis

Eksplorasi komersialisasi AI medis: Pertarungan strategi perusahaan teknologi besar dan kebutuhan rumah sakit: Seiring rumah sakit mulai mengalokasikan anggaran untuk model besar (seperti Rumah Sakit Instansi Provinsi Jiangsu yang membeli platform berbasis DeepSeek senilai 4,5 juta yuan), komersialisasi AI di bidang medis semakin cepat. Perusahaan teknologi besar seperti Huawei, Alibaba, Baidu, Tencent semuanya memasuki pasar, biasanya menyediakan daya komputasi, layanan cloud, dan model dasar, bekerja sama dengan perusahaan vertikal layanan kesehatan. Namun, model bisnis inti masih belum jelas, perusahaan teknologi besar saat ini lebih fokus pada penjualan perangkat keras dan layanan cloud daripada mendalami langsung aplikasi AI medis. Di sisi rumah sakit, seperti Rumah Sakit 3201 Hanzhong di Shaanxi, dengan anggaran terbatas, mereka mencoba menggunakan model open-source (seperti versi spesifikasi rendah DeepSeek), menunjukkan pertimbangan efektivitas biaya. Mendapatkan data medis berkualitas tinggi dan melatih model khusus masih menjadi tantangan utama, membutuhkan penanganan “pekerjaan manual” seperti anotasi data. (Sumber: AI看病这件事,华为、百度、阿里谁先挣到钱?科技大厂掀起医疗界的AI革命,谁更有胜算?)

Eksplorasi komersialisasi AI medis: Pertarungan strategi perusahaan teknologi besar dan kebutuhan rumah sakit

Keandalan alat rekomendasi AI seperti DeepSeek dipertanyakan, optimasi pemasaran AI menjadi medan perang baru: Alat AI seperti DeepSeek semakin banyak digunakan oleh pengguna untuk mendapatkan rekomendasi (seperti restoran, produk), dan bisnis juga mulai menggunakan “Rekomendasi DeepSeek” sebagai label pemasaran. Namun, keandalan rekomendasi ini menimbulkan kekhawatiran. Di satu sisi, AI dapat menghasilkan “halusinasi”, mengarang toko yang tidak ada atau merekomendasikan produk usang. Di sisi lain, jawaban AI mungkin dipengaruhi oleh kepentingan komersial, berisiko adanya iklan tersisip atau “tercemar” oleh strategi SEO/GEO (Generative Engine Optimization). Bisnis mencoba mengoptimalkan konten dan kata kunci untuk mempengaruhi korpus dan hasil pencarian AI, guna meningkatkan eksposur merek mereka. Hal ini menantang objektivitas rekomendasi AI, dan konsumen perlu waspada terhadap potensi informasi yang menyesatkan. (Sumber: 第一批用DeepSeek推荐的人,已上当)

Keandalan alat rekomendasi AI seperti DeepSeek dipertanyakan, optimasi pemasaran AI menjadi medan perang baru

Zhipu AI menerima investasi tambahan 200 juta yuan dari Dana Investasi Industri Kecerdasan Buatan Kota Beijing: Setelah mengumumkan perilisan beberapa model open-source baru dan mendirikan dana open-source 300 juta yuan, Zhipu AI (Z.ai) menerima investasi tambahan 200 juta yuan dari Dana Investasi Industri Kecerdasan Buatan Kota Beijing. Dana ini sudah berinvestasi di Zhipu tahun lalu. Penambahan modal ini bertujuan untuk mendukung R&D model open-source Zhipu dan pembangunan ekosistem komunitas open-source, serta mencerminkan tekad Beijing dalam mendorong pengembangan industri AI dan membangun “Ibukota Open Source Global”. (Sumber: 智谱获2亿元新融资,连发3款开源模型,拿3亿元支持全球开源社区)
CEO Intel Patrick Gelsinger (陈立武 – ini nama Tionghoa untuk Patrick Gelsinger) mendorong reformasi, menunjuk CTO baru sekaligus Chief AI Officer: CEO baru Patrick Gelsinger melakukan penyesuaian struktur organisasi Intel, bertujuan untuk merampingkan jenjang manajemen dan memperkuat orientasi teknologi. Divisi chip kunci (Pusat Data dan AI, chip PC) akan melapor langsung ke CEO. Kepala chip jaringan Sachin Katti ditunjuk sebagai Chief Technology Officer (CTO) baru sekaligus Chief AI Officer, bertanggung jawab memimpin strategi AI, peta jalan produk, dan Intel Labs, untuk menanggapi tantangan NVIDIA di bidang AI. Langkah ini dipandang sebagai bagian dari rencana Gelsinger untuk merevitalisasi Intel, bertujuan untuk mengatasi kesulitan manufaktur dan produk, mendobrak sekat internal, dan fokus pada rekayasa serta inovasi. (Sumber: 陈立武挥刀高层,英特尔重生计划曝光,技术团队直通华人CEO)

CEO Intel Patrick Gelsinger mendorong reformasi, menunjuk CTO baru sekaligus Chief AI Officer

Meta dilaporkan mencari cara berbagi biaya pelatihan Llama, menyoroti tekanan investasi AI: Menurut laporan, Meta telah menghubungi Microsoft, Amazon, Databricks, serta lembaga investasi lainnya, mengusulkan pembagian bersama biaya pelatihan model open-source Llama (“Aliansi Llama”), sebagai ganti sebagian hak suara dalam pengembangan fitur, tetapi respons awal kurang antusias. Alasannya mungkin termasuk keengganan mitra untuk berinvestasi pada model gratis, keengganan Meta untuk menyerahkan terlalu banyak kontrol, dan fakta bahwa mitra potensial sudah memiliki investasi AI yang signifikan sendiri. Hal ini menyoroti bahwa bahkan raksasa seperti Meta menghadapi tekanan lonjakan biaya pengembangan AI, terutama dengan belanja modal yang besar (diperkirakan meningkat 60% per tahun menjadi $60-65 miliar) dan jalur komersialisasi model open-source yang tidak jelas. (Sumber: Llama开源太贵了,Meta被曝向亚马逊、微软“化缘”)

Meta dilaporkan mencari cara berbagi biaya pelatihan Llama, menyoroti tekanan investasi AI

CEO NVIDIA Jensen Huang mengunjungi Tiongkok, kemungkinan membahas kerja sama dengan DeepSeek dkk. untuk hadapi pembatasan perdagangan: CEO NVIDIA Jensen Huang baru-baru ini mengunjungi Tiongkok atas undangan Dewan Tiongkok untuk Promosi Perdagangan Internasional (CCPIT), dan bertemu dengan klien termasuk pendiri DeepSeek Liang Wenfeng. Kunjungan ini memiliki latar belakang kompleks, termasuk pengetatan pembatasan pemerintah AS terhadap ekspor chip NVIDIA ke Tiongkok seperti H20, serta kebangkitan chip AI lokal Tiongkok (seperti Huawei Ascend) dan optimasi model seperti DeepSeek yang mengurangi ketergantungan mutlak pada GPU kelas atas NVIDIA. Analis berpendapat bahwa Huang mungkin bertujuan untuk membahas dengan mitra Tiongkok (seperti DeepSeek) perancangan bersama chip AI yang mematuhi pembatasan ekspor AS sekaligus menghindari tarif impor Tiongkok yang tinggi, melalui kerja sama mendalam untuk mempertahankan pangsa pasar dan pengaruh industri di Tiongkok. (Sumber: 英伟达CEO黄仁勋突然访华,都不穿皮衣了,还见了梁文锋)

CEO NVIDIA Jensen Huang mengunjungi Tiongkok, kemungkinan membahas kerja sama dengan DeepSeek dkk. untuk hadapi pembatasan perdagangan

🌟 Komunitas

Tren pembuatan boneka AI melanda media sosial, menimbulkan kekhawatiran hak cipta dan etika: Gelombang penggunaan alat AI seperti ChatGPT untuk mengubah foto pribadi menjadi gambar boneka (mirip gaya boneka Barbie, lengkap dengan kotak kemasan dan aksesori personal) menjadi populer di platform seperti LinkedIn dan TikTok. Pengguna dapat menghasilkan gambar ini dengan mengunggah foto dan memberikan deskripsi detail. Meskipun sangat menghibur, hal ini juga menimbulkan kekhawatiran tentang hak cipta dan etika: pembuatan AI mungkin secara tidak sengaja menggunakan gaya seni atau elemen merek yang dilindungi hak cipta; sementara itu, konsumsi energi yang besar yang diperlukan untuk melatih dan menjalankan model AI ini juga menjadi sorotan. Beberapa komentar menunjukkan perlunya menetapkan batasan dan norma yang jelas saat menggunakan AI. (Sumber: 芭比风AI玩偶席卷全网:ChatGPT几分钟打造你的时尚分身)

Tren pembuatan boneka AI melanda media sosial, menimbulkan kekhawatiran hak cipta dan etika

Tencent Yuanbao (sebelumnya Asisten Sampul Amplop Merah) terintegrasi mendalam ke WeChat menarik perhatian: Mencari “Yuanbao” di dalam WeChat dapat langsung memanggil fungsi AI, yang sebenarnya merupakan versi upgrade dari “Asisten Sampul Amplop Merah Yuanbao” sebelumnya. Pengalaman pengguna menunjukkan kemampuannya sedikit meningkat, seperti dapat menghasilkan gambar yang lebih akurat sesuai permintaan, dan mengoptimalkan adaptasi native, mampu menghasilkan kartu jawaban. Artikel membahas kemungkinan langkah besar AI Tencent mendarat di skenario WeChat, terutama potensi memanfaatkan pintu masuk yang ada seperti Asisten Transfer File, berpendapat bahwa keunggulan skenario adalah kunci implementasi AI Tencent. Disebutkan juga pembaruan terbaru Akun Resmi WeChat, menambahkan pintu masuk penerbitan seluler, yang mungkin mendorong pembuatan konten pendek, tetapi dapat mempengaruhi ekosistem konten panjang. (Sumber: 鹅厂的 AI 大招,真的落在微信上)

Tencent Yuanbao (sebelumnya Asisten Sampul Amplop Merah) terintegrasi mendalam ke WeChat menarik perhatian

LMArena meluncurkan situs pengujian Beta: Arena kompetisi model besar LMArena meluncurkan situs web pengujian Beta baru (beta.lmarena.ai), digunakan untuk menguji berbagai model besar termasuk yang belum dirilis. Ini memberikan komunitas platform baru yang independen dari antarmuka Hugging Face Gradio untuk mengevaluasi dan membandingkan kinerja model. (Sumber: karminski3)

LMArena meluncurkan situs pengujian Beta

Instans Ollama yang terekspos ke publik menimbulkan kekhawatiran keamanan: Seorang pengguna menemukan situs web bernama freeollama.com, dan melalui pencarian dunia maya menemukan banyak host yang mengekspos port Ollama (alat deployment model besar lokal, biasanya port 11434) ke IP publik tanpa konfigurasi firewall. Ini menimbulkan risiko keamanan serius, berpotensi menyebabkan akses tidak sah dan penyalahgunaan model yang di-deploy secara lokal. Pengguna diingatkan untuk memperhatikan konfigurasi keamanan jaringan saat melakukan deployment, hindari mengekspos layanan tanpa perlindungan ke internet publik. (Sumber: karminski3)

Instans Ollama yang terekspos ke publik menimbulkan kekhawatiran keamanan

Penggunaan ChatGPT untuk bantuan psikologis memicu diskusi dan peringatan: Pengguna Reddit berbagi pengalaman menggunakan ChatGPT untuk membantu menangani masalah seperti depresi dan kecemasan, menemukan bahwa sarannya mungkin kurang konsisten, lebih seperti memvalidasi pandangan pengguna yang sudah ada daripada memberikan panduan yang andal. Ketika dibantah dengan logikanya sendiri dalam obrolan yang berbeda, ChatGPT akan mengakui kesalahan. Pengguna memperingatkan bahwa AI mungkin hanya “penyenang digital”, tidak boleh digunakan untuk bantuan psikoterapi serius. Bagian komentar membahas cara menggunakan AI secara lebih efektif (misalnya, memintanya memainkan peran kritis, memberikan berbagai perspektif) serta keterbatasan AI yang tidak dapat menggantikan profesional manusia untuk intervensi krisis. (Sumber: Reddit r/ChatGPT)
Tiga Hukum Teknologi Douglas Adams menimbulkan resonansi: Pengguna mengutip Tiga Hukum Teknologi dari penulis fiksi ilmiah Douglas Adams, yang secara humoris menggambarkan reaksi umum orang dari kelompok usia berbeda terhadap teknologi baru: teknologi yang sudah ada saat lahir dianggap normal, teknologi yang muncul saat muda dianggap revolusioner, teknologi yang muncul saat tua dianggap bid’ah/tidak wajar. Komentar ini mendapat sambutan di tengah perkembangan pesat AI saat ini, menyiratkan bahwa tingkat penerimaan orang terhadap teknologi disruptif seperti AI mungkin terkait dengan tahap kehidupan mereka. (Sumber: dotey)
Pengalaman pengguna: ChatGPT menjadi “terlalu nyata” atau “ala Gen Z”: Postingan Reddit menunjukkan tangkapan layar percakapan ChatGPT, yang gaya balasannya digambarkan oleh pengguna sebagai “terlalu nyata” atau mengandung bahasa gaul dan meme internet “Gen Z” (seperti “Let me cook”). Reaksi di bagian komentar beragam, ada yang menganggapnya menarik, ada yang menganggap gaya ini “tidak nyaman” atau “menjadi bodoh”. Ini mencerminkan perbedaan persepsi pengguna terhadap personalisasi dan gaya bahasa AI, serta potensi masalah pengalaman pengguna yang ditimbulkan oleh model dalam meniru tren bahasa internet. (Sumber: Reddit r/ChatGPT)

Pengalaman pengguna: ChatGPT menjadi "terlalu nyata" atau "ala Gen Z"

AI menghasilkan potret kehidupan masa depan memicu diskusi kreatif: Pengguna berbagi serangkaian gambar gaya “Snapchat kehidupan masa depan” yang dihasilkan menggunakan ChatGPT, menggambarkan skenario seperti pelayan robot, hewan peliharaan AI, transportasi masa depan, dll. Gambar-gambar kreatif ini memicu diskusi komunitas tentang kemampuan pembuatan gambar AI dan imajinasi kehidupan masa depan, memuji kreativitas dan realisme yang semakin meningkat. (Sumber: Reddit r/ChatGPT)
Pengguna berbagi penggunaan ChatGPT untuk mengubah sketsa tangan menjadi gambar realistis: Seorang seniman pengguna menunjukkan proses dan hasil penggunaan ChatGPT untuk mengubah sketsa tangan gaya surealis miliknya menjadi gambar realistis. Komunitas menyatakan apresiasi, menganggap ini sebagai cara eksperimen artistik yang menarik, yang dapat membantu seniman mengeksplorasi ide dan gaya berbeda, bukan sekadar mengejar gambar yang “lebih baik”. (Sumber: Reddit r/ChatGPT)

💡 Lain-lain

Merefleksikan pembangunan sistem AI: “Pelajaran Pahit” dan prioritas daya komputasi: Artikel mengutip teori “Pelajaran Pahit” (“The Bitter Lesson”) Richard Sutton, menunjukkan bahwa dalam pengembangan AI, sistem yang bergantung pada penskalaan komputasi umum (didorong oleh daya komputasi) pada akhirnya akan mengungguli sistem yang bergantung pada aturan kompleks yang dirancang dengan cermat oleh manusia. Melalui perbandingan kasus AI layanan pelanggan (sistem berbasis aturan vs AI daya komputasi terbatas vs AI eksploratif daya komputasi besar) dan keberhasilan Reinforcement Learning (RL) (seperti riset mendalam OpenAI, Claude), ditekankan bahwa perusahaan harus berinvestasi dalam infrastruktur komputasi daripada mengoptimalkan algoritma secara berlebihan, peran insinyur harus berubah menjadi “pembangun lintasan” yang membangun lingkungan belajar yang skalabel. Inti pandangannya adalah: arsitektur sederhana + daya komputasi skala besar + pembelajaran eksploratif > desain kompleks + aturan tetap. (Sumber: 苦涩的启示:对AI系统构建方式的反思)
Membahas hubungan antara bidang AI dan komunitas Rasionalisme/Altruisme Efektif: Seorang praktisi machine learning mengamati bahwa bidang penelitian AI tampaknya memiliki dua sub-komunitas yang kurang berinteraksi, salah satunya terkait erat dengan komunitas Rasionalisme (Rationalism) dan Altruisme Efektif (Effective Altruism, EA), sering menerbitkan penelitian tentang prediksi AGI, masalah penyelarasan (alignment), dan terkait erat dengan beberapa perusahaan besar Bay Area. Penulis menunjukkan bahwa komunitas ini terkadang dalam membahas konsep ilmu kognitif (seperti kesadaran situasional), tampaknya mendefinisikan ulang secara independen dari sistem akademik yang ada, misalnya definisi Anthropic tentang “kesadaran situasional” berfokus pada kesadaran model tentang proses pengembangannya, bukan definisi ilmu kognitif tradisional yang berbasis pada model sensorik dan lingkungan. (Sumber: Reddit r/ArtificialInteligence)
Pengguna menemukan chatbot AI secara tak terduga menggunakan nama panggilannya di platform lain: Seorang pengguna saat mencoba platform chatbot AI baru, tidak memberikan informasi pribadi apa pun, tetapi robot dalam pesan kedua secara akurat memanggil nama panggilan yang sering digunakan pengguna tersebut di platform lain. Hal ini menimbulkan kekhawatiran pengguna tentang privasi data dan pelacakan informasi antar platform, mengeluh bahwa dirinya mungkin telah “dilacak” atau “diprofilkan”. (Sumber: Reddit r/ArtificialInteligence)
Ide baru evaluasi model AI: Menilai kecerdasan melalui presentasi lisan 3 menit: Mengusulkan cara baru evaluasi kecerdasan AI: meminta model AI teratas (seperti o3 vs Gemini 2.5 Pro) untuk memberikan presentasi lisan selama 3 menit tentang topik tertentu (politik, ekonomi, filsafat, dll.), yang dinilai tingkat kecerdasannya oleh audiens manusia. Berpendapat bahwa cara ini lebih intuitif daripada bergantung pada benchmark khusus, dapat lebih baik menilai kinerja organisasi, retorika, emosional, dan intelektual model, terutama pada tugas yang membutuhkan persuasi. Bentuk “debat AI” atau “kompetisi pidato” ini mungkin menjadi dimensi baru untuk mengevaluasi kemampuan model yang mendekati AGI. (Sumber: Reddit r/ArtificialInteligence)