كلمات مفتاحية:الأمن الذكاء الاصطناعي, مراقبة سلسلة التفكير, OpenCodeReasoning-II, مشفر تلقائي VLV, نماذج LLM الصغيرة, نظارات الذكاء الاصطناعي, روبوت رفيق بالذكاء الاصطناعي, تقنية مراقبة سلسلة التفكير, مجموعة بيانات استدلال الكود, إطار Vision-Language-Vision, ثغرات نموذج استدلال LLM, تدريب نماذج LLM على دفعات صغيرة
🔥 تركيز
عراب الذكاء الاصطناعي ينضم إلى OpenAI وDeepMind وAnthropic: تحذير من CoT: نشرت OpenAI وGoogle DeepMind وAnthropic، بالإضافة إلى العديد من باحثي الذكاء الاصطناعي، بمن فيهم Yoshua Bengio، وثيقة موقف تدعو إلى تعزيز البحث في تقنيات مراقبة CoT (سلسلة الأفكار). تسمح مراقبة CoT بمراقبة عملية التفكير في نماذج الذكاء الاصطناعي، وبالتالي الكشف المبكر عن النوايا السيئة. ومع ذلك، فإن قابلية مراقبة CoT ليست ثابتة، وقد تتأثر بطرق التدريب وهندسة النموذج وعوامل أخرى. يقترح الباحثون تطوير خطط تقييم جديدة لاستكشاف كيفية الحفاظ على شفافية CoT وتطبيقها كتدابير أمنية للتحكم في وكلاء الذكاء الاصطناعي. (المصدر: 36氪)
إصدار مجموعة بيانات OpenCodeReasoning-II: تم إصدار مجموعة بيانات OpenCodeReasoning-II، التي تحتوي على 2.5 مليون من ثلاثية المشكلة-الحل-التعليق، وهو ما يقرب من ضعف حجم أكبر مجموعة بيانات عامة للتفكير البرمجي. تعتمد مجموعة البيانات هذه استراتيجية الضبط الدقيق الخاضعة للإشراف على مرحلتين، يتم تدريبها على توليد التعليمات البرمجية وتعليقات التعليمات البرمجية على التوالي. حقق النموذج القائم على الضبط الدقيق لـ Qwen2.5-Instruct نتائج ملحوظة في توليد التعليمات البرمجية، وعزز أداء الترميز التنافسي. بالإضافة إلى ذلك، تم توسيع دعم LiveCodeBench أيضًا للغة C++. (المصدر: HuggingFace Daily Papers)
اقتراح إطار عمل Vision-Language-Vision Auto-Encoder: تم اقتراح إطار عمل Vision-Language-Vision (VLV) Auto-Encoder، والذي يستخدم مشفرًا بصريًا مُدرَّبًا مسبقًا، وجهاز فك ترميز نموذج الانتشار من النص إلى الصورة، ونموذج لغة كبير (LLM)، عن طريق تجميد جهاز فك ترميز الانتشار T2I المُدرَّب مسبقًا لتنظيم مساحة التمثيل اللغوي، وبالتالي استخراج المعرفة من نموذج الانتشار الشرطي للنص. لا تتطلب هذه الطريقة مجموعات بيانات نصية للصور مقترنة بكميات كبيرة، وتقل تكلفة التدريب عن 1000 دولار أمريكي، وقد أنشأت مُولِّد تعليق على الصور SoTA يُضاهي النماذج الرائدة مثل GPT-4o وGemini 2.0 Flash. (المصدر: HuggingFace Daily Papers)
🎯 اتجاهات
قد تتخلى Meta عن المصادر المفتوحة وتتجه نحو النماذج المغلقة المصدر: تناقش Meta داخليًا ما إذا كانت ستتخلى عن نموذج المصادر المفتوحة Behemoth، وتتجه نحو تطوير نماذج مغلقة المصدر. قد تكون هذه الخطوة مرتبطة بأداء Behemoth الضعيف في الاختبارات الداخلية. يعكس هذا النقاش تذبذب Meta الاستراتيجي بين مساري المصادر المفتوحة والمغلقة المصدر. (المصدر: 量子位)
ظهور نماذج LLM الصغيرة والتدريب المخصص: أظهرت نماذج LLM الصغيرة (مثل smollm3 وolmo2) أداءً ممتازًا في مهام محددة وسير عمل إخراج منظم، مما ينذر بظهور النماذج الصغيرة والتدريب المخصص. (المصدر: Reddit r/LocalLLaMA)
اشتداد المنافسة في سوق نظارات الذكاء الاصطناعي: بعد إصدار نظارات الذكاء الاصطناعي من Xiaomi، كان رد فعل السوق حماسيًا، ولكنها تواجه أيضًا تحديات تتعلق براحة الارتداء وجودة التصوير وعمر البطارية. مع انضمام المزيد من الشركات المصنعة، تشتد المنافسة في سوق نظارات الذكاء الاصطناعي، وتزداد تجانس المنتجات، وستكون هناك حاجة إلى دورة أطول لضبط المنتج وبناء النظام البيئي لاختراق السوق حقًا. (المصدر: 36氪)
برودة سوق روبوتات المُصاحبة بالذكاء الاصطناعي: حظيت روبوتات المُصاحبة بالذكاء الاصطناعي باهتمام كبير في معرض CES 2025، لكن رد فعل السوق فاتر حاليًا. التكلفة العالية، وصعوبة توسيع نطاق “القيمة العاطفية”، ونقص القدرة على الخدمة طويلة الأجل هي العقبات الرئيسية. في المستقبل، ستحتاج روبوتات المُصاحبة إلى التحول من الاستجابة السلبية إلى الإدراك الاستباقي لمشاعر المستخدم، وتقديم خدمات مُصاحبة أكثر تخصيصًا. (المصدر: 36氪)
وجود ثغرات أمنية في نماذج استنتاج LLM: وجدت دراسة أن النقطتين أو غيرها من الرموز يمكن أن تخدع نماذج استنتاج LLM، مما يؤدي إلى نتائج إيجابية خاطئة. يكشف هذا عن ثغرة في الآلية الأساسية لنماذج تقييم LLM، أي أنها عرضة للتلاعب بالمحتوى السطحي. اقترح الباحثون نموذجًا مُحسَّنًا يُسمى Master-RM، والذي يمكنه تقليل معدل الإيجابيات الخاطئة بشكل فعال، والحفاظ على اتساق تقييم عالي مع GPT-4o. (المصدر: 量子位)
أداء ممتاز لنماذج LLM المُدرَّبة على دفعات صغيرة: أظهرت دراسة أن استخدام دفعات صغيرة لتدريب LLM، حتى مع حجم دفعة يساوي 1، وضبط إعدادات مُحسِّن Adam، يمكن أن يحقق أداءً أفضل من الدفعات الكبيرة. الدفعات الصغيرة أكثر تسامحًا مع اختيار المعلمات الفائقة، وفي حالة محدودية الذاكرة، يمكن أن تحل محل LoRA، وتُستخدم مع مُحسِّنات فعالة من حيث الذاكرة مثل Adafactor. (المصدر: TheTuringPost)
🧰 أدوات
amazon-q-developer-cli: أصدرت Amazon أداة Amazon Q CLI، وهي أداة توفر تجربة دردشة بالوكيل في الجهاز، مما يسمح للمستخدمين ببناء التطبيقات باستخدام اللغة الطبيعية. تدعم أنظمة macOS وLinux، وتوفر وثائق مساهمة غنية ووصفًا لتخطيط المشروع. (المصدر: GitHub Trending)
DocsGPT: DocsGPT هو مساعد RAG مفتوح المصدر يدعم تنسيقات مستندات متعددة، ويمكنه الحصول على إجابات موثوقة من مصادر معرفية مختلفة، وتجنب الهلوسة. يوفر استرجاع معلومات خاصًا وموثوقًا به، وله وظائف مدمجة للأدوات ونظام الوكيل. (المصدر: GitHub Trending)
localGPT: يسمح localGPT للمستخدمين بالدردشة مع المستندات باستخدام نماذج GPT على أجهزتهم المحلية، ولن تغادر البيانات الجهاز، مما يضمن الخصوصية بنسبة 100%. يدعم نماذج وتضمينات مفتوحة المصدر متعددة، ويوفر واجهة برمجة تطبيقات وواجهة رسومية. (المصدر: GitHub Trending)
📚 تعلم
دورة جديدة على Coursera: Retrieval Augmented Generation (RAG): أعلن Andrew Ng عن إطلاق دورة RAG جديدة على Coursera، تم إنشاؤها بواسطة DeepLearning.AI، ويُدرِّسها Zain Hasan. ستغطي هذه الدورة تصميم ونشر أنظمة RAG بتعمق، بما في ذلك المسترجع وقواعد بيانات المتجهات والتوليد والتقييم، وستجمع بين حالات الاستخدام العملية في مجالات مثل الرعاية الصحية والإعلام والتجارة الإلكترونية. (المصدر: AndrewYNg, DeepLearningAI)
دورة ستانفورد CS224N: دورة ستانفورد للتعلم العميق في معالجة اللغات الطبيعية CS224N جارية. (المصدر: stanfordnlp)
8 أوراق بحثية عن الذكاء الاصطناعي يجب قراءتها في عام 2025: أوصى TuringPost بـ 8 أوراق بحثية عن الذكاء الاصطناعي يجب قراءتها في عام 2025، تغطي مواضيع مثل تغيير حجم وقت الاستنتاج، وآلات التفكير المستمر، وسلاسل التفكير القابلة للتطوير. (المصدر: TheTuringPost)
أصدرت Nous مجموعة بيانات Hermes 3: أصدرت Nous Research مجموعة بيانات Hermes 3، التي تحتوي على مليون عينة، تغطي بيانات SOTA غير الخاضعة للرقابة، ولعب الأدوار، والمهام الذاتية/الموضوعية، واستخدام الأدوات الغني، والإخراج المنظم، وهي مفيدة جدًا لتعلم نماذج الذكاء الاصطناعي وتحليلها وبنائها. (المصدر: Teknium1, ImazAngel, eliebakouch)
💼 أعمال
حصلت Thinking Machines Lab على تمويل بقيمة 2 مليار دولار: حصلت شركة Thinking Machines Lab الجديدة، التي أسستها Mira Murati، المديرة التنفيذية السابقة للتكنولوجيا في OpenAI، على تمويل بقيمة 2 مليار دولار بقيادة a16z، بهدف بناء ذكاء اصطناعي متعدد الوسائط يمكنه التكيف مع الطريقة التي يتفاعل بها البشر مع العالم بشكل طبيعي. (المصدر: op7418, rown, TheRundownAI)
أكملت Zhongke Chuangxing الجولة الأولى بقيمة 2.617 مليار يوان: أكمل صندوق Zhongke Chuangxing Pioneer Venture Capital الجولة الأولى من جمع الأموال بقيمة 2.617 مليار يوان، وسيتم استثمار 70% من الأموال في مشاريع التكنولوجيا المتقدمة المبكرة، مع التركيز بشكل خاص على مجال “الذكاء الاصطناعي +”. (المصدر: 36氪)
🌟 مجتمع
مناقشة حول أمان وأخلاقيات الذكاء الاصطناعي: استمرت المناقشة حول أمان وأخلاقيات الذكاء الاصطناعي في وسائل التواصل الاجتماعي، حيث أعرب الناس عن مخاوفهم بشأن المخاطر المحتملة لنماذج الذكاء الاصطناعي، وخصوصية البيانات، وكيفية تطوير واستخدام الذكاء الاصطناعي بشكل مسؤول. (المصدر: sleepinyourhat, zacharynado, brickroad7, Reddit r/ArtificialInteligence)
عوامل نجاح مشاريع LLM الكبيرة: فيما يتعلق بعوامل نجاح مشاريع LLM الكبيرة، يعتقد الناس أن العوامل التنظيمية أكثر أهمية من عوامل المواهب، مثل تخصيص موارد الحوسبة، وبيئة البحث والتطوير الجيدة، والإدارة الفعالة للفرق الكبيرة. (المصدر: jiayi_pirate, jeremyphoward)
تجربة استخدام أدوات الذكاء الاصطناعي: شارك المستخدمون تجاربهم في استخدام أدوات الذكاء الاصطناعي المختلفة، بما في ذلك Claude Code وGrok وGemini، وناقشوا كيفية تحسين سير العمل وزيادة الكفاءة وحل المشكلات التي واجهوها. (المصدر: Reddit r/ClaudeAI, nptacek, TheZachMueller)
مناقشة حول التطورات المستقبلية للذكاء الاصطناعي: أجرى الناس مناقشات نشطة حول التطورات المستقبلية للذكاء الاصطناعي، بما في ذلك هندسة النماذج الجديدة، وطرق التدريب، وسيناريوهات التطبيقات، وأعربوا عن حماسهم وتوقعاتهم للتطور السريع لتقنية الذكاء الاصطناعي. (المصدر: denny_zhou, teortaxesTex, lcastricato)
مخاوف بشأن أخلاقيات الذكاء الاصطناعي: أعرب الناس عن مخاوفهم بشأن القضايا الأخلاقية للذكاء الاصطناعي، مثل المعلومات الخاطئة التي ينشئها الذكاء الاصطناعي، والتحيز في نماذج الذكاء الاصطناعي، وتأثير تقنية الذكاء الاصطناعي على المجتمع والبشرية. (المصدر: zacharynado, Reddit r/ArtificialInteligence)
💡 أخرى
نظام تذوق الذكاء الاصطناعي: طور العلماء نظام تذوق اصطناعي قائم على الجرافين يمكنه إدراك النكهات مثل الحامض والحلو والمر والمالح، بدقة تصل إلى 90%، ويمكنه حتى التمييز بين الكولا والقهوة. (المصدر: 量子位)
تعيين Meta على نطاق واسع لمواهب الذكاء الاصطناعي: تقوم Meta بتعيين مواهب الذكاء الاصطناعي بنشاط، وتخطط لاستثمار مئات المليارات من الدولارات لبناء مجموعة GW لدعم تدريب وبحوث نماذج الذكاء الاصطناعي. (المصدر: 量子位)
تطبيقات الذكاء الاصطناعي في صناعة الألعاب: تعيد تقنية الذكاء الاصطناعي تشكيل مستقبل صناعة الألعاب، حيث يتبنى 79% من المطورين الذكاء الاصطناعي، ويحدثون ثورة في جميع جوانب إنشاء الألعاب. (المصدر: 量子位)