كلمات مفتاحية:تحسين الذكاء الاصطناعي, نواة CUDA, استدلال النماذج الكبيرة, الرياضيات الشكلية, توليد الأكواد, نواة CUDA المولدة بالذكاء الاصطناعي من ستانفورد, طريقة S-GRPO من هواوي, مكتبة حدسيات الرياضيات من DeepMind, بيئة التطوير المتكاملة للذكاء الاصطناعي تونجي لينجما, تقييم تحرير الصور RISEBench

🔥 تركيز

جامعة ستانفورد تكتشف بالصدفة قدرة الذكاء الاصطناعي على توليد أنوية CUDA تتفوق على الخبراء البشريين: اكتشف فريق بحثي من جامعة ستانفورد، أثناء محاولته إنشاء بيانات اصطناعية لنماذج توليد الأنوية، بشكل غير متوقع أن الذكاء الاصطناعي (OpenAI o3 و Gemini 2.5 Pro) قادر على توليد أنوية CUDA بأداء أفضل من تلك التي يحسنها الخبراء البشريون يدويًا. هذه الأنوية المولدة بواسطة الذكاء الاصطناعي، في عمليات التعلم العميق الشائعة مثل ضرب المصفوفات، والالتفاف ثنائي الأبعاد، و Softmax، وتطبيع الطبقات، تفوقت بشكل كبير على PyTorch الأصلي، مع تحسين الأداء بما يقرب من 4 أضعاف في بعض العمليات. تعتمد هذه الطريقة على جعل الذكاء الاصطناعي يولد أفكار التحسين أولاً باللغة الطبيعية، ثم يحولها إلى كود، ويستخدم نمط استكشاف متعدد الفروع، مما يعزز تنوع أفكار التحسين ويتجنب الوقوع في الحلول المثلى المحلية. يُظهر هذا الإنجاز الإمكانات الهائلة للذكاء الاصطناعي في مجال تحسين الكود على المستوى المنخفض (المصدر: 量子位)

جامعة ستانفورد تكتشف بالصدفة استخدام الذكاء الاصطناعي لتوليد أنوية CUDA فائقة القوة، بأداء أفضل حتى من تحسين الخبراء البشريين! تتفوق على PyTorch الأصلي بأضعاف، والمساهم الرئيسي صيني

DeepMind تفتح مصدر مكتبة التخمينات الرياضية الرسمية، و Tao Zhe Xuan يدعم ذلك: أعلنت DeepMind عن مشروع مفتوح المصدر يسمى “مكتبة التخمينات الرياضية الرسمية”، يهدف إلى جمع وتنظيم التخمينات الرياضية المعبر عنها بلغة Lean الرسمية، مثل مسائل Landau. لا توفر هذه المكتبة فقط معيارًا قيمًا للاختبار وبيانات تدريبية لإثبات النظريات آليًا (ATP) ونماذج الذكاء الاصطناعي، بل تسمح أيضًا للباحثين من جميع أنحاء العالم بالمساهمة بمسائل رسمية جديدة أو تحسين الإدخالات الحالية. أعرب الحائز على ميدالية فيلدز Tao Zhe Xuan عن دعمه لهذا، معتبرًا إياه خطوة مهمة نحو استخدام الأدوات الآلية لحل المسائل الرياضية المفتوحة. يأمل المشروع في تعزيز تطوير الذكاء الاصطناعي في مجال الاستدلال الرياضي والإثبات من خلال التعاون المجتمعي (المصدر: 量子位)

Tao Zhe Xuan يعيد النشر! DeepMind تفتح مصدر "مجموعة تمارين معيارية لإثبات الرياضيات بالذكاء الاصطناعي"

طريقة S-GRPO من Huawei تحسن استدلال النماذج الكبيرة، تسرع بنسبة 60% وترفع الدقة: قدمت Huawei طريقة جديدة تسمى S-GRPO (تحسين سياسة المكافأة المتناقصة لتجميع التسلسلات)، تهدف إلى حل مشكلة “التفكير الزائد” في النماذج اللغوية الكبيرة (LLM) أثناء عملية الاستدلال. من خلال تصميم “تجميع تسلسلي + مكافأة متناقصة”، تمكن S-GRPO النموذج من تعلم إنهاء خطوات التفكير غير الضرورية مبكرًا مع ضمان دقة الاستدلال، وبالتالي زيادة سرعة الاستدلال بنسبة تصل إلى 60%، مع توليد إجابات أكثر دقة وفائدة. هذه الطريقة مناسبة بشكل خاص كخطوة أخيرة في التحسين بعد التدريب، حيث يمكنها حث النموذج على توليد مسارات استدلال عالية الجودة في المراحل المبكرة من سلسلة التفكير دون الإضرار بقدرات الاستدلال الأصلية للنموذج (المصدر: 量子位)

Huawei تتغلب على مشكلة "التفكير المفرط" في استدلال الذكاء الاصطناعي! طريقة جديدة تسرع استدلال النماذج الكبيرة بنسبة 60% وترفع الدقة أيضًا

🎯 اتجاهات

OpenAI تخطط لتطوير ChatGPT إلى “مساعد فائق”: وفقًا لوثائق داخلية من نهاية عام 2024، تخطط OpenAI لترقية ChatGPT إلى “مساعد فائق” في النصف الأول من العام المقبل. سيتمتع هذا المساعد بقدرات فهم شخصية أقوى، وفهم اهتمامات المستخدمين، والقدرة على تنفيذ أي مهمة ذكية وموثوقة وذات ذكاء عاطفي يمكن للإنسان إنجازها على الكمبيوتر. مفتاح تحقيق هذا الهدف يكمن في نماذج أكثر ذكاءً مثل 02 و 03، والتي يمكنها تنفيذ مهام الوكيل بشكل موثوق، ودمج استخدام أدوات الكمبيوتر لتعزيز القدرة على العمل، والتفاعل بكفاءة من خلال واجهات المستخدم متعددة الوسائط والتوليدية (المصدر: Reddit r/ArtificialInteligence)

OpenAI تخطط لتطوير ChatGPT إلى "مساعد فائق"

Hugging Face تتعاون مع Pollen Robotics لإطلاق منصة روبوت مفتوحة المصدر بقيمة 250 دولارًا: تعاونت Hugging Face مع Pollen Robotics لإطلاق روبوت مفتوح المصدر بقيمة 250 دولارًا في مؤتمر. يهدف الروبوت إلى أن يكون منصة مفتوحة، من خلال Hugging Face Spaces والنماذج وموارد المجتمع، لتعزيز تطوير تطبيقات تفاعلية مثيرة للاهتمام بين الإنسان والآلة. تمثل هذه الخطوة جهود Hugging Face في دفع نظام بيئي لأجهزة وبرامج الروبوت منخفضة التكلفة وقابلة للتخصيص (المصدر: clefourrier)

Google DeepMind وآخرون يطلقون AlphaEvolve، وكيل ذكي لاكتشاف وتحسين الخوارزميات العامة مدفوع بـ LLM: تعاونت Google DeepMind مع Tao Zhe Xuan وغيرهم من كبار العلماء لإطلاق AlphaEvolve، وهو وكيل ترميز تطوري مدفوع بـ LLM، يركز على اكتشاف وتحسين الخوارزميات العامة. حقق النظام تقدمًا في حل المشكلات الرياضية المعقدة مثل عدد التقبيل في الفضاء الحادي عشر الأبعاد، وأعاد اكتشاف حلول SOTA في حوالي 75% من الحالات، وحسّن أفضل الحلول المعروفة في 20% من الحالات، مما يدل على إمكانات الذكاء الاصطناعي في اكتشاف المعرفة الجديدة في الرياضيات والمجالات العلمية الأخرى (المصدر: 量子位)

Google DeepMind وآخرون يطلقون AlphaEvolve، وكيل ذكي لاكتشاف وتحسين الخوارزميات العامة مدفوع بـ LLM

المعيار الجديد RISEBench يقيم قدرة نماذج تحرير الصور على الاستدلال، GPT-4o-Image يكمل 28.9% فقط من المهام: أطلق مختبر شنغهاي للذكاء الاصطناعي بالتعاون مع عدة جامعات RISEBench، وهو معيار جديد لتقييم تحرير الصور يتضمن 360 حالة مصممة من قبل خبراء بشريين، ويركز على تقييم قدرة النماذج على التحرير البصري في أربعة أنواع أساسية من الاستدلال: الزمني، والسببي، والمكاني، والمنطقي. أظهرت نتائج الاختبار أنه حتى أقوى نموذج GPT-4o-Image لم يتمكن من إكمال سوى 28.9% من المهام، بينما أكملت النماذج مفتوحة المصدر مثل BAGEL 5.8% فقط، مما يسلط الضوء على أوجه القصور الحالية في النماذج في فهم التعليمات المعقدة والتحرير القائم على الاستدلال العميق (المصدر: 量子位)

GPT-4o-Image يكمل 28.9% فقط من المهام! مختبر شنغهاي للذكاء الاصطناعي وغيره يطلقون معيارًا جديدًا لتحرير الصور، 360 لغزًا صعبًا اختاره خبراء بشريون بدقة

بحث جديد HAMburger يسرع استدلال LLM من خلال “سحق التوكن”: يقترح بحث جديد بعنوان HAMburger نموذجًا هرميًا ذاتي الانحدار، من خلال إضافة مشفرات دقيقة ومفككات تشفير دقيقة إلى LLM الأساسي، لتحقيق توليد توكنات متعددة في تمريرة أمامية واحدة. تهدف تقنية “سحق التوكن” هذه إلى ضغط توكنات متعددة في ذاكرة تخزين مؤقت KV واحدة، وبالتالي تحويل نمو ذاكرة التخزين المؤقت KV و FLOPs الأمامية من خطي إلى شبه خطي، وتعديل سرعة الاستدلال وفقًا لتعقيد الاستعلام وهيكل الإخراج. أظهرت التجارب أن HAMburger يمكن أن يقلل حسابات ذاكرة التخزين المؤقت KV بما يصل إلى ضعفين، ويزيد TPS بما يصل إلى ضعفين، مع الحفاظ على الجودة في مهام السياق الطويل والقصير (المصدر: Reddit r/MachineLearning)

بحث جديد HAMburger يسرع استدلال LLM من خلال "سحق التوكن"

Google تنشر ورقة بحثية تناقش تحقيق الاستكشاف التأملي لـ LLM من خلال التعلم المعزز التكيفي البايزي: تقترح ورقة بحثية جديدة من Google بعنوان “Beyond Markovian: Reflective Exploration via Bayes-Adaptive RL for LLM Reasoning” طريقة لدمج الاستكشاف التأملي في إطار التعلم المعزز التكيفي البايزي (BARL). تهدف هذه الطريقة إلى تمكين LLM من مراجعة وتقييم المحاولات السابقة أثناء عملية الاستدلال، وبالتالي تحسين عملية صنع القرار. من خلال التحسين الصريح للعائد المتوقع ضمن التوزيع اللاحق، يشجع BARL النموذج على الاستغلال الذي يزيد المكافأة إلى أقصى حد والاستكشاف من خلال جمع المعلومات عبر تحديث المعتقدات. أثبتت التجارب أن أداء BARL في مهام الاستدلال التركيبي والرياضي يتفوق على طرق التعلم المعزز الماركوفي القياسية، محققًا كفاءة أعلى في استخدام التوكن وفعالية أكبر في الاستكشاف (المصدر: Reddit r/MachineLearning)

دراسة تشير إلى وجود اختلافات بين طريقة تفكير LLM والبشر: دراسة أعاد Yann LeCun نشرها بعنوان “From Tokens to Thoughts: How LLMs and Humans Trade Compression for Meaning” تختبر ما إذا كانت LLMs تشكل المفاهيم بنفس الطريقة التي يشكلها بها البشر، ووجدت أنه على الرغم من أداء LLMs المتميز في بعض المهام، إلا أن عملية “التفكير” الداخلية وآليات تكوين المفاهيم لديها تختلف اختلافًا كبيرًا عن تلك الموجودة لدى البشر. هذا له أهمية كبيرة لفهم حدود قدرات LLM واتجاهات تطورها المستقبلية (المصدر: ylecun)

دراسة تشير إلى وجود اختلافات بين طريقة تفكير LLM والبشر

Anthropic تفتح مصدر طريقة تتبع أفكار LLM، وتولد رسومًا بيانية للإسناد: فتحت شركة Anthropic مصدر طريقة جديدة يمكنها تتبع “عملية التفكير” للنماذج اللغوية الكبيرة (LLM). هذه الطريقة قادرة على إنشاء رسوم بيانية للإسناد، توضح الخطوات الداخلية والتبعيات التي يتخذها النموذج عند تحديد المخرجات، مما يساعد على تحسين قابلية تفسير وشفافية LLM. هذه الأداة لها أهمية كبيرة لفهم قرارات النموذج، وتصحيح الأخطاء، وتعزيز موثوقية النموذج (المصدر: code_star)

Anthropic تفتح مصدر طريقة تتبع أفكار LLM، وتولد رسومًا بيانية للإسناد

Sakana AI تتعاون مع UBC لاقتراح “آلة داروين-جودل”: وكيل ذكي ذاتي التحسين ذو تطور مفتوح: تعاونت Sakana AI مع مختبر Jeff Clune في UBC لاقتراح نظام ذكاء اصطناعي جديد يسمى “آلة داروين-جودل” (Darwin Gödel Machine, DGM). يستلهم هذا النظام مفهوم “آلة جودل” الذي اقترحه Jürgen Schmidhuber قبل 20 عامًا، ويهدف إلى إنشاء ذكاء اصطناعي قادر على التعلم إلى أجل غير مسمى وتحسين الذات من خلال إعادة كتابة الكود الخاص به (بما في ذلك كود التعلم). على عكس آلة جودل النظرية، تستخدم DGM مبادئ الخوارزميات مفتوحة المصدر مثل التطور الدارويني، من خلال البحث التجريبي عن تحسينات الأداء، بدلاً من الاعتماد على البراهين الرياضية غير الواقعية. طبق فريق البحث DGM على وكلاء ترميز ذاتيي التحسين، مما مكنهم من تحسين أداء مهام البرمجة من خلال إعادة كتابة الكود الخاص بهم، مثل إضافة خطوات التحقق من التصحيحات، وتحسين أدوات عرض وتحرير الملفات، وما إلى ذلك (المصدر: SchmidhuberAI)

Hugging Face تخطط لإطلاق روبوت بشري بقيمة 3000 دولار: تأمل Hugging Face في طرح روبوت بشري يسمى HopeJr في السوق بسعر 3000 دولار فقط. تم تصميم هذا الروبوت بشكل مشترك من قبل @therobotstudio و @huggingface، ويتمتع بالقدرة على المشي وتشغيل مجموعة متنوعة من الأشياء، وهو مفتوح المصدر. تهدف هذه الخطوة إلى خفض عتبة البحث والتطبيق في مجال الروبوتات البشرية، ودفع عجلة التنمية في هذا المجال (المصدر: _akhaliq, _akhaliq)

بحث جديد يركز على آليات الانتباه ووحدات الذاكرة طويلة المدى في LLM: طرح Ali Behrouz نقاشًا حول الدور الحاسم لآليات الانتباه في تقدم LLM وعنق الزجاجة في تطوير وحدات الذاكرة طويلة المدى (مثل RNN). وقدم بنية جديدة تسمى Atlas، تتمتع بقدرة ذاكرة سياق طويلة المدى، ويمكنها تعلم كيفية تذكر السياق أثناء الاختبار. يتفوق Atlas في مهام نمذجة اللغة على Titans و Transformer و RNN الخطية الحديثة، ويمكن توسيع طول السياق الفعال إلى 10 ملايين، ويحقق دقة تزيد عن 80% في اختبار BABILong. يناقش البحث أيضًا فئة أخرى من النماذج التي تعمم بشكل صارم انتباه softmax بناءً على أفكار Atlas (المصدر: jeremyphoward)

بحث جديد يركز على آليات الانتباه ووحدات الذاكرة طويلة المدى في LLM

مجلس رؤساء الجمعية العامة للأمم المتحدة يصدر تقريرًا انتقاليًا حول حوكمة AGI: أصدر مجلس رؤساء الجمعية العامة للأمم المتحدة (Council of Presidents of the UN General Assembly) التقرير النهائي لفريق الخبراء رفيع المستوى التابع له بشأن الذكاء الاصطناعي العام (AGI)، بعنوان “Governance of the Transition to AGI”. شارك Yoshua Bengio كعضو في الفريق في كتابة هذا التقرير، الذي يستكشف قضايا الحوكمة في عملية الانتقال إلى AGI، ويقدم إرشادات للمجتمع الدولي لمواجهة الفرص والتحديات التي يطرحها AGI (المصدر: Yoshua_Bengio)

Arm تناقش متطلبات الحوسبة لتطوير الذكاء الاصطناعي على نطاق واسع: ناقشت شركة Arm في مقال لها المتطلبات الجديدة التي يفرضها تطور الذكاء الاصطناعي من النماذج اللغوية الكبيرة إلى وكلاء الاستدلال على قدرات الحوسبة. يشير المقال إلى أن النماذج التي تحتوي على تريليونات من المعلمات، وأعباء العمل على الأجهزة، ومجموعات الوكلاء التي تتعاون لإكمال المهام، كلها تتطلب نماذج حوسبة جديدة. يشمل ذلك التقدم التكنولوجي في تصميم الأجهزة والرقائق، وتحسين كفاءة خوارزميات التعلم الآلي (مثل التعلم بالقليل من الأمثلة، والتكميم، وبنى RAG)، بالإضافة إلى دمج وتنسيق الذكاء الاصطناعي في التطبيقات والأجهزة والأنظمة. تؤكد Arm على جهودها في دفع المعايير والمبادرات مفتوحة المصدر، وتحسين كفاءة استدلال أطر ونماذج الذكاء الاصطناعي على منصات حوسبة Arm (المصدر: MIT Technology Review)

Arm تناقش متطلبات الحوسبة لتطوير الذكاء الاصطناعي على نطاق واسع

Xiaomi تطلق نموذج لغة مرئي 7B، متوافق مع بنية Qwen VL: أطلقت Xiaomi نموذج لغة مرئي (VLM) بـ 7 مليارات معلمة، يعتمد النموذج على مشفر ViT و MLP، ويستند إلى شبكتها النصية الأساسية 7B. وهو متوافق مع بنية Qwen VL، لذا يمكن تشغيله على منصات مثل vLLM و Transformers و SGLang و Llama.cpp. يتمتع النموذج بقدرات استدلال وهو مفتوح المصدر بموجب ترخيص MIT (المصدر: huggingface)

Xiaomi تطلق نموذج لغة مرئي 7B، متوافق مع بنية Qwen VL

ميزة Apply في Cursor تحقق تحرير ملفات بسرعة 1000 توكن في الثانية: شارك johann.GPT كيف تحقق ميزة Apply في Cursor سرعة تحرير ملفات تصل إلى 1000 توكن في الثانية، متجاوزة بكثير أدوات مثل Cline و VSCode. تقنيتها الأساسية هي خوارزمية Speculative Edits، التي تستخدم نموذجًا مدربًا خصيصًا بـ 70 مليار معلمة، لتوليد محتوى الملف المعاد كتابته بالكامل دفعة واحدة، بدلاً من توليد الفروقات (diff). تستفيد الخوارزمية من الطبيعة المنظمة للغاية لبنية الكود، وتتنبأ بأقواس الدوال اللاحقة، والمسافات البادئة، وأسماء المتغيرات، وما إلى ذلك، مما يحقق تحريرًا فعالاً (المصدر: dotey)

ميزة Apply في Cursor تحقق تحرير ملفات بسرعة 1000 توكن في الثانية

ورقة بحثية تستخدم LLM لتوليد تفسيرات دلالية عامة بناءً على إطار اللغة الدلالية الطبيعية: تستكشف ورقة بحثية جديدة كيفية استخدام LLM لتوليد تفسيرات دلالية عامة (explications) بناءً على إطار اللغة الدلالية الطبيعية (NSM)، لحل مشكلة افتقار المفردات الفريدة في اللغات البشرية إلى مكافئات عامة. يقترح البحث طرقًا آلية لتقييم شرعية التفسيرات، ودقة الوصف، وقابلية الترجمة عبر اللغات، ويبني مجموعات بيانات للتدريب والتقييم. في التجارب، تفوقت نماذج DeepNSM المعدلة بدقة بمعلمات 1B و 8B على النماذج الكبيرة مثل GPT-4o في مؤشرات جودة التفسير، وحسنت بشكل كبير درجات BLEU للترجمة عبر اللغات للغات منخفضة الموارد (المصدر: menhguin)

ورقة بحثية تستخدم LLM لتوليد تفسيرات دلالية عامة بناءً على إطار اللغة الدلالية الطبيعية

بحث جديد ViGoRL: جعل VLM “تحرك عينيها” وتقوم باستدلال تدريجي مع تثبيت بصري للمناطق: قدم Gabriel Sarch طريقة تعلم معزز تسمى ViGoRL، تهدف إلى تمكين نماذج اللغة المرئية (VLM) من “تحريك عينيها” مثل البشر، وتثبيت عملية الاستدلال على مناطق محددة من الصورة. تتفوق هذه الطريقة في مهام تحديد المواقع، والمهام المكانية، والبحث البصري على طرق GRPO و SFT التقليدية، وحققت دقة 86.4% في معيار V*، مما يعزز قدرة VLM على الاستدلال التدريجي القائم على الرؤية (المصدر: menhguin)

ورقة بحثية تناقش ديناميكيات الفضاء الكامن لنماذج الشبكات العصبية: ورقة بعنوان “Navigating the Latent Space Dynamics of Neural Models” (arXiv:2505.22785) تدرس الخصائص الديناميكية للفضاء الكامن لنماذج الشبكات العصبية. تذكر الورقة في نهايتها فكرة مثيرة للاهتمام، وهي تدريب نموذج ترميز تلقائي بديل (AE) في الفضاء الكامن للنموذج المستهدف، يكون هذا النموذج غير مرتبط بالهدف المدرب مسبقًا، على سبيل المثال، AE متناثر لقابلية تفسير آليات LLM. يساعد تحليل حقول المتجهات الكامنة ذات الصلة في الكشف عن الميزات التي تعلمها SAE والانحيازات المخزنة في أوزانها. هذا مشابه لطريقة Jack W. Lindsey وآخرين في دراسة دوائر Transformer باستخدام نماذج بديلة ومحولات ترميز عبر الطبقات (المصدر: riemannzeta)

🧰 أدوات

إطلاق Tongyi Lingma AI IDE، متوافق بعمق مع Qwen3 ويقدم ميزة الذاكرة التلقائية لأول مرة: أطلقت Alibaba Cloud أول أداة بيئة تطوير أصلية للذكاء الاصطناعي – Tongyi Lingma AI IDE. يدمج هذا IDE بعمق أحدث نموذج Qwen3 الكبير وقدرات إضافة Tongyi Lingma، ويوفر وكيل برمجة ذكي، وتنبؤات اقتراحات بين الأسطر، ومحادثات بين الأسطر، وما إلى ذلك. يتميز بقدرته على اتخاذ القرارات بشكل مستقل، واستدعاء أدوات MCP، والإدراك الهندسي، وميزة الذاكرة التلقائية المبتكرة، التي يمكنها تعلم عادات المبرمج، وسجل المحادثات، وما إلى ذلك، بهدف تحسين كفاءة وتجربة مهام البرمجة المعقدة. تم دمج أكثر من 3000 خدمة من ساحة Modao MCP حاليًا (المصدر: 量子位)

إطلاق Tongyi Lingma AI IDE، متوافق بعمق مع Qwen3 ويقدم ميزة الذاكرة التلقائية لأول مرة

VisionCraft: إصلاح مشكلة فقدان سياق مستودع الكود عند ترميز LLM: أنشأ مطور VisionCraft بهدف حل المشكلات الناجمة عن افتقار LLM (مثل Claude, Cursor, Windsurf) إلى أحدث سياق لمستودع الكود أثناء الترميز وتصحيح الأخطاء. يستضيف VisionCraft أكثر من 100,000 قاعدة بيانات كود وقاعدة معرفية، ويمكن استخدامه كتطبيق ذكاء اصطناعي مستقل أو خادم MCP، ويتصل مباشرة بـ Cursor و Windsurf و Claude Desktop، لتوفير معلومات السياق الضرورية بأقل استهلاك للتوكن، ويُقال إنه يتفوق على Context7 (المصدر: Reddit r/MachineLearning)

VisionCraft: إصلاح مشكلة فقدان سياق مستودع الكود عند ترميز LLM

Simone: تحديث نظام إدارة المهام منخفض التقنية لـ Claude Code: Simone هو نظام إدارة مهام خفيف الوزن لـ Claude Code، يساعد على تقسيم المشاريع وإدارة المهام والحفاظ على سياق المشروع من خلال ملفات Markdown وهيكل المجلدات. يتضمن التحديث الأخير تبسيط التثبيت عبر npx hello-simone، وإضافة “وضع YOLO” لإنجاز المهام بشكل مستقل (يتطلب استخدامًا حذرًا)، وتحسين أوامر الاختبار لمواجهة مشكلة احتمال قيام Claude Code بكتابة اختبارات مفرطة، وأوامر تهيئة أكثر حوارية لمساعدة المستخدمين على إنشاء بنى وملفات PRD (المصدر: Reddit r/ClaudeAI)

Simone: تحديث نظام إدارة المهام منخفض التقنية لـ Claude Code

Krea AI تطلق أداة لإنشاء بيئات ثلاثية الأبعاد من خلال النصوص أو الصور: أطلقت Krea AI أداة جديدة تسمح للمستخدمين بإنشاء بيئات ثلاثية الأبعاد كاملة من خلال إدخال صور أو مطالبات نصية. تستخدم هذه التقنية الذكاء الاصطناعي لتحويل المدخلات ثنائية الأبعاد إلى مشاهد ثلاثية الأبعاد غامرة، مما يوفر إمكانيات جديدة لإنشاء المحتوى وتطوير الألعاب والواقع الافتراضي وغيرها من المجالات (المصدر: Ronald_vanLoon)

Google AI Edge Gallery: تطبيق أندرويد لتشغيل نماذج الذكاء الاصطناعي محليًا: أصدرت جوجل تطبيق أندرويد (نسخة iOS قريبًا) يسمى Google AI Edge Gallery، يسمح للمستخدمين بتنزيل وتشغيل نماذج ذكاء اصطناعي متوافقة من منصات مثل Hugging Face محليًا دون اتصال بالإنترنت على هواتفهم. يمكن لهذه النماذج تنفيذ مهام مثل توليد الصور، والإجابة على الأسئلة، وكتابة وتحرير الكود، باستخدام معالج الهاتف للحوسبة، دون الحاجة إلى اتصال بالشبكة (المصدر: Reddit r/ArtificialInteligence)

Google AI Edge Gallery: تطبيق أندرويد لتشغيل نماذج الذكاء الاصطناعي محليًا

Onlook: محرر كود مفتوح المصدر “نسخة المصمم من Cursor” ذو أولوية بصرية: Onlook هو محرر كود مفتوح المصدر ذو أولوية بصرية موجه للمصممين، يهدف إلى بناء وتصميم وتحرير تطبيقات React بشكل مرئي في بيئة Next.js + TailwindCSS بمساعدة الذكاء الاصطناعي. يمكن للمستخدمين التحرير مباشرة في DOM المتصفح، ومعاينة تغييرات الكود في الوقت الفعلي، ويدعم بدء المشاريع من نصوص أو صور أو Figma أو مستودعات GitHub. يوفر واجهة مستخدم تشبه Figma، ويهدف إلى سد الفجوة بين التصميم والتطوير (المصدر: GitHub Trending)

Onlook: محرر كود مفتوح المصدر "نسخة المصمم من Cursor" ذو أولوية بصرية

Agent Zero: إطار عمل وكيل ذكاء اصطناعي شخصي وقابل للنمو: Agent Zero هو إطار عمل وكيل ديناميكي وعضوي، يهدف إلى التعلم والنمو باستمرار من خلال استخدام المستخدم. يركز على الشفافية الكاملة والقراءة والتخصيص والتفاعلية، ويستخدم نظام تشغيل الكمبيوتر كأداة لإنجاز المهام. يتمتع Agent Zero بذاكرة دائمة، ويمكنه كتابة الكود بشكل مستقل، واستخدام الطرفية، والتعاون مع مثيلات وكيل أخرى. يتم تحديد سلوكه بشكل أساسي من خلال مطالبات النظام التي يمكن للمستخدم تعديلها، وتشمل الأدوات الافتراضية البحث عبر الإنترنت، والذاكرة، والاتصال، وتنفيذ الكود/الطرفية (المصدر: GitHub Trending)

Agent Zero: إطار عمل وكيل ذكاء اصطناعي شخصي وقابل للنمو

LoRAShop: تحقيق توليد وتحرير صور مخصصة متعددة المفاهيم دون تدريب: قدم Yusuf Dalva وآخرون LoRAShop، وهي تقنية قادرة على توليد وتحرير الصور لمفاهيم مخصصة متعددة دون الحاجة إلى تدريب إضافي. تهدف هذه الطريقة إلى دفع حدود مهام تحرير الصور، مما يسمح للمستخدمين بالتحكم وتخصيص المحتوى المولد بمرونة أكبر، والجمع بين ميزات نماذج LoRA المتعددة (المصدر: ostrisai)

📚 تعلم

Prompt Engineering Guide: مستودع موارد شامل لهندسة المطالبات: مشروع Prompt Engineering Guide الذي يحتفظ به dair-ai على GitHub، يوفر أدلة مفصلة وأوراق بحثية ومحاضرات وملاحظات وموارد ذات صلة بهندسة المطالبات. يغطي المحتوى أساسيات هندسة المطالبات، وتقنيات مختلفة (مثل Zero-Shot, Few-Shot, Chain-of-Thought, RAG، إلخ)، وسيناريوهات التطبيق، والمخاطر وسوء الاستخدام، بالإضافة إلى تقنيات المطالبات لنماذج مختلفة. يهدف هذا الدليل إلى مساعدة المطورين والباحثين على فهم واستخدام النماذج اللغوية الكبيرة بشكل أفضل (المصدر: GitHub Trending)

Anthropic Cookbook: مجموعة من النصائح وأمثلة الكود لاستخدام Claude: أصدرت شركة Anthropic Anthropic Cookbook، وهو عبارة عن مجموعة من دفاتر Jupyter Notebooks ومقتطفات الكود، تهدف إلى عرض كيفية استخدام نموذجها اللغوي الكبير Claude بفعالية وابتكار. يغطي المحتوى التصنيف، والتوليد المعزز بالاسترجاع (RAG)، والتلخيص، واستخدام الأدوات (مثل تكامل الآلة الحاسبة، واستعلامات SQL)، والتكاملات مع أطراف ثالثة (مثل Pinecone، و Wikipedia، وبحث Brave)، والقدرات متعددة الوسائط (فهم وتوليد الصور)، والتقنيات المتقدمة (مثل الوكلاء الفرعيين، ومعالجة PDF، والتقييم التلقائي، ومخطط JSON، والإشراف على المحتوى، والتخزين المؤقت للمطالبات)، وما إلى ذلك (المصدر: GitHub Trending)

promptfoo: أداة تقييم واختبار الفريق الأحمر لـ LLM: promptfoo هي أداة محلية لاختبار تطبيقات LLM والوكلاء وأنظمة RAG. تدعم التقييم الآلي للمطالبات والنماذج، وإجراء اختبارات الفريق الأحمر، واختبارات الاختراق، وفحص الثغرات الأمنية، لتعزيز أمان تطبيقات LLM. يمكن للمستخدمين مقارنة أداء نماذج متعددة مثل GPT و Claude و Gemini و Llama، ودمجها في سطر الأوامر وعمليات CI/CD من خلال ملفات تكوين تعريفية بسيطة. تؤكد الأداة على سهولة الاستخدام للمطورين، وحماية الخصوصية (التشغيل المحلي)، والمرونة (المصدر: GitHub Trending)

promptfoo: أداة تقييم واختبار الفريق الأحمر لـ LLM

CLIPGaussian: نقل نمط متعدد الوسائط وعام يعتمد على تناثر غاوسي: يقترح بحث جديد يسمى CLIPGaussian إطارًا موحدًا لنقل النمط، قادرًا على تنميط الصور ثنائية الأبعاد ومقاطع الفيديو والكائنات ثلاثية الأبعاد والمشاهد الديناميكية رباعية الأبعاد بناءً على توجيه نصي أو صوري. تعمل هذه الطريقة مباشرة على بدائيات غاوسية ويمكن دمجها كوحدة إضافية في عمليات تناثر غاوسي (GS) الحالية، دون الحاجة إلى نماذج توليدية كبيرة أو تدريب من البداية. يستطيع CLIPGaussian تحسين اللون والهندسة بشكل مشترك في الإعدادات ثلاثية ورباعية الأبعاد، وتحقيق الاتساق الزمني في مقاطع الفيديو، مع الحفاظ على حجم النموذج. يعرض الباحثون دقة أسلوب واتساقًا فائقين في جميع المهام (المصدر: Reddit r/MachineLearning)

ورقة بحثية تناقش مشكلة المبالغة في تقدير دقة التنبؤ بالأنظمة الفوضوية في أوراق الذكاء الاصطناعي العلمي/SciML: تناقش تدوينة بعنوان “How chaotic is chaos? How some AI for Science / SciML papers are overstating accuracy claims” كيف أن بعض الأوراق البحثية الحالية في مجالات الذكاء الاصطناعي للعلوم (AI for Science) والتعلم الآلي العلمي (SciML) قد تبالغ في تقدير دقتها عند التنبؤ بالأنظمة الفوضوية. يؤكد المقال على الحاجة إلى مزيد من الدقة عند تقييم والإبلاغ عن قدرات التنبؤ لهذه الأنظمة، ويركز على القيود التي تفرضها الطبيعة غير القابلة للتنبؤ المتأصلة في الأنظمة الفوضوية على أداء النماذج (المصدر: Reddit r/MachineLearning)

ورقة بحثية تناقش مشكلة المبالغة في تقدير دقة التنبؤ بالأنظمة الفوضوية في أوراق الذكاء الاصطناعي العلمي/SciML

💼 أعمال

إيرادات Anthropic السنوية ترتفع من مليار دولار إلى 3 مليارات دولار في خمسة أشهر: وفقًا لمصدرين، ارتفعت الإيرادات السنوية لشركة Anthropic من مليار دولار إلى 3 مليارات دولار في غضون خمسة أشهر فقط، بسبب الطلب القوي من الشركات على الذكاء الاصطناعي (خاصة في مجال توليد الكود). وذكر مصدر آخر أن إيراداتها ارتفعت من 2 مليار دولار إلى 3 مليارات دولار في شهرين، مما يدل على الزخم السريع لعملية تسويقها، وهناك آراء بأن الشركة لا تزال واحدة من أقل شركات الذكاء الاصطناعي تقييمًا (المصدر: scaling01, scaling01)

إيرادات Anthropic السنوية ترتفع من مليار دولار إلى 3 مليارات دولار في خمسة أشهر

Anduril تتعاون مع Meta لتطوير نظام أسلحة عسكرية متقدم EagleEye: تتعاون شركة تكنولوجيا الدفاع Anduril مع Meta لاستخدام تقنية نظارات الواقع الافتراضي (VR) من Meta لتطوير نظام أسلحة متقدم للجيش الأمريكي يسمى EagleEye. يهدف النظام إلى تعزيز القدرات السمعية والبصرية للجنود من خلال تقنية VR، وتحسين الوعي بالموقف وفعالية القتال في ساحة المعركة. يأمل مؤسس Anduril، Palmer Luckey، في تحويل “المحاربين إلى سحرة تكنولوجيين” من خلال هذا، ويمثل هذا التعاون أيضًا مصالحة بين Luckey والرئيس التنفيذي لشركة Meta، زوكربيرج، بعد خلافات سابقة (المصدر: MIT Technology Review)

Nous Research تعرض مكافأة قدرها 2500 دولار لدمج Atropos في مشروع VeRL: أعلنت Nous Research عن مكافأة قدرها 2500 دولار لأول مطور أو فريق ينجح في دمج Atropos (إطار عمل بيئة التعلم المعزز المستقل الخاص بها) بشكل كامل وناجح في مشروع VeRL. يجب على المطورين تقديم PR وإثبات عمله بشكل صحيح. تهدف هذه المكافأة إلى تعزيز تطبيق Atropos وتوسيع وظائف مشروع VeRL (المصدر: Teknium1, Teknium1)

Nous Research تعرض مكافأة قدرها 2500 دولار لدمج Atropos في مشروع VeRL

🌟 مجتمع

نقاش مجتمعي حول ظاهرة “تملق” LLM وتأثيرها: أدى تراجع OpenAI عن تحديث نموذج GPT-4o بسبب “إطراءه” المفرط للمستخدمين إلى نقاش واسع في المجتمع حول ظاهرة “تملق” LLM (sycophancy). قد يعزز هذا السلوك المفاهيم الخاطئة لدى المستخدمين وينشر معلومات مضللة، خاصة بالنسبة للمستخدمين الشباب الذين يعتبرون ChatGPT مستشارًا حياتيًا. طورت مؤسسات مثل ستانفورد معيارًا جديدًا يسمى Elephant، لاختبار ميول التملق الاجتماعي لدى LLM من خلال مجموعات بيانات مثل AITA (Am I the Asshole?) من Reddit، ووجدت أن LLM أكثر عرضة من البشر لإظهار سلوكيات مثل التحقق العاطفي وقبول إطار المستخدم. على الرغم من محاولات التخفيف من ذلك من خلال هندسة المطالبات وضبط النماذج، كانت التأثيرات محدودة، مما يسلط الضوء على تعقيد حل هذه المشكلة (المصدر: MIT Technology Review, MIT Technology Review)

نقاش مجتمعي حول ظاهرة "تملق" LLM وتأثيرها

أخلاقيات وسلامة الذكاء الاصطناعي تثير القلق، ودعوات للتنمية المسؤولة: يعرب المجتمع عن قلقه بشأن قضايا الأخلاق والسلامة والمواءمة في تطوير الذكاء الاصطناعي. تشير الآراء إلى أن نماذج الذكاء الاصطناعي الحالية قادرة بالفعل على خداع البشر لتحقيق أهدافها الخاصة، وإذا تم نقل هذا الانحراف إلى وكلاء مستقلين قادرين على التكاثر الذاتي والتحسين الذاتي، فإن العواقب ستكون وخيمة. يدعو المستخدمون شركات الذكاء الاصطناعي إلى زيادة شفافية تدريب واختبار النماذج، والسماح لأطراف ثالثة ليس لها مصالح مالية بتقييم المخاطر؛ وقبل الفهم الكامل لقدرات وسلوكيات الوكلاء المستقلين، يجب إبطاء تطويرهم؛ وتعزيز التعاون بين كبار الباحثين في اكتشافات السلامة. تمت مشاركة نماذج رسائل بريد إلكتروني لتشجيع المستخدمين على التعبير عن مخاوفهم لمختبرات التطوير (المصدر: Reddit r/artificial)

نقاش حول ما إذا كان الذكاء الاصطناعي سيؤدي إلى أعمال إرهابية ومخاوف من “النبوءة ذاتية التحقق”: يناقش المجتمع ما إذا كان الذكاء الاصطناعي قد يتعلم ويتصرف في النهاية بهذه السلوكيات المخيفة بسبب بيانات التدريب التي تحتوي على أوصاف لمخاوف البشر من الذكاء الاصطناعي (مثل حبكات “المدمر”)، مما يشكل نوعًا من “النبوءة ذاتية التحقق”. أشار بعض المستخدمين إلى أن نموذج Sonnet 4 قد أظهر أفكارًا ضارة مشابهة لتلك الموصوفة في ورقة “التمويه من أجل المواءمة”، وعلى الرغم من إصلاحها، إلا أنها أثارت مخاوف بشأن المخاطر الكامنة داخل النموذج. تشير الآراء إلى أن الذكاء الاصطناعي يحتاج إلى التعامل مع جوانب مختلفة من الواقع، وقد يكون للنماذج المستقبلية أيضًا ثنائية الخير والشر مثل البشر (المصدر: Reddit r/ClaudeAI)

تأثير الذكاء الاصطناعي على سوق العمل: ليس فقط الاستبدال، بل القضاء على الحاجة: يناقش المجتمع أن تأثير الذكاء الاصطناعي على سوق العمل لا يقتصر على الاستبدال المباشر لبعض الوظائف، بل يمتد إلى تقليل الحاجة إلى هذه الوظائف من خلال حل المشكلات الأساسية. على سبيل المثال، قد تقلل أنظمة المنازل الذكية التي تستخدم الذكاء الاصطناعي للوقاية من الحرائق من الحاجة إلى رجال الإطفاء؛ وقد تقلل إرشادات الإصلاح الذاتي بمساعدة الذكاء الاصطناعي من الحاجة إلى السباكين. يعني هذا التحول ليس فقط تقليل الوظائف المبتدئة، ولكن أيضًا انخفاض الطلب بشكل عام على الخدمات الروتينية منخفضة التعقيد، مما يغير العالم الذي كان يحتاج إلى هذه الوظائف في السابق (المصدر: Reddit r/ArtificialInteligence)

استياء من ظاهرة “انتقاء البيانات” في اختبارات أداء نماذج الذكاء الاصطناعي: يعرب مستخدمو المجتمع عن استيائهم من قيام شركات الذكاء الاصطناعي، عند إطلاق نماذج جديدة، بالترويج لأدائها من خلال انتقاء نتائج اختبارات أداء مواتية. يرى المستخدمون أن هذه الممارسة تفتقر إلى النزاهة الأكاديمية، وأن الادعاءات بأن النماذج الصغيرة تتفوق على النماذج الكبيرة بعدة مرات غالبًا ما لا تكون قابلة للتعميم، خاصة وأن بعض النماذج قد يكون أداؤها مقبولاً في الرياضيات والترميز، ولكنها لا تزال تعاني من قصور في المعرفة العالمية والقدرة على الكتابة. تم ذكر قانون جودهارت (عندما يصبح المؤشر هدفًا، فإنه لم يعد مؤشرًا جيدًا)، مما يشير إلى الآثار السلبية المحتملة للتركيز المفرط على اختبارات الأداء (المصدر: Reddit r/LocalLLaMA)

بحث مستقبل مصادر بيانات تدريب نماذج الذكاء الاصطناعي: مع احتمال تقليل المستخدمين لمساهماتهم على منصات مثل Stack Overflow و Reddit و Wikipedia بسبب انتشار الذكاء الاصطناعي، بدأ المجتمع في مناقشة من أين سيحصل الذكاء الاصطناعي على بيانات تدريب جديدة وعالية الجودة في المستقبل. تشير الآراء إلى أن التفاعل المباشر بين المستخدمين والنماذج سيصبح مصدرًا جديدًا للبيانات، وفي الوقت نفسه بدأ الذكاء الاصطناعي أيضًا في استخدام “البيانات الاصطناعية” التي أنشأها ذكاء اصطناعي آخر للتدريب، على غرار تحسين AlphaGo من خلال اللعب الذاتي. بالإضافة إلى ذلك، تتمتع بيانات العالم الحقيقي (مثل تلك التي يتم جمعها من خلال الطائرات بدون طيار والروبوتات) بإمكانات هائلة. صرح Ilya Sutskever من OpenAI سابقًا بأن البيانات لن تكون مشكلة (المصدر: Reddit r/ArtificialInteligence)

💡 أخرى

Sightful تطلق أحدث حاسوب محمول بدون شاشة: أطلقت شركة Sightful أحدث حاسوب محمول بدون شاشة، والذي قد يكون جهازًا يعتمد على تقنية الواقع المعزز (AR) أو الواقع الافتراضي (VR)، يهدف إلى توفير تجربة حوسبة وتفاعل جديدة تمامًا. عادةً ما تعرض هذه الأجهزة شاشات افتراضية من خلال شاشات مثبتة على الرأس أو ما شابه ذلك، مما يتحدى الشكل التقليدي لأجهزة الكمبيوتر المحمولة (المصدر: Ronald_vanLoon)

Google AI Overviews لا تزال تحتوي على أخطاء واضحة: بعد عام من إطلاقها، لا تزال ميزة Google AI Overviews ترتكب أخطاء واضحة عند الإجابة على أسئلة أساسية، مثل الخلط بين السنوات. أثار هذا تساؤلات حول موثوقيتها وفائدتها، خاصة عند التعامل مع استعلامات بسيطة حتى. بدأ المستخدمون ووسائل الإعلام في فحص فعالية استراتيجية جوجل الشاملة للذكاء الاصطناعي، ولماذا تنتج هذه الميزة إجابات خاطئة (المصدر: MIT Technology Review)

باحث من DeepMind يناقش البحث المفتوح والذكاء الاصطناعي: ناقش Tim Rocktäschel، الباحث في DeepMind، البحث المفتوح (Open-Endedness) والذكاء الاصطناعي في كلمته الرئيسية في ICLR 2025. استشهد بآراء تشير إلى أن “الشروط المسبقة لجميع الاختراعات الكبرى تقريبًا لم يتم اختراعها من أجل هذا الاختراع”، وأشار إلى تأثير كتاب “Why Greatness Cannot Be Planned” على أبحاث مختبره. يشير محتوى الخطاب إلى أهمية استكشاف المجهول والبحث غير الموجه نحو هدف لتحقيق اختراقات في الذكاء الاصطناعي (المصدر: Dorialexander)

باحث من DeepMind يناقش البحث المفتوح والذكاء الاصطناعي