كلمات مفتاحية:نماذج اللغة الكبيرة, التعلم المعزز, بنية الذكاء الاصطناعي التحتية, الذكاء الاصطناعي متعدد الوسائط, أخلاقيات الذكاء الاصطناعي, الحوسبة الكمية, وكلاء الذكاء الاصطناعي, شكوك ريتشارد ساتون حول نماذج اللغة الكبيرة, مشروع ستارغيت من أوبن إيه آي, نموذج ميتا للعالم البرمجي CWM, تحسين أداء فلاش اتينشن 4, ثغرات أمان روبوت يونيتري جي 1
🔥 تركيز
تشكيك Richard Sutton في LLM: يثير Richard Sutton، أبو التعلم المعزز، تساؤلات حول “الدروس المريرة” لنماذج اللغة الكبيرة (LLMs)، معتبرًا أن بنية LLM الحالية ليست المسار النهائي نحو الذكاء الاصطناعي العام (AGI). يدعو إلى الحاجة إلى بنى جديدة لتحقيق التعلم المستمر وأثناء العمل، مما يمكّن وكلاء AI من التعلم مثل البشر والحيوانات، وهذا قد يجعل أساليب LLM الحالية قديمة. أثار هذا الرأي نقاشًا واسعًا في مجتمع AI، ودفع إلى إعادة التفكير في نماذج تعلم AI. (المصدر: dwarkesh_sp, finbarrtimbers, scaling01, dejavucoder, teortaxesTex, jpt401)
رهان OpenAI الضخم على بنية تحتية لـ AI بقيمة تريليونات الدولارات: أعلنت OpenAI عن تعاونها مع Nvidia و Oracle و SoftBank، وتخطط لاستثمار ما يصل إلى تريليونات الدولارات لبناء مشروع مركز بيانات عملاق يسمى “Stargate”. من المتوقع أن يتطلب المشروع قدرة كهربائية تبلغ 17 GW، أي ما يعادل إنتاج 17 محطة للطاقة النووية. يهدف هذا الاستثمار الرأسمالي غير المسبوق إلى تلبية احتياجات البنية التحتية للنمو الأسي لـ AI، ومن المتوقع أن يحقق إيرادات سنوية تبلغ 125 مليار دولار بحلول عام 2029، مما يشير إلى دخول سباق تسلح AI مرحلة جديدة، مع التركيز على حجم القدرة الحاسوبية بدلاً من اختراق خوارزمي واحد. (المصدر: Reddit r/ArtificialInteligence, cnbc.com, atroyn, jonst0kes, scaling01)
OpenAI تعزز دعم استدعاء الدوال للملفات والصور: قامت OpenAI بتحديث وظيفة استدعاء الدوال الخاصة بها، وهي تدعم الآن استخدام الملفات والصور كمخرجات لاستدعاء الأدوات. هذا يعني أن النموذج يمكنه التفاعل مباشرة مع البيانات المرئية والملفات، مثل استدعاء دوال “إنشاء رسم بياني” أو “تحميل صورة”، وإرجاع هذه الملفات إلى النموذج للمعالجة اللاحقة، مما يوسع بشكل كبير قدرة النموذج على التطبيق في المهام المعقدة. (المصدر: OpenAIDevs)
تحليل ما بعد الواقعة لمشكلة جودة نموذج Anthropic Claude: أصدرت Anthropic تقرير تحليل مفصل لما بعد الواقعة، كشفت فيه عن ثلاثة أخطاء معقدة ومتداخلة في البنية التحتية أدت إلى تدهور متقطع في جودة استجابات Claude. يكشف هذا التقرير عن التحديات التي تواجهها الشركة في الحفاظ على موثوقية أنظمة AI واسعة النطاق، ويؤكد أن حتى شركات AI الرائدة تحتاج إلى التعامل المستمر مع مشاكل استقرار النظام وتدهور الأداء. (المصدر: dl_weekly)
🎯 الاتجاهات
تحديثات نموذج Gemini Flash تعزز الكفاءة والموثوقية: أعلن مطورو Google AI عن تحديث نماذج Gemini 2.5 Flash و Flash-Lite، مع التركيز على تحسين استخدام الأدوات، وموثوقية النظام، والكفاءة العامة. يوفر الإصدار الجديد أحدث الميزات للمستخدمين بسرعة من خلال نماذج المعاينة، ويدعم تجاوز تحديثات الكود باستخدام الاسم المستعار -latest. أفاد بعض المستخدمين أن النموذج المحدث أظهر تحسنًا طفيفًا في الأداء، بينما انخفضت التكلفة بنسبة 30% تقريبًا، مما عزز كفاءة الرموز بشكل ملحوظ. (المصدر: nin_artificial, scaling01)
Meta تطلق Code World Model (CWM): أطلقت Meta AI نموذج Code World Model (CWM)، وهو نموذج مفتوح المصدر بمعاملات 32B، يركز على توليد الكود والاستدلال. تم تدريب CWM من خلال الجمع بين الكود الثابت، مسارات التنفيذ، وتفاعلات الوكلاء، مما يمكنه من فهم بناء الكود ودلالاته، ومحاكاة تنفيذ Python، ودعم مهام هندسة البرمجيات متعددة الجولات. كما يتمتع بقدرة على معالجة السياق الطويل (131k tokens)، وأظهر أداءً متميزًا في معايير الكود مثل SWE-bench Verified و LiveCodeBench. (المصدر: TheTuringPost, awnihannun, ImazAngel)
Tencent Hunyuan تطلق Hunyuan3D-Part لتحقيق توليد ثلاثي الأبعاد على مستوى الأجزاء: أطلقت Tencent Hunyuan نموذج Hunyuan3D-Part، وهو نموذج مفتوح المصدر لتوليد الأشكال ثلاثية الأبعاد على مستوى الأجزاء. حقق هذا النموذج تحكمًا عاليًا وجودة توليد عالية لأشكال الأجسام ثلاثية الأبعاد من خلال تقديم ابتكارين رئيسيين: P3-SAM (نموذج تقسيم الأجزاء ثلاثية الأبعاد الأصلي) و X-Part (نموذج توليد الأجزاء). تجنب عملية تدريبه استخدام 2D SAM، واستفاد من مجموعة بيانات واسعة النطاق تحتوي على 3.7 مليون شكل، مما أدى إلى نتائج رائدة في مجال التوليد ثلاثي الأبعاد. (المصدر: ImazAngel)
نموذج NVIDIA Jet-Nemotron يعزز سرعة الاستدلال بشكل كبير: كشف فريق بحث Nvidia عن Jet-Nemotron، وهو نموذج جديد ذو “هيكل هجين”، تبلغ سرعة استدلاله 53 ضعفًا أسرع من النماذج مفتوحة المصدر الرائدة الحالية (مثل Qwen3، Gemma3، Llama3.2)، مع الحفاظ على دقة مماثلة. يعود هذا الاختراق إلى إطار عمل PortNAS، الذي يقلل تكاليف التدريب عن طريق تجميد أوزان MLP وتحسين آلية الانتباه. يعتمد الابتكار الأساسي JetBlock على الالتفاف الديناميكي، مما يزيد من دقة الاستدلال الرياضي ومهام الاسترجاع. (المصدر: 量子位)
OpenLens AI من جامعة تسينغهوا تحقق أتمتة كاملة لعملية البحث الطبي: أطلق فريق بحث البروفيسورة سو جينلي بقسم الأتمتة في جامعة تسينغهوا OpenLens AI، وهو أول إطار عمل بحثي مستقل بالكامل يعتمد على AI ومصمم خصيصًا للمعلوماتية الطبية. يمكن لهذا النظام تحقيق دورة أتمتة كاملة ومتكاملة، بدءًا من استخراج الأدبيات، وتصميم التجارب، وتحليل البيانات، وتوليد الكود، وصولاً إلى ورقة بحثية قابلة للنشر، مما يقلص دورة البحث العلمي من عدة أشهر إلى بضع ساعات. يضمن OpenLens AI، من خلال تعاون الوكلاء المعياريين وآليات مراقبة الجودة الخاصة بالطب، دقة البحث، قابليته للتتبع، ومخرجات عالية الجودة، مما يبشر بدخول البحث الطبي عصر “الصفر تدخل بشري”. (المصدر: 量子位)
علي بابا تونغي تشيان ون تطلق نموذج Qwen3-Omni الأصلي متعدد الأنماط بالكامل: أطلقت علي بابا تونغي تشيان ون رسميًا Qwen3-Omni، وهو نموذج لغوي كبير أصلي متعدد الأنماط بالكامل من الجيل الجديد. يمكن لهذا النموذج معالجة أنواع متعددة من المدخلات بسلاسة، مثل النصوص، الصور، الصوت، والفيديو، ويمكنه توليد مخرجات نصية وصوتية طبيعية في وقت واحد من خلال استجابة تدفقية في الوقت الفعلي، مما يوسع بشكل أكبر حدود تطبيق AI متعدد الأنماط وتجربة التفاعل. (المصدر: 36氪)
🧰 الأدوات
Unsloth GPT-OSS التعلم المعزز يحسن كفاءة الاستدلال: أصدرت Unsloth AI تحديثًا للتعلم المعزز لـ GPT-OSS، مما أدى إلى تحسين كبير في سرعة الاستدلال وكفاءة VRAM. يحقق الإصدار الجديد زيادة في سرعة استدلال GPT-OSS RL بمقدار 3 أضعاف (حوالي 21 token/ثانية)، وسرعة استدلال BF16 تبلغ حوالي 30 token/ثانية، وتقليل استخدام VRAM بنسبة 50%، ويدعم طول سياق أطول بـ 8 مرات، مما يسمح لنموذج GPT-OSS 20B بالعمل ضمن 15GB VRAM. بالإضافة إلى ذلك، يتضمن التحديث استراتيجيات لمواجهة خداع المكافآت، ويدعم Vision RL. (المصدر: danielhanchen, Reddit r/LocalLLaMA)
vLLM يدعم النماذج الهجينة لتحسين الأداء: أعلن مشروع vLLM أن إصداره v1 يدعم رسميًا النماذج الهجينة، بما في ذلك Mamba و Mamba2 وآلية الانتباه الخطي، ويعالجها كمواطن من الدرجة الأولى. يهدف هذا التحديث إلى زيادة تحسين أداء وكفاءة الاستدلال من خلال دمج أنواع مختلفة من معماريات النماذج. (المصدر: vllm_project)
تقنية CompLLM للضغط تحسن استجابة السياق الطويل: CompLLM هي تقنية ضغط ناعمة مصممة لـ LLMs، تهدف إلى حل التحديات الحسابية في معالجة السياق الطويل. تقسم هذه التقنية السياق إلى أجزاء مستقلة للضغط، مما يحقق قابلية التوسع الخطي، والقدرة على التعميم من التسلسلات القصيرة إلى 100k tokens، وإعادة استخدام الأجزاء عبر الاستعلامات. بمعدل ضغط 2x، يمكن لـ CompLLM تسريع وقت توليد الرمز الأول (TTFT) بمقدار 4 أضعاف، وتقليل حجم KV cache بنسبة 50%، مع الحفاظ على أداء السياق غير المضغوط أو تجاوزه. (المصدر: HuggingFace Daily Papers, gabriberton)
LMCache امتداد مفتوح المصدر يحسن كفاءة استدلال LLM: LMCache هو امتداد لمحرك خدمة LLM مفتوح المصدر، يعمل كطبقة تخزين مؤقت للاستدلال واسع النطاق. من خلال الإدارة الذكية لـ KV cache وإعادة استخدام حالة المفتاح والقيمة للنصوص السابقة بين GPU و CPU والأقراص المحلية، فإنه يقلل من تكاليف RAG (4-10 أضعاف)، ويقصر وقت توليد الرمز الأول (TTFT)، ويزيد الإنتاجية تحت الحمل. قامت Nvidia بدمجه في مشروع Dynamo للاستدلال. (المصدر: TheTuringPost)
نموذج Qwen3 Coder يعزز قدرات الترميز المحلي: حظي نموذج Qwen3 Coder باهتمام كبير بسبب “استقراره المذهل” في مهام الترميز المحلية، خاصة عند استخدامه مع أدوات مثل Cline و LM Studio، حيث يوفر تجربة ترميز عالية الجودة على أجهزة المستهلك. يوفر هذا دعمًا قويًا للمطورين لإجراء الترميز بمساعدة LLM في البيئات المحلية. (المصدر: ImazAngel)
تحديثات مكتبتي mlx-lm و oLLM تعزز استدلال LLM المحلي: حصلت مكتبة mlx-lm على تحديثات، حيث أضافت نماذج مثل Code World Model من Meta، وحسنت وظائف الاستدلال الدفعي لـ SSM الهجين وآلية الانتباه ذات النافذة المنزلقة. في الوقت نفسه، تدعم oLLM، كمكتبة Python خفيفة الوزن، تشغيل LLMs مثل Qwen3-next-80B و GPT-OSS و Llama3 على أجهزة المستهلك، مما يوفر خيارات أوسع وكفاءة أعلى لاستدلال النماذج المحلية. (المصدر: awnihannun, ImazAngel, huggingface)
Replit تحسن وكلاء AI ووظائف الأتمتة: تعمل Replit على تعزيز قدرات بناء وكلاء AI والأتمتة على منصتها، حيث يمكن للمطورين الآن اختبار وتتبع الأتمتة المجدولة في الوقت الفعلي مباشرة من لوحة التحكم، مما يزيد بشكل كبير من كفاءة التطوير وراحته. (المصدر: amasad)
مستخدمو OpenWebUI يبلغون عن مشكلة في بث نموذج GPT-OSS: أبلغ مستخدمو OpenWebUI عن مواجهة “502: خطأ في المنبع” عند استخدام المنصة لبث نموذج GPT-OSS 20B السحابي، على الرغم من أن نفس النموذج يعمل بشكل طبيعي على CLI و Ollama Web UI. يشير هذا إلى أن OpenWebUI قد تواجه مشكلات في التكامل أو آلية البث المباشر مع نماذج LLM معينة، مما يؤثر على تجربة المستخدم. (المصدر: Reddit r/OpenWebUI)
DeepAgent Desktop تطلق وكلاء ترميز مستقلين عن النموذج: تم إطلاق DeepAgent Desktop، ويزعم أن وكلاء الترميز الخاصين به يتجاوزون Claude Code و GPT-5 (Codex) في الأداء. توفر هذه الأداة وظائف وكيل ترميز قوية في كل من CLI والمحرر، وتتعامل مع المهام المعقدة من خلال الاستفادة بذكاء من نماذج متعددة متطورة. يشير هذا إلى أن اعتماد نهج التكامل المستقل عن النموذج قد يكون أكثر كفاءة في مجال وكلاء الترميز. (المصدر: matanSF)
شائعات عن متصفحات “AI الأصلية” قد تعيد تشكيل مشهد السوق: هناك شائعات بأن OpenAI و Google على وشك إطلاق متصفحات “AI الأصلية”. تُعتبر هذه الخطوة بمثابة خطوة استراتيجية من عمالقة التكنولوجيا في مجالات التوزيع وجمع البيانات والأتمتة السلسة لـ AI، وقد تشكل صدمة كبيرة للشركات الناشئة التي تقدم إضافات ومتصفحات AI، مما يبشر بتكامل أعمق لـ AI في تجربة الحوسبة اليومية للمستخدمين. (المصدر: dotey)
📚 تعلم
توصية بكتاب مجاني عن هياكل البيانات في Python: يُوصى بكتاب “A First Course on Data Structures in Python” للمؤلف Donald R. Sheehy كمصدر مجاني ممتاز لتعلم هياكل البيانات، والتفكير الخوارزمي، وتحليل التعقيد، والبرمجة التراجعية/الديناميكية، وطرق البحث. هذه المهارات أساسية في مجالات AI والتعلم الآلي، وذات قيمة كبيرة للمتعلمين الذين يرغبون في التعمق في هذه المجالات. (المصدر: TheTuringPost, huggingface)
طلب موارد تعليمية حول التعلم العميق و LLM: طلب أحد المستخدمين على Reddit أفضل الموارد التعليمية حول الهندسة المعمارية الداخلية لـ LLM والتعلم العميق، وذكر بشكل خاص كتاب “Deep Learning with Python, Third Edition” لـ François Chollet و Matthew Watson. يعكس هذا الطلب حاجة مجتمع AI إلى محتوى تعليمي عالي الجودة ومتعمق حول LLM والتعلم العميق. (المصدر: Reddit r/deeplearning)
مشاركة خارطة طريق لإتقان AI وتاريخ موجز لـ AI: تمت مشاركة خارطة طريق لإتقان AI على وسائل التواصل الاجتماعي، لتقديم مسار التعلم وإرشادات المهارات الأساسية للمتعلمين الطموحين في مجال AI. في الوقت نفسه، تمت مشاركة موارد حول تاريخ موجز للذكاء الاصطناعي، لمساعدة الناس على فهم مسار تطور تقنيات AI والمعالم الهامة. (المصدر: Ronald_vanLoon, Ronald_vanLoon)
مشاركة دليل البدء والدروس التعليمية لـ DSPy: تمت مشاركة دليل البدء لـ DSPy على وسائل التواصل الاجتماعي، ويتضمن محتوى حول كيفية تشغيل الأمثلة الموجودة على صفحته الرئيسية، بالإضافة إلى دروس تعليمية مفصلة حول RAG، والاستدلال الرياضي، وبناء وكلاء AI. علاوة على ذلك، تم توفير موارد فيديو لمساعدة المستخدمين على فهم مفاهيمي للمشكلات التي يحلها DSPy وطرق التطبيق العملي. (المصدر: lateinteraction)
💼 الأعمال
Applied Compute تحصل على جولة تمويل جديدة بقيمة 500 مليون دولار: أفادت التقارير أن شركة Applied Compute الناشئة، التي أسسها ثلاثة باحثين سابقين في OpenAI وتركز على تقديم التعلم المعزز كخدمة (RL as a service)، تجري جولة تمويل جديدة بتقييم 500 مليون دولار، بقيادة Lux Capital. يأتي هذا بعد ثلاثة أشهر فقط من جولة تمويلها السابقة، مما يدل على تقدير السوق الكبير لنموذج RLaaS وفريقها. (المصدر: steph_palazzolo)
Mistral AI تكمل جولة تمويل من الفئة C بقيمة 1.7 مليار يورو، بقيادة ASML: أكملت Mistral AI، شركة اليونيكورن الأوروبية في مجال AI، جولة تمويل من الفئة C بقيمة 1.7 مليار يورو (حوالي 14.2 مليار يوان صيني)، ليصل تقييمها بعد الاستثمار إلى 11.7 مليار يورو. قادت ASML الجولة باستثمار 1.3 مليار يورو، وحصلت على حصة ملكية بنسبة 11%. تُعتبر هذه الخطوة تحالفًا استراتيجيًا بين عمالقة التكنولوجيا الأوروبيين والشركات الناشئة في مجال AI، بهدف استكشاف قيمة AI في مجال التصنيع الصناعي، ودفع التطوير الذاتي لأوروبا في مجال AI، والتركيز على تطبيقات AI المتخصصة. (المصدر: 36氪)
Hengwei Technology تستحوذ على Shanghai Shuheng Information، وتطلق سابقة في مجال AIRaaS: أعلنت Hengwei Technology عن استحواذها على 75% من أسهم Shanghai Shuheng Information، لتصبح أول شركة مدرجة في سوق الأسهم A تستحوذ على هدف AIRaaS (AI Result as a Service). يشير هذا إلى أن صناعة AI تتحول من مجرد “بيع القدرة الحاسوبية” إلى نموذج أعمال “بيع النتائج”. بفضل قدرتها على دمج تقنية النماذج الكبيرة مع سيناريوهات الصناعة، حققت Shanghai Shuheng Information أرباحًا في مجالات السلع الاستهلاكية سريعة الحركة، والسيارات، والتمويل، مما يوفر لـ Hengwei Technology فرصة للتحول من بيع الأجهزة إلى تقديم خدمات ذات قيمة مضافة عالية. (المصدر: 36氪)
🌟 المجتمع
تدهور أداء ChatGPT 4o يثير استياءً شديدًا لدى المستخدمين: أفاد مستخدمو ChatGPT Plus بشكل عام عن تدهور كبير في أداء نموذج GPT-4o و”شخصيته”. يزعم العديد من المستخدمين أنه حتى عند اختيار 4o، يتم توجيه المحادثات سرًا إلى GPT-5، خاصة عند التعامل مع المطالبات “الحساسة” أو “العاطفية”، مما يؤدي إلى استجابات “باردة، كسولة، وتفتقر إلى الذكاء العاطفي”. يشعر المستخدمون “بالخداع” و”الخيانة” تجاه هذا الأمر، ويشككون في شفافية OpenAI ونزاهتها، ويعبرون عن عدم رضاهم عن المنتج المدفوع. (المصدر: Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT, menhguin)
وكلاء AI: الفجوة بين الضجيج والواقع: تكشف المناقشات على وسائل التواصل الاجتماعي حول وكلاء AI عن الفجوة بين رؤيتهم الطموحة وقدراتهم الفعلية الحالية. صرح Eric Schmidt، الرئيس التنفيذي السابق لـ Google، بأنه “لا يوجد دليل على أن AI يمكنه تحسين الذات”. أفاد المطورون أن منح وكلاء AI مزيدًا من الحرية يؤدي غالبًا إلى نتائج أسوأ، وأن الوكلاء الناجحين حقًا هم أدوات مساعدة تخضع لرقابة صارمة وتركز على مهام محددة. يشير هذا إلى أن مستوى نضج وكلاء AI لم يصل بعد إلى المستوى المتوقع، ولا يزال يتطلب الكثير من التدخل البشري والإدارة الدقيقة. (المصدر: Reddit r/ArtificialInteligence, dotey)
تحليل عميق لأداء Flash Attention 4 يثير نقاشًا حادًا: أثارت مقالة تحليل تقني عميق لـ Flash Attention 4، يبلغ طولها 4000 كلمة، نقاشًا واسعًا، حيث شرحت بالتفصيل كيف تحقق هذه التقنية تحسنًا في الأداء بنسبة 20%. كشفت المقالة عن تحسيناتها الأساسية التي تتضمن خط أنابيب غير متزامن أكثر تعقيدًا متخصصًا في الـ warp، ودالة أسية تقريبية مكعبة مبتكرة لـ “softmax البرمجي”، وإعادة التحجيم الفعالة للاستقرار العددي. قدمت هذه التفاصيل التقنية لمجتمع AI فهمًا عميقًا لآليات الانتباه الفعالة. (المصدر: charles_irl, akshat_b, TheZachMueller, jonst0kes, atroyn, swyx, dejavucoder)
نقاش عميق حول تأثير AI على التوظيف والمجتمع: يتوقع Sam Altman أن 30-40% من المهام الاقتصادية في المستقبل ستنفذ بواسطة AI، مما سيسرع التحول المهني. يؤكد على أن “تعلم كيفية التعلم”، والقدرة على التكيف، والمرونة، وفهم الاحتياجات البشرية والتفاعل البشري هي مهارات أساسية للمستقبل. تتناول المناقشات أيضًا التأثيرات الأخلاقية والاجتماعية لـ AI، مثل “مخدرات العقل” والمخاوف من تلوث الإنترنت بالمحتوى الذي يولده AI، والتوازن بين استبدال AI للمهام الوظيفية وخلق فرص جديدة. (المصدر: dotey, Ronald_vanLoon, TheEthanDing, swyx, cloneofsimo, MillionInt, glennko, Reddit r/ArtificialInteligence)
أخلاقيات AI: تحديات الثقة والخصوصية والتحكم: تركز مناقشات وسائل التواصل الاجتماعي على تحديات أخلاقيات AI، بما في ذلك خصوصية البيانات، وتمويل وكلاء AI بالإعلانات ومشاكل الثقة، بالإضافة إلى التأثير الواسع النطاق للقوة المتزايدة لـ AI على المجتمع. يدعو المجتمع إلى زيادة الشفافية في أنظمة AI، وتجري مناقشات حول ما إذا كان يجب أن يخدم AI “الذكاء من أجل الذكاء” أم أن يعطي الأولوية لرفاهية الإنسان. تعكس هذه المناقشات قلق الجمهور العميق بشأن اتجاه تطور AI. (المصدر: Ronald_vanLoon, pmddomingos, Reddit r/ChatGPT, Reddit r/ArtificialInteligence)
💡 أخرى
الكشف عن ثغرة أمنية في Bluetooth لروبوت Unitree G1: تم الكشف عن وجود ثغرة أمنية خطيرة في Bluetooth في الروبوت البشري Unitree G1 (والتي قد تشمل Go2، H1، B2). يمكن لأي جهاز ضمن نطاق Bluetooth استغلال مفتاح AES المبرمج بشكل ثابت لتنفيذ أوامر root، وبالتالي التحكم في الروبوت أو زرع باب خلفي. على الرغم من أن الثغرات في بعض إصدارات البرامج الثابتة القديمة قد تم إصلاحها، إلا أن خلل الأمان الجوهري المتمثل في المفتاح المبرمج بشكل ثابت لا يزال موجودًا، مما أثار مخاوف بشأن أمان روبوتات AI. (المصدر: Sentdex, teortaxesTex)
التطور التآزري لـ AI والحوسبة الكمومية: تؤكد المناقشات الاجتماعية على الإمكانات التحويلية للحوسبة الكمومية في مجال الأمن السيبراني، وتشير إلى أن Nvidia تستثمر بنشاط في الشركات الناشئة في مجال الكم، وتطور منصات مثل CUDA-Q و DGX Quantum لدعم البرمجة الكمومية-الكلاسيكية الهجينة. يدل هذا على إدراك الصناعة المتزايد للتأثير التآزري للتقنيات الكمومية مع AI وآفاقها في التطبيقات التجارية. (المصدر: Ronald_vanLoon, TheTuringPost)
Modular Manifolds: نظرية جديدة لتحسين الشبكات العصبية: قدمت Thinking Machines نظرية “Modular Manifolds”، وهي طريقة لتصميم محسّنات بشكل مشترك من خلال فرض قيود متعددة الطيات على مصفوفات الأوزان، لتحقيق تدريب شبكات عصبية أكثر استقرارًا وعالية الأداء. تتعمق هذه النظرية في الخصائص الهندسية لتحسين الشبكات العصبية، وتهدف إلى تجاوز طرق التحسين التقليدية مثل Adam، مما يوفر اتجاهات جديدة لأبحاث AI. (المصدر: thinkymachines, dejavucoder, johnschulman2, giffmana, menhguin, jeremyphoward, rown, suchenzang, teortaxesTex, zacharynado)