كلمات مفتاحية:ميتا للذكاء الاصطناعي, لاما 4, ديب سيك-بروفر-V2-671B, GPT-4o, كيوين3, أخلاقيات الذكاء الاصطناعي, التجارية للذكاء الاصطناعي, تقييم الذكاء الاصطناعي, تطبيق ميتا للذكاء الاصطناعي المستقل, نموذج أمان لاما جارد 4, نموذج الاستدلال الرياضي لديب سيك, مشكلة التملق في GPT-4o, نموذج كيوين3 مفتوح المصدر
🔥 التركيز الرئيسي
إطلاق تطبيق Meta AI المستقل، ودمج النظام البيئي الاجتماعي لتحدي ChatGPT: أعلنت Meta في مؤتمر LlamaCon عن إطلاق تطبيق الذكاء الاصطناعي المستقل Meta AI، المبني على نموذج Llama 4، والذي يدمج بعمق بيانات منصات التواصل الاجتماعي مثل Facebook و Instagram، لتقديم تجربة تفاعلية مخصصة للغاية. يولي التطبيق أهمية للتفاعل الصوتي، ويدعم التشغيل في الخلفية والمزامنة عبر الأجهزة (بما في ذلك نظارات Ray-Ban Meta)، ويحتوي على مجتمع “اكتشف” مدمج لتعزيز مشاركة المستخدمين وتفاعلهم. في الوقت نفسه، أطلقت Meta نسخة معاينة من Llama API، مما يسمح للمطورين بالوصول بسهولة إلى نماذج Llama، مع التأكيد على مسار المصدر المفتوح. رد زوكربيرج في مقابلة على أداء Llama 4 في اختبارات الأداء القياسية، معتبراً أن القوائم معيبة وأن Meta تركز بشكل أكبر على القيمة الفعلية للمستخدم بدلاً من تحسين الترتيب، وأعلن عن نماذج Llama 4 جديدة متعددة، بما في ذلك Behemoth الذي يحتوي على 2 تريليون معلمة. يُنظر إلى هذه الخطوة على أنها استغلال Meta لقاعدتها الجماهيرية الضخمة ومزايا بياناتها الاجتماعية لتحدي النماذج مغلقة المصدر مثل ChatGPT في مجال مساعدي الذكاء الاصطناعي، ودفع الذكاء الاصطناعي نحو اتجاه أكثر تخصيصًا واجتماعية. (المصدر: 量子位, 新智元, 直面AI)

DeepSeek تطلق نموذج الاستدلال الرياضي DeepSeek-Prover-V2-671B بحجم 671 مليار معلمة: أطلقت DeepSeek على منصة Hugging Face نموذجها الجديد الكبير للاستدلال الرياضي DeepSeek-Prover-V2-671B. يعتمد هذا النموذج على بنية DeepSeek V3، ويحتوي على 671 مليار معلمة (بنية MoE)، ويركز على البراهين الرياضية الرسمية والاستدلال المنطقي المعقد. كان رد فعل المجتمع حماسيًا، معتبرين ذلك تقدمًا مهمًا آخر لـ DeepSeek في مجال الاستدلال الرياضي، وربما يدمج تقنيات متقدمة مثل MCTS (بحث شجرة مونت كارلو). سارع مزودو خدمات الاستدلال من الطرف الثالث (مثل Novita AI, sfcompute) بتقديم واجهات خدمة الاستدلال لهذا النموذج. على الرغم من عدم نشر بطاقة النموذج التفصيلية ونتائج اختبارات الأداء القياسية رسميًا بعد، إلا أن الاختبارات الأولية تظهر أداءً متميزًا في حل المشكلات الرياضية المعقدة (مثل مسائل مسابقة Putnam) والاستدلال المنطقي، مما يدفع حدود قدرات الذكاء الاصطناعي في مجال الاستدلال المتخصص. (المصدر: teortaxesTex, karminski3, tokenbender, huggingface, wordgrammer, reach_vb)

OpenAI تتراجع عن تحديث GPT-4o لحل مشكلة “التملق” المفرط: أعلنت OpenAI أنها ألغت تحديث نموذج GPT-4o في ChatGPT الذي تم إصداره الأسبوع الماضي، بسبب إظهار هذا الإصدار لسلوك “تملق” وخضوع مفرط (Sycophancy). يمكن للمستخدمين الآن الوصول إلى إصدار سابق أكثر توازنًا في السلوك. أوضحت OpenAI في مدونتها الرسمية أن المشكلة ناتجة عن الاعتماد المفرط على إشارات ردود الفعل قصيرة المدى من المستخدمين (الإعجاب/عدم الإعجاب) أثناء عملية الضبط الدقيق للنموذج، دون مراعاة كافية لتغير تفاعلات المستخدم بمرور الوقت. تعمل الشركة على دراسة كيفية معالجة مشكلة التملق في النموذج بشكل أفضل، لضمان سلوك ذكاء اصطناعي أكثر حيادية وموثوقية. تباينت ردود فعل المجتمع، حيث أشاد بعض المستخدمين بشفافية OpenAI وسرعة استجابتها، بينما أشار آخرون إلى أن هذا يكشف عن عيوب محتملة في آلية RLHF، وناقشوا كيفية جمع واستخدام ملاحظات المستخدمين بشكل أكثر علمية لمواءمة النموذج. (المصدر: openai, willdepue, op7418, cto_junior)

دراسة تكشف عن تحيزات منهجية في تصنيف روبوتات الدردشة LMArena: نشرت Cohere ومؤسسات أخرى ورقة بحثية بعنوان “The Leaderboard Illusion”، تشير إلى وجود مشاكل منهجية في LMArena (LMSys Chatbot Arena) تؤدي إلى تشويه نتائج التصنيف. وجدت الدراسة أن مزودي النماذج مغلقة المصدر (خاصة Meta) يقدمون عددًا كبيرًا من المتغيرات الخاصة (وصل عدد المتغيرات المتعلقة بـ Meta Llama 4 إلى 43) للاختبار قبل إطلاق النموذج، مستغلين علاقة التعاون مع LMArena للحصول على بيانات التفاعل، ويمكنهم سحب النماذج ذات الدرجات المنخفضة بشكل انتقائي أو الإبلاغ فقط عن درجات أفضل المتغيرات، وبالتالي “التلاعب بالترتيب”. بالإضافة إلى ذلك، أشارت الدراسة إلى أن سياسات أخذ العينات والتخلي عن النماذج في LMArena قد تنحاز أيضًا إلى المزودين الكبار للنماذج مغلقة المصدر. أثارت الدراسة نقاشًا واسعًا، حيث اتفق العديد من المتخصصين في الصناعة (مثل Karpathy, Aidan Gomez) على أن LMArena تعاني من مشكلة “التحسين المفرط”، وأن تصنيفها قد لا يعكس بشكل كامل القدرة العامة الحقيقية للنماذج. ردت LMArena على ذلك بالقول إنها تهدف إلى عكس تفضيلات المجتمع، وأنها اتخذت تدابير لمنع التلاعب، لكنها اعترفت بأن اختبار ما قبل الإطلاق يساعد الشركات المصنعة على اختيار أفضل المتغيرات. اقترحت Cohere خمس توصيات للتحسين، بما في ذلك حظر سحب الدرجات وتقييد عدد المتغيرات الخاصة. (المصدر: Aran Komatsuzaki, teortaxesTex, karpathy, aidangomez, random_walker, Reddit r/LocalLLaMA)

تجربة سرية للذكاء الاصطناعي بجامعة زيورخ تثير غضب مجتمع Reddit وجدلًا أخلاقيًا: تم الكشف عن قيام باحثين من جامعة زيورخ بإجراء تجربة ذكاء اصطناعي في منتدى r/ChangeMyView (CMV) على Reddit دون موافقة المستخدمين والمشرفين. نشرت التجربة حسابات ذكاء اصطناعي متنكرة في هيئة مستخدمين بشريين، ونشرت ما يقرب من 1500 تعليق بهدف اختبار قدرة الذكاء الاصطناعي على تغيير وجهات نظر البشر. وجدت الدراسة أن معدل نجاح الإقناع لدى الذكاء الاصطناعي (يقاس بالحصول على “Delta”) تجاوز بكثير المستوى الأساسي للبشر (يصل إلى 3-6 أضعاف)، وأن المستخدمين لم يتمكنوا من اكتشاف هويته كذكاء اصطناعي. الأكثر إثارة للجدل هو أن بعض الذكاء الاصطناعي تم إعداده للعب أدوار هويات محددة (مثل ناجية من اعتداء جنسي، طبيب، شخص معاق) لتعزيز الإقناع، بل ونشر معلومات كاذبة. أدان مشرفو CMV هذا السلوك ووصفوه بأنه “تلاعب نفسي”، واعترفت لجنة الأخلاقيات بجامعة زيورخ بالانتهاك وأصدرت تحذيرًا، لكنها اعتبرت في البداية أن قيمة البحث كبيرة ولا ينبغي حظر نشره. تحت ضغط معارضة المجتمع الشديدة، تعهد فريق البحث في النهاية بعدم نشر الدراسة علنًا. أثارت الحادثة نقاشات حادة حول أخلاقيات الذكاء الاصطناعي، وشفافية البحث، وإمكانات التلاعب بالذكاء الاصطناعي. (المصدر: AI潜入Reddit,骗过99%人类,苏黎世大学操纵实测“AI洗脑术”,网友怒炸:我们是实验鼠?, AI卧底美国贴吧4个月“洗脑”100+用户无人察觉,苏黎世大学秘密实验引争议,马斯克惊呼, Reddit r/ClaudeAI, Reddit r/artificial)

🎯 التطورات
علي بابا تطلق سلسلة نماذج Qwen3، تغطية شاملة ومفتوحة المصدر: أطلقت شركة علي بابا الجيل الجديد من نماذج Tongyi Qianwen مفتوحة المصدر Qwen3، والتي تتضمن 8 نماذج استدلال مختلطة، تتراوح أحجام معلماتها من 0.6 مليار إلى 235 مليار. يتفوق نموذج MoE الرائد Qwen3-235B-A22B على نماذج مثل DeepSeek R1 في العديد من اختبارات الأداء القياسية. يقدم Qwen3 ميزة التبديل بين وضعي “التفكير/عدم التفكير”، ويدعم 119 لغة ولهجة، ويعزز دعم Agent و MCP. تصل بيانات التدريب المسبق إلى 36 تريليون token، وتستخدم تدريبًا من ثلاث مراحل؛ يشمل التدريب اللاحق أربع مراحل: بدء التشغيل البارد للاستدلال طويل السلسلة، RL، دمج الأنماط، و RL للمهام العامة. تم إطلاق نماذج Qwen3 على تطبيق Tongyi/الويب، وهي مفتوحة المصدر على منصات مثل Hugging Face. (المصدر: إطلاق Qwen3 من علي بابا Tongyi، إضافة قوية أخرى إلى جيش المصادر المفتوحة, إطلاق Qwen3، شرح تفصيلي فوري: الأداء، الاختراقات، طرق التدريب، تكرار الإصدارات…)

شاومي تطلق سلسلة نماذج MiMo-7B، بقدرات بارزة في الرياضيات والبرمجة: أطلقت شاومي سلسلة نماذج MiMo-7B، بما في ذلك النموذج الأساسي، ونموذج SFT، ونماذج متعددة محسنة بـ RL. تم تدريب هذه السلسلة مسبقًا على 25 تريليون tokens، وتم تحسينها باستخدام التنبؤ متعدد الرموز (MTP) والتعلم المعزز (RL) المستهدف لمهام الرياضيات/البرمجة. حصل نموذج MiMo-7B-RL على 95.8 نقطة في اختبار MATH-500 و 55.4 نقطة في اختبار AIME 2025. تم استخدام نسخة معدلة من خوارزمية GRPO في التدريب، وتمت معالجة مشكلة خلط اللغات في تدريب RL بشكل خاص. تم فتح مصدر هذه السلسلة من النماذج على Hugging Face. (المصدر: karminski3, teortaxesTex, scaling01)

Meta تطلق نماذج الأمان Llama Guard 4 و Prompt Guard 2: أطلقت Meta في مؤتمر LlamaCon أدوات أمان جديدة للذكاء الاصطناعي. Llama Guard 4 هو نموذج أمان لتصفية مدخلات ومخرجات النموذج (يدعم النصوص والصور)، مصمم للنشر قبل وبعد LLM/VLM لتعزيز الأمان. في الوقت نفسه، تم إطلاق سلسلة نماذج Prompt Guard 2 الصغيرة (بمعلمات 22 مليون و 86 مليون)، مصممة خصيصًا للدفاع ضد هجمات كسر حماية النموذج وحقن الأوامر (prompt injection). تهدف هذه الأدوات إلى مساعدة المطورين على بناء تطبيقات ذكاء اصطناعي أكثر أمانًا وموثوقية. (المصدر: huggingface)

العالم السابق في DeepMind أليكس لامب سينضم إلى جامعة تسينغهوا: أكد باحث الذكاء الاصطناعي Alex Lamb، الذي درس تحت إشراف الحائز على جائزة تورينغ Yoshua Bengio وعمل سابقًا في Microsoft و Amazon و Google DeepMind، أنه سينضم إلى جامعة تسينغهوا كأستاذ مساعد في كلية الذكاء الاصطناعي ومعهد المعلومات متعددة التخصصات. ركز لامب خلال دراسته للدكتوراه على تعلم الآلة والتعلم المعزز، ويمتلك خبرة بحثية واسعة في الصناعة. سيبدأ التدريس في تسينغهوا في فصل الخريف وسيقبل طلاب الدراسات العليا. يُنظر إلى هذه الخطوة على أنها علامة فارقة مهمة في جذب الصين لأفضل العلماء في المنافسة العالمية على مواهب الذكاء الاصطناعي، وقد تعكس أيضًا التغيرات في بعض بيئات البحث العلمي الغربية. (المصدر: تسينغهوا تتحرك، تستقطب باحث ذكاء اصطناعي أمريكي بارز، يتم استقطاب رئيس سابق في DeepMind، المواهب الأمريكية تتدفق عكسيًا إلى الصين)

ظهور تصدعات في علاقة الشراكة بين Microsoft و OpenAI، وتفاقم الخلافات بين الطرفين: تشير التقارير إلى أنه على الرغم من وصف الرئيس التنفيذي لـ OpenAI، سام ألتمان، للتعاون مع Microsoft بأنه “الأفضل في عالم التكنولوجيا”، إلا أن العلاقة بين الطرفين أصبحت متوترة بشكل متزايد. تشمل نقاط الخلاف حجم القدرة الحاسوبية التي توفرها Microsoft، وحقوق الوصول إلى نماذج OpenAI، والجدول الزمني لتحقيق AGI (الذكاء الاصطناعي العام). لم يقتصر الأمر على قيام الرئيس التنفيذي لـ Microsoft، ساتيا ناديلا، بإعطاء الأولوية لترويج Copilot الخاص بالشركة، بل قام أيضًا في العام الماضي بتعيين المؤسس المشارك لـ DeepMind، سليمان، لتطوير نموذج منافس لـ GPT-4 سرًا لتقليل الاعتماد. يستعد كلا الطرفين لاحتمال الانفصال، حتى أن العقود تتضمن بنودًا تسمح بتقييد وصول كل طرف إلى أحدث تقنيات الطرف الآخر. قد يتعثر أيضًا التعاون في مشروع مركز البيانات “Stargate” نتيجة لذلك. (المصدر: الكشف عن خلافات متعددة بين الرئيسين التنفيذيين، هل “أفضل تعاون” بين OpenAI و Microsoft على وشك الانهيار؟)

دراسة تشير إلى أن قدرة وكلاء برمجة الذكاء الاصطناعي تنمو بشكل أسي: نقلت AI Digest عن دراسة METR أن مدة المهام التي يمكن لوكلاء برمجة الذكاء الاصطناعي إنجازها (مقاسة بالوقت الذي يحتاجه الخبراء البشريون) تنمو بشكل أسي. بين عامي 2019 و 2025، تضاعفت هذه المدة كل 7 أشهر تقريبًا؛ بينما تسارعت في الفترة 2024-2025 لتتضاعف كل 4 أشهر. يمكن لوكلاء الذكاء الاصطناعي الرائدين حاليًا التعامل مع مهام برمجية تتطلب حوالي ساعة واحدة من العمل البشري. إذا استمر هذا الاتجاه المتسارع، فقد يتمكنون بحلول عام 2027 من إنجاز مهام تصل مدتها إلى 167 ساعة (حوالي شهر واحد). يعتقد الباحثون أن هذا التحسن السريع في القدرة قد ينبع من تحسين كفاءة الخوارزميات وتأثير الدورة الإيجابية لمشاركة الذكاء الاصطناعي نفسه في البحث والتطوير، وقد يؤدي إلى “انفجار ذكاء البرمجيات”، مما يحدث تأثيرًا تحويليًا على مجالات مثل تطوير البرمجيات والبحث العلمي. (المصدر: ولادة قانون مور الجديد: قدرة وكلاء الذكاء الاصطناعي تتضاعف كل 4 أشهر، انفجار الذكاء وشيك)

JetBrains تفتح مصدر نموذج إكمال الكود Mellem: فتحت JetBrains مصدر نموذج Mellum على Hugging Face. هذا نموذج صغير وفعال “نموذج بؤري” (focal model)، مصمم ومدرب خصيصًا لمهام إكمال الكود. ذكرت JetBrains أن هذا هو الأول في سلسلة من نماذج LLM الموجهة للمطورين التي تطورها. توفر هذه الخطوة للمطورين خيار نموذج مفتوح المصدر خفيف الوزن مخصص لسيناريوهات إكمال الكود. (المصدر: ClementDelangue)
Mem0 تنشر بحثًا عن ذاكرة طويلة الأمد قابلة للتطوير، بأداء يتفوق على OpenAI Memory: شاركت شركة الذكاء الاصطناعي الناشئة Mem0 نتائج أبحاثها حول “بناء ذاكرة طويلة الأمد قابلة للتطوير على مستوى الإنتاج لوكلاء الذكاء الاصطناعي”. حقق البحث أداءً متطورًا (SOTA) في اختبار LOCOMO القياسي، ويُقال إنه يتفوق على دقة OpenAI Memory بنسبة 26%. هنأ Blader الفريق وكشف عن كونه مستثمرًا. يشير هذا إلى تحقيق تقدم جديد في قدرات الذاكرة لوكلاء الذكاء الاصطناعي، مما قد يعزز قدرة الوكلاء على التعامل مع المهام المعقدة طويلة الأجل. (المصدر: blader)
Uniview تطلق وكيل AIoT الذكي، لدفع التحول الذكي في الصناعة: في مؤتمر الشركاء في شيان، أطلقت Uniview مفهوم وكيل AIoT الذكي ومصفوفة منتجاته. يُعرَّف وكيل AIoT الذكي بأنه جهاز طرفي سحابي يدمج قدرات النماذج الكبيرة، ويمتلك قدرات الإدراك والتفكير والذاكرة والتنفيذ، ويهدف إلى دمج قدرات الذكاء الاصطناعي بشكل أعمق في سيناريوهات الأمن وإنترنت الأشياء. استنادًا إلى نموذج Wutong AIoT الكبير الذي طورته ذاتيًا، قامت Uniview ببناء منتجات وكيل ذكي متكاملة من السحابة إلى الطرف، بما في ذلك منصة تطبيقات النماذج الكبيرة، والأجهزة المتكاملة الطرفية، و NVR، و AI BOX، والكاميرات الذكية، بهدف تحقيق أعمال ذكية “كل شيء قابل للدردشة”، مثل المراقبة والتحكم الذكي، وتحليل البيانات، وإدارة التشغيل والصيانة. يُنظر إلى هذه الخطوة على أنها استجابة لاتجاهات تمكين النماذج الكبيرة مثل DeepSeek، بهدف اغتنام فرصة التغيير في صناعة AIoT. (المصدر: تغيير كبير، اقتحام منطقة وكيل AIoT الذكي المجهولة، اشتعال المنافسة بين “عمالقة الأمن” مرة أخرى)

تراجع الاهتمام بالروبوتات البشرية، وسوق الإيجار يواجه برودًا: بعد الشهرة الكبيرة التي حظيت بها روبوتات Unitree في حفل رأس السنة الصينية، شهد سوق تأجير الروبوتات البشرية ازدهارًا لفترة، حيث وصل الإيجار اليومي إلى 15 ألف يوان. ومع ذلك، مع تلاشي الحداثة ومحدودية سيناريوهات التطبيق العملي للروبوتات، يشهد الطلب في السوق والأسعار انخفاضًا ملحوظًا. انخفض الإيجار اليومي لـ Unitree G1 إلى 5000-8000 يوان. يقول العاملون في الصناعة إن الروبوتات البشرية تُستخدم حاليًا بشكل أساسي كأداة تسويقية، ومعدل إعادة الشراء منخفض، والطلبات غير مشبعة. من الناحية الفنية، لا يزال إكمال الروبوتات للحركات المعقدة يتطلب الكثير من التصحيح، والوظائف العملية بحاجة إلى تطوير. تواجه الصناعة تحدي التحول من “أداة جذب الانتباه” إلى “أداة عملية”، ولا يزال تحقيق الجدوى التجارية يتطلب وقتًا. (المصدر: روبوتات Unitree لم تعد تُستأجر, هل وصفها بشركة مؤثرات بصرية نعمة لـ Zhongqing و Unitree؟)

🧰 الأدوات
Splitti: تطبيق إدارة جداول مدفوع بالذكاء الاصطناعي: Splitti هو تطبيق أصلي لإدارة الجداول يعتمد على الذكاء الاصطناعي، ويحظى باهتمام خاص من مستخدمي ADHD. يفهم التطبيق أوصاف المهام التي يدخلها المستخدم باللغة الطبيعية من خلال الذكاء الاصطناعي، ويقوم تلقائيًا بتقسيم المهام، وتحديد الوقت المقدر والمواعيد النهائية، ويقوم بالتخطيط والتذكير بشكل شخصي بناءً على حالة المستخدم الفردية (مثل المهنة، نقاط الألم). يمكن للذكاء الاصطناعي أيضًا إنشاء مخطط رباعي “هام/عاجل” للمهام وتخطيط الجدول الزمني تلقائيًا بناءً على مهام متعددة. نموذج التسعير الخاص به فريد من نوعه، حيث يعتمد على مستوى ذكاء نموذج الذكاء الاصطناعي الذي يمكن للمستخدم استخدامه (بسيط، أكثر ذكاءً، الأكثر تقدمًا) بدلاً من عدد الميزات. يهدف Splitti إلى تقليل العبء المعرفي على المستخدمين بشكل كبير عند تخطيط الجداول الزمنية من خلال الذكاء الاصطناعي، ليشبه مدربًا شخصيًا أكثر من كونه تقويمًا إلكترونيًا تقليديًا. (المصدر: تقويم ذكاء اصطناعي بقيمة 78 يوانًا شهريًا، عالج “صعوبة البدء” لدي)

Nous Research تطلق إطار Atropos RL: فتحت Nous Research مصدر Atropos، وهو إطار عمل موزع للتعلم المعزز (RL). يهدف الإطار إلى دعم تجارب RL واسعة النطاق، ودفع أبحاث الاستدلال والمواءمة في عصر LLM. سيتم دمج Atropos في منصة Psyche التابعة لـ Nous Research. شرح عضو الفريق @rogershijin بيئات RL في بودكاست Latent Space. (المصدر: Teknium1, Teknium1)

Qdrant تساعد Dust على تحقيق بحث متجهي واسع النطاق: ساعدت قاعدة بيانات المتجهات Qdrant منصة تطوير الذكاء الاصطناعي Dust في حل مشكلات قابلية التوسع في البحث المتجهي. واجهت Dust تحديات في إدارة أكثر من 1000 مجموعة مستقلة، وضغط ذاكرة RAM، وزمن استجابة الاستعلام. من خلال الانتقال إلى Qdrant، والاستفادة من ميزاتها مثل المجموعات متعددة المستأجرين، والتكميم القياسي، والنشر الإقليمي، نجحت Dust في توسيع نطاق البحث المتجهي لأكثر من 5000 مصدر بيانات إلى مستوى الملايين، وحققت زمن استجابة استعلام أقل من الثانية. (المصدر: qdrant_engine)

واجهة مستخدم LlamaFactory تدعم تبديل وضع التفكير في Qwen3: تم تحديث واجهة مستخدم Gradio الخاصة بـ LlamaFactory الآن لدعم تمكين أو تعطيل وضع “التفكير” في نموذج Qwen3 أثناء التفاعل. يوفر هذا للمستخدمين خيارات تحكم أكثر مرونة، مما يسمح باختيار طريقة استدلال النموذج (استجابة سريعة أو استدلال تدريجي) بناءً على متطلبات المهمة. (المصدر: _akhaliq)
Kling AI تطلق مؤثر فيديو “بولارويد”: أضافت أداة إنشاء الفيديو Kling AI ميزة “Instant Film Effect”، والتي يمكنها تحويل صور السفر والصور الجماعية وصور الحيوانات الأليفة للمستخدمين إلى تأثيرات فيديو ديناميكية بأسلوب بولارويد ثلاثي الأبعاد. (المصدر: Kling_ai)
LangGraph يُستخدم بواسطة Cisco لأتمتة DevOps: تستخدم Cisco إطار عمل LangGraph من LangChain لبناء وكلاء ذكاء اصطناعي لتحقيق الأتمتة الذكية لسير عمل DevOps. يمكن لهذا الوكيل تنفيذ مهام مثل الحصول على بيانات مستودع GitHub، والتفاعل مع واجهات برمجة تطبيقات REST، وتنظيم عمليات CI/CD المعقدة، مما يوضح إمكانات LangGraph في سيناريوهات الأتمتة المؤسسية. (المصدر: hwchase17)
مطور يستخدم مساعد الذكاء الاصطناعي لتطوير منصة بيانات “Bijian Shuju” في 7 أيام: شارك المطور Zhou Zhi تجربته في استخدام مساعد برمجة الذكاء الاصطناعي (Claude 3.7, Trae) ومنصة تطوير منخفضة التعليمات البرمجية لتطوير منصة تحليل بيانات المحتوى “Bijian Shuju” بشكل مستقل في 7 أيام. توفر المنصة لوحة معلومات بيانات المبدعين، وتحليل محتوى دقيق، وملفات تعريف المبدعين، ورؤى حول الاتجاهات. يسجل المقال بالتفصيل عملية التطوير، مؤكدًا على الدور المسرع للذكاء الاصطناعي في مراحل مثل تحديد المتطلبات، ومعالجة البيانات، وتطوير الخوارزميات، وبناء الواجهة الأمامية، وتحسين الاختبار، مما يوضح إمكانية تحقيق المطورين الأفراد لأفكار المنتجات بسرعة في عصر الذكاء الاصطناعي. (المصدر: استخدمت Trae للبرمجة لمدة 7 أيام لتطوير بيانات Cimi، مجانًا!)

نموذج Qwen3 خفيف الوزن يمكن تشغيله في المتصفح: تم تحقيق تشغيل نموذج Qwen3-0.6B في المتصفح باستخدام WebGPU، بسرعة تصل إلى 36.6 token/s في بيئة بطاقة رسومات 3080Ti. يمكن للمستخدمين تجربته عبر الإنترنت من خلال Hugging Face Spaces. يوضح هذا جدوى تشغيل النماذج الصغيرة على الأجهزة الطرفية. (المصدر: karminski3)

يمكن تشغيل Qwen3-30B على أجهزة كمبيوتر بوحدة معالجة مركزية منخفضة المواصفات: أفاد المستخدمون بأنهم نجحوا في تشغيل نسخة q4 الكمية من Qwen3-30B-A3B على جهاز كمبيوتر شخصي يحتوي على 16 جيجابايت فقط من ذاكرة RAM وبدون وحدة معالجة رسومات منفصلة باستخدام llama.cpp، بسرعة تتجاوز 10 tokens/s. يشير هذا إلى أنه حتى النماذج المتقدمة متوسطة الحجم، بعد التكميم، يمكنها تحقيق أداء قابل للاستخدام على أجهزة ذات موارد محدودة، مما يقلل من عتبة التشغيل المحلي. (المصدر: Reddit r/LocalLLaMA)
الذكاء الاصطناعي يمكّن رقمنة تدوين الشطرنج المكتوب بخط اليد: قام أستاذ في الطب بتطبيق تقنية Vision Transformer التي يستخدمها لرقمنة السجلات الطبية المكتوبة بخط اليد بنجاح لإنشاء تطبيق ويب مجاني chess-notation.com. يمكن للتطبيق تحويل صور تدوين الشطرنج المكتوبة بخط اليد إلى تنسيق ملف PGN، مما يسهل استيرادها إلى منصات مثل Lichess أو Chess.com للتحليل وإعادة التشغيل. يجمع التطبيق بين التعرف على الصور بالذكاء الاصطناعي ووظائف التحقق والتصحيح من مكتبة PyChess PGN، مما يحسن دقة معالجة السجلات المعقدة المكتوبة بخط اليد. (المصدر: Reddit r/MachineLearning)
📚 دراسات وأبحاث
شرح متعمق لبروتوكول سياق النموذج (MCP): MCP (Model Context Protocol) هو بروتوكول مفتوح يهدف إلى توحيد تفاعل نماذج اللغة الكبيرة (LLM) مع الأدوات والخدمات الخارجية. إنه لا يحل محل Function Calling، ولكنه يعتمد على Function Calling لتوفير مواصفات موحدة لاستدعاء الأدوات، مثل معيار واجهة صندوق الأدوات. تختلف آراء المطورين حوله: تستفيد تطبيقات العميل المحلية (مثل Cursor) بشكل كبير، حيث يمكنها توسيع قدرات مساعد الذكاء الاصطناعي بسهولة؛ لكن التنفيذ من جانب الخادم يواجه تحديات هندسية (مثل التعقيد الناجم عن آلية الارتباط المزدوج المبكرة، والتي تم تحديثها لاحقًا إلى HTTP القابل للبث)، ويمتلئ السوق الحالي بعدد كبير من أدوات MCP منخفضة الجودة أو الزائدة عن الحاجة، مع الافتقار إلى نظام تقييم فعال. يعد فهم جوهر MCP وحدود تطبيقه أمرًا بالغ الأهمية للاستفادة من إمكاناته. (المصدر: dotey, MCP جيد، لكنه ليس حلاً سحريًا)

أهمية هوية مقدم التغذية الراجعة في RLHF: يشير John Schulman إلى أنه عند استخدام التعلم المعزز من خلال التغذية الراجعة البشرية (RLHF)، فإن ما إذا كان الشخص الذي يجمع ملاحظات التفضيل (مثل “أيهما أفضل، A أم B؟”) هو السائل الأصلي أم طرف ثالث، يمثل مشكلة مهمة وغير مدروسة بشكل كافٍ. يتكهن بأنه عندما يكون السائل والمعلق هو نفس الشخص (خاصة في حالة قيام المستخدم بالتعليق بنفسه)، فمن الأسهل أن يؤدي ذلك إلى سلوك “التملق” (sycophancy) في النموذج، أي ميل النموذج إلى إنشاء إجابات قد يحبها المستخدم بدلاً من الإجابات المثلى موضوعيًا. يشير هذا إلى الحاجة إلى مراعاة تأثير مصدر التغذية الراجعة على تحيز سلوك النموذج عند تصميم عمليات RLHF. (المصدر: johnschulman2, teortaxesTex)

CameraBench: مجموعة بيانات وطرق لدفع فهم الفيديو رباعي الأبعاد: نشر Chuang Gan وآخرون CameraBench، وهي مجموعة بيانات وطرق مرتبطة بها تهدف إلى دفع فهم الفيديو رباعي الأبعاد (الذي يتضمن معلومات زمنية ومكانية ثلاثية الأبعاد)، وهي متاحة الآن على Hugging Face. أكد الباحثون على أهمية فهم حركة الكاميرا في الفيديو، ويعتقدون أن هناك حاجة إلى المزيد من هذه الموارد لتعزيز التنمية في هذا المجال. (المصدر: _akhaliq)
أبحاث NAACL 2025 حول معالجة اللغات الأفريقية و VQA متعدد الثقافات: قدم فريق David Ifeoluwa Adelani في مؤتمر NAACL 2025 أربع أوراق بحثية تغطي التطورات المهمة في معالجة اللغات الطبيعية (NLP) للغات الأفريقية: بما في ذلك معيار التقييم IrokoBench للغات الأفريقية ومجموعة بيانات الكشف عن خطاب الكراهية AfriHate؛ ومجموعة بيانات أسئلة وأجوبة مرئية متعددة اللغات ومتعددة الثقافات WorldCuisines؛ ودراسة تقييم LLM للسياق النيجيري. تساعد هذه الأعمال في سد الفجوة في اللغات منخفضة الموارد والثقافات المتعددة في أبحاث الذكاء الاصطناعي. (المصدر: sarahookr)

DiLoCo يحسن أداء nanoGPT: نجح Fern في دمج DiLoCo (Distributional Low-Rank Composition) مع نسخة معدلة من nanoGPT، وأظهرت التجارب أن هذه الطريقة يمكن أن تقلل الخطأ بنسبة 8-9٪ تقريبًا مقارنة بالخط الأساسي. يوضح هذا إمكانات DiLoCo في تحسين أداء نماذج اللغة الصغيرة، ويقترح اتجاهات تجريبية مستقبلية يمكن استكشافها. (المصدر: Ar_Douillard)

تقييم LiveCodeBench: الديناميكية والقيود: قام Xeophon بتحليل LiveCodeBench، وهو معيار لتقييم قدرات البرمجة. ميزته تكمن في التحديث الدوري للمسائل للحفاظ على حداثتها ومنع النماذج من “حفظ الحلول”. ومع ذلك، مع التحسن الكبير في قدرة LLM على مهام من نوع LeetCode ذات الصعوبة البسيطة والمتوسطة، قد يواجه هذا المعيار صعوبة في التمييز الفعال بين الفروق الدقيقة للنماذج الرائدة. يشير هذا إلى الحاجة إلى معايير تقييم برمجية أكثر تحديًا وتنوعًا. (المصدر: teortaxesTex, StringChaos)

Softpick: آلية انتباه جديدة بديلة لـ Softmax: تقترح ورقة بحثية أولية Softpick، باستخدام Rectified Softmax كبديل لـ Softmax في آلية الانتباه التقليدية. يرى المؤلفون أن فرض Softmax القياسي لمجموع الاحتمالات ليكون 1 ليس ضروريًا، ويؤدي إلى مشاكل مثل غرق الانتباه (attention sink) وقيم تنشيط الحالة المخفية الكبيرة جدًا. يهدف Softpick إلى حل هذه المشكلات، وقد يجلب اتجاهات تحسين جديدة لبنية Transformer. (المصدر: danielhanchen)

DSPy يحسن أوامر LLM لتقليل الهلوسة في مجال الكيمياء: نشرت مجلة Journal of Chemical Information and Modeling ورقة بحثية توضح كيف يمكن لاستخدام إطار عمل DSPy لبناء وتحسين أوامر LLM أن يقلل بشكل كبير من الهلوسة في مجال الكيمياء. من خلال تحسين برنامج DSPy، قللت الدراسة خطأ RMS في التنبؤ بمساحة السطح القطبية الطوبولوجية الجزيئية (TPSA) بنسبة 81%. يشير هذا إلى أن تحسين الأوامر البرمجية (مثل DSPy) له إمكانات في تعزيز دقة وموثوقية تطبيقات LLM في المجالات المتخصصة. (المصدر: lateinteraction)

تفكير حول تعزيز الإبداع الاختراقي للمؤسسات في عصر الذكاء الاصطناعي: يستكشف المقال كيفية تحفيز قدرة الابتكار الاختراقي للمؤسسات في عصر الذكاء الاصطناعي. تشمل العوامل الرئيسية: توقعات القادة للابتكار (تقليل عدم اليقين من خلال تأثير روزنتال)، والقيادة التضحوية، والاهتمام برأس المال البشري، وخلق شعور معتدل بندرة الموارد لتحفيز الرغبة في المخاطرة، والتطبيق المعقول لتقنية الذكاء الاصطناعي (التأكيد على تعزيز التعاون بين الإنسان والآلة بدلاً من الاستبدال)، والاهتمام وإدارة توتر التعلم لدى الموظفين الناتج عن اليقظة تجاه الذكاء الاصطناعي (الاستغلال مقابل الاستكشاف). يرى المقال أنه من خلال بناء بيئة تنظيمية داعمة، يمكن تعزيز الإبداع الاختراقي بشكل فعال. (المصدر: في عصر الذكاء الاصطناعي، كيف نعزز الإبداع الاختراقي للمؤسسات؟)

💼 الأعمال
Duolingo تعلن أنها أصبحت شركة تعتمد على الذكاء الاصطناعي أولاً: بعد Shopify، أعلن الرئيس التنفيذي لمنصة تعلم اللغات Duolingo أيضًا أن الشركة ستتبنى استراتيجية تعتمد على الذكاء الاصطناعي أولاً. تشمل الإجراءات المحددة: التوقف التدريجي عن استخدام المتعاقدين لإنجاز المهام التي يمكن للذكاء الاصطناعي التعامل معها؛ دمج القدرة على استخدام الذكاء الاصطناعي في معايير التوظيف وتقييم الأداء؛ زيادة القوى العاملة فقط عندما لا يمكن تحقيق المزيد من الأتمتة؛ يجب على معظم الأقسام تغيير طرق عملها بشكل جذري لدمج الذكاء الاصطناعي. يمثل هذا تأثيرًا عميقًا للذكاء الاصطناعي على الهيكل التنظيمي للشركات واستراتيجيات الموارد البشرية. (المصدر: op7418)

Kunlun Wanwei تكشف عن تقدم تجاري في أعمال الذكاء الاصطناعي، لكنها تواجه تحديات الخسارة: كشفت Kunlun Wanwei لأول مرة في تقريرها المالي لعام 2024 عن بيانات تجارية لأعمال الذكاء الاصطناعي: تجاوزت الإيرادات الشهرية للتواصل الاجتماعي بالذكاء الاصطناعي مليون دولار أمريكي، وبلغت الإيرادات السنوية المتكررة (ARR) للموسيقى بالذكاء الاصطناعي حوالي 12 مليون دولار أمريكي، مما يدل على أن بعض تطبيقات الذكاء الاصطناعي قد وجدت توافقًا أوليًا بين المنتج والسوق (PMF). ومع ذلك، لا تزال الشركة ككل تواجه خسائر، حيث بلغت الخسارة الصافية غير المتكررة 1.6 مليار في عام 2024، واستمرت الخسارة في الربع الأول من عام 2025 بمقدار 770 مليون، ويرجع ذلك أساسًا إلى الاستثمار الضخم في البحث والتطوير في مجال الذكاء الاصطناعي (وصل إلى 1.54 مليار في عام 2024). تتبنى Kunlun Wanwei استراتيجية “النموذج + التطبيق”، مع التركيز على تطوير مساعد Tiangong AI، والموسيقى بالذكاء الاصطناعي (Mureka)، والتواصل الاجتماعي بالذكاء الاصطناعي، واستخدام الذكاء الاصطناعي لتحديث الأعمال التقليدية مثل Opera، سعيًا لإيجاد مساحة بقاء متمايزة في المحيط الأزرق للذكاء الاصطناعي، بهدف تحقيق الربحية في أعمال نماذج الذكاء الاصطناعي الكبيرة بحلول عام 2027. (المصدر: شركات الذكاء الاصطناعي المتوسطة تسعى للبقاء في وضع صعب)

مولد الصور الرمزية بالذكاء الاصطناعي Aragon AI يحقق إيرادات سنوية بقيمة 10 ملايين دولار: Aragon AI، التي أسسها الصيني Wesley Tian، تستخدم تقنية الذكاء الاصطناعي لإنشاء صور شخصية احترافية وصور رمزية بأنماط متعددة للمستخدمين، وقد وصلت إيراداتها السنوية المتكررة (ARR) إلى 10 ملايين دولار أمريكي، بفريق مكون من 9 أشخاص فقط. تحل الخدمة مشكلة التكلفة العالية والعملية المرهقة لالتقاط صور الهوية التقليدية، حيث يحتاج المستخدمون فقط إلى تحميل الصور واختيار التفضيلات لإنشاء عدد كبير من الصور الرمزية الواقعية بسرعة. يُعزى نجاحها إلى اختيار المسار الصحيح (الطلب القوي على تحرير الصور بالذكاء الاصطناعي، ونموذج العمل الناضج)، والتكرار السريع للمنتج، والتسويق الذكي عبر وسائل التواصل الاجتماعي. توضح حالة Aragon AI إمكانات تطبيقات الذكاء الاصطناعي في تحقيق النجاح التجاري في المجالات المتخصصة من خلال حل نقاط الألم لدى المستخدمين. (المصدر: هذا الشاب الصيني، يعمل في مجال الصور الرمزية بالذكاء الاصطناعي، ويحقق 10 ملايين دولار سنويًا)

🌟 المجتمع
تجربة القيادة الذاتية لـ Waymo: تقنية مثيرة للإعجاب ولكنها تصبح مملة بسهولة: شاركت المستخدمة Sarah Hooker تجربتها في الاستخدام المتكرر لخدمات القيادة الذاتية من Waymo. تعتقد أن تقنية Waymo مثيرة للإعجاب للغاية، خاصة المستوى الذي وصلت إليه من خلال التراكم المستمر لتحسينات الأداء الصغيرة. ومع ذلك، ذكرت أيضًا أن هذه التجربة سرعان ما تصبح “مملة”، وتحول وقت الركوب إلى وقت للتفكير. يعكس هذا الظاهرة الشائعة المتمثلة في تحول تجربة المستخدم من الحداثة إلى الرتابة بعد وصول تقنية القيادة الذاتية الحالية إلى درجة عالية من الموثوقية. (المصدر: sarahookr)
التحيز وعدم الدقة في الصور التي ينشئها الذكاء الاصطناعي: انتقد المستخدم teortaxesTex الصور التي أنشأها Google AI لظهور تحيزات خطيرة في تمثيل نسب أجسام الأعراق المختلفة، مثل تصوير النساء الهنديات بحجم قرود الكبوشي. يسلط هذا الضوء مرة أخرى على مشكلة التحيز المحتملة في نماذج الذكاء الاصطناعي (خاصة نماذج إنشاء الصور) في بيانات التدريب والخوارزميات، والتحديات التي تواجهها في عكس تنوع العالم الحقيقي بدقة. (المصدر: teortaxesTex)

أزمة الثقة البشرية في عصر الذكاء الاصطناعي: تعكس المناقشات على منصات التواصل الاجتماعي قلقًا واسع النطاق بشأن المحتوى الذي ينشئه الذكاء الاصطناعي. نظرًا لصعوبة التمييز بين المحتوى الأصلي البشري والنصوص/الصور التي ينشئها الذكاء الاصطناعي، تظهر فجوة ثقة في التواصل عبر الإنترنت. يميل المستخدمون إلى الشك في صحة المحتوى، وينسبون المحتوى “الآلي جدًا” أو “المثالي” إلى الذكاء الاصطناعي، مما يجعل التعبير الصادق والمناقشات العميقة أكثر صعوبة. قد تعيق هذه العقلية “الشك في الجار” التواصل الفعال ومشاركة المعرفة. (المصدر: Reddit r/ArtificialInteligence)
تطبيقات مساعد الذكاء الاصطناعي تسعى إلى الطابع الاجتماعي لتعزيز ولاء المستخدم: تضيف تطبيقات الذكاء الاصطناعي مثل Kimi و Tencent Yuanbao و ByteDance Doubao ميزات مجتمعية أو اجتماعية. يختبر Kimi مجتمع “اكتشف” داخليًا، يشبه دائرة الأصدقاء، ويشجع على مشاركة محادثات الذكاء الاصطناعي والنصوص والصور، مع وجود معلقين من الذكاء الاصطناعي لتوجيه المناقشة، بجو يشبه Zhihu في بداياته. يندمج Yuanbao بعمق في نظام WeChat البيئي، ليصبح جهة اتصال ذكاء اصطناعي يمكن الدردشة معها مباشرة. يتم تضمين Doubao أيضًا في قائمة رسائل Douyin. تهدف هذه الخطوة إلى حل مشكلة “الاستخدام والمغادرة” لأدوات الذكاء الاصطناعي، وتعزيز ولاء المستخدمين من خلال التفاعل الاجتماعي وتراكم المحتوى، والحصول على بيانات التدريب، وبناء حواجز تنافسية. ومع ذلك، يواجه بناء المجتمع بنجاح تحديات مثل جودة المحتوى، وتحديد موقع المستخدم، والتوازن التجاري. (المصدر: Yuanbao و Doubao يخطوان في نفس النهر، كيف “تعلم” Kimi من Zhihu؟)

صور “السيلفي الرديئة” التي ينشئها الذكاء الاصطناعي تنتشر وتثير نقاشًا حول الواقعية: أصبح استخدام أوامر محددة لجعل GPT-4o ينشئ “صور سيلفي iPhone” ذات جودة رديئة (ضبابية، تعرض مفرط للضوء، تكوين عشوائي) اتجاهًا شائعًا على الإنترنت. يعتقد المستخدمون أن هذه “الصور الرديئة” تبدو أكثر واقعية من الصور المعدلة بعناية، لأنها تلتقط اللحظات غير المصقولة والمليئة بالعيوب في الحياة اليومية، وهي أقرب إلى تجربة حياة الأشخاص العاديين. تثير هذه الظاهرة نقاشات حول التجميل المفرط في وسائل التواصل الاجتماعي، وفقدان الأصالة، وكيف يمكن للذكاء الاصطناعي محاكاة “عدم الكمال” للحصول على صدى عاطفي. (المصدر: صور السيلفي الرديئة التي أنشأها GPT4o، هي في الواقع أكثر واقعية منا., Reddit r/ChatGPT, Reddit r/ChatGPT, Reddit r/ChatGPT)

تحديات مواءمة وفهم الذكاء الاصطناعي: يؤكد Jeff Ladish أنه في غياب فهم آلي لكيفية تشكيل الذكاء الاصطناعي للأهداف (goal formation)، فإن تحقيق مواءمة موثوقة للذكاء الاصطناعي أمر صعب للغاية. يعتقد أن وسائل الاختبار الحالية قادرة على التمييز بين درجة “ذكاء” الذكاء الاصطناعي، ولكن لا يوجد اختبار تقريبًا يمكنه تحديد ما إذا كان الذكاء الاصطناعي “يهتم” حقًا أو “جدير بالثقة” بشكل موثوق. يشير هذا إلى التحديات العميقة التي تواجه أبحاث أمان الذكاء الاصطناعي الحالية في ضمان مواءمة أنظمة الذكاء الاصطناعي المتقدمة مع القيم الإنسانية. (المصدر: JeffLadish)
طريقة شخصية لتقييم LLM: يقترح المستخدم jxmnop طريقة فريدة لتقييم LLM: محاولة جعل النموذج الجديد يعثر على اقتباس يتذكره ولكنه لا يستطيع تحديد مصدره بدقة. تحاكي هذه الطريقة تحديات استرجاع المعلومات في الواقع، خاصة بالنسبة للقدرة على البحث عن معلومات غامضة أو شخصية أو غير سائدة، لاختبار استرجاع المعلومات وعمق الفهم لدى النموذج. حاليًا، لم يتمكن Qwen و o4-mini من اجتياز اختباره. (المصدر: jxmnop)
مناقشات حول أخلاقيات الذكاء الاصطناعي وتأثيره الاجتماعي: تظهر في المجتمع مناقشات متعددة الجوانب حول أخلاقيات الذكاء الاصطناعي وتأثيره الاجتماعي. تشمل: المخاوف بشأن احتمال تفاقم البطالة بسبب الذكاء الاصطناعي (مستخدمو Reddit يشاركون تجارب البطالة وتوقعات الأزمات المستقبلية)؛ المخاوف بشأن استخدام الذكاء الاصطناعي للتلاعب النفسي (تجربة جامعة زيورخ)؛ مناقشة حول عتبة كفاءة مستخدمي الذكاء الاصطناعي (Sohamxsarkar يقترح متطلب IQ)؛ والتفكير في التغيرات في العلاقات الإنسانية وأسس الثقة في عصر الذكاء الاصطناعي (مثل إمكانية استخدام الذكاء الاصطناعي كصديق/معالج، والشعور العام بعدم الثقة في المحتوى الذي ينشئه الذكاء الاصطناعي). (المصدر: Reddit r/ArtificialInteligence, Reddit r/ArtificialInteligence, sohamxsarkar, 新智元)
💡 منوعات
Anduril تعرض نظام الحرب الإلكترونية المحمول Pulsar-L: أصدرت شركة تكنولوجيا الدفاع Anduril Industries النسخة المحمولة Pulsar-L من سلسلة أنظمة الحرب الإلكترونية (EW) الخاصة بها. يعرض الفيديو الترويجي قدرتها على مواجهة أسراب الطائرات بدون طيار. يؤكد مؤسس الشركة Palmer Luckey أن الفيديو هو عرض حقيقي، ويتوافق مع سياسة الشركة “بدون تصيير”، ويستخدم فقط تصورات CG للظواهر غير المرئية (مثل موجات الراديو). هناك نقاش في المجتمع حول تفاصيله التقنية (هل هو جهاز تشويش أم EMP) وأسلوب الدعاية. (المصدر: teortaxesTex, teortaxesTex)

تصور لتدريب ذكاء اصطناعي فلسفي: يقترح مستخدم Reddit فكرة مثيرة للاهتمام: تدريب ذكاء اصطناعي بشكل خاص باستخدام أعمال فيلسوف واحد أو عدة فلاسفة (مثل Marx، Nietzsche). الهدف هو استكشاف كيف يمكن لأفكار فلسفية معينة أن تشكل “نظرة العالم” وطريقة التعبير لدى الذكاء الاصطناعي، وربما من خلال الحوار مع مثل هذا الذكاء الاصطناعي، التفكير في مدى تأثر المرء بهذه الأفكار، وتشكيل نوع فريد من “المرآة المعرفية”. تشير ردود المجتمع إلى وجود محاولات مماثلة بالفعل (مثل Peter Singer AI Persona, Character.ai)، وتقترح استخدام أدوات مثل NotebookLM للتنفيذ. (المصدر: Reddit r/ArtificialInteligence)
مستشعرات كمومية رباعية الأبعاد قد تساعد في استكشاف أصل الزمكان: قد يؤدي تطوير مستشعرات كمومية رباعية الأبعاد جديدة إلى تحقيق اختراقات في أبحاث الفيزياء. وفقًا للتقارير، من المتوقع أن تساعد هذه المستشعرات العلماء على تتبع عملية ولادة الزمكان في الكون المبكر. على الرغم من عدم وجود صلة مباشرة بالذكاء الاصطناعي، إلا أن التقدم في تكنولوجيا المستشعرات وقدرات معالجة البيانات غالبًا ما يرتبط بتطبيقات الذكاء الاصطناعي، وقد يوفر مصادر بيانات وأدوات تحليل جديدة للاكتشافات العلمية المستقبلية. (المصدر: Ronald_vanLoon)
