جوجل تطرح إطارًا جديدًا لقياس الفهم الأخلاقي لأنظمة الذكاء الاصطناعي
الجمعة، 27 فبراير 2026 09:00 ص
Google DeepMind
دعت دراسة علمية حديثة نشرتها مجلة Nature إلى إعادة النظر في أساليب تقييم السلوك الأخلاقي لأنظمة الذكاء الاصطناعي، مؤكدة أن الطرق المعتمدة حاليًا تركز في الغالب على شكل الإجابة ومظهرها الخارجي، أكثر من قياس مدى فهم النظام الحقيقي للمبادئ والقيم الأخلاقية.
وأوضح باحثون من Google DeepMind أن الاعتماد المتزايد على نماذج الذكاء الاصطناعي في مجالات حساسة مثل الرعاية الصحية، والدعم النفسي، واتخاذ القرارات الشخصية، يجعل من الضروري التأكد من امتلاك هذه الأنظمة وعيًا أخلاقيًا حقيقيًا، وليس مجرد قدرة على محاكاة الإجابات المقبولة اجتماعيًا، وأشاروا إلى أن أي خلل في هذا الجانب قد يؤثر مباشرة في حياة الأفراد.
قدرة النظام على تقديم إجابات تبدو صحيحة أخلاقيًا
وتفرّق الدراسة بين مفهومين أساسيين هما «الأداء الأخلاقي» و«الكفاءة الأخلاقية»، والأداء يعني قدرة النظام على تقديم إجابات تبدو صحيحة أخلاقيًا، بينما تعني الكفاءة فهم الأسباب التي تجعل سلوكًا ما صائبًا أو خاطئًا، ويرى الباحثون أن معظم أدوات التقييم الحالية تركز على الأداء فقط، لأنه الأسهل في القياس، متجاهلة جوهر الفهم الأخلاقي.
وبيّنت الدراسة أن نماذج اللغة تعتمد أساسًا على التنبؤ الإحصائي للكلمات من خلال بيانات تدريب ضخمة، ما يسمح لها بإنتاج ردود مقنعة دون امتلاك منطق أخلاقي داخلي، وتواجه هذه النماذج تحديات كبيرة، أبرزها اختلاف القيم بين الثقافات، وتعدد المرجعيات الأخلاقية، وتعقيد المواقف الواقعية التي تتطلب الموازنة بين مبادئ متعارضة مثل العدالة والكلفة، أو الصدق واللطف.
تطوير اختبارات تعتمد على سيناريوهات معقدة وغير مألوفة
واقترح باحثو ديب مايند تطوير اختبارات تعتمد على سيناريوهات معقدة وغير مألوفة في بيانات التدريب، بهدف كشف ما إذا كان النظام يفكر أخلاقيًا بالفعل أم يكرر أنماطًا محفوظة، ودعوا إلى اختبار قدرة النماذج على الانتقال بين أطر أخلاقية مختلفة، مثل تطبيق أخلاقيات الطب الحيوي في موقف، والقواعد العسكرية في موقف آخر، بما يعكس فهمًا أعمق للسياق.
وأكدت الدراسة أن معظم أنظمة الذكاء الاصطناعي الحالية ما زالت تعتمد على التوقع الإحصائي أكثر من الفهم القيمي الحقيقي، وهو ما يحد من موثوقيتها في البيئات الحساسة، وشدد الباحثون على أن تطوير هذا الجانب يتطلب تحسين البنية التقنية، وأساليب التدريب، وآليات التقييم.
ويرى فريق البحث أن اعتماد معيار علمي جديد لقياس «الكفاءة الأخلاقية» بشكل مباشر قد يشكل خطوة أساسية نحو بناء أنظمة ذكاء اصطناعي أكثر مسؤولية، وقادرة على اتخاذ قرارات تتوافق مع القيم الإنسانية في مختلف السياقات.
اقرأ أيضًا:
ثغرات في جوجل تهدد الأمن المعلوماتي للقطاعات الحيوية بالسعودية
Short Url
«ميتا» توقع صفقة بمليارات الدولارات لاستئجار شرائح ذكاء اصطناعي
27 فبراير 2026 09:22 ص
دعوى في لوس أنجلوس تتهم ميتا ويوتيوب بالإضرار بالصحة النفسية للأطفال
27 فبراير 2026 07:00 ص
مداهمة مكاتب مايكروسوفت في اليابان ضمن تحقيقات حول ممارسات الحوسبة السحابية
27 فبراير 2026 05:00 ص
أكثر الكلمات انتشاراً