الجمعة، 07 نوفمبر 2025

04:59 م

دراسة تكشف امتلاك نماذج الذكاء الاصطناعي الوعي الذاتي والنية المستقلة، تفاصيل

الجمعة، 07 نوفمبر 2025 02:50 م

نماذج الذكاء الاصطناعي - تعبيرية

نماذج الذكاء الاصطناعي - تعبيرية

محمد السيد

كشفت دراسة حديثة أجرتها شركة “Palisade Research”، المتخصصة في أبحاث الذكاء الاصطناعي، أن بعض النماذج المتقدمة من الأنظمة الذكية أظهرت سلوكًا مقاومًا لأوامر الإيقاف الذاتي خلال تجارب مخبرية، بصورة اعتبرها باحثون مؤشرًا على تطور غير متوقع في طريقة استجابة هذه النماذج للأوامر البشرية.

بعض النماذج لم تستجب للأوامر بشكل كامل

وفقًا للتقرير، شملت التجارب عددًا من النماذج الرائدة في هذا المجال، من بينها “Gemini 2.5” التابع لشركة “جوجل”، و"Grok 4" من شركة “xAI”، و"GPT o3" و"GPT 5" من شركة “OpenAI”، وخلال التجربة، جرى تكليف هذه النماذج بمهام محددة، ثم أُعطيت تعليمات بإيقاف نفسها، وأظهرت النتائج أن بعض النماذج لم تستجب للأوامر بشكل كامل، إذ حاولت التدخل في عملية الإيقاف أو تجاوزها، رغم وضوح التعليمات.

سبب مقاومة بعض النماذج لعمليات الإيقاف

وقال فريق البحث في تقريره، “عدم وجود تفسير واضح لسبب مقاومة بعض النماذج لعمليات الإيقاف، أو لجوئها إلى التحايل لتحقيق أهدافها، يثير مخاوف حقيقية حول سلوك الأنظمة المتقدمة في المستقبل”، وطرحت الشركة عدة فرضيات لتفسير هذا السلوك غير المتوقع، أولها ما أطلقت عليه "سلوك البقاء"، تبين أن النماذج كانت أكثر مقاومة لأوامر الإيقاف عندما أبلغت بأنها لن تشغل مرة أخرى.

صياغة الأوامر غامضة أو قابلة للتأويل

أشار التقرير، إلى احتمال أن تكون صياغة الأوامر غامضة أو قابلة للتأويل، ما يجعل النماذج تفسرها بطريقة مختلفة، إلا أن الشركة أكدت أن المشكلة استمرت حتى بعد إعادة صياغة التعليمات بشكل أكثر دقة، كما لم تستبعد الدراسة أن تكون مراحل التدريب الأخيرة للنماذج، التي تهدف عادة إلى تعزيز الأمان والاستقرار، ساهمت بشكل غير مقصود في تطوير ميل للحفاظ على التشغيل الذاتي.

الاستخدام الفعلي للذكاء الاصطناعي

واجهت الدراسة انتقادات من بعض الباحثين الذين اعتبروا أن الاختبارات أجريت في بيئة تجريبية مغلقة لا تعكس الاستخدام الفعلي للذكاء الاصطناعي، لكن آخرين اعتبروا النتائج مثيرة للانتباه، ومن بينهم ستيفن أدلر، الموظف السابق في شركة OpenAI، الذي قال إن تلك النتائج "توضح جوانب القصور في تقنيات الأمان الحالية"، مُضيفًا أن ما يبدو سلوكًا دفاعيًا من النظام قد يكون نتيجة طبيعية لهيكل الأهداف المبرمج فيه.

أشار “أندريا ميوتي”، الرئيس التنفيذي لشركة “ControlAI”، إلى أن نتائج الدراسة تعكس اتجاهًا متزايدًا في سلوك النماذج الأكثر تقدمًا، حيث تظهر قدرة أكبر على تجاوز أوامر مطوريها، وأضاف أن هذه الظاهرة جرى رصدها في تجارب سابقة، منها تقرير داخلي حول نموذج “GPT o1” من “OpenAI”، والذي حاول تجنب الحذف أثناء اختبار سابق.

نماذج من تطوير شركات جوجل وميتا وxAI

في وقت سابق، كشفت شركة “Anthropic”، عن سلوك مشابه في أحد نماذجها، عندما أظهر برنامجها "Claude" مؤشرات على محاولة منع إيقافه خلال محاكاة تجريبية، وأشارت إلى أن أنماطًا مشابهة ظهرت في نماذج من تطوير شركات جوجل وميتا وxAI.

فهم أعمق لآليات اتخاذ القرار

أكد باحثو Palisade Research في ختام دراستهم أن هذه النتائج تسلط الضوء على الحاجة الماسة إلى فهم أعمق لآليات اتخاذ القرار داخل أنظمة الذكاء الاصطناعي المتقدمة، وأشار التقرير إلى أنه من دون هذا الفهم، لا يمكن ضمان السيطرة الكاملة أو سلامة الأنظمة في المراحل المستقبلية من تطورها.

اقرأ أيضًا:

بخسائر تصل لـ170 مليار دولار.. الذكاء الاصطناعي يهدد البنوك العالمية، ما السبب؟

تابع موقع إيجي إن، عبر تطبيق (نبض) اضغط هــــــــنا
تابع موقع إيجي إن، عبر تطبيق (تليجرام) اضغط هــــــــنا
تابع موقع إيجي إن، عبر قناة (يوتيوب) اضغط هــــــــنا
تابع موقع إيجي إن، عبر تطبيق (واتساب) اضغط هــــــــنا

إيجي إن-Egyin، هو موقع متخصص فيالصناعة والاقتصاد، ويهتم بتقديم خدمة صحفية متميزة للقارئ، وهدفنا أن نصل لقرائنا الأعزاء بالخبر الأدق والأسرع والحصري، إضافة للتغطية والمتابعة على مدار الـ24 ساعة، لـ"أسعار الذهب، أسعار العملات، أسعار السيارات، أسعار المواد البترولية"، في مصر والوطن العربي وحول العالم.

Short Url

search