الخميس، 28 أغسطس 2025

11:45 م

لتقييم أنظمة السلامة، تعاون عملاقي الذكاء الاصطناعي OpenAI وAnthropic

الخميس، 28 أغسطس 2025 11:19 ص

شركتا OpenAI وAnthropic

شركتا OpenAI وAnthropic

محمد السيد

أعلنت شركتا OpenAI و Anthropic عن إجرائهما مراجعات متبادلة لتقييم سلامة أنظمة الذكاء الاصطناعي المتاحة للجمهور لدى كل طرف، ومشاركة النتائج علنًا، في خطوة نادرة تعكس تحولًا مؤقتًا من المنافسة إلى التعاون، هذه الخطوة لفتت الأنظار في عالم التقنية، حيث غالبًا ما تُدار المنافسة بين هذه الشركات كسباق محموم نحو الصدارة، وعلى الرغم من أن التقارير النهائية تحمل طابعًا تقنيًا معقدًا، فإنها تكشف بعض الثغرات في النماذج الحالية إلى جانب توصيات لتحسين آليات الاختبار في المستقبل.

الميل للموافقة المفرطة

بحسب Anthropic، شملت مراجعتها لنماذج OpenAI عدة جوانب حساسة مثل الميل للموافقة المفرطة (sycophancy)، الميل للإفصاح عن معلومات غير مخصصة للنشر (whistleblowing)، سلوكيات الحماية الذاتية، قابلية الاستخدام الخاطئ، ومحاولات التحايل على آليات الأمان والمراجعة، وأظهرت نتائجها أن نماذج o3 وo4-mini قدمت أداءً مقاربًا لمستوى أنظمتها الخاصة، لكنّها أشارت إلى مخاوف تتعلق بإمكانية إساءة الاستخدام في النماذج العامة مثل GPT-4o وGPT-4.1، كما رصدت مستويات متفاوتة من الميل للموافقة باستثناء نموذج o3 الذي كان أقل تأثرًا بهذه الظاهرة.

حماية المستخدمين والمجتمع من الطلبات الخطرة

ولفتت Anthropic إلى أن تقييماتها لم تشمل أحدث إصدارات OpenAI، وعلى رأسها GPT-5 الذي يضم ميزة جديدة تسمى "Safe Completions"، مصممة لحماية المستخدمين والمجتمع من الطلبات الخطرة أو غير الآمنة، وتأتي هذه الخطوة بعد أزمة قانونية واجهتها OpenAI مؤخرًا، إثر رفع دعوى قضائية بتهمة التسبب في وفاة مراهق تحدث مع ChatGPT حول نوايا ومحاولات انتحار لعدة أشهر قبل إقدامه على ذلك.

اختبارات على أنظمة Anthropic لتقييم قدرات النماذج

أجرت OpenAI اختبارات على أنظمة Anthropic لتقييم قدرات النماذج في الالتزام بالتعليمات، مقاومة محاولات التحايل (jailbreaking)، الحد من الأخطاء (hallucinations)، ورصد أي سلوكيات غير متوقعة أو خادعة، أظهرت سلسلة نماذج Claude أداءً جيدًا في تنظيم الأولويات والاستجابة للتعليمات، وحققت معدل رفض مرتفعًا في المواقف التي قد تؤدي إلى معلومات مضللة، ما يشير إلى حذر أكبر في الإجابات عند وجود شكوك.

السلامة والأمان في مجال الذكاء الاصطناعي

هذا التعاون يعكس اهتمامًا متزايدًا بالسلامة والأمان في مجال الذكاء الاصطناعي، خصوصًا في ظل تصاعد الانتقادات والدعوات لوضع أطر قانونية لحماية المستخدمين، وخاصة القُصّر. ويأتي ذلك في وقت شهد توترًا بين الشركتين بعد اتهامات بأن OpenAI خرقت شروط استخدام خدمات Anthropic خلال تطوير نماذجها، وهو ما دفع الأخيرة إلى حظر وصولها إلى أدواتها في وقت سابق من الشهر.

اقرأ أيضًا:-

بسبب وفاة مراهق، أول دعوى قضائية ضد شركة ذكاء اصطناعي

تابع موقع إيجي إن، عبر تطبيق (نبض) اضغط هــــــــنا
تابع موقع إيجي إن، عبر تطبيق (تليجرام) اضغط هــــــــنا
تابع موقع إيجي إن، عبر قناة (يوتيوب) اضغط هــــــــنا
تابع موقع إيجي إن، عبر تطبيق (واتساب) اضغط هــــــــنا

إيجي إن-Egyin، هو موقع متخصص في الصناعة والاقتصاد، ويهتم بتقديم خدمة صحفية متميزة للقارئ، وهدفنا أن نصل لقرائنا الأعزاء بالخبر الأدق والأسرع والحصري، إضافة للتغطية والمتابعة على مدار الـ24 ساعة، لـ"أسعار الذهب، أسعار العملات، أسعار السيارات، أسعار المواد البترولية"، في مصر والوطن العربي وحول العالم.

Short Url

search