الإثنين، 12 يناير 2026

12:36 ص

استشاري أمن سيبراني لـ"إيجي إن": لا يمكن التنبؤ بسلوك الذكاء الاصطناعي وغياب التشريعات "السر"

الأحد، 11 يناير 2026 09:06 م

الدكتور محمد عسكر- استشاري الأمن السيبراني

الدكتور محمد عسكر- استشاري الأمن السيبراني

حذّر مسؤول بارز في وكالة الأبحاث العلمية التابعة للحكومة البريطانية من أن العالم ربما لا يملك الوقت الكافي للاستعداد لمخاطر السلامة التي تفرضها أنظمة الذكاء الاصطناعي المتطورة.

قال الدكتور محمد عسكر، استشاري نظم المعلومات والأمن السيبراني، إن تحذير المسؤول يفتح باباً واسعاً للنقاش، ويرى أنه لا يعكس تشاؤمًا نظريًا بقدر ما يكشف عن قلق مؤسسي من فجوة تتسع بين القدرة على الابتكار والقدرة على السيطرة.

وأوضح استشاري نظم المعلومات والأمن السيبراني، في تصريحات خاصة لـ"إيجي إن"، أنه ومن الناحية العلمية، لا ينبع هذا القلق من فكرة أن الذكاء الاصطناعي أصبح قويًا فحسب، بل من كونه أصبح معقداً إلى درجة يصعب معها الإحاطة بسلوكه، والأنظمة الحديثة لا تعمل وفق تعليمات خطية واضحة، بل تعتمد على نماذج تعلّم عميق تُدرّب على كميات هائلة من البيانات، ما يؤدي إلى ظهور سلوكيات وقرارات لم يتوقعها المصممون أنفسهم.

وفي هذا السياق، لم يعد التحدي هو تحسين الأداء، بل فهم منطق القرار ذاته، وعندما تعجز فرق البحث عن تفسير كيفية وصول النظام إلى نتيجة معينة، تصبح اختبارات السلامة تقريبيّة بطبيعتها، وهو أمر مقلق حين يتعلق الأمر بتطبيقات تمس الأمن، الاقتصاد، الصحة، أو البنية التحتية الحيوية.

أنظمة أكثر استقلالية وقدرة على التكيف

وأكد “عسكر”، أن هذا القلق يزداد حدة بسبب طبيعة التقدم غير الخطية في هذا المجال، والتاريخ القريب لتقنيات الذكاء الاصطناعي يُظهر أن القفزات الكبرى لا تُعلن عن نفسها مسبقاً، بل تظهر فجأة، وتفرض واقعاً جديداً قبل أن تُستوعَب تداعياته، وهذا ما يجعل التحذير من ضيق الوقت صاحب معنى خاص، ولا تكمن المشكلة فقط في المخاطر المعروفة، بل في تلك التي لم تتكشف بعد، والتي قد تظهر في أنظمة أكثر استقلالية وقدرة على التكيف.

الذكاء الاصطناعي لم يعد أداة تقنية محايدة

وأشار استشاري نظم المعلومات والأمن السيبراني، إلى أنه من الناحية السياسية لا يمكن فصل هذا التصريح عن مناخ التنافس الدولي المتصاعد، والذكاء الاصطناعي لم يعد أداة تقنية محايدة، بل أصبح عنصراً أساسياً في معادلات القوة والنفوذ، والدول تنظر إليه كرافعة للتفوق الاقتصادي والعسكري، وكضمان لمكانتها في النظام العالمي القادم.

في ظل هذا السباق، يصبح التباطؤ مخاطرة استراتيجية، ويغدو التشديد التنظيمي قراراً محفوفاً بالضغوط الداخلية والخارجية، وهنا تكمن المعضلة: كيف يمكن لدولة أن تعطي الأولوية للسلامة، بينما تخشى أن يسبقها الآخرون بخطوات قد لا يمكن تعويضها لاحقاً؟.

غياب إطار دولي ملزم لتنظيم الذكاء الاصطناعي

وأضاف “عسكر”، أن هذا التوتر يتضاعف في ظل غياب إطار دولي ملزم لتنظيم الذكاء الاصطناعي المتقدم، على عكس مجالات أخرى عالية الخطورة، لا توجد حتى الآن مؤسسة عالمية تمتلك صلاحيات رقابية حقيقية أو آليات تفتيش واضحة، والنتيجة هي بيئة دولية يسودها الشك، إذ تفترض كل دولة أن الأخرى لن تلتزم بالقيود، ما يدفع الجميع إلى الاستمرار في التسارع، حتى وإن أدركوا مخاطره.

الاعتماد على خبرات القطاع الخاص لفهم المخاطر

وأوضح “عسكر”، أن الشركات التكنولوجية الكبرى إلى جانب الدول تلعب دوراً محورياً في تعقيد المشهد، وهي تمتلك البنية التحتية، والبيانات، والقدرات البحثية التي تفوق في كثير من الأحيان إمكانيات الحكومات نفسها.

يخلق هذا الواقع علاقة غير متكافئة، إذ تعتمد الدولة على خبرات القطاع الخاص لفهم المخاطر، بينما يظل هذا القطاع مدفوعاً بحوافز السوق والمنافسة، وفي هذه النقطة يتحول سؤال السلامة من مسألة تقنية إلى مسألة حوكمة: من يضع القواعد؟، ومن يملك سلطة الإبطاء أو الإيقاف إذا لزم الأمر؟.

استخدام الذكاء الاصطناعي في اتخاذ القرار

وأكد استشاري نظم المعلومات والأمن السيبراني، أن التحذير البريطاني على مستوى التأثير الإنساني، يلامس قلقاً أعمق يتعلق بمكانة الإنسان في عالم تزداد فيه القرارات المؤثرة اعتماداً على أنظمة غير بشرية، ومع توسع استخدام الذكاء الاصطناعي في مجالات التحليل والتنبؤ واتخاذ القرار، يبرز خطر فقدان الإنسان لدوره المركزي، ليس عبر الإقصاء المباشر، بل من خلال الاعتماد المتزايد على توصيات تبدو أكثر كفاءة وأقل تحيزاً، وهذا التحول، وإن كان مغرياً، يطرح تساؤلات جوهرية حول المسؤولية، والمساءلة، ومعنى الحكم الأخلاقي في عالم تُدار فيه الخيارات بواسطة خوارزميات لا تفهم العواقب الإنسانية لقراراتها.

الذكاء الاصطناعي خطر على البشرية

وأضاف “عسكر” أن لا يبدو تصريح المسؤول البريطاني محاولة لإثارة الذعر بقدر ما هو محاولة لكسر حالة الاطمئنان الزائف، والتاريخ يُظهر أن أخطر اللحظات في مسار التقدم التقني هي تلك التي يتقدم فيها الابتكار أسرع من قدرتنا على استيعابه أخلاقياً وتنظيمياً، والرسالة الضمنية هنا ليست أن الذكاء الاصطناعي خطر لا يمكن احتواؤه، بل أن الاستمرار في تطويره دون بنية سلامة متينة قد يحوّل الفرصة إلى تهديد.

العلاقة بين الإنسان والتقنية في القرن الحادي والعشرين

وأشار “عسكر” إلي أن هذا التصريح يضع العالم أمام اختبار حقيقي، هل يستطيع العالم أن ينسّق جهوده قبل أن تفرض التقنية شروطها؟ أم أن منطق السباق سيظل أقوى من منطق الحذر؟، الإجابة عن هذا السؤال لن تحدد فقط شكل الذكاء الاصطناعي في السنوات القادمة، بل ستحدد أيضاً شكل العلاقة بين الإنسان والتقنية في القرن الحادي والعشرين.

اقرأ أيضًا:

بريطانيا تحذر: العالم قد لا يملك وقتًا كافيًا للاستعداد لمخاطر الذكاء الاصطناعي

Short Url

search