الجمعة، 04 يوليو 2025

06:37 ص

تقرير يكشف ارتفاع عدد الحوادث الأمنية المتعلقة بالذكاء الاصطناعي التوليدي

الأربعاء، 11 يونيو 2025 04:34 م

كشفت شركة بالو ألتو نتوركس، اليوم الأربعاء، عن نتائج "تقرير حالة الذكاء الاصطناعي التوليدي" والذي يستطلع مستويات اعتماد واستخدام تكنولوجيا الذكاء الاصطناعي التوليدي، وكيفية الموازنة بين ابتكارات الذكاء الاصطناعي والمعايير الأمنية من أجل ضمان التحول الآمن في كيفية عمل المؤسسات لأعوام طويلة مقبلة.

وتقوم الشركات اليوم باعتماد الذكاء الاصطناعي بوتيرة متسارعة جدًا، وبصورة مشابهة للإقبال على الحوسبة السحابية عند ظهورها، ولكن الذكاء الاصطناعي قادر على إحداث تحولات جذرية ذات أثر أوسع.

شركة بالو ألتو نتوركس

 

استخدامات الذكاء الاصطناعي التوليدي تتم في الكتابة والمحادثات والبرمجة

 

وعلى سبيل المثال، تؤدي زيادة الإنتاجية التي تشهدها بعض المؤسسات بفضل استخدام الذكاء الاصطناعي التوليدي إلى إحداث أثر اقتصادي متزايد يصل إلى 40%، وبالنظر إلى الوعود الكبيرة التي تنطوي عليها هذه التقنية، فإن الكثير من الشركات تتجه إلى استطلاع جدوى حلول الذكاء الاصطناعي الجاهزة نظرًا لما توفره من سرعة في النشر، وتكاليف يمكن احتسابها، وإمكانية الوصول إلى أحدث الخصاص التي تشتمل عليها هذه التقنية المتطورة، إلى جانب الأنظمة والتطبيقات المطوّرة داخليًا.

ووفقا للتقرير، ازدادت حركة البيانات المرتبطة بالذكاء الاصطناعي التوليدي بأكثر من 890% في عام 2024، ويُعزى هذا الارتفاع الكبير إلى نماذج الذكاء الاصطناعي التي تواصل نضجها، ومستويات الأتمتة المؤسسية المتنامية، ومستويات الاعتماد الأكبر المستندة إلى المكاسب الإنتاجية المُثبتة.

وتشير مستويات الاعتماد والاستخدام المتنامية إلى تحول الذكاء الاصطناعي التوليدي من كونه أداة وليدة إلى مرفق هام وحيوي في معظم القطاعات.

وشهدت حوادث منع فقدان البيانات (DLP) للذكاء الاصطناعي التوليدي ارتفاعًا بأكثر من الضعف، حيث ازدادت عدد الحوادث الأمنية المتعلقة بالذكاء الاصطناعي التوليدي بنحو 2.5 مرة، أي ما يشكل حاليًا نحو 14% من إجمالي حوادث أمن البيانات. وتساهم تطبيقات الذكاء الاصطناعي التوليدي في زيادة نقاط الضعف التي يمكن من خلالها فقدان البيانات، إذ يمكن أن يؤدي الاستخدام غير المسؤول أو غير المنضبط إلى تسريبات متعلقة بحقوق الملكية، ومخاوف متعلقة بالامتثال التنظيمي، إلى جانب خروقات مرتبطة بالبيانات.

تطبيقات ذكاء اصطناعي توليدي عالية الخطورة

وشهدت المؤسسات وسطياً استخدام 66 تطبيقًا للذكاء الاصطناعي التوليدي، تم تصنيف 10% منها على أنها عالية الخطورة، ويمكن للانتشار واسع النطاق في الاستخدام غير المنضبط والمنظم لأدوات الذكاء الاصطناعي التوليدي، والافتقار إلى سياسات ذكاء اصطناعي واضحة، وضغوط تسريع اعتماد الذكاء الاصطناعي دون وجود ضوابط أمنية مُحكمة، أن يؤدي إلى تعريض المؤسسات إلى مخاطر كبيرة وخاصة من تطبيقات الذكاء الاصطناعي التوليدي المصنفة على أنها عالية الخطورة.

وتنتج الغالبية العظمى (83.8%) من معاملات الذكاء الاصطناعي التوليدي من أربعة حالات استخدام أساسية هي: أدوات المساعدة في الكتابة، ووكلاء المحادثة، والبحث المؤسسي، ومنصات المطوّرين.

وتحظى هذه الأدوات بشعبية واسعة بين الموظفين لأنها تساعد في معالجة المهام اليومية المتكررة مباشرة والتي يعتمد عليها الأفراد والشركات على حد سواء:

وتقوم أدوات المساعدة في الكتابة بمساعدة الأفراد في مختلف مراحل الكتابة سواءً في صياغة رسائل البريد الإلكتروني، أو إنشاء منشورات المدوّنات، أو إعداد التقارير.
 

ويوفّر وكلاء المحادثة ردودًا فورية بلغة طبيعية على مجموعة واسعة من الأسئلة، ما يجعلهم مفيدين في مجالات خدمة العملاء، والتعلّم، وزيادة الإنتاجية.


ويُسهّل البحث المؤسسي اطّلاع الموظفين على معلومات ذات صلة وأكثر تخصيصًا ضمن كميات ضخمة من بيانات المؤسسة، وبشكل أسرع.


توفّر منصات المطورين مجموعة من الأدوات والخدمات التي تساعد المطوّرين في بناء وتدريب ونشر تطبيقات البرمجيات، بما في ذلك التطبيقات المعتمدة على الذكاء الاصطناعي الحديث.
 

أما بالنسبة لأدوات الذكاء الاصطناعي الأقل انتشارًا مثل تطبيقات إنشاء الصور ومساعدات الاجتماعات ومحرري الفيديو وغيرها من التطبيقات المتخصصة، فإنها لا تزال غير موجهة لتلبية الاحتياجات اليومية لمعظم الأفراد. ونتيجة لذلك، ستشهد هذه الأدوات اعتماداً أكثر تخصصاً يتم خلاله التركيز على المهام الإبداعية أو التشغيلية المحددة، على عكس الاستخدامات الأساسية المذكورة التي أصبحت بالفعل جزءاً لا يتجزأ من سير العمل اليومي.

وتشمل بعض أفضل ممارسات الأمان المطبقة في الذكاء الاصطناعي التوليدي ما يلي:

فهم استخدامات الذكاء الاصطناعي التوليدي والتحكم بالجوانب المسموح بها، وتنفيذ إدارة مشروطة لإمكانية الوصول من أجل تقييد استخدام منصات وتطبيقات والمزايا الإضافية للذكاء الاصطناعي التوليدي وذلك وفقاً للمستخدمين أو المجموعات، والموقع الجغرافي، ومخاطر التطبيق، والأجهزة المتوافقة، والمبررات التجارية المشروعة.


حماية البيانات الحساسة من الوصول غير المصرح به ومخاطر التسريب، وتفعيل الفحص الآني للمحتوى مع فرض تطبيق سياسات مركزية في كامل البنية التحتية، وضمان أمن البيانات بهدف المساعدة في منع الوصول غير المصرح به وإمكانية تسريب البيانات الحساسة.


حماية المؤسسات من التهديدات السيبرانية الحديثة المعززة بالذكاء الاصطناعي، وتطبيق إطار أمن بيانات قائم على مبدأ "الثقة الصفرية" (Zero Trust) من أجل الكشف عن البرمجيات الضارة والتهديدات المعقدة والمتخفية والمراوغة والتي قد تكون مدرجة داخل الإجابات التي يقدمها الذكاء الاصطناعي التوليدي وحظرها.
 

وفي هذا السياق، تساعد شركة بالو ألتو نتوركس الشركات على تلبية الحاجة الملحة لتوفير مستويات أمن عالية في ظل الاعتماد المتسارع لتقنيات الذكاء الاصطناعي، وذلك من خلال دمج أمن الذكاء الاصطناعي بالتصميم (Secure AI by Design).

اقرأ أيضًا

رقائق الذكاء الاصطناعي ترفع مبيعات شركة "TSMC" لـ 10.7 مليارات دولار في شهر مايو

Short Url

showcase
search