السبت، 21 مارس 2026

12:43 م

خطأ قاتل من الذكاء الاصطناعي داخل "ميتا" يتسبب في تسريب بيانات المستخدمين

السبت، 21 مارس 2026 11:19 ص

شركة ميتا

شركة ميتا

تعرضت شركة ميتا لحادث تسريب بيانات داخلي، بعدما قدم نظام ذكاء اصطناعي توجيهات تقنية خاطئة لأحد المهندسين، ما أدى إلى كشف معلومات حساسة لفترة محدودة، في واقعة جديدة تعكس مخاطر الاعتماد المتزايد على الذكاء الاصطناعي داخل الشركات الكبرى.

حل مشكلة هندسية عبر منصة داخلية

وبحسب تقارير إعلامية، بدأ الحادث عندما طلب أحد الموظفين دعمًا لحل مشكلة هندسية عبر منصة داخلية، ليتلقى ردًا من نظام ذكاء اصطناعي يقترح إجراءً تقنيًا، وبمجرد تنفيذ التعليمات، انكشفت كميات من بيانات المستخدمين ومعلومات الشركة أمام عدد من المهندسين لمدة ساعتين تقريبًا، قبل احتواء الموقف.

وأكدت الشركة وقوع الحادث، لكنها شددت على عدم إساءة استخدام بيانات المستخدمين، مشيرة إلى أن الخطأ قد يحدث أيضًا نتيجة تدخل بشري، في محاولة لاحتواء تداعيات الواقعة التي أثارت قلقًا واسعًا داخل أروقة الشركة.

الحادث دفع "ميتا" إلى إعلان حالة تأهب أمني داخلي، وسط مراجعة شاملة لآليات استخدام أنظمة الذكاء الاصطناعي، خاصة ما يعرف بـ"الذكاء الاصطناعي الوكيل"، الذي بات قادرًا على تنفيذ مهام معقدة بشكل شبه مستقل.

ولا تعد هذه الواقعة الأولى من نوعها، إذ كشفت تقارير سابقة عن اضطرابات داخل Amazon مرتبطة بتطبيق أدوات الذكاء الاصطناعي، حيث أدى التوسع السريع في دمج هذه التقنيات إلى أخطاء تقنية وتراجع في جودة بعض الأنظمة.

منح الأنظمة صلاحيات واسعة دون ضوابط كافية

ويرى خبراء أن هذه الحوادث تعكس مرحلة تجريبية تمر بها الشركات الكبرى في سباقها لتبني الذكاء الاصطناعي، محذرين من منح هذه الأنظمة صلاحيات واسعة دون ضوابط كافية، خاصة في ما يتعلق بالوصول إلى البيانات الحساسة.

ومع تسارع تطوير أدوات الذكاء الاصطناعي القادرة على العمل بشكل مستقل، تتزايد المخاوف من تداعياتها على أمن المعلومات وسوق العمل، في وقت يشهد فيه القطاع التكنولوجي تقلبات واضحة، وسط تساؤلات حول قدرة هذه الأنظمة على العمل دون رقابة بشرية صارمة.

اقرأ أيضًا:

«ميتا» توسّع بنيتها للذكاء الاصطناعي عبر اتفاق ضخم مع «نبيوس» بـ27 مليار دولار

Short Url

search