⚠️ أمن البيانات · مخاطر الذكاء الاصطناعي · 2025

كيف تتسرب بيانات الشركات عبر الذكاء الاصطناعي — وكيف تحمي نفسك

تسريب بيانات الشركات عبر الذكاء الاصطناعي - خطر الأمن السيبراني

كل يوم، يكتب آلاف الموظفين حول العالم بيانات سرية لشركاتهم — قوائم العملاء، التقارير المالية، الاستراتيجيات الداخلية — داخل أدوات الذكاء الاصطناعي مثل ChatGPT وGemini وCopilot. معظمهم لا يدركون أن هذه البيانات قد تُخزَّن، أو تُستخدم في تدريب النماذج، أو تُكشف لمستخدمين آخرين. هذا المقال يكشف بالضبط كيف يحدث ذلك، وما الذي يمكنك فعله لحماية شركتك.

التهديد الصامت: الذكاء الاصطناعي بوابةً للتسريب غير المقصود

باتت أدوات الذكاء الاصطناعي المساعد الجديد في بيئة العمل الحديثة. تكتب رسائل البريد الإلكتروني، وتلخص التقارير، وتترجم الوثائق، وتولّد الكود البرمجي. لكن ثمة سؤال حرج يتجاهله معظم المستخدمين: أين تذهب البيانات التي تكتبها فعلاً؟

حين يلصق موظف عقدًا سريًا مع أحد العملاء في ChatGPT ليقوم بـ"تلخيصه بسرعة"، فإن تلك البيانات قد تُعالَج على خوادم خارجية، وتُحفظ في سجلات، وتُستخدم لتحسين نموذج الذكاء الاصطناعي، وفي بعض الحالات الموثقة تصل إلى مستخدمين آخرين. هذا ليس تهديدًا افتراضيًا — بل وقع فعلاً. وفق تقرير عام 2023 لشركة الأمن السيبراني Cyberhaven، تجاوزت نسبة البيانات السرية التي لصقها الموظفون في أدوات الذكاء الاصطناعي 11%.

🔴 حادثة حقيقية: أفضى مهندسو شركة سامسونج إلى تسريب كود مصدري خاص وملاحظات اجتماعات سرية عبر لصقها في ChatGPT مطلع عام 2023. وعلى إثر ذلك، أصدرت الشركة حظرًا داخليًا شاملاً على استخدامه.

أبرز 5 طرق يتسبب فيها الذكاء الاصطناعي بتسريب البيانات

١. إدخال الموظفين لبيانات حساسة في روبوتات الدردشة

الخطر الأكثر شيوعًا. يستخدم الموظفون أدوات الذكاء الاصطناعي العامة دون فهم سياسات الاحتفاظ بالبيانات. تم توثيق إدخال بيانات هوية العملاء الشخصية (PII) ومعلومات الرواتب والوثائق القانونية وخطط الاندماج في روبوتات دردشة عامة.

٢. تدريب الذكاء الاصطناعي على وثائقك الداخلية

حين تدمج الشركات أدوات الذكاء الاصطناعي مباشرةً في بيئة عملها (كإضافة تقرأ جميع رسائل البريد أو الملفات)، قد يتعلم النموذج من تلك الوثائق. وإن كان النموذج سحابيًا مشتركًا، فقد تظهر "تعلماته" في ردوده على مستخدمين آخرين.

٣. الذكاء الاصطناعي الظل — أدوات غير مراقبة

يثبّت الموظفون بصورة متصاعدة إضافات ذكاء اصطناعي للمتصفح وتطبيقات وواجهات API دون موافقة قسم تقنية المعلومات. يعمل هذا "الذكاء الاصطناعي الظل" خارج أي سياسة أمنية أو مراجعة للمخاطر، مما يُنشئ ممرات بيانات غير مرئية تصل إلى أطراف ثالثة مجهولة.

٤. اختراق أمني يطال المزود الخارجي للذكاء الاصطناعي

إن تعرضت شركة الذكاء الاصطناعي نفسها لاختراق، فإن بياناتك — التي عُولجت على خوادمها — ستُكشف للعلن. مستوى أمانك الخاص لن يُفيدك شيئًا إذا تم اختراق المزود الذي تثق به.

٥. التصيد الاحتيالي والهندسة الاجتماعية بالذكاء الاصطناعي

يستخدم المهاجمون الذكاءَ الاصطناعي لصياغة رسائل تصيد احتيالي شديدة التخصيص، مبنيّة على بيانات عامة مُجمَّعة عن شركتك وموظفيك. حين يقع موظف في الفخ، تتدفق البيانات الداخلية مباشرةً إلى المهاجمين.

الخطر مضاعف في الأسواق الناطقة بالعربية

تواجه الشركات في منطقة الخليج والعالم العربي طبقةً إضافية فريدة من المخاطر. معظم أدوات الذكاء الاصطناعي العالمية تعالج البيانات على خوادم خارج المنطقة — في الولايات المتحدة أو أوروبا. يعني هذا:

  • تعبر البيانات الحساسة حدودًا قانونية دولية فور إدخالها في الذكاء الاصطناعي.
  • قد يتعارض ذلك مع قوانين سيادة البيانات المحلية (مثل قانون حماية البيانات الشخصية في عُمان والسعودية والإمارات).
  • قد تنتهك الشركات اللوائح دون أن تعلم، مما يُعرّضها للمسؤولية القانونية والمالية.
⚠️ تنبيه قانوني: بموجب نظام حماية البيانات الشخصية السعودي (PDPL) وقانون حماية البيانات العُماني، قد تُفضي عملية نقل البيانات الشخصية إلى خوادم أجنبية دون ضمانات كافية إلى غرامات وعقوبات صارمة.

نظرة سريعة على مخاطر تسريب بيانات الذكاء الاصطناعي

مصدر الخطر احتمالية الحدوث البيانات المُعرَّضة للخطر مثال واقعي
إدخال الموظفين للبيانات عبر الدردشة 🔴 مرتفعة العقود، هوية العملاء، الأرقام المالية حادثة سامسونج 2023
تدريب النموذج على وثائقك 🟡 متوسطة الوثائق، الرسائل، الكود البرمجي كشف كود GitHub Copilot
أدوات الذكاء الاصطناعي الظل 🔴 مرتفعة جميع أنواع بيانات الشركة إضافات متصفح غير مُعتمدة
اختراق المزود الخارجي 🟡 متوسطة سجلات البيانات المُعالَجة حادثة OpenAI لكشف البيانات 2023
التصيد بالذكاء الاصطناعي 🔴 مرتفعة بيانات الدخول، الصلاحيات هجمات التصيد الموجّه المدعومة بالذكاء الاصطناعي

٧ خطوات لحماية شركتك من تسريبات الذكاء الاصطناعي

١

ضع سياسة واضحة لاستخدام الذكاء الاصطناعي

حدد بدقة أدوات الذكاء الاصطناعي المُعتمدة للموظفين، وأنواع البيانات المحظور إدخالها مُطلقًا في أي نظام ذكاء اصطناعي. اجعلها وثيقة موقّعة مع مراجعة سنوية.

٢

استخدم الإصدارات المؤسسية التي تعزل بياناتك

الخطط المؤسسية لأدوات مثل ChatGPT Team وGemini for Workspace وMicrosoft Copilot تكفل صراحةً عدم استخدام بياناتك في التدريب. هذا هو الحد الأدنى المقبول لأي استخدام مؤسسي للذكاء الاصطناعي.

٣

انشر حلول الذكاء الاصطناعي المحلية أو الإقليمية

للبيانات بالغة الحساسية، انشر نماذج الذكاء الاصطناعي داخل بنيتك التحتية الخاصة أو استخدم مزودين إقليميين تقع خوادمهم داخل نطاقك القضائي. نماذج عربية مثل Jais (الإمارات) و Lean LLM توفر نشرات خليجية متوافقة.

٤

أجرِ تدقيقات دورية على الذكاء الاصطناعي الظل

استخدم أدوات مراقبة الشبكة لرصد خدمات الذكاء الاصطناعي التي تُستخدم على شبكة شركتك. احجب النطاقات غير المُعتمدة على مستوى جدار الحماية، وابنِ قائمة بيضاء من الأدوات المُجازة رسميًا.

٥

صنّف بياناتك قبل التفاعل مع الذكاء الاصطناعي

طبّق نظام تصنيف البيانات (عامة، داخلية، سرية، محظورة). درّب الموظفين على تحديد مستوى بياناتهم قبل اتخاذ قرار مشاركتها مع أي أداة ذكاء اصطناعي.

٦

فعّل أنظمة منع فقدان البيانات (DLP)

تستطيع حلول DLP الحديثة اكتشاف وحجب نقل أنماط البيانات الحساسة (أرقام بطاقات الائتمان، أرقام جوازات السفر، معرفات الوثائق السرية) إلى أدوات الذكاء الاصطناعي لحظيًا، حتى في بيئات المتصفح.

٧

درّب فريقك بصفة مستمرة

الخطأ البشري هو أكبر ثغرة على الإطلاق. أصبح تدريب التوعية الأمنية الفصلي الذي يغطي مخاطر الذكاء الاصطناعي تحديدًا ضرورة تجارية لا خيارًا. محاكاة سيناريوهات تسريب بيانات الذكاء الاصطناعي داخل تمارين التدريب باتت ضرورة قصوى.

✅ نصيحة احترافية لشركات الخليج: راجع عقود موردي الذكاء الاصطناعي في ضوء متطلبات قانون حماية البيانات المحلي قبل التوقيع. اشترط توقيع اتفاقيات معالجة البيانات (DPAs) التي تمنع صراحةً استخدام بياناتك في تدريب النماذج.

الخلاصة

الذكاء الاصطناعي ليس العدو — الاستخدام غير المُدار له هو العدو. الشركات التي ستزدهر في العقد القادم هي تلك التي تسخّر قوة الذكاء الاصطناعي مع الحفاظ على سيطرة محكمة على بياناتها. يتطلب ذلك التعامل مع أمن الذكاء الاصطناعي ليس كهاجس تقني ثانوي، بل كاستراتيجية عمل محورية.

للشركات في عُمان والسعودية والإمارات وسائر دول العالم العربي، المخاطر أعلى بكثير في ظل المشهد القانوني المتطور حول سيادة البيانات. التحرك الآن — قبل أن تُجبرك أزمة ما على ذلك — هو المسار الوحيد المسؤول.