⚠️ أمن البيانات · مخاطر الذكاء الاصطناعي · 2025
كل يوم، يكتب آلاف الموظفين حول العالم بيانات سرية لشركاتهم — قوائم العملاء، التقارير المالية، الاستراتيجيات الداخلية — داخل أدوات الذكاء الاصطناعي مثل ChatGPT وGemini وCopilot. معظمهم لا يدركون أن هذه البيانات قد تُخزَّن، أو تُستخدم في تدريب النماذج، أو تُكشف لمستخدمين آخرين. هذا المقال يكشف بالضبط كيف يحدث ذلك، وما الذي يمكنك فعله لحماية شركتك.
باتت أدوات الذكاء الاصطناعي المساعد الجديد في بيئة العمل الحديثة. تكتب رسائل البريد الإلكتروني، وتلخص التقارير، وتترجم الوثائق، وتولّد الكود البرمجي. لكن ثمة سؤال حرج يتجاهله معظم المستخدمين: أين تذهب البيانات التي تكتبها فعلاً؟
حين يلصق موظف عقدًا سريًا مع أحد العملاء في ChatGPT ليقوم بـ"تلخيصه بسرعة"، فإن تلك البيانات قد تُعالَج على خوادم خارجية، وتُحفظ في سجلات، وتُستخدم لتحسين نموذج الذكاء الاصطناعي، وفي بعض الحالات الموثقة تصل إلى مستخدمين آخرين. هذا ليس تهديدًا افتراضيًا — بل وقع فعلاً. وفق تقرير عام 2023 لشركة الأمن السيبراني Cyberhaven، تجاوزت نسبة البيانات السرية التي لصقها الموظفون في أدوات الذكاء الاصطناعي 11%.
الخطر الأكثر شيوعًا. يستخدم الموظفون أدوات الذكاء الاصطناعي العامة دون فهم سياسات الاحتفاظ بالبيانات. تم توثيق إدخال بيانات هوية العملاء الشخصية (PII) ومعلومات الرواتب والوثائق القانونية وخطط الاندماج في روبوتات دردشة عامة.
حين تدمج الشركات أدوات الذكاء الاصطناعي مباشرةً في بيئة عملها (كإضافة تقرأ جميع رسائل البريد أو الملفات)، قد يتعلم النموذج من تلك الوثائق. وإن كان النموذج سحابيًا مشتركًا، فقد تظهر "تعلماته" في ردوده على مستخدمين آخرين.
يثبّت الموظفون بصورة متصاعدة إضافات ذكاء اصطناعي للمتصفح وتطبيقات وواجهات API دون موافقة قسم تقنية المعلومات. يعمل هذا "الذكاء الاصطناعي الظل" خارج أي سياسة أمنية أو مراجعة للمخاطر، مما يُنشئ ممرات بيانات غير مرئية تصل إلى أطراف ثالثة مجهولة.
إن تعرضت شركة الذكاء الاصطناعي نفسها لاختراق، فإن بياناتك — التي عُولجت على خوادمها — ستُكشف للعلن. مستوى أمانك الخاص لن يُفيدك شيئًا إذا تم اختراق المزود الذي تثق به.
يستخدم المهاجمون الذكاءَ الاصطناعي لصياغة رسائل تصيد احتيالي شديدة التخصيص، مبنيّة على بيانات عامة مُجمَّعة عن شركتك وموظفيك. حين يقع موظف في الفخ، تتدفق البيانات الداخلية مباشرةً إلى المهاجمين.
تواجه الشركات في منطقة الخليج والعالم العربي طبقةً إضافية فريدة من المخاطر. معظم أدوات الذكاء الاصطناعي العالمية تعالج البيانات على خوادم خارج المنطقة — في الولايات المتحدة أو أوروبا. يعني هذا:
| مصدر الخطر | احتمالية الحدوث | البيانات المُعرَّضة للخطر | مثال واقعي |
|---|---|---|---|
| إدخال الموظفين للبيانات عبر الدردشة | 🔴 مرتفعة | العقود، هوية العملاء، الأرقام المالية | حادثة سامسونج 2023 |
| تدريب النموذج على وثائقك | 🟡 متوسطة | الوثائق، الرسائل، الكود البرمجي | كشف كود GitHub Copilot |
| أدوات الذكاء الاصطناعي الظل | 🔴 مرتفعة | جميع أنواع بيانات الشركة | إضافات متصفح غير مُعتمدة |
| اختراق المزود الخارجي | 🟡 متوسطة | سجلات البيانات المُعالَجة | حادثة OpenAI لكشف البيانات 2023 |
| التصيد بالذكاء الاصطناعي | 🔴 مرتفعة | بيانات الدخول، الصلاحيات | هجمات التصيد الموجّه المدعومة بالذكاء الاصطناعي |
حدد بدقة أدوات الذكاء الاصطناعي المُعتمدة للموظفين، وأنواع البيانات المحظور إدخالها مُطلقًا في أي نظام ذكاء اصطناعي. اجعلها وثيقة موقّعة مع مراجعة سنوية.
الخطط المؤسسية لأدوات مثل ChatGPT Team وGemini for Workspace وMicrosoft Copilot تكفل صراحةً عدم استخدام بياناتك في التدريب. هذا هو الحد الأدنى المقبول لأي استخدام مؤسسي للذكاء الاصطناعي.
للبيانات بالغة الحساسية، انشر نماذج الذكاء الاصطناعي داخل بنيتك التحتية الخاصة أو استخدم مزودين إقليميين تقع خوادمهم داخل نطاقك القضائي. نماذج عربية مثل Jais (الإمارات) و Lean LLM توفر نشرات خليجية متوافقة.
استخدم أدوات مراقبة الشبكة لرصد خدمات الذكاء الاصطناعي التي تُستخدم على شبكة شركتك. احجب النطاقات غير المُعتمدة على مستوى جدار الحماية، وابنِ قائمة بيضاء من الأدوات المُجازة رسميًا.
طبّق نظام تصنيف البيانات (عامة، داخلية، سرية، محظورة). درّب الموظفين على تحديد مستوى بياناتهم قبل اتخاذ قرار مشاركتها مع أي أداة ذكاء اصطناعي.
تستطيع حلول DLP الحديثة اكتشاف وحجب نقل أنماط البيانات الحساسة (أرقام بطاقات الائتمان، أرقام جوازات السفر، معرفات الوثائق السرية) إلى أدوات الذكاء الاصطناعي لحظيًا، حتى في بيئات المتصفح.
الخطأ البشري هو أكبر ثغرة على الإطلاق. أصبح تدريب التوعية الأمنية الفصلي الذي يغطي مخاطر الذكاء الاصطناعي تحديدًا ضرورة تجارية لا خيارًا. محاكاة سيناريوهات تسريب بيانات الذكاء الاصطناعي داخل تمارين التدريب باتت ضرورة قصوى.
الذكاء الاصطناعي ليس العدو — الاستخدام غير المُدار له هو العدو. الشركات التي ستزدهر في العقد القادم هي تلك التي تسخّر قوة الذكاء الاصطناعي مع الحفاظ على سيطرة محكمة على بياناتها. يتطلب ذلك التعامل مع أمن الذكاء الاصطناعي ليس كهاجس تقني ثانوي، بل كاستراتيجية عمل محورية.
للشركات في عُمان والسعودية والإمارات وسائر دول العالم العربي، المخاطر أعلى بكثير في ظل المشهد القانوني المتطور حول سيادة البيانات. التحرك الآن — قبل أن تُجبرك أزمة ما على ذلك — هو المسار الوحيد المسؤول.