تتجه نحو 50 % من المؤسسات حول العالم إلى تبنّي نهج «الثقة المعدومة» (Zero-Trust) في حوكمة البيانات بحلول عام 2028، مدفوعة بالانتشار المتسارع للبيانات غير الموثوقة التي يتم توليدها باستخدام تقنيات الذكاء الاصطناعي، وما يرافقها من تحديات تشغيلية وتنظيمية متزايدة.
وتشير تقديرات، نشرتها مؤسسة جارتنر في تقرير لمديري تقنية المعلومات وكبار التنفيذيين بقطاع التكنولوجيا لعام 2026، إلى أن المؤسسات لم تعد قادرة على التعامل مع البيانات بوصفها موثوقة افتراضيًا أو ناتجة عن تدخل بشري مباشر، في ظل صعوبة التمييز بين البيانات التي ينتجها الإنسان وتلك التي تولدها أنظمة الذكاء الاصطناعي، ما يفرض الحاجة إلى آليات تحقق ومصادقة أكثر صرامة، لضمان سلامة المخرجات التجارية والمالية.
مخاطر «انهيار النماذج»
تُظهر المعطيات أن نماذج اللغات الكبيرة يتم تدريبها على مزيج من بيانات الإنترنت والكتب ومستودعات الشيفرات البرمجية والأوراق البحثية، وهي مصادر بات جزء متزايد منها يحتوي على محتوى مُولّد بالذكاء الاصطناعي. ومع استمرار هذا الاتجاه، يُتوقع أن تصبح غالبية مصادر التدريب خلال السنوات المقبلة مشبعة ببيانات غير بشرية.
ويؤدي ذلك إلى زيادة احتمالات ما يُعرف بـ «انهيار النماذج»، وهي الحالة التي تفقد فيها نماذج الذكاء الاصطناعي قدرتها على تمثيل الواقع بدقة نتيجة تدريبها المتكرر على مخرجات نماذج سابقة، ما ينعكس سلبًا على جودة الاستجابات ودقة النتائج.
استثمارات متصاعدة وضغوط تنظيمية
تشير نتائج استطلاعات تقنية حديثة إلى أن 84 % من المؤسسات تتوقع زيادة مخصصات التمويل الموجهة لتقنيات الذكاء الاصطناعي التوليدي خلال عام 2026، بالتوازي مع تسارع وتيرة تبني هذه التقنيات وتوسع استخدامها في العمليات التشغيلية.
في المقابل، يُتوقع أن تشهد بعض المناطق تشديدًا في المتطلبات التنظيمية المتعلقة بالتحقق من البيانات «الخالية من الذكاء الاصطناعي»، مع تفاوت الأطر التنظيمية بين الدول، حيث تتجه بعض الجهات إلى فرض ضوابط صارمة على المحتوى المُولّد بالذكاء الاصطناعي مقابل توجهات أكثر مرونة في مناطق أخرى.
الحاجة إلى تصنيف وإدارة البيانات
تبرز الحاجة إلى امتلاك المؤسسات قدرة واضحة على التعرّف إلى البيانات المُولّدة بالذكاء الاصطناعي وتصنيفها، وهو ما يتطلب توافر أدوات تقنية متقدمة، وكفاءات متخصصة في إدارة المعلومات والمعرفة، إلى جانب حلول فعالة لإدارة البيانات الوصفية. وتُعد إدارة البيانات الوصفية النشطة عنصرًا محوريًا في هذا السياق، إذ تتيح فهرسة البيانات وتنظيمها، وتحليلها بشكل مستمر، وإطلاق التنبيهات ذات الصلة، ودعم أتمتة عمليات اتخاذ القرار عبر مختلف أصول البيانات.
مخاطر البيانات غير الموثوقة
تتضمن التوجهات المقترحة للحد من مخاطر انتشار البيانات غير الموثوقة عددًا من المسارات التنظيمية، من بينها استحداث أطر واضحة لحوكمة الذكاء الاصطناعي، وتعزيز التنسيق بين فرق الأمن السيبراني وإدارة البيانات والتحليلات، بالإضافة إلى تحديث سياسات الأمن والحوكمة القائمة، لتشمل التحديات المستجدة المرتبطة بالبيانات المُولّدة آليًا.
كما يُنظر إلى تبنّي ممارسات نشطة لإدارة البيانات الوصفية كأداة أساسية لرصد تقادم البيانات أو الحاجة إلى إعادة اعتمادها، بما يحد من تعرض الأنظمة الحيوية للأعمال لبيانات غير دقيقة أو منحازة.
لماذا تتجه المؤسسات إلى Zero-Trust؟
تنامي البيانات غير الموثوقة الناتجة عن تقنيات الذكاء الاصطناعي
صعوبة التمييز بين البيانات البشرية والبيانات المُولَّدة آليًا
مخاطر تشغيلية وتنظيمية تهدد دقة القرارات والنتائج المالية
الرقم الأبرز
%50 من المؤسسات عالميًا ستتبنّى نهج «الثقة المعدومة» في حوكمة البيانات بحلول 2028 %50 بيانات الذكاء الاصطناعي: خطر «انهيار النماذج» الإنترنت الكتب
مستودعات الشيفرات
أوراق بحثية
الاتجاه المتسارع:
مصادر التدريب أصبحت تحتوي على محتوى مُولَّد بالذكاء الاصطناعي
النتيجة المحتملة:
تدريب النماذج على مخرجات نماذج سابقة
الخطر:
فقدان القدرة على تمثيل الواقع بدقة (Model Collapse)
استثمارات متصاعدة
%84 من المؤسسات تتوقع:
- زيادة تمويل الذكاء الاصطناعي التوليدي في 2026
- توسّع الاستخدام = تزايد حجم البيانات المُولَّدة آليًا
- ضغوط تنظيمية متباينة
تشديد متوقع في بعض الدول على:
التحقق من البيانات «الخالية من الذكاء الاصطناعي»
تباين عالمي في الأطر التنظيمية:
دول بضوابط صارمة
دول بأطر أكثر مرونة
ما الذي تحتاجه المؤسسات؟
القدرة على:
التعرّف على البيانات المُولَّدة بالذكاء الاصطناعي
تصنيفها بوضوح
متطلبات أساسية:
أدوات تقنية متقدمة
كفاءات في إدارة المعلومات والمعرفة
حلول فعّالة لإدارة البيانات الوصفية
نماذج اللغات الكبيرة تُدرَّب على:
إدارة البيانات الوصفية: عامل الحسم
فهرسة وتنظيم البيانات
تحليل مستمر للبيانات
تنبيهات عند:
تقادم البيانات
الحاجة لإعادة الاعتماد
دعم أتمتة القرار عبر أصول البيانات
مسارات الحد من المخاطر
حوكمة واضحة للذكاء الاصطناعي
تنسيق بين:
الأمن السيبراني
فرق البيانات والتحليلات
تحديث سياسات:
الأمن
الحوكمة
إدارة البيانات الوصفية
وتشير تقديرات، نشرتها مؤسسة جارتنر في تقرير لمديري تقنية المعلومات وكبار التنفيذيين بقطاع التكنولوجيا لعام 2026، إلى أن المؤسسات لم تعد قادرة على التعامل مع البيانات بوصفها موثوقة افتراضيًا أو ناتجة عن تدخل بشري مباشر، في ظل صعوبة التمييز بين البيانات التي ينتجها الإنسان وتلك التي تولدها أنظمة الذكاء الاصطناعي، ما يفرض الحاجة إلى آليات تحقق ومصادقة أكثر صرامة، لضمان سلامة المخرجات التجارية والمالية.
مخاطر «انهيار النماذج»
تُظهر المعطيات أن نماذج اللغات الكبيرة يتم تدريبها على مزيج من بيانات الإنترنت والكتب ومستودعات الشيفرات البرمجية والأوراق البحثية، وهي مصادر بات جزء متزايد منها يحتوي على محتوى مُولّد بالذكاء الاصطناعي. ومع استمرار هذا الاتجاه، يُتوقع أن تصبح غالبية مصادر التدريب خلال السنوات المقبلة مشبعة ببيانات غير بشرية.
ويؤدي ذلك إلى زيادة احتمالات ما يُعرف بـ «انهيار النماذج»، وهي الحالة التي تفقد فيها نماذج الذكاء الاصطناعي قدرتها على تمثيل الواقع بدقة نتيجة تدريبها المتكرر على مخرجات نماذج سابقة، ما ينعكس سلبًا على جودة الاستجابات ودقة النتائج.
استثمارات متصاعدة وضغوط تنظيمية
تشير نتائج استطلاعات تقنية حديثة إلى أن 84 % من المؤسسات تتوقع زيادة مخصصات التمويل الموجهة لتقنيات الذكاء الاصطناعي التوليدي خلال عام 2026، بالتوازي مع تسارع وتيرة تبني هذه التقنيات وتوسع استخدامها في العمليات التشغيلية.
في المقابل، يُتوقع أن تشهد بعض المناطق تشديدًا في المتطلبات التنظيمية المتعلقة بالتحقق من البيانات «الخالية من الذكاء الاصطناعي»، مع تفاوت الأطر التنظيمية بين الدول، حيث تتجه بعض الجهات إلى فرض ضوابط صارمة على المحتوى المُولّد بالذكاء الاصطناعي مقابل توجهات أكثر مرونة في مناطق أخرى.
الحاجة إلى تصنيف وإدارة البيانات
تبرز الحاجة إلى امتلاك المؤسسات قدرة واضحة على التعرّف إلى البيانات المُولّدة بالذكاء الاصطناعي وتصنيفها، وهو ما يتطلب توافر أدوات تقنية متقدمة، وكفاءات متخصصة في إدارة المعلومات والمعرفة، إلى جانب حلول فعالة لإدارة البيانات الوصفية. وتُعد إدارة البيانات الوصفية النشطة عنصرًا محوريًا في هذا السياق، إذ تتيح فهرسة البيانات وتنظيمها، وتحليلها بشكل مستمر، وإطلاق التنبيهات ذات الصلة، ودعم أتمتة عمليات اتخاذ القرار عبر مختلف أصول البيانات.
مخاطر البيانات غير الموثوقة
تتضمن التوجهات المقترحة للحد من مخاطر انتشار البيانات غير الموثوقة عددًا من المسارات التنظيمية، من بينها استحداث أطر واضحة لحوكمة الذكاء الاصطناعي، وتعزيز التنسيق بين فرق الأمن السيبراني وإدارة البيانات والتحليلات، بالإضافة إلى تحديث سياسات الأمن والحوكمة القائمة، لتشمل التحديات المستجدة المرتبطة بالبيانات المُولّدة آليًا.
كما يُنظر إلى تبنّي ممارسات نشطة لإدارة البيانات الوصفية كأداة أساسية لرصد تقادم البيانات أو الحاجة إلى إعادة اعتمادها، بما يحد من تعرض الأنظمة الحيوية للأعمال لبيانات غير دقيقة أو منحازة.
لماذا تتجه المؤسسات إلى Zero-Trust؟
تنامي البيانات غير الموثوقة الناتجة عن تقنيات الذكاء الاصطناعي
صعوبة التمييز بين البيانات البشرية والبيانات المُولَّدة آليًا
مخاطر تشغيلية وتنظيمية تهدد دقة القرارات والنتائج المالية
الرقم الأبرز
%50 من المؤسسات عالميًا ستتبنّى نهج «الثقة المعدومة» في حوكمة البيانات بحلول 2028 %50 بيانات الذكاء الاصطناعي: خطر «انهيار النماذج» الإنترنت الكتب
مستودعات الشيفرات
أوراق بحثية
الاتجاه المتسارع:
مصادر التدريب أصبحت تحتوي على محتوى مُولَّد بالذكاء الاصطناعي
النتيجة المحتملة:
تدريب النماذج على مخرجات نماذج سابقة
الخطر:
فقدان القدرة على تمثيل الواقع بدقة (Model Collapse)
استثمارات متصاعدة
%84 من المؤسسات تتوقع:
- زيادة تمويل الذكاء الاصطناعي التوليدي في 2026
- توسّع الاستخدام = تزايد حجم البيانات المُولَّدة آليًا
- ضغوط تنظيمية متباينة
تشديد متوقع في بعض الدول على:
التحقق من البيانات «الخالية من الذكاء الاصطناعي»
تباين عالمي في الأطر التنظيمية:
دول بضوابط صارمة
دول بأطر أكثر مرونة
ما الذي تحتاجه المؤسسات؟
القدرة على:
التعرّف على البيانات المُولَّدة بالذكاء الاصطناعي
تصنيفها بوضوح
متطلبات أساسية:
أدوات تقنية متقدمة
كفاءات في إدارة المعلومات والمعرفة
حلول فعّالة لإدارة البيانات الوصفية
نماذج اللغات الكبيرة تُدرَّب على:
إدارة البيانات الوصفية: عامل الحسم
فهرسة وتنظيم البيانات
تحليل مستمر للبيانات
تنبيهات عند:
تقادم البيانات
الحاجة لإعادة الاعتماد
دعم أتمتة القرار عبر أصول البيانات
مسارات الحد من المخاطر
حوكمة واضحة للذكاء الاصطناعي
تنسيق بين:
الأمن السيبراني
فرق البيانات والتحليلات
تحديث سياسات:
الأمن
الحوكمة
إدارة البيانات الوصفية