تسعى الدول العظمى إلى حماية قيمها وأمنها السيبراني من خلال تنظيم الذكاء الاصطناعي. ومع تزايد الهجمات السيبرانية بشكل كبير - يمكن أن يتعرض جهاز كمبيوتر غير آمن إلى 2000 هجوم يوميًا حيث أصبح الذكاء الاصطناعي (AI) الآن ضروريًا للتعامل مع الحجم الهائل من الانتهاكات. ولكن يظهر أن مطوري وباحثي الذكاء الاصطناعي متخلفون عن المنحنى. أي أن عدد مطوري الذكاء الاصطناعي يتفوق على أولئك الذين يتعاملون مع سلامته بنسبة ثلاثين إلى واحد.

وبما أن كليهما يتطور بسرعة، فإن التنظيم قد يؤدي إلى الإفراط، حيث لا يستطيع المشرعون تخمين اتجاه التطور السريع.

لذا قدم بحث درس 700 «حل فريد» من حلول الذكاء الاصطناعي للأمن السيبراني وفقًا لفئات NIST الخمس، وجد أن الحماية جاءت بنسبة 26% فيما تركزت اكتشاف الحالات الشاذة وحوادث الأمن السيبراني. بنسبة 47%. استخدامات الذكاء

وقدم ثلاثة باحثون في ناشيونال إنترست نظرة عامة تأسيسية لحالات استخدام الذكاء الاصطناعي في الأمن السيبراني: قاموا بالنظر إلى خوارزميات الذكاء الاصطناعي الفريدة المتاحة للجمهور (700) باستخدام إطار NIST (المعهد الوطني للمعايير والتكنولوجيا) البدائي لتحديد غرض الأمن السيبراني (تحديد أو حماية أو اكتشاف أو الاستجابة أو الاسترداد) لأنواع مختلفة من الذكاء الاصطناعي يتم استخدام الخوارزميات (الاستدلال أو التخطيط أو التعلم أو الاتصالات أو الإدراك).

وتوصلو ا إلى التالي:

47 % منها تركز على اكتشاف الحالات الشاذة وحوادث الأمن السيبراني.

والفئة الثانية الأكثر شعبية، بنسبة 26 في المائة، هي الحماية، يليها التحديد والاستجابة، 19% و8%، على التوالي.

ويأتي هذا بمثابة مفاجأة لأننا نرى تحولًا تدريجيًا نحو استراتيجية المشاركة السيبرانية المستمرة.

نقاط الضعف

ويتوصل الباحثون إلى أن الثبات السيبراني لا يتوافق بشكل جيد مع إطار عمل NIST، حيث أن الأخير لا يتضمن الترقب - وهي سمة أساسية لنظرية الثبات السيبراني.

والأخير «يعيد تعريف الأمن على أنه الاستيلاء على المبادرة في الاستغلال والحفاظ عليها؛ أي توقع استغلال نقاط الضعف الرقمية الخاصة بالدولة قبل أن يتم الاستفادة منها ضدها، واستغلال نقاط الضعف لدى الآخرين لتعزيز احتياجاتهم الأمنية الخاصة، والحفاظ على المبادرة في ديناميكية الاستغلال هذه. ومن ثم، فإن ربط نظرية الثبات السيبراني بالاستجابة ضمن إطار NIST يشوه معناها.

علاوة على ذلك، تتجنب الدول المخاطرة، وقد يكون السماح للآلات بأن تقرر متى وكيف تستجيب لحادث سيبراني أمرًا تصعيديا، على غرار السيارات ذاتية القيادة، حيث تكون اعتبارات المسؤولية مرتفعة جدًا بحيث لا تتمكن مثل هذه المركبات من العمل.

وأخيرًا، تحتاج نماذج الذكاء الاصطناعي إلى الكثير من بيانات التدريب قبل أن يتم نشرها. ومع ذلك، فإن البيانات المناسبة لإعداد خوارزمية الأمن السيبراني للاستجابة للذكاء الاصطناعي نادرة.

توزيع الخوارزميات

وجاء توزيع خوارزميات الذكاء الاصطناعي التي تم تطويرها للأمن السيبراني وفقًا لطبيعتها. كالتالي:

يستخدم ما يقرب من ثلثي حلول الأمن السيبراني القائمة على الذكاء الاصطناعي أساليب التعلم (64%)، يليها الاتصال (16%)، والتفكير (6%)، والتخطيط (5 %)، والتنسيق المختلط، باستخدام مزيج من الاثنين. أو أكثر من الطرق المذكورة أعلاه – 7%.

وعندما تمت مقارنه كلا البعدين – الغرض والطبيعة – لحل الذكاء الاصطناعي الفريد للأمن السيبراني، ظهر أن خوارزميات التعلم الآلي تهيمن على جميع وظائف الأمن السيبراني الخمس. ويتم استخدامها بشكل أساسي لكشف التطفل والشذوذ، وحظر النطاق الضار، ومنع تسرب البيانات، والحماية من أنواع مختلفة من البرامج الضارة، وتحليل السجل.

ومن الغريب أنهم وجدوا أيضًا أن بعض الحالات المعروفة لتطبيقات الذكاء الاصطناعي للأمن السيبراني لا تحتوي على العديد من خوارزميات الذكاء الاصطناعي الفريدة التي تم تطويرها - على سبيل المثال، اختبارات الاختراق ونمذجة السلوك وتحليله. وينبغي أن تشير الأبحاث المستقبلية إلى ما إذا كان هذا يرجع إلى الأداء المرضي لتلك الموجودة، لدرجة أنه لا يوجد طلب على أخرى جديدة. الإفراط في التنظيم

ويعد الفضاء السيبراني والذكاء الاصطناعي من الوسائل والمنصات لسياسات القوى العظمى.

وبما أن كليهما يتطور بسرعة، فإن التنظيم قد يؤدي في الواقع، عن غير قصد، إلى الإفراط، حيث لا يستطيع المشرعون تخمين اتجاه التطور السريع.

وفي المقابل، فإن الإفراط في التنظيم من شأنه أن يخلف تأثيرًا مثبطًا على تطوير ونشر التكنولوجيات الرقمية.

ومن ثم، فإن التقليل من تنظيم الذكاء الاصطناعي في الفضاء السيبراني من شأنه أن يمكّن الولايات المتحدة ويمنحها ميزة في سياسات القوة العالمية.

ومع ذلك، يجب على الولايات المتحدة أيضًا أن تجد طريقة لحماية قيمها الديمقراطية وأعرافها ومبادئها وحرياتها المدنية عند التعامل مع هذه التقنيات الجديدة.

ولذلك، فإن المبادئ التوجيهية للشفافية تهدف إلى الاستخدام الأخلاقي للذكاء الاصطناعي في الأمن السيبراني، فضلاً عن تعزيز الرقابة العامة على استخدام وكالات الاستخبارات والأمن للذكاء الاصطناعي في الفضاء السيبراني.

أنواع الذكاء

ومع تعرض الحكومات لضغوط متزايدة لنشر وتنظيم الذكاء الاصطناعي، يحتاج صناع السياسات إلى فهم أنواع الذكاء الاصطناعي المتاحة لأغراض الأمن السيبراني.

حيث لم ترتفع حلول الأمن السيبراني التي تركز على الذكاء الاصطناعي إلا بعد عام 2016.

وكما كتب الباحث في مركز الدراسات الأمنية (CSS) في ETH زيوريخ ومدير المبادرة الأوروبية لأبحاث الصراع السيبراني، ماكس سميتس: «إن مناقشة استخدام الذكاء الاصطناعي في العمليات السيبرانية لا تتعلق بما إذا كانت التكنولوجيا أم البشر ستكون أكثر أهمية في المستقبل، بل يتعلق الأمر بكيفية قيام الذكاء الاصطناعي بالتأكد من أن المطورين والمشغلين والمسؤولين وغيرهم من العاملين في المنظمات السيبرانية أو مجموعات القرصنة يقومون بعمل أفضل». خوارزميات التعلم الآلي

تهيمن على جميع وظائف الأمن السيبراني الخمس

ويتم استخدامها بشكل أساسي لكشف التطفل والشذوذ

تستخدم لحظر النطاق الضار، ومنع تسرب البيانات

تستخدم للحماية من أنواع مختلفة من البرامج الضارة، وتحليل السجل