وبحلول فبراير من العام 2025، وصلَ عدد المُستخدِمين النشطين أسبوعيًا إلى 400 مليون، وفقًا لتقريرٍ صادِرٍ عن شركة أندريسن هورويتز. هذا الانتشار السريع يَعكس تحولًا نوعيًا في العلاقة بين الإنسان والتكنولوجيا، حيث لم تَعُدْ المسألةُ نقاشًا حول كفاءة الخوارزميات، بل أضحتْ مواجهةً حضاريةً معقدةً، تَطرح أسئلةً وجوديةً وأخلاقيةً وسياسيةً، لم يَعُدْ تأجيلها مُمكنًا.
إن القفزة النوعية للذكاء الاصطناعي التوليدي ما فتئت تَفرض مراجعةً نقديةً لمفاهيم كنا نظنها راسخةً. أسئلة الإرادة الحرة، وحدود الوعي، والفصل الجوهري بين الإبداع البشري والآلي، لم تَعُدْ حِكرًا على الفلاسفة. الأخطر هو التحذير من انزلاقٍ مُحتملٍ نحو «عبوديةٍ آليةٍ» غير مُعلنة، حيثُ تُفوض سلطة القرار لأنظمةٍ ذكيةٍ لا تَخضع بالضرورة لقيمٍ إنسانيةٍ متفقٍ عليها، وتعمل خارج أُطُر الرقابة المؤسسية الفعالة. وليستْ هذه مجرد تكهناتٍ ديستوبيةٍ، بل مخاوف تستند إلى واقعٍ نشهده هذه الأيام؛ حيث ثمة استخدامٌ متزايدٌ للذكاء الاصطناعي في التلاعب بالرأي العام عبر الفيديوهات أو الصور، وتعميقٌ للاستقطاب السياسي، وكذا تآكل مساحات الخصوصية، وتوسيع الفجوات الاجتماعية والاقتصادية. ولم يكنْ تحذير منظمة اليونسكو في توصيتِها الرائدة حول أخلاقيات الذكاء الاصطناعي في العام 2021 إلا إقرارًا بأن سرعة هذا التحول تفوق قدرة الأُطُر الأخلاقية والقانونية الحالية على المواكبة؛ ما يَستدعي جهدًا عالميًا لوضْع ضوابط تَضمن بقاء الكرامة الإنسانية والعدالة والشفافية والرقابة البشرية في قلب المعادلة.
يتجاوز تأثير الذكاء الاصطناعي حدود النقاشات الأخلاقية ليضرب بجذورِه في عُمق البنية الاقتصادية العالمية، مُعيدًا رسْم خرائط الثروة والسلطة وفُرص العمل. فبينما تُبرِز الأدبيات الاقتصادية فوائد خفْض التكاليف وتعزيز الكفاءة، فإنها غالبًا ما تُهون من الاضْطراب العميق الذي يتهدد أسواق العمل، وربما أُسُسَ العقْد الاجتماعي. فتُشير تقديرات صندوق النقد الدولي إلى أن نحو 40 % من الوظائف عالميًا معرضةٌ لتأثيرات الذكاء الاصطناعي، وترتفع النسبة إلى 60 % في الاقتصادات المتقدمة. الخطورة هنا لا تكمن في الكم فقط، بل في الكيف؛ فنصف هذه الوظائف المهددة قد تُواجه خطر الإلغاء التام؛ وهو ما يُنذِر بحالة «بطالةٍ بنيويةٍ» تصعب معالجتُها بالأدوات التقليدية، ويُهدد بتفكيك شبكات الأمان الاجتماعي.
وتتخذ هذه التداعيات أبعادًا أكثر حِدةً لدى النظر إليها من منظور الفجوة بين الشمال والجنوب.
فالدول التي تمتلك البنية التحتية الرقمية، ورأس المال البشري، والقدرة على الاستثمار، هي وحدها القادرة على جني الثمار وتعزيز هيمَنتِها. أما الدول الأخرى، ومن ضمنِها غالبية دول العالَم العربي، فتَجد نفسَها في موقع المتلقي السلبي، أو المُستهلِكِ لتقنيات لا تَملك القدرة على إنتاجها أو تكييفها. وهكذا، يُعاد إنتاج علاقات التبعية القديمة في ثوبٍ رقمي جديدٍ، حيث تُقاس قوة الدولة بقدرتها على الانخراط الفاعِل في اقتصاد المعرفةِ والتحكم بمسارات الذكاء الاصطناعي. إن الحديث عن «الاستعمار الخوارزمي» ليس مجرد استعارةٍ، بل وصفٌ دقيقٌ لواقع يتشكل، يُهدد بتكريس التفاوت وتهميش شعوبٍ بأكملها.
العرب وضعف البنية التحتية الرقمية
ولا يقف التأثير عند حدود الاقتصاد، بل يمتد ليلامِس تفاصيل حياتنا اليومية وعلاقاتنا الإنسانية. نشهد صعود أنظمةٍ ذكيةٍ تتولى أدوارًا كانت حِكرًا على البشر؛ المعلم، الطبيب، وحتى الصديق الافتراضي. وعلى الرغم مما تَعِدُ به من تسهيلٍ للوصول إلى الخدمات، فإنها تعمل في الخفاء على تفكيك الروابط الاجتماعية التقليدية، وتعميق «العُزلة الرقمية». وتزداد الصورة قتامةً حين نأخذ في الاعتبار التحيزات الكامنة في هذه الأنظمة وفقًا للنظام القيَمي في الدولة المُنشأة لها، والتي تُكرس التفاوتات والتمييزات الموجودة أصلًا. إن الذكاء الاصطناعي، إنْ تُرِكَ دون ضوابط أخلاقية وقانونية صارمة، قد يتحول إلى أداة فعالة لترسيخ اللا عدالة.
وفي مواجهة هذا المد التقني الجارف، تتخذ استجاباتُ الدول مساراتٍ متباينةً. فيبرز الأنموذج الأوروبي بمحاولته فرْض إطارٍ قانوني شامل يُركز على حماية الحقوق الفردية والخصوصية، ويتبنى مُقاربةً قائمةً على تصنيف المخاطر، مع حظْر المُمارسات «غير المقبولةِ» كالمُراقبة الجماعية الشاملة، مُشددًا على الشفافية والرقابة البشرية.
وعلى النقيض، تتبنى الصين نهجًا أكثر براغماتيةً وتوجيهًا من الدولة، حيث يُنظَر إلى الذكاء الاصطناعي كأداةٍ إستراتيجيةٍ لتحقيق التفوق الاقتصادي والأمني. تُركز إستراتيجيتُها على الاكتفاء الذاتي، وتشجيع الابتكارِ المحلي، ودمْج الذكاء الاصطناعي في مفاصل الدولة والمجتمع كافة، بما في ذلك أنظمة المُراقبة الواسعة. وبينما تتحدث الوثائق الرسمية عن الالتزام بالمبادئ الأخلاقية، فإن التطبيق العملي يكشف عن أولويةٍ واضحةٍ للتحكم الأمني وفرْض النظام.
أما الأنموذج الأمريكي، فيظل أسيرًا لديناميكية السوق الحرة، حيث تقود الشركات التكنولوجية الكبرى دفة الابتكار، غالبًا في غياب تنظيمٍ حكومي صارم. هذا النهج، وإنْ أدى إلى تسارُعٍ هائلٍ، فإنه يُثير إشكالياتٍ عميقةً تتعلق بالاحتكار، وغياب الشفافية، وصعوبة المساءلة.
في خِضَم هذه المُنافَسة المحتدمة، تَجِدُ دول العالَم العربي نفسها في موقفٍ حَرِجٍ. فباستثناء محاولاتٍ محدودةٍ ومبعثرةٍ، تظل المنطقة تُعاني من ضعف البنية التحتية الرقمية، ونقْص الكوادر المؤهلة، وغياب الرؤى الإستراتيجية الواضحة، والاعتماد المُفرط على استيراد التكنولوجيا الجاهزة. هذا الوضع لا يُهدد بتعميق الفجوة الاقتصادية فحسب، بل يفتح الباب أمام اختراقاتٍ ثقافيةٍ وسياسيةٍ قد تزيد من حالة التبعية كما أوضحنا آنفًا. وتتجلى هذه الإشكالية بوضوحٍ أكبر حينَ نُدرِك أن الفجوة ليست مجرد تفاوتٍ بين الشمال والجنوب، بل هيَ أيضًا فجوةٌ داخليةٌ عميقةٌ في العالَم العربي نفسِهِ؛ فجوةٌ بين دولٍ قليلةٍ تحركتْ، ولو بخطىً متفاوتةٍ، لتبني الذكاء الاصطناعي، مستفيدةً من بيئةٍ توفر حدًا أدنى من الاستقرار، وبين دولٍ أخرى لا تزال تَرزح تحت وطأة الهشاشة المؤسسية، وضعف البُنى التحتية، والصراعات الداخلية. هذه الفجوة الداخلية ليستْ مجرد انعكاسٍ لاختلاف أو نقْص الموارد، بل هي، في جوهرِها، تعبيرٌ صارخ عن تفاوتٍ في الإرادة السياسية، وعن تآكل منظوماتِ التعليم والبحث العلمي، وعن غياب الإصلاحات الجذرية. فمن دون بيئةٍ مستقرةٍ، ودعْمٍ جاد للابتكار، واستثمارٍ حقيقي في رأس المال البشري، ستبقى غالبية الدول العربية خارج هذا السباق المحموم.
نظرية انتشار المبتكرات
ولعل فهْمَ هذه الديناميكية المعقدة يتطلب تجاوُز التحليل الاقتصادي أو السياسي المباشر، واللجوء إلى أدواتٍ تحليليةٍ من حقولٍ معرفيةٍ. وفي هذا السياقِ، تبدو «نظرية انتشار المُبتكَرات» (Diffusion of Innovations Theory)، التي طورَها إيفرت روجرز، ذاتَ أهميةٍ خاصة. فلا تَنظر هذه النظرية إلى الابتكار كمجرد «جهازٍ» أو «تقنيةٍ»، بل كفكرةٍ أو مُمارسةٍ جديدةٍ تتفاعل معَ بيئةٍ اجتماعيةٍ وثقافيةٍ معينةٍ، قد تحتضنُها أو تلفظُها، مركزةً على «القابلياتِ» المجتمعيةِ للفعل أو الجمود في مواجهة الجديد. وتُحدد النظرية عناصر أساسيةً تَحكم الانتشار كطبيعة الابتكارِ نفسه، قنوات الاتصال، الإطار الزمني، خصائص النظام الاجتماعي المُستقبِل. وعلى ضوء هذه العناصر، تُقسم النظرية المجتمعات إلى فئاتٍ متباينةٍ في درجة تقبلِها لهذا الابتكار: «المبتكِرون» (Innovators)، «المتبنون الأوائل» (Early Adopters)، «الأغلبية المبكرة» (Early Majority)، «الأغلبية المتأخرة» (Late Majority)، وأخيرًا «المتلكئون» (Laggards). إن إسقاط هذا الإطار التحليلي على واقع تعامُل العالَم العربي مع ثورة الذكاء الاصطناعي يَكشف عن مشهدٍ واضحٍ؛ دولٌ قليلةٌ يُمكن تصنيفُها، مع بعض التحفظ، من ضمن فئة «المتبنين الأوائل» أو «الأغلبية المبكرة»، تُحاوِل جاهدةً أنْ تدلف إلى المستقبل بشروطِها. ودولٌ أخرى، وهي للأسف الأغلبية، تبدو أقربَ إلى «الأغلبية المتأخرة» أو حتى «المتلكئين»، لا تزال مشدودةً إلى الماضي، أو غارقةً في أزماتها الداخلية، مشغولة بحسابات البقاء السياسي أكثر من انشغالها بأسئلة النهضة والمستقبل. هذا التبايُن لا يُفسر تأخرَنا التكنولوجي فقط، بل يكشف عن خللٍ بنيوي أعمق في علاقتنا بفكرة التغيير ذاتها. وكأننا نعيش في عصرٍ معقد لا نعترف بوجودِهِ إلا بعد فوات الأوان.
إزاء هذا المشهد المعقد، تبدو السيناريوهات المستقبلية مفتوحةً. قد يقودنا المَسار نحو يوتوبيا تكنولوجيةٍ يتحرر فيها الإنسان من كدْح العمل الروتيني، حيث يكون الذكاء الاصطناعي مساعدًا أمينًا للبشرية. وقد ينزلق بنا، على العكس، نحو ديستوبيا المُراقَبة الشاملة والتسلط الخوارزمي. ويبقى السيناريو الأكثر واقعيةً، وربما الأكثر صعوبةً، هو سيناريو «التعايُش المشروط»؛ مسارٌ يتطلب تفاوضًا مستمرا، وحوكمةً رشيدةً، ووضْع ضوابط قانونيةٍ وأخلاقيةٍ صارمةٍ تَضمن بقاء الإنسان سيدًا لمصيرِهِ.
ختامًا، إن التعامل الرشيد مع الذكاء الاصطناعي في العالَم العربي لا يُمكن أنْ يُختزَل في مجرد استيراد التقنيات أو مُحاكاة النماذج القائمة، سواء أكانت صينيةً، أمريكيةً، أوروبيةً، أم حتى يابانيةً. بل هو يتطلب، قَبل كل شيءٍ، بناء مقاربةٍ حضاريةٍ نقديةٍ شاملةٍ، تنطلق من فهْمٍ عميقٍ لتاريخ المنطقة ومنظومتها القيمية وتحدياتها الراهنة، وتَضع نُصُب أعينها هدفًا أسمى؛ ليس مجرد اللحاق بركب التقدم التكنولوجي، بل توجيه هذا التقدم ذاته بما يخدمُ قِيَمَ العدالة والكرامة الإنسانية والسيادة الوطنية.
عطفًا على ذلك، تكمن الخطورة الكبرى في أن ما يُطرَح اليوم من نماذج الذكاء الاصطناعي، وإن كان مذهلًا في قدراته، لا يزال بعيدًا عن بلوغ ما يُعرف بـ«الذكاء الاصطناعي العام». والأسوأ من ذلك أن بعض هذه النماذج بدأت تُظهر مَيلًا إلى إعادة إنتاج ذاتها من ضمن دائرة معرفية مُغلقة، حيث يتكرر المحتوى المُولد اعتمادًا على بيانات هي من صنع الأنموذج نفسه، ما يؤدي إلى ظاهرة تُعرف بـ«انهيار الأنموذج» Model Collapse. ومن هنا، يُصبح الرهان ليس على ذكاء الآلة، بل على حِكمة الإنسان بعامة، وقدرتِه على ترويض أدواتِه قَبل أن تروضَه هي.
*باحث مصري.
* ينشر بالتزامن مع دورية «أفق» الإلكترونية الصادرة عن مؤسسة الفكر العربي