في السياق نفسه، تُفيد العديد من الدراسات بأنه مع استمرار التطوُّر المُتسارع لتقنيّات الذكاء الاصطناعي، من المُحتمل حدوث السيناريو الأخطر على الإطلاق في المستقبل، وهو التهديد الوجودي للبشر أنفسهم، وتحقيق ما سمّاه الخبراء «التفرُّد التكنولوجي»، ويعني فرض الآلات سيطرتها على البشر بشكلٍ كامل، والاتّجاه نحو اتّخاذ إجراءاتٍ عدوانيّة ضدّهم.
وإدراكاً لمدى خطورة تلك التهديدات، بَدأ البعض بالحديث عن أهميّة ابتكارِ ذكاءٍ اصطناعيٍّ «ودود»، يتمّ تصميمه وفق أُطرٍ أخلاقيّة وقيَمٍ إنسانيّة، وتكون الأولوية فيه للأبحاث المتعلّقة بالتحكُّم في الذكاء الاصطناعي، وضمان بقاء الآلات خاضعة لسيطرةِ الإنسان، وليس العكس.
أخلاقيات الذكاء الاصطناعي
تُقصد بها منظومة المعايير الأخلاقيّة والحواجز الوقائيّة التي تحكم سلوك الذكاء الاصطناعي، وتُساعد في تطويره واستخدامه بطُرُقٍ تعود بالنَّفع على المُجتمع. وفي سبيل ذلك، بَدأتِ المؤسّساتُ والحكومات في وضْعِ أُطرِ عملٍ، لمُعالَجة المخاوف الأخلاقيّة الحاليّة، ورسم ملامح مستقبل العمل في هذا المجال من خلال وضع مجموعة من الاعتبارات في مقدّمتها:
1 - العدالة
تُدرَّب أنظمة الذكاء الاصطناعي على كميّاتٍ هائلة من البيانات التي قد تحتوي على تحيُّزاتٍ مجتمعيّة، كما سبقتِ الإشارة. ونتيجةً ذلك، يُمكن أن تترسَّخ تلك التحيُّزات في خوارزميّات الذكاء الاصطناعي، ما يُديم ويُضخِّم النتائج غير العادلة أو التمييزيّة في مجالاتٍ حيويّة مثل التوظيف، والإقراض، والعدالة الجنائيّة، وتخصيص الموارد.
ففي مجال التوظيف، على سبيل المثال، إذا استَخدمتْ شركةٌ ما نظامَ ذكاءٍ اصطناعي لفرْز المُتقدّمين للوظائف من خلال تحليل سِيَرِهم الذاتيّة، فمِن المُرجَّح أن يكون هذا النظام قد دُرِّبَ على بياناتٍ تاريخيّة للتعيينات النّاجحة داخل الشركة. مع ذلك، إذا كانت تلك البيانات تحتوي على تحيُّزاتٍ جنسيّة أو عرقيّة، فقد يتعلَّم نظامُ الذكاء الاصطناعي هذه التحيُّزات ويُديمها، ما يَجعله مُتحيِّزا ضدّ المُرشَّحين الذين لا يتوافقون مع التعيينات السابقة للشركة.
2 - الشفافيّة والمُساءلة
تعمل أنظمةُ الذكاء الاصطناعي في «صندوق أسود»، حيث لا تُقدِّم تفسيرا دقيقا لكيفيّة عملها، واتخاذها قراراتٍ معيّنة في العديد من المجالات الحيوية، لذا تُعَدّ الشفافيّة أمرا بالغ الأهميّة لتحديد كيفية اتخاذ القرارات، ومَن يتحمَّل مسؤوليّتها. ومن أبرز الأمثلة على ذلك، استخدام الأنظمة الذاتيّة القيادة مثل قيادة السيّارات. ففي حالة حدوث حادثٍ لسيّارةٍ ذاتيّة القيادة، من المسؤول؟ كذلك أيّهما أصْوَب: الاستمرار في تطوير المركبات الذاتيّة القيادة، أم الاقتصار على دمْج هذه التقنيّة لإنتاج مركبات شبه ذاتيّة القيادة تُعزِّز من سلامة السائقين؟
في السياق نفسه، تُعَدّ المُساءلة أمرا بالغ الأهميّة حين تَرتكب أنظمةُ الذكاء الاصطناعي أخطاءً أو تُسبِّب أضرارا، لضمان اتخاذ الإجراءات التصحيحيّة المُناسِبة. وفي سبيل ذلك، يعمل الباحثون على تطوير ذكاءٍ اصطناعي قابلٍ للتفسير بشكلٍ أفضل، ما يُساعِد في تحديد مدى نزاهة النموذج، ودقّته، وتحيُّزه المُحتمَل.
3 - الإبداع والمِلكيّة
عندما يُكمِل رسّامٌ ما لوحة تُصبح ملكاً له. أمّا عندما يُنتج مُبدعٌ بشريّ عملا فنيّا رقميّا باستخدام نظام ذكاءٍ اصطناعي مُبرمَج من قِبل فرد أو مؤسّسة مُستقلّة، فتُصبح الأمور في تلك الحالة غير واضحة، ويبقى السؤال: مَن يَمتلك العملَ الفنّي المُولَّد بواسطة الذكاء الاصطناعي؟ ومَن يُمكنه تسويقه؟ ومَن المُعرَّض لخَطر التعدّي؟
للأسف تتطوَّر تلك الإشكاليّة بوتيرةٍ أسرع من قدرة الجهات المُنظِّمة على مواكبتها. وبما أنّ المُبدعين البَشر يُنتجون أعمالا فنيّة رقميّة من خلال أنظمة ذكاء اصطناعيٍ مُطوَّرة من قِبَلِ آخرين، يبقى من الضروري أن يُوضِّح المُشرّعون حقوقَ الملكيّة، ويُقدِّموا إرشادات للتعامُل مع التعدّيات المُحتمَلة.
4 - مواجَهة التضليل
يُمكن استغلال خوارزميّات الذكاء الاصطناعي لنَشْر المعلومات المُضلِّلة، والتلاعُب بالرأي العامّ، وتضخيم الانقسامات الاجتماعيّة. ومن أبرز الأمثلة على ذلك التدخُّل في الانتخابات، والتأثير على أصوات الناخبين من خلال إنتاج محتوياتٍ سَمعيّة بَصريّة واقعيّة مُفبْرَكة.
شَكَّل إصدار ChatGPT في عام 2022 نقطةَ تحوُّلٍ حقيقيّة في مجال الذكاء الاصطناعي، حيث أَتاحت قدراتُ «روبوت الدردشة»، بدءا من كتابة المذكّرات القانونيّة وصولا إلى تصحيح أخطاء الأكواد البرمجيّة، آفاقا جديدة من الإمكانات لِما يُمكن للذكاء الاصطناعي فعْله، وكيفيّة تطبيقه في سائر القطاعات تقريبا.
يعتمد ChatGPT والأدوات المُماثلة على نماذج توليديّة واسعة النّطاق قابلة للتكيُّف بدرجةٍ عالية، وقادرة على أداء مجموعة واسعة من المهامّ المُختلفة. مع ذلك، ثمّة العديد من المخاوف الأخلاقيّة المتعلّقة بتلك النماذج مثل: التحيُّز وإنتاج محتوىً زائف، وعدم القدرة على التفسير، وإساءة الاستخدام، والتأثير المُجتمعي.
5 - الخصوصيّة والأمن والمُراقَبة
تَعتمد فعاليّة الذكاء الاصطناعي على توافُر كميّاتٍ هائلة من البيانات الشخصيّة، الأمر الذي يُبرِز العديدَ من المخاوف بشأن كيفيّة جمْع هذه المعلومات وتخزينها واستخدامها. على سبيل المثال، تستخدم الصين أدواتٍ مثل تقنيّة التعرُّف إلى الوجه لدعْم شبكة المُراقَبة الواسعة، الأمر الذي من شأنه أن يؤدّي إلى قدرٍ كبيرٍ من التمييز والقمْع ضدّ بعض الجماعات العرقيّة.
ففي مجال الذكاء الاصطناعي، تُصبح مسألةُ الحفاظ على خصوصيّة الأفراد وحقوقهم الإنسانيّة أمرا بالغ الأهميّة، ما يَستلزم ضماناتٍ قويّة ضدّ اختراق البيانات، والوصول غير المُصرَّح به إلى المعلومات الحسّاسة، والحماية من المُراقَبة المُكثَّفة.
أَتاحتْ هذه المخاوف لصانعي السياسات تحقيق تقدُّمٍ أكبر في هذا المجال في السنوات الأخيرة. فعلى سبيل المثال في العام 2016، صَدَرَ تشريعُ اللّائحة العامّة لحماية البيانات الشخصيّة للأفراد في الاتّحاد الأوروبي والمنطقة الاقتصاديّة الأوروبيّة GDPR، ما يَمنح الأفراد مزيدا من التحكُّم في بياناتهم. وفي الولايات المتحدة الأمريكيّة، تَعمل كلّ ولاية على حدة على وضْع سياسات، مثل: قانون خصوصيّة المُستهلِك في كاليفورنيا CCPA، الذي يُلزِم الشركات بإبلاغ المُستهلِكين بجمْع بياناتهم.
وأجبرت تلك التشريعات الشركاتِ على إعادة النَّظر في كيفيّة تخزينها، واستخدامها البيانات الشخصيّة، ونتيجة ذلك أَصبحت الاستثماراتُ في مجال الأمن أولويّة متزايدة للشركات في سعْيِها للقضاء على أيّة ثغراتٍ أو فُرصٍ للمُراقَبة والاختراق والهَجمات الإلكترونيّة.
6 - مُواجَهة مَخاطر الأسلحة الذاتيّة التشغيل
تَنشأ مَخاوف أخلاقيّة في ظلّ التطوُّر المُستمرّ للأسلحة الذاتيّة التشغيل، المدعومة بالذكاء الاصطناعي، التي من السهل إساءة استخدامها، بحيث يَفقد البَشرُ سيطرتَهم على قرارات الحياة والموت، الأمر الذي يَستلزم اتّفاقيّاتٍ ولوائح دوليّة، لتنظيم استخدام هذه الأسلحة، ومنْع العواقب الوخيمة النّاجمة عنها.
مُبادرات أخلاقيّة
انطلاقا من أنّ المعايير الأخلاقيّة ليست الشاغل الرئيس لمُهندسي البيانات، بَرَزَ عددٌ من المنظّمات غير الربحيّة التي تراعي مثل تلك الأمور، وتُروِّج لفكرة السلوك الأخلاقي في مجال الذكاء الاصطناعي مثل:
1 - AlgorithmWatch: منظّمة حقوقيّة غير حكوميّة وغير ربحيّة، لديها مقر في «برلين» وآخر في «زيورخ»، وهي تُناصر قيَم الديمقراطيّة مثل سيادة القانون والعدالة والمُساواة، من خلال التركيز على خوارزميّة عملية اتخاذ قرار قابلٍ للتفسير والتتبُّع في برامج الذكاء الاصطناعي.
2 - معهد AI now: معهد غير ربحي، مقرّه نيويورك، ومُهمّته إجراء أبحاث حول الآثار الاجتماعيّة للذكاء الاصطناعي.
3 - وكالة مشاريع البحوث الدفاعيّة المُتقدّمة DARPA: تابعة لوزارة الدّفاع الأمريكيّة، وتُركِّز على تعزيز الذكاء الاصطناعي القابل للتفسير.
4 - مركز الذكاء الاصطناعي المُتوافِق مع الإنسان CHAI: هو مركز بحثي في جامعة كاليفورنيا، يُركِّز على أساليب السلامة المتقدّمة للذكاء الاصطناعي.
5 - لجنة الأمن القومي المعنيَّة بالذكاء الاصطناعي NASCAI: هي لجنة مستقلة تنظر في الأساليب والوسائل اللّازمة للنهوض بتطوير الذكاء الاصطناعي والتعلُّم الآلي والتقنيّات المرتبطة به، وذلك لتلبية احتياجات الأمن القومي والدّفاع للولايات المتّحدة الأمريكيّة بشكلٍ شامل.
6 - شركة IBM: تَستند خلال عملها على تطوير البيانات والذكاء الاصطناعي إلى 3 مبادئ أساسيّة، هي:
• الغرض من الذكاء الاصطناعي هو تعزيز الذكاء البشري، بمعنى أنّ الشركة لا تسعى إلى استبدال بالذكاء البشري الذكاء الاصطناعي، بل تدْعمه. وفي سبيل ذلك، تَلتزم الشركة بدعْم العاملين من خلال الاستثمار في مُبادراتٍ عالميّة، لتعزيز التدريب على المهارات المتعلّقة بهذه التكنولوجيا.
• البيانات مِلك لمُبتكِرِها: تَلتزم الشركة بحماية خصوصيّة عُملائها ضدّ برامج المُراقَبة، ولا تُتيح للحكومات الوصول إلى بياناتِهم.
• التركيز على الشفافيّة وسهولة التفسير: تؤمن الشركة بضرورة وضوح شركات التكنولوجيا بشأن من يُدرِّب أنظمة الذكاء الاصطناعي الخاصّة بها، والبيانات المُستخدَمة في هذا التدريب. هذا بالإضافة إلى ماهيّة البيانات المُستخدَمة في توصيات خوارزميّاتها.
في ضوء ما سبق ذكره، يُمكن القول إنّ مُعالَجة المخاوف الأخلاقيّة المتعلّقة بالذكاء الاصطناعي تتطلَّب تعاونا استباقيّا مُشترَكا بين خُبراء التكنولوجيا وصانعي السياسات، والمُجتمع ككلّ، وذلك بهدف تسخير الإمكانات الهائلة للذكاء الاصطناعي مع التمسُّك بالمبادئ الأخلاقيّة، بغية صَوْغِ مستقبلٍ يَرتكز على ذكاءٍ اصطناعي داعِمٍ للبَشر، وليس بديلا عنهم.
* باحث سياسي من مصر
* ينشر بالتزامن مع دورية «أفق» الإلكترونية الصادرة عن مؤسسة الفكر العربي