مع دخول الذكاء الاصطناعي في صميم إنترنت الأشياء، حقَّقت التقنيات الحديثة المتقدمة، خطوةً نوعية واسعة في شتى مجالات الحياة اليومية وميادين الأعمال ومختلف الشؤون الإدارية والطبية والزراعية والأمنية والعسكرية، بحيث ارتَقت بالمُجتمعات البشرية إلى مصاف لم يَعرفها الإنسان منذ بدء الخليقة، وصارت تُقدم فُرصًا استثنائية هائلة بفضل مجموعة لا يُمكن إحصاؤها من التطبيقات العملية التي أَدخلتنا في عصرٍ جديد يٌنافس الخُرافة والسِّحر.
اتَّسع اعتمادُ إنترنت الأشياء (IoT) في كلّ مجال بعدما تجلت على قمّة ثمار تكنولوجيا العصر كأبرز إنجازٍ منذ الثورة الصناعية في القرن الثامن عشر، فباتَتْ تُيسِّر تواصُلَ مجموعةٍ لا حصْرَ لها من الأدوات والأجهزة المتصلة عبر الإنترنت مُتيحةً للإنسان فُرصًا جديدة تمامًا لتسخير الأجهزة والأشياء «الأدوات»، التي يَستخدمها على غرار الغسّالات وكاميرات المُراقَبة المنزلية وأنظمة ضبط حرارة المنازل «نيست» (Nest)، والسيارات والهواتف، فضلاً عن الأعتدة العسكرية بمُختلف أنواعها ومستوياتها.
وجاءَ الذكاءُ الاصطناعي ليَدخل ميادين إنترنت الأشياء، فارتقى بأدائها الذاتي مُتجاوزًا حدود مخيلة جهابذة علماء الأمس القريب خلال الربع القرن الأخير، وكان هذا الاندماج المُبهِر خطوةً مُزدحمةً بالابتكار المُذهل من جهة، ومهجوسةً من جهةٍ ثانية بالمخاطر الهائلة المُرتقبة في المقابل لتبدوَ على حقيقتها مثل سيفٍ ذي حدّين.
60 مليار جهاز
كأنما بين يوم وليلة اجتاحتنا تقنيات موجهة للتعامُل باللحظة مع كميات هائلة من بيانات المُستخدِمين، وفاقَت أعدادُ الأدوات والأجهزة المربوطة بالإنترنت والمُعزَّزة بالذكاء الاصطناعي، الستين مليار جهازٍ في عالَمنا المُعاصِر، تَستقبل وتُرسِل أعدادًا لا حصر لها من البيانات بشكلٍ يَكاد يكون مُستقلّاً في بعض الأحيان من دون أيِّ توجيهٍ بشري.
وهذا جَعَلَ المَرْءَ في غابة التكنولوجيا يَقِف مشدوهًا أمام تطوُّرٍ عظيم انطوى على معضلة أساسية انتَبه إليها مُهندسو البرمجيات الرقمية، فرأوها الأكثر خطورة وتحديًا للسلامة، مع احتمال استقلالية الأشياء، حيث بدا أن الأدوات التي نَستخدمها في البيت وفي مقار العمل، صارت أكثر «مهارة» وذكاءً بفعلِ مقوّمات الذكاء الاصطناعي الذي باتَ يُوازي ويُنافِس أحيانًا ذكاء مُبرمجيه.. وهذا ما وَلَّدَ مخاوف جديدة تمامًا من أن تُقبِل أدواتُنا على اتّخاذ قراراتٍ من تلقائها في لحظةٍ فريدة من تفوُّق الآلة على صانعها.
وطالما أنّه ليس بوسعِ أحد منا الاستغناء عن هذا النَّوع المُتاح من الرفاهية التقنية الصاعدة التي وُجدت أساسًا لتسهيل الحياة، تبينت حقائق ومكامن المعضلة الأساسية الناشئة التي تتحدى السلامة، نتيجة واقع الدَّمج المُشار إليه، ما راحت تُعبِّر عنه جهاتٌ مُستقلة وحكومية، متخوفةً من تداعياته، فالأدوات الذكية تقوم بتسجيل كل صغيرة وكبيرة عن تحركات الأشخاصِ المُستخدِمين لها والمُحيطين بها وعن أفعالِهم.
ورأى العديدُ من الخبراء الأمنيين مشكلات أكبر يُمكن أن تترتب على ذلك، فعبَّر الكثيرون منهم عن خطورة هذا الدّمج في ظل التطور شبه اليومي للتقنيات الرقمية، وقد باتت تُسيطر على الإنسان ووقائع حياته، وتضاعَفت المَخاوف أمامَ احتمالات نجاح الذكاء الاصطناعي في تعزيز الأدوات بأهم الصفات التي يَنفرد بها الدماغ البشري، ويأتي «الوعي» في مُقدمتها، بحيث يُمكن لهذه التقنيات أن تُصبح قادرةً على فهْم العالَم من حولها كما يَفهمه الإنسان، وهنا لا يعود بوسعِ أحد تصوُّر ردود الأفعال المُحتمَل اتخاذها من قِبَلِ هذه التقنيات الفريدة.
هل تُفكر الآلة؟
هذا هو السؤال الكبير الذي نَقف حيارى أمامه: هل يُمكن للآلات أن تُفكِّر حقًا؟ الجواب يعتمد على تعريفنا للتفكير، إذا كان التفكيرُ يَعني مُعالَجة المعلومات أسرع من البشر، فالذكاء الاصطناعي انتصرَ على الإنسان بالفعل، لكن هل يُمكنه التصرف باستقلالية، وبما يَتجاوز حدودَ برمَجَتِه؟
هنا يترنح الجوابُ بين الطمأنَة والتشكيك.. والإنسانُ مفطور على البحث عن طمأنةِ نفسه، في هذا السياق يقول الفيلسوفُ والمؤرِّخ «إميل ب. توريس» في مقالةٍ حديثة له في صحيفة «واشنطن بوست» الأمريكية، «إن للبشرية تاريخًا طويلاً من طمْأنةِ أنفسنا بشكلٍ غير صحيح، إذ استمرَّت تقول إن بعض الحقائق التي لا مفر منها في وقتنا الحاضر لا يُمكن أن تَحدث»، وهذا من نَوع الرَّجمِ بالغيب.
ففي مقالةِ هذا الكاتب المُتبحِّر بواقع الذكاء الاصطناعي ومستقبله، «حَذَّرَ من مخاطر طويلة المدى لهذه التقنيّة الحديثة على البشرية، وتخوَّف من أنها قد تؤدي لإبادتها»، في ظل «إمكانية ابتكار خوارزميات تَتجاوز المُستويات البشرية للذكاء العام»، وهو استعادَ ما كان قالَه «كين أولسن» رائد صناعة الحاسوب في العام 1977 من أنّه «لا يَتوقع البتة أن يكون للأفراد أيُّ استخدامٍ للحاسوب في منازلهم».. وهذا ما أَثبت الواقع اليوم عدم صحتَه، وتابَع قائلاً: «إن التوقعات العادية تفيد أن قوة الحوْسَبة المُتزايدة ستكون نعمةً للبشرية.. لكن ماذا لو أَخطأنا مرةً أخرى كما أَخطأ «أولسن»؟ وهل يُمكن للذكاء الاصطناعي الخارق أن يُسبِّب لنا ضَررًا كبيرًا، بل هل يُمكنه أن يؤدّي إلى انقراضنا؟».
وفي مُحاوَلةٍ للردّ على هذه التساؤلات، كَتب تـوريس: إن التاريخ يُعلمنا ألا نقول عن أي احتمال «هذا مستحيل»، وأَوضح أنّ «أجهزة الحاسوب في سبيلها كي تُصبح أكثر ذكاءً من البشر، وأن تلك مسألة وقت فقط ينبغي لنا أن نكون واثقين من حدوثها لأننا نَرى تطوُّر الأمور أمام أعيننا».
وخَتم مقالتَهُ بأن «الذكاء الاصطناعي سيَتجاوز عاجلاً أم آجلاً الذكاءَ البشري، ولن يؤدي ذلك إلى أداءٍ أفضل من البشر في كل المجالات فحسب، ولكنه سيَتجاوز بكثير أفضل قدراتنا».
ولم يكُن «توريس» الوحيد في إبداءِ هذه المخاوف؛ فقد جاءَ في مقالٍ في مجلة «فورين أفيرز» أن «مجموعة من الباحثين ألقوا الضوءَ على دَورِ الذكاء الاصطناعي في تشويه مسألة صناعة القرار»، وهذه إحدى قِمم كتلة الجليد، إذ لا شك أن تمكُّن الآلة من التلاعُب بمسألة خطورة «صناعة القرار»، يُوازي الجحيم ذاته، ولئن لم يَنجح الذكاءُ الاصطناعي حتى الآن في تعزيز الأشياء بحس المسؤولية، فهذا لا يُمكن الركون إلى ثباته في ظل البحث المُتواصل والتطوير الذي لا يتوقف؛ لذا من المنطقي أن نَستعيد كلمةَ «توريس» بأن «التاريخ يُعلمنا ألا نقول عن أي احتمالٍ هذا مستحيل». مسؤولية المُطورين
إلى جانب كون الاندماج بين «إنترنت الأشياء» والذكاء الاصطناعي أدى إلى توفير خدماتٍ جليلة للإنسان، غير أن الاطمئنان لن يكون مُمكنًا ومُحققًا قَبل أن يَتمكن مُطورو هذه التقنيات من ضبطِها بالشكل الكافي، للحيلولة دون تمكنها من اختراق خصوصية الإنسان أو استغلال البيانات المُلتقَطة بغرضِ إيذائه.
الواضح أن أبرز التحديات أمام إنسان اليوم هو ضعف تصميم أجهزة إنترنت الأشياء ذاتها من الناحية الأمنية، حيث ربما تكون محدودة الإمكانيات من حيث المُعالَجة والمَوارِد، ما يَجعل من العسير توفير تدابير أمان قوية وفعالة وكافية لضمان حمايتها من الاختراقات؛ لذا يُفترض بالضرورة أن يَنجح المُطورون في تحقيقِ التوازُن المأمون بين الابتكار والمَخاطِر الأمنيّة، وهذا ما هو غير مُحقَّق بَعد وغَير مضمون.
ماذا يقول الواقع؟
الحقيقة إن أحداث الواقع تبدو غير مُطمئِنة، ففي العام 2016، كَشَفَ «هجوم ميراي بوتنت» عن هشاشة «العالَم المُترابط» الذي يُحيط بنا، وبالفعل تسبَّب استغلالُ ثغرات أمنية في تعطيلِ مواقع شهيرة وتعطيلِها عن العمل مثل تويتر ونيتفليكس، وهذا من أبسط الأضرار.
قَبل هذا بعامٍ واحدٍ كَشَفَ باحثون أمنيون عن فجوةٍ أمنية خطيرة في السيارات المُتصلة بالإنترنت عندما تمكنوا من اختراق نظام الوسائط المتعددة لسيارة جيب، ما أَتاح لهم السيطرةَ على أجزاءٍ مهمة فيها مثل المُحرك والمَكابِح.
أمّا في العام 2020، فقد جَرى الإبلاغُ عن عديدٍ من الحوادث المتنوعة والمُهددة للسلامة، حين طالتِ الأعطالُ بعضَ الأجهزة المُتصلة في قطاع الرعاية الصحية، وتحديدًا ما يتعلق منها بتنظيم عمل الأعضاء الحساسة كالقلب والبنكرياس وسواها، إذ نَجَحَ المُخترقون في التلاعُب بالإعدادات الحيوية لهذه الأجهزة، ما عَرَّضَ حياةَ المُستخدِمين لخطرٍ أكيد.
وبعيدًا من المرضى الذين تكون سلامتهم وحياتهم مُرتهَنة للأجهزة المُتصلة، تبيَّنت مَخاطر أخرى جمة تتصل بما هو أكْبر وأخْطر مما يتعلق بأسرار الدول، من عسكرية وأمنية او اقتصادية أو ما سوى ذلك، بخاصة أن الذكاء الاصطناعي باتَ حاضرًا بقوة في مَيادين إنترنت الأشياء كالأسلحة التي بوسعها التسبُّب بكوارث لا حصرَ لها.
ولعل من أبرز المشكلات كون أنظمة الذكاء الاصطناعي «تتعلم» من مجموعة البيانات التي جرى تدريبها عليها، واعتمادًا على كيفية حدوث هذا التجميع، هناك احتمال أن تَعكس مجموعةُ البيانات أشكالاً غير مأمونة من الافتراضات أو التحيُّزات، ويُمكن لذلك أن يؤثِّر على عمليّة صنْع القرار في النظام.
أمامَ هذه الوقائع يَتأكّد أنّ استخدامَ هذه الأدوات من جهة، ونموَّ إمكاناتها وكفاءتها من جهةٍ ثانية، هو أمرٌ حتميّ. وهكذا يتمّ تدريب الخوارزميّات على تطويرِ ذكائها من دون مسؤوليّة ولا عاطفة. المعنى الصريح أنّنا أمام غدٍ غَير مضمون.
*كاتب من لبنان
* ينشر بالتزامن مع دورية أفق الصادرة عن مؤسسة الفكر العربي.
اتَّسع اعتمادُ إنترنت الأشياء (IoT) في كلّ مجال بعدما تجلت على قمّة ثمار تكنولوجيا العصر كأبرز إنجازٍ منذ الثورة الصناعية في القرن الثامن عشر، فباتَتْ تُيسِّر تواصُلَ مجموعةٍ لا حصْرَ لها من الأدوات والأجهزة المتصلة عبر الإنترنت مُتيحةً للإنسان فُرصًا جديدة تمامًا لتسخير الأجهزة والأشياء «الأدوات»، التي يَستخدمها على غرار الغسّالات وكاميرات المُراقَبة المنزلية وأنظمة ضبط حرارة المنازل «نيست» (Nest)، والسيارات والهواتف، فضلاً عن الأعتدة العسكرية بمُختلف أنواعها ومستوياتها.
وجاءَ الذكاءُ الاصطناعي ليَدخل ميادين إنترنت الأشياء، فارتقى بأدائها الذاتي مُتجاوزًا حدود مخيلة جهابذة علماء الأمس القريب خلال الربع القرن الأخير، وكان هذا الاندماج المُبهِر خطوةً مُزدحمةً بالابتكار المُذهل من جهة، ومهجوسةً من جهةٍ ثانية بالمخاطر الهائلة المُرتقبة في المقابل لتبدوَ على حقيقتها مثل سيفٍ ذي حدّين.
60 مليار جهاز
كأنما بين يوم وليلة اجتاحتنا تقنيات موجهة للتعامُل باللحظة مع كميات هائلة من بيانات المُستخدِمين، وفاقَت أعدادُ الأدوات والأجهزة المربوطة بالإنترنت والمُعزَّزة بالذكاء الاصطناعي، الستين مليار جهازٍ في عالَمنا المُعاصِر، تَستقبل وتُرسِل أعدادًا لا حصر لها من البيانات بشكلٍ يَكاد يكون مُستقلّاً في بعض الأحيان من دون أيِّ توجيهٍ بشري.
وهذا جَعَلَ المَرْءَ في غابة التكنولوجيا يَقِف مشدوهًا أمام تطوُّرٍ عظيم انطوى على معضلة أساسية انتَبه إليها مُهندسو البرمجيات الرقمية، فرأوها الأكثر خطورة وتحديًا للسلامة، مع احتمال استقلالية الأشياء، حيث بدا أن الأدوات التي نَستخدمها في البيت وفي مقار العمل، صارت أكثر «مهارة» وذكاءً بفعلِ مقوّمات الذكاء الاصطناعي الذي باتَ يُوازي ويُنافِس أحيانًا ذكاء مُبرمجيه.. وهذا ما وَلَّدَ مخاوف جديدة تمامًا من أن تُقبِل أدواتُنا على اتّخاذ قراراتٍ من تلقائها في لحظةٍ فريدة من تفوُّق الآلة على صانعها.
وطالما أنّه ليس بوسعِ أحد منا الاستغناء عن هذا النَّوع المُتاح من الرفاهية التقنية الصاعدة التي وُجدت أساسًا لتسهيل الحياة، تبينت حقائق ومكامن المعضلة الأساسية الناشئة التي تتحدى السلامة، نتيجة واقع الدَّمج المُشار إليه، ما راحت تُعبِّر عنه جهاتٌ مُستقلة وحكومية، متخوفةً من تداعياته، فالأدوات الذكية تقوم بتسجيل كل صغيرة وكبيرة عن تحركات الأشخاصِ المُستخدِمين لها والمُحيطين بها وعن أفعالِهم.
ورأى العديدُ من الخبراء الأمنيين مشكلات أكبر يُمكن أن تترتب على ذلك، فعبَّر الكثيرون منهم عن خطورة هذا الدّمج في ظل التطور شبه اليومي للتقنيات الرقمية، وقد باتت تُسيطر على الإنسان ووقائع حياته، وتضاعَفت المَخاوف أمامَ احتمالات نجاح الذكاء الاصطناعي في تعزيز الأدوات بأهم الصفات التي يَنفرد بها الدماغ البشري، ويأتي «الوعي» في مُقدمتها، بحيث يُمكن لهذه التقنيات أن تُصبح قادرةً على فهْم العالَم من حولها كما يَفهمه الإنسان، وهنا لا يعود بوسعِ أحد تصوُّر ردود الأفعال المُحتمَل اتخاذها من قِبَلِ هذه التقنيات الفريدة.
هل تُفكر الآلة؟
هذا هو السؤال الكبير الذي نَقف حيارى أمامه: هل يُمكن للآلات أن تُفكِّر حقًا؟ الجواب يعتمد على تعريفنا للتفكير، إذا كان التفكيرُ يَعني مُعالَجة المعلومات أسرع من البشر، فالذكاء الاصطناعي انتصرَ على الإنسان بالفعل، لكن هل يُمكنه التصرف باستقلالية، وبما يَتجاوز حدودَ برمَجَتِه؟
هنا يترنح الجوابُ بين الطمأنَة والتشكيك.. والإنسانُ مفطور على البحث عن طمأنةِ نفسه، في هذا السياق يقول الفيلسوفُ والمؤرِّخ «إميل ب. توريس» في مقالةٍ حديثة له في صحيفة «واشنطن بوست» الأمريكية، «إن للبشرية تاريخًا طويلاً من طمْأنةِ أنفسنا بشكلٍ غير صحيح، إذ استمرَّت تقول إن بعض الحقائق التي لا مفر منها في وقتنا الحاضر لا يُمكن أن تَحدث»، وهذا من نَوع الرَّجمِ بالغيب.
ففي مقالةِ هذا الكاتب المُتبحِّر بواقع الذكاء الاصطناعي ومستقبله، «حَذَّرَ من مخاطر طويلة المدى لهذه التقنيّة الحديثة على البشرية، وتخوَّف من أنها قد تؤدي لإبادتها»، في ظل «إمكانية ابتكار خوارزميات تَتجاوز المُستويات البشرية للذكاء العام»، وهو استعادَ ما كان قالَه «كين أولسن» رائد صناعة الحاسوب في العام 1977 من أنّه «لا يَتوقع البتة أن يكون للأفراد أيُّ استخدامٍ للحاسوب في منازلهم».. وهذا ما أَثبت الواقع اليوم عدم صحتَه، وتابَع قائلاً: «إن التوقعات العادية تفيد أن قوة الحوْسَبة المُتزايدة ستكون نعمةً للبشرية.. لكن ماذا لو أَخطأنا مرةً أخرى كما أَخطأ «أولسن»؟ وهل يُمكن للذكاء الاصطناعي الخارق أن يُسبِّب لنا ضَررًا كبيرًا، بل هل يُمكنه أن يؤدّي إلى انقراضنا؟».
وفي مُحاوَلةٍ للردّ على هذه التساؤلات، كَتب تـوريس: إن التاريخ يُعلمنا ألا نقول عن أي احتمال «هذا مستحيل»، وأَوضح أنّ «أجهزة الحاسوب في سبيلها كي تُصبح أكثر ذكاءً من البشر، وأن تلك مسألة وقت فقط ينبغي لنا أن نكون واثقين من حدوثها لأننا نَرى تطوُّر الأمور أمام أعيننا».
وخَتم مقالتَهُ بأن «الذكاء الاصطناعي سيَتجاوز عاجلاً أم آجلاً الذكاءَ البشري، ولن يؤدي ذلك إلى أداءٍ أفضل من البشر في كل المجالات فحسب، ولكنه سيَتجاوز بكثير أفضل قدراتنا».
ولم يكُن «توريس» الوحيد في إبداءِ هذه المخاوف؛ فقد جاءَ في مقالٍ في مجلة «فورين أفيرز» أن «مجموعة من الباحثين ألقوا الضوءَ على دَورِ الذكاء الاصطناعي في تشويه مسألة صناعة القرار»، وهذه إحدى قِمم كتلة الجليد، إذ لا شك أن تمكُّن الآلة من التلاعُب بمسألة خطورة «صناعة القرار»، يُوازي الجحيم ذاته، ولئن لم يَنجح الذكاءُ الاصطناعي حتى الآن في تعزيز الأشياء بحس المسؤولية، فهذا لا يُمكن الركون إلى ثباته في ظل البحث المُتواصل والتطوير الذي لا يتوقف؛ لذا من المنطقي أن نَستعيد كلمةَ «توريس» بأن «التاريخ يُعلمنا ألا نقول عن أي احتمالٍ هذا مستحيل». مسؤولية المُطورين
إلى جانب كون الاندماج بين «إنترنت الأشياء» والذكاء الاصطناعي أدى إلى توفير خدماتٍ جليلة للإنسان، غير أن الاطمئنان لن يكون مُمكنًا ومُحققًا قَبل أن يَتمكن مُطورو هذه التقنيات من ضبطِها بالشكل الكافي، للحيلولة دون تمكنها من اختراق خصوصية الإنسان أو استغلال البيانات المُلتقَطة بغرضِ إيذائه.
الواضح أن أبرز التحديات أمام إنسان اليوم هو ضعف تصميم أجهزة إنترنت الأشياء ذاتها من الناحية الأمنية، حيث ربما تكون محدودة الإمكانيات من حيث المُعالَجة والمَوارِد، ما يَجعل من العسير توفير تدابير أمان قوية وفعالة وكافية لضمان حمايتها من الاختراقات؛ لذا يُفترض بالضرورة أن يَنجح المُطورون في تحقيقِ التوازُن المأمون بين الابتكار والمَخاطِر الأمنيّة، وهذا ما هو غير مُحقَّق بَعد وغَير مضمون.
ماذا يقول الواقع؟
الحقيقة إن أحداث الواقع تبدو غير مُطمئِنة، ففي العام 2016، كَشَفَ «هجوم ميراي بوتنت» عن هشاشة «العالَم المُترابط» الذي يُحيط بنا، وبالفعل تسبَّب استغلالُ ثغرات أمنية في تعطيلِ مواقع شهيرة وتعطيلِها عن العمل مثل تويتر ونيتفليكس، وهذا من أبسط الأضرار.
قَبل هذا بعامٍ واحدٍ كَشَفَ باحثون أمنيون عن فجوةٍ أمنية خطيرة في السيارات المُتصلة بالإنترنت عندما تمكنوا من اختراق نظام الوسائط المتعددة لسيارة جيب، ما أَتاح لهم السيطرةَ على أجزاءٍ مهمة فيها مثل المُحرك والمَكابِح.
أمّا في العام 2020، فقد جَرى الإبلاغُ عن عديدٍ من الحوادث المتنوعة والمُهددة للسلامة، حين طالتِ الأعطالُ بعضَ الأجهزة المُتصلة في قطاع الرعاية الصحية، وتحديدًا ما يتعلق منها بتنظيم عمل الأعضاء الحساسة كالقلب والبنكرياس وسواها، إذ نَجَحَ المُخترقون في التلاعُب بالإعدادات الحيوية لهذه الأجهزة، ما عَرَّضَ حياةَ المُستخدِمين لخطرٍ أكيد.
وبعيدًا من المرضى الذين تكون سلامتهم وحياتهم مُرتهَنة للأجهزة المُتصلة، تبيَّنت مَخاطر أخرى جمة تتصل بما هو أكْبر وأخْطر مما يتعلق بأسرار الدول، من عسكرية وأمنية او اقتصادية أو ما سوى ذلك، بخاصة أن الذكاء الاصطناعي باتَ حاضرًا بقوة في مَيادين إنترنت الأشياء كالأسلحة التي بوسعها التسبُّب بكوارث لا حصرَ لها.
ولعل من أبرز المشكلات كون أنظمة الذكاء الاصطناعي «تتعلم» من مجموعة البيانات التي جرى تدريبها عليها، واعتمادًا على كيفية حدوث هذا التجميع، هناك احتمال أن تَعكس مجموعةُ البيانات أشكالاً غير مأمونة من الافتراضات أو التحيُّزات، ويُمكن لذلك أن يؤثِّر على عمليّة صنْع القرار في النظام.
أمامَ هذه الوقائع يَتأكّد أنّ استخدامَ هذه الأدوات من جهة، ونموَّ إمكاناتها وكفاءتها من جهةٍ ثانية، هو أمرٌ حتميّ. وهكذا يتمّ تدريب الخوارزميّات على تطويرِ ذكائها من دون مسؤوليّة ولا عاطفة. المعنى الصريح أنّنا أمام غدٍ غَير مضمون.
*كاتب من لبنان
* ينشر بالتزامن مع دورية أفق الصادرة عن مؤسسة الفكر العربي.