في الوقت الذي يتطلع فيه الجيش الأمريكي إلى الاستفادة من الذكاء الاصطناعي التوليدي، يحذر كريج مارتيل رئيس قسم التكنولوجيا الرقمية والذكاء الاصطناعي بوزارة الدفاع، وهو أكبر مسؤول في البنتاجون المسؤول عن تسريع قدراته في مجال الذكاء الاصطناعي من أنه قد يصبح أيضًا «الأداة المثالية» للتضليل، قائلا: «نعم، أنا خائف حتى الموت. هذا رأيي»، جاء حديثه هذا في مؤتمر TechNet Cyber ​​ التابع لـAFCEA في بالتيمور عندما سُئل عن أفكاره حول الذكاء الاصطناعي التوليدي.

أداة مثالية

كان مارتيل يشير تحديدًا إلى نماذج لغة الذكاء الاصطناعي التوليدية، مثل ChatGPT، التي تطرح المشكلة الخطيرة: هم لا يفهمون السياق، وسيأخذ الناس كلماتهم على أنها حقيقة لأن النماذج تتحدث بشكل رسمي، وأضاف: «هذا هو أكبر مخاوفي بشأن ChatGPT لقد تم تدريبها على التعبير عن نفسها بطلاقة وبشكل رسمي. لذا فأنت تصدقها حتى عندما تكون مخطئة، وهذا يعني أنها أداة مثالية للمعلومات المضللة، نحتاج حقًا إلى أدوات لنكون قادرين على اكتشاف وقت حدوث ذلك ولكي نكون قادرين على التحذير عند حدوث ذلك، وتابع محذرا: «ليست لدينا هذه الأدوات». «نحن متأخرون في تلك المعركة». مارتيل الذي عينته وزارة الدفاع العام الماضي من القطاع الخاص، يتمتع بخبرة واسعة في مجال الذكاء الاصطناعي. قبل عمله في CDAO، كان رئيسًا للتعلم الآلي في Lyft وDropbox، وقاد عديدا من فرق الذكاء الاصطناعي في LinkedIn وكان أستاذًا في كلية الدراسات العليا البحرية لأكثر من عقد يدرس الذكاء الاصطناعي للجيش. وفي الوقت الذي ناشد فيه رجال الصناعة في المؤتمر بناء الأدوات اللازمة للتأكد من دقة المعلومات التي تم إنشاؤها من جميع نماذج الذكاء الاصطناعي المولدة - من اللغة إلى الصور- قال للجمهور: «إذا سألت ChatGPT» هل يمكنني الوثوق بك»، فإن إجابته ستكون طويلة جدًا بـ»لا»، أنا لا أمزح، يقول البرنامج إنني أداة وسأعطيك إجابة ويجب عليك التحقق من ذلك بنفسك، لذا فإن خوفي من استخدام ChatGPT، بدلاً من المخاوف بشأن استخدام خصومنا له، هو أننا نثق به كثيرًا دون أن يتمكن مقدمو الخدمة من الضمانات الصحيحة وقدرتنا على التحقق من صحتها».

جمع المعلومات

يأتي تحذير مارتيل في الوقت الذي يتوقع فيه قادة البنتاغون طرقًا لاستخدام الذكاء الاصطناعي في جمع المعلومات الاستخبارية والقتال في المستقبل.

وفي المؤتمر، بدأ الملازم جنرال روبرت سكينر، مدير وكالة أنظمة المعلومات الدفاعية (DISA) خطابه الرئيسي باستخدام الذكاء الاصطناعي التوليدي الذي استنسخ صوته وألقى ملاحظاته الافتتاحية، قال سكينر بعد أن كشف أن مقدمته كانت من صنع الذكاء الاصطناعي: «ربما يكون الذكاء الاصطناعي التوليدي، الذي أود أن أقدمه، إحدى أكثر التقنيات والمبادرات اضطرابًا في وقت طويل جدًا». «أولئك الذين يسخرون ذلك ويمكنهم فهم أفضل طريقة للاستفادة منه، ولكن أيضًا أفضل طريقة للحماية منه، سيكونون هم الذين يتمتعون بمكانة عالية». عندما طُلب منه اليوم الرد على أفكار مارتيل، أخبر سكينر المراسلين أنه «ليس خائفًا من الذكاء الاصطناعي التوليدي»، لكنه سيكون «تحديًا لمكان تألق الروح الابتكارية داخل وزارة الدفاع».

قال ستيفن والاس كبير مسؤولي التكنولوجيا في DISA، إن الوكالة تبحث في الاستفادة من الذكاء الاصطناعي التوليدي بعدة طرق، من «قدرات المكتب الخلفي إلى إنشاء العقود، وتصنيف البيانات، وأضاف: عدد التطبيقات واسع النطاق للغاية، نقول دائمًا إننا لا نستطيع إخراج الناس من المشاكل، والطريقة هي زيادة فرقنا، وجعل فرقنا أفضل لتقديم إمكانات في نهاية المطاف في جميع المجالات».