الخطوة جاءت بعد خلاف بين البنتاغون وشركة منافسة، (Anthropic)، التي رفضت تقييد استخدام نماذجها للذكاء الاصطناعي في السياقات العسكرية كما طلبت الحكومة، ما دفع الإدارة الأمريكية لإصدار توجيه بوقف استخدام تقنيتها في العقود الفيدرالية.
قرار (OpenAI) أثار ردود فعل متفاوتة: انتقادات من مستخدمين عبر الإنترنت وصل بعضها إلى حملة (إلغاء ChatGPT)، حيث عبر كثيرون عن قلقهم من تورط تقنيات الذكاء الاصطناعي في أنشطة عسكرية قد تُستخدم في سياقات صراع أو حرب، كما طالب البعض بضرورة ضمان أعلى مستويات الشفافية بشأن كيف تُستخدم البيانات داخل التطبيقات العسكرية، خصوصًا حين تكون المعلومات حساسة أو متعلقة بأشخاص.
في المقابل، أكدت (OpenAI) أن الاتفاق مُصمَّم لضمان أن الذكاء الاصطناعي يُستخدم بشكل قانوني وآمن، وأن الشركة تحتفظ بالسيطرة على بروتوكولات السلامة.