الوثائق المسربة من شركة «سيرج إيه آي» تكشف كيف توكل إليهم مهام تحديد ما يُعد مقبولًا أخلاقيًا في ردود روبوتات الذكاء الاصطناعي، دون حماية قانونية أو إشراف مؤسسي شفاف. وهم من يقرر مثلًا ما إذا كان الرد على استفسار عن المثلية، أو توجيه نصائح حول تجنّب الحراس، يعتبر مقبولًا أو مرفوضًا.
اللافت أن هذه القرارات تُتخذ في غياب إطار حقوقي عادل، بينما تجني الشركات العملاقة أرباحًا طائلة. الأمر يثير تساؤلات جوهرية: كيف يُبنى وعي أخلاقي لأنظمة ذكية على أكتاف من يعانون التهميش؟ وهل يمكن الوثوق بعدالة أنظمة تُدار من خلف شاشات بلا عدالة اجتماعية؟