ستقوم قوانين الخصوصية التي يفكر بها الكونجرس بإنتاج متطلبات جديدة تخص الفصح والإذن والصلاحية والتصحيح والقابلية والاستخدام المنطقي للمعلومات الشخصية التي ستطبق بالتأكيد على أنظمة الذكاء الاصطناعي. ولكن يجب على المشرعين أن يكونوا حذرين حيال وضع التزامات جديدة يتم تطبيقها خاصة على أنظمة الذكاء الاصطناعي فهو يعتمد اعتمادا كبيرا على السياق، ومحاولة تنظيم التكنولوجيا بهذه الطريقة، وفي نفس الوقت دراسة استخدامها في كل قطاع وتحديد التوجيهات المعينة لتنظيم ذلك الاستخدام عند الضرورة. أهداف تسويقية تقوم الشركات بجمع كميات ضخمة من المعلومات عن المستهلكين من أجل التسويق والإعلانات وأعمال أخرى، واستنتاج التفاصيل عن العملاء بشكل منتظم بناء على ما قد كشفه الآخرون. وبإضافة هذه الخصائص المستنتجة على ملفك لأهداف تسويقية، منشئين بذلك «خصوصية خارجية» وبسبب الخصوصية الخارجية الناجمة عن أساليب التعلم الآلي تفاقم الوضع سوءًا، وما هو إلا سبب إضافي فيما يخص الحاجة إلى قوانين خصوصية جديدة. التعلم الآلي يزيد التعلم الآلي من القدرة على القيام بهذه الاستنتاجات، كالأنماط المكتشفة من قِبل التحليل لسلوكياتك الإلكترونية والتي تكشف عن معتقداتك السياسية وانتمائك الديني، وعرقك ووضعك الصحي وجنسك، حتى وإن لم تقم بالكشف عن هذه المعلومات لأي أحد على الإنترنت. تشريع الخصوصية قامت مجالس المراجعة المؤسسية بالجامعات بتنظيم الدراسات الأكاديمية، مستهدفين حماية عينات الدراسات البشرية من أي ضرر ناجم من عملية الدراسات نفسها. ولكن الآن الشركات الإلكترونية تقوم بشكل منتظم بدراسات مشابهة على عينات بشرية خارج البيئة الأكاديمية، مستهدفين بذلك تحسين مشاركة العميل، دون الحاجة إلى الحصول على الاعتماد من مجالس المراجعة المؤسسية بالجامعات. كما كشفت فيسبوك قبل عدة سنوات ردة الفعل تجاه دراستها عن العدوى العاطفية، العديد من الناس القلقين، الذين طالبوا بتحكم أكثر بالدراسات التي ترعاها الشركة. وقامت بعض الشركات بالتجاوب عن طريق إعداد مجالس مراجعة داخلية من أجل تقييم القضايا الأخلاقية المرتبطة بمشاريعهم التي قد تكون ذات عواقب أخلاقية كبيرة. المراجعة الأخلاقية يجب على الجامعات ومؤسسات الأبحاث والشركات والوكالات الحكومية أن تقوم بتقييم برامج الدراسات والأبحاث باستخدام عدسات أوسع من مجرد حماية حقوق العينات البشرية، فالمشكلة الأخلاقية الحقيقية هو إلحاق الضرر بالأفراد من المجموعات الضعيفة. معالجة التحيز القوانين غير العنصرية الحالية تغطي مجالات معينة مثل الإسكان والتوظيف والائتمان والضمان ومجموعات معينة من الناس الذين قد يكونون ضحايا التمييز والعنصرية. ولا توجد أي استثناءات من هذه القوانين ببساطة لأن الأسلوب التحليلي المتقدم مثل الذكاء الاصطناعي أو التعلم الآلي يتم استخدامه. ومن المهم الأخذ في عين الاعتبار تعديل قوانين العنصرية الحالية ولكن على الرغم من أن مثل هذه التحسينات على قوانين التمييز ستؤثر على استخدام أنظمة الذكاء الاصطناعي والنماذج الإحصائية الأخرى، إلا أنها ليست جزءًا من حوكمة الذكاء الاصطناعي. قابلية التفسير القانون الحالي يحتوي على متطلبات للتفسير في حالات معينة والعديد من برامج التعلم الآلي تثير قضايا جديدة، فالنماذج المأخوذة من التعلم الآلي صعبة التفسير، حتى وإن كانت وفقًا لخوارزمية شفافة بالنسبة للمستخدم، لأن أنماط التفاعل معقدة جدًا وعادة تستخدم مجموعات من العوامل التي تكون بلا منطق بديهي أو نظري. القانون العالمي عرض برنامج Brookings Foreign Policy المحاضرة السنوية السادسة للقاضي ستيفن براير حول القانون العالمي، وكان حدث هذه السنة على التحديات في تنظيم التكنولوجيا الرقمية، بالتركيز على مجالات الخصوصية وحماية البيانات، والملاحظات الأساسية التي أدلى بها بروفيسور التكنولوجيا بجامعة دلفت للتكنولوجيا في هولندا جيروين هوفن، استعراض الاختلافات في كيفية توجه الولايات المتحدة والاتحاد الأوروبي ودول مثل الصين إلى استخدام الذكاء الاصطناعي. مؤكدا أهمية المبادئ البشرية والأخلاقية التي تكمن وراء النموذج الأوروبي للحكم الرقمي والحاجة إلى «أخلاقيات بالتصميم» كطريقة للدمج بين القيم المشتركة عمدًا عبر منتجات خوارزمية وبرمجية وأجهزة وخدمات ابتكارية. المعلومات الخصوصية انضم من مؤسسة مركز المعلومات الخصوصية هوفن إلى كاميرون كيري وبيليانا بيتكوفا، ونيكول تيرنر لي من مركز بروكينغز لابتكار التكنولوجيا، وذلك من أجل دراسة أعمق لجوانب التقارب والتشعب للسياسة الرقمية وتضمن ذلك اختلافات في الأنظمة القانونية والتنظيمية والثقافات التي تساهم في منهجية لا مركزية أكثر في الولايات المتحدة وحمايات أقوى للخصوصية في أوروبا. المصدر (رابط) brookings.edu