يساعد الذكاء الاصطناعي العلماء على تحقيق الاكتشافات، لكن ليس بوسع الجميع فهم كيفية وصوله إلى استنتاجاته، لذا يعمل عالم الحاسوب «تشاوفان تشين» على تطوير شبكات عصبية عميقة تشرح النتائج التي وصلت إليها بطرائق يمكن للمستخدمين فهمها، وتطبيقها على اكتشافات في علوم الأحياء والطب والمجالات الأخرى.

يتمحور تركيز عالم الحاسوب على تعلم الآلة القابل للتفسير، أو الذكاء الاصطناعي الذي يقدم تفسيرات للنتائج التي يتوصل إليها، وأوضح «تشاوفان تشين» أن تعلم الآلة القابل للتفسير يتيح للذكاء الاصطناعي إمكانية إجراء مقارنات بين الصور والتنبؤات الواردة في البيانات مع توضيح أسبابها.

ويمكن للعلماء استخدام تعلم الآلة القابل للتفسير لمجموعة متنوعة من التطبيقات؛ ابتداء من تحديد نوع الطيور في صور الحياة البرية، وصولًا إلى تحليل تصوير الثدي بالأشعة السينية، وقال تشين «أتطلع إلى تعزيز شفافية التعلم العميق، وتطوير شبكة عصبية عميقة توضح الآلية التي تعمل بها»، وأضاف: «بدأ الكثير من الناس في إدراك حقيقة أن الشبكة العصبية العميقة تشبه الصندوق الأسود، وأن الناس بحاجة إلى البدء في اكتشاف طرق لفتح هذا الصندوق».