حظي التحيز في أنظمة الذكاء الاصطناعي مؤخراً باهتمام بحثي كبير، فهناك قلق كبير سواء لدى الباحثين في هذا المجال أو المشرعين أو حتى المستخدمين من أن تقوم أنظمة الذكاء الاصطناعي باتخاذ قرارات متحيزة ضد ما يعرف بالخصائص المحمية Protected Attributes، مثل: الجنس والعرق والعمر وغيرها. أغلب هذا الاهتمام بدأ بعد تقرير أعده فريق في “برو بابليكا دوت كوم” (ProPublica.com) عام 2016 لتقييم أنظمة قضائية تستخدم في كثير من المحاكم الأميركية للتنبؤ بإمكانية ارتكاب المدان جرائم في المستقبل القريب بعد الإفراج المشروط عنه، وكانت النتائج حسب التقرير أن هذه الأنظمة تميل لإعطاء المدانين من ذوي البشرة السمراء درجة احتمالية أكبر لارتكاب جريمة أخرى في المستقبل مقارنة بالمدانين من ذوي البشرة البيضاء. وحسب التقرير، لم يكن ذلك يعكس الواقع بالضرورة. من جهة أخرى، أوقفت شركة أمازون نظام توظيف داخلي لديها عام 2018 لأنه كان متحيزاً ضد المتقدمات من النساء على الوظائف التقنية، إذ كان يميل لإعطاء تقييم أعلى للمتقدمين من الرجال مقارنة بنظائرهم من النساء. اقرأ أيضاً: