قدمت شركة فيسبوك اعتذارا بسبب رسالة تلقائية ظهرت في مقطع فيديو على منصتها وصفت رجالاً سود بأنهم "ثدييات رئيسية" أو "قردة".
وذكر مستخدمون شاهدوا المقطع، في يوم 27 يونيو الماضي، بعد أن نشرته "ديلي ميل" أنهم وصلتهم رسالة تسأل عما إذا كانوا يريدون "الاستمرار في مشاهدة فيديو عن الثدييات الرئيسيات (primates)".
وقال متحدث باسم فيسبوك إن ما حدث "خطأ غير مقبول" ناجم عن برامج الذكاء الاصطناعي وإن الشركة تدرس ما يجب القيام به لمنع حدوثه مرة أخرى.
وأضاف المتحدث: "كما قلنا، بينما أجرينا تحسينات على الذكاء الاصطناعي لدينا، نعلم أنه ليس مثاليا ولدينا المزيد من التقدم الذي يتعين علينا تحقيقه. نعتذر لأي شخص قد يكون قد رأى هذه التوصيات المسيئة".
وقال موقع ذا فيرج" إن هذه الحادثة هي أحدث مثال على أدوات الذكاء الاصطناعي التي تُظهر التحيز الجنسي أو العرقي، إذ أظهرت أدوات التعرف على الوجه مشكلة خاصة في التعرف على الأشخاص الملونين بشكل خاطئ".
وكانت "غوغل" قد اعتذرت، في عام 2015، عن قيام تطبيق الصور الخاص بها بوضع علامة على صور الأشخاص السود على أنهم "غوريلا".
وفي أبريل الماضي، حذرت لجنة التجارة الفيدرالية الأميركية من أن أدوات الذكاء الاصطناعي التي أظهرت تحيزا عرقيا وجنسيا "مقلقا" قد تنتهك قوانين حماية المستهلك إذا تم استخدامها لصنع القرار للحصول على الائتمان أو الإسكان أو التوظيف.