الذكاء الاصطناعي.. هل هو «عنصري» أيضاً؟

كشفت دراسة أجراها معهد ماساتشوستس للتكنولوجيا عن الطريقة التي يجمع من خلالها نظام الذكاء الاصطناعي البيانات، ما يجعله عنصرياً ومتحيزاً جنسياً.

ودرس الباحثون مجموعة من الأنظمة، فوجدوا أن العديد منها أظهر تحيّزاً صادماً، ثم طوّروا نظاماً يساعدهم على التأكد من أن أنظمتهم أقل تحيزاً.

وقالت كبيرة الباحثين، إيرين تشن، وهي طالبة دكتوراه كتبت الورقة البحثية مع البروفيسور، ديفيد سونتاج، وزميل الدكتوراه فردريك د.جوهانسون: «إن علماء الكمبيوتر يسارعون في كثير من الأحيان إلى القول بأن الطريقة التي تجعل هذه الأنظمة أقل انحيازاً، هي ببساطة تصميم خوارزميات أفضل».

واستطردت موضحة: «تظهر الأبحاث أنه يمكنك في كثير من الأحيان إحداث فرق أكبر مع بيانات أفضل».

وفي أحد الأمثلة، درس فريق البحث نظام التنبؤ بالدخل، فوجد أنه من المرجّح أن يُساء تصنيف الموظفات على أساس دخلهن المنخفض، والموظفين على أنهم من ذوي الدخل المرتفع.

ووجد الباحثون أنهم إذا قاموا بزيادة مجموعة البيانات الدقيقة، فإن تلك الأخطاء ستقل بنسبة 40 في المئة.

وتقول «تشن» إن واحدة من أكبر المفاهيم الخاطئة، تتمثل في أن زيادة البيانات بغض النظر عن الدقة تكون دائماً أفضل.

ويقول سونتاج: «إننا نعتبر هذا بمثابة صندوق أدوات لمساعدة مهندسي التعلم الآلي على معرفة الأسئلة التي يجب طرحها في بياناتهم، من أجل تشخيص سبب قيام الأنظمة بإجراء تنبؤات غير عادلة».

ومن المقرر أن يقدم الفريق الورقة البحثية في كانون الأول المقبل، خلال المؤتمر السنوي المتعلق بنظم معالجة المعلومات العصبية NIPS ، في مونتريال. ديلي ميل

اترك تعليقاً

زر الذهاب إلى الأعلى