العلم

التحيّز الخوارزمي وتصعيد اللامساواة

  • سوزانا شلينبرج
  • ترجمة: زياد الحازمي
  • تحرير: تركي طوهري

يُستخدم الذكاء الاصطناعي للمساعدة في صناعة القرار في مجالات متعددة: كالرعاية الصحية، والموارد البشرية، والأحكام الجنائية، لكن في الكثير من الحالات تصاب التكنولوجيا بالخلل.

أصبح الذكاء الاصطناعيّ يُستخدم بازدياد حول العالم للمساهمة في صناعة القرار فيما يتعلق بالرعاية الصحية، والقروض، والأحكام الجنائية، والعروض الوظيفية، فعلى سبيل المثال: يستخدم الأطباء الخوارزميات في نظام الرعاية الصحية في الولايات المتحدة لاتخاذ القرارات حول العلاج.

ومع ذلك فقد ذكرت دراسة حديثة أن إحدى الخوارزميات الشائعة المستعملة لديها تحيزٌ عِرقيّ، حيث من المرجح أنها ستقرر أن المريض الأبيض يحتاج إلى رعاية أكبرَ من المريض الأسود حتى مع وجود اعتلالات صحية متطابقة بينهما، هذه الخوارزمية وغيرها ما زالت تُستخدم في العناية بمئات الملايين من المرضى سنويا في الولايات المتحدة، يا تُرى ما الذي يجري هنا؟!

كل نظام تعرف صناعيٍّ أو طبيعيّ يَستخدم التعميمات الإحصائية لكي يعمل بكفاءة، ونتيجة لذلك فإن كل أنظمة التعرف، صناعية كانت أو طبيعية، لا تخلو من الانحياز، فجهاز الرؤية في الإنسان مليء بمثل تلك الانحيازيات والتي فيها ما ينفع، وفيها ما يضر.

الجهاز الإدراكي لدى الإنسان مثلا يَفترض أن الضوء يأتي من الأعلى، وهذا انحياز نافع إلى حد ما بما أننا نعيش في عالم يأتي فيه الضوء -غالبا- من الأعلى، وهذا الانحياز تحديدًا يجعل جهاز الرؤية لدينا يعمل بكفاءة أعلى عبر السماح لنا بمعالجة المعلومات المُستقبَلة بشكل أدق، لكن أحيانا هذا الافتراض -أن الضوء يأتي من الأعلى- يقودنا لاستنتاجات خاطئة ولكن في معظم الأحيان تسير الأمور دون أدنى إشكال.

وبينما يُنظر لهذا الانحياز على أنه لا مشكلةَ فيه، فإن التحيزات البصرية تكون ضارة لو تمكنت من خلق حالات إدراكية تعزز الظلم في مجتمعنا، أو تقود للتفاعل مع الآخرين بصورة مؤذية، وبالنظر إلى مساوئ البشر فليس من المستغرب أن نظرتنا متحيزة، فنحن في النهاية مدفوعون بسطوة الخوف، وتصرفاتنا مبنية على العواطف، ومعرضون لسوء الفَهم.

ومع ذلك فقد يكون من المدهش أن أنظمة الذكاء الاصطناعي متحيزة، فعلى أية حال إن الخوارزميات الحاسوبية تشكل لُبَّ الذكاء الاصطناعي، وهذه الخوارزميات أُسِّست على الرياضيات وتعمل على البيانات، لذا يُتوقع منها أن تكون موضوعية وعادلة، لكنها على النقيض من ذلك. هناك طريقتان أساسيتان يظهر فيها تحيز الخوارزميات: البيانات التي دُرِّبت عليها الخوارزمية، وكيفية ربط الخوارزمية لخصائص البيانات التي تعالجها. ويمكننا أن نطلق على الأولى الانحياز المرتبط بالتدريب، والثانية انحياز ربط الخصائص.

لنلق نظرة على الانحياز المرتبط بالتدريب أولا، ولْنأخذ خوارزمية التعرف على الكلام الخاصة بـ “غوغل” فهي مثال جيد، هذه الخوارزمية تعمل جيدا على الذكور بعكس الإناث، لماذا؟ أيُّ خوارزمية معقدة تقوم بمعالجة بيانات معيّنة، خوارزمية “غوغل” للتعرف على الصوت مدرَّبة بشكل غير متناسب على أصوات الرجال، ونتيجةً لذلك تعمل الخوارزمية بشكل أدق حينما تُفكُّ شفرة الأصوات التي تكون ضمن التردد القياسي لأصوات الذكور.

وهناك الكثير من الحالات المشابهة، كبرنامج التعرف على “الوجه” المدمج بنظام تصوير أجهزة نوكيا والذي استُخدِم للإساءة للآسيويين سائلا المستخدم: “هل رمش أحد؟” في عام 2015، وكخوارزمية التعرف على الوجه الخاصة بـ”غوغل” والتي عَرّفت أمريكيَّين من أصول أفريقية بأنهما غوريلّتان. يمكن أن يرجع مصدر المشكلة في كلتا الحالتين إلى البيانات المشوهة والمحرفة والتي دُرِّبت الخوارزمية عليها، حيث بُنيت البيانات بشكل أساسيّ على وجوه العرق القوقازيّ الأوروبيّ.

ماذا عن المصدر الآخر للانحياز الخوارزميّ: انحياز ربط الخصائص؟ إن أنظمة الذكاء الاصطناعي تعالج مجموعات بيانية ضخمة ومعقدة بشكل لا يمكن تصوره، تحتوي مجموعات البيانات على أجزاءَ من المعلومات يمكننا أن نسميها “خصائص”، تقوم الخوارزميات بالاختيار والربط بين هذه الخصائص بشكل منتظم، ثُمّ تتوصل للتكهنات والنتائج المستقبلية. الربط بين الخصائص قد يكون معقدا إلى مرحلة تتعدى مستوى الفَهم البشري حتى للمبرمجين الذين أنتجوا الخوارزميات الأولية أنفَسهم، ولكنها في متناول الاكتشاف بالنسبة للخوارزميات، ولْنأخذ مثالا لتتضح الصورة.

تَستخدم الشركات حول العالم الخوارزميات كأداةٍ لتصفية طلبات الحصول على وظيفة، هذه الخوارزمية التوظيفية يمكنها أن تكون متحيزة بطرق متعددة، ففي “فوكس نيوز” مثلًا تُستخدم الخوارزمية لاختيار طلبات التوظيف الواعدة بناءً على من كان ناجحا من الموظفين في فوكس نيوز في الماضي، حيث تركز الخوارزمية على خاصيتين تحديدا: أن الموظف قد عمل خمس سنوات، وأنه قد ترقّى مرتين على الأقل خلال تلك الفترة، وحينها تقوم الخوارزمية بتصفية المتقدمين المقاربين للموظفين القدامى المستوفِين لهذين المعيارين.

معظم موظفي فوكس نيوز المستوفِين لهذين الشرطين في الماضي هم من الرجال البيض (العرق القوقازي)، وكنتيجة غير مفاجئة لذلك، فقد كانت معظم طلبات التوظيف التي اختيرت من قِبَل الخوارزمية على أنها واعدة هي لمتقدمين من نفس العرق، إذن فهذا الانحياز عائده الأساسي إلى الطرق الإشكالية للخوارزمية في اختيار وربط الخصائص، وقد تصل غرابة بعض الخصائص التي تربطها الخوارزميات لدرجة التحقق من “هل لعب المتقدم كرة القدم في الجامعة أم لا؟”!

هناك انحيازات في ربط خصائص ذات أبعاد أكثر خطورة من ذلك، على سبيل المثال ما يُعرف ببرنامج نورث بوينت لمخاطر معاودة الجريمة “COMPAS” والذي يُستخدم في المحاكم في أنحاء الولايات المتحدة، يقوم البرنامج بحساب مجموعِ نقاطٍ متنبّئا بالأرجحية لشخصٍ ما أن يرتكب جريمة في المستقبل، ويستخدم القُضاة مجموع النقاط المرتبط بمخاطر معاودة الجريمة لاتخاذ القرارات في الأحكام الجنائية.

وكما أظهرت دراسة لموقع ProPublica فإن مجموع النقاط غير موثوق به في التنبؤ بالجرائم المستقبلية، فدرجة الوثوق بها تزيد بشكل بسيط فقط عن موثوقية رميِ عملة معدنية، ومما يزيد الطين بِلّة أن الخوارزمية التي تُنتج هذه النقاط متحيزة، فهناك احتمال كبير أن تفترض أن الأمريكيّ من أصول أفريقية مرشح أكثر من غيره لمعاودة ارتكاب الجريمة، وكنتيجة لذلك فإن القضاة المستخدمين لهذه التقنية لديهم القابلية للحكم على هؤلاء بأحكام أكثر قسوة من غيرهم.

ما مصدر الانحياز هنا؟ يكون مجموع النقاط مبنيا على إجابات لمجموعة من الأسئلة لا تحتوي على إشارة مباشرة للعِرق، حيث تُعطي الأسئلة معلومات عن الفقر، البطالة، والتهميش الاجتماعيّ، يقوم البرنامج حينها بربط خصائص مرتبطة بالعرق كالرمز البريديّ، بطريقة تقود لانحيازٍ ضد الأمريكيين من أصول أفريقية.

الإشكالُ في الخوارزميات الانحيازية يكمُن في المُخرجات الانحيازية الناتجة عنها، فهي تقوم بتَكرار ممارساتنا السابقة مما يجعلها تقوم بـ “أَتْمَتة” الوضع الراهن وتمتهن الانحياز والظلم، بل وتضخم من هذه المسألة في مجتمعنا.

لنوضحَ ذلك فلْنعد مرة أخرى لخوارزميات الرعاية الصحية في الولايات المتحدة، ينبع الانحياز العرقي في هذه الخوارزميات من استخدامها لتكاليف العلاج والرعاية الصحية كمؤشرٍ لصحة المريض، فإذا كانت التكاليف في سجل الرعاية الصحية للمريض مرتفعةً، تتنبأ الخوارزميات بأن هذا المريضَ يجب أن يحصل على رعاية إضافية.

قد لا يكون هناك إشكال في حال وجود ارتباط واضح بين ارتفاع التكاليف والحاجة لرعاية صحية مكثفة، لكن إن كانت تكاليف العلاج مرتبطة بدخل الفرد ومستوى التأمين الطبي والحصول على الرعاية، فإن هذه الخوارزمية تزيد من الظلم في هذا النطاق، وما سيحصل أن المرضى ذوي التكاليف المنخفضة بسبب الدخل المنخفض أو التأمين الطبي الذي لا يغطي تكاليفهم، ستكون فرصهم أقل في الحصول على الرعاية الطبية الإضافية التي يحتاجونها، وهذا ما تفعله الخوارزميات حينما تنتج حلقات من الانطباعات المضرة وتعزز من التحيزات البشرية.

 

ماذا نفعل لنتجنب الخوارزميات المتحيزة؟

يتمحور الحل الفعال حول ركيزتين أساسيتين: تدريب وتعريض الخوارزميات لمجموعة متزنة من البيانات، والتحقق من الطريقة التي يتم بها ربط الخصائص. ولكن من الأسئلة الصعبة بالنسبة لأنظمة الذكاء الاصطناعي السؤالُ عن معنى أن تكون الخوارزمية عادلة، وهل العدالة هنا تتطلب ضمانةَ أن يكون للجميع احتمالات متساوية للحصول على فائدةٍ ما؟ وهل تتطلب تصحيح الظلمِ الحاصل في الماضي؟

هناك احتياج عاجل لإصلاح الانحياز الخوارزمي طِبقا لما يظهر لنا من الدراسات الحديثة عن الانحياز العرقي في الرعاية الصحية، ومع وجود اللوائح المناسبة يمكننا تصميم خوارزمياتٍ تضمن العدالة والمساواة في العلاج للجميع، لا يوجد حالياً مثلُ هذه اللوائح ولكنّ المحاولات لا تزال قائمة لإلزام الشركات والوكالات والمستشفيات بتقييم استخدامهم لأنظمة القرارات الذاتية.

في أبريل من عام 2019 قدم أعضاء مجلس الشيوخ: كوري بوكر وَرون وايدن مع يفيت كلارك “قانون المساءلة الخوارزمي” والذي يُلزم الشركات بتقييم وإصلاح خوارزميات الأنظمة المتحيزة والتي يَنتج عنها قرارات غير دقيقة أو غير عادلة أو فيها تمييز من نوعٍ ما، وهو أول جهد تشريعيّ لتنظيم أنظمة الذكاء الاصطناعيّ في الولايات المتحدة ويعتبر بدايةً جيدةً في هذا المسار.

 

اقرأ ايضاً: هل نهاية العالم أقرب للخيال من نهاية الإنترنت؟

المصدر
newstatesman

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى