عام

من يُحاسب الآلة والذكاء الاصطناعي؟

  • محمد سعد
  • تحرير: الرميصاء رضا

من المجالات التي تشهدُ نموًا أُسيًا وتَسارعًا شديدًا في تطوّرها، مجالات الذّكاء الاصطناعي، بدءًا من أفلامٍ سينمائيّة تُصوّر لنا مستقبلنا المتكئ عليها، وانتهاءً بخوارزميّة تُعالج اللّغة الطبيعية[1]، وأخرى تتنبّأ بشكلِ البروتين وانطوائِه بدقّةٍ عالية[2]، هاتان تُشكّلان أبرز الإنجازات الأخيرة في مجالات الذّكاء الاصطناعي.

التطوّر القائم بالذّكاء الاصطناعي مّشابِه لما هو في الشرائح الإلكترونية (الترانزستورات) آنذاك[3]، فكان التطوّر يُمثَّل بقانونٍ يُسمّى (قانون مور)، القائل بأنّ: هذه الشرائح تتطور بمقدار الضّعف كلّ سنتين، أي أنّ عدد الترانزستورات يتضاعف في الشريحة الواحدة ذات الحجم الثّابت كلّ عامين.

باتَ من الضرورات تبعًا لهذا التطوّر، البتّ في هذه الآلات والخوارزميّات وكيفيّة عملها؛ كونها ستشغل حيزًا كبيرًا من عالمنا، ولتقاطعها مع عدد من المجالات الحسّاسة؛ فكان لزامًا علينا أن نضع التشريعات والقوانين لهذه الآلات، درأً للفوضى والاضطرابات، ولكن لا يمكننا وضعها دون النّظر إلى المصادر الأخلاقيّة وعلم الأخلاق لاعتماد القانون عليهما.

الإشكاليّة في الآلات والذّكاء الاصطناعي أنّهما يضعانا في موقفٍ غامضٍ وغيرِ مألوف، فلم يُسبق أن تعرضت هذه الآلات لنا أو أخطأت وتعدّت علينا، ولكن هذا قائم الآن وبفرصٍ ليست بيسيرة.

تخيّل سيّارة ذاتيّة القيادة تسير في الطريق السريع دون تدخّل صاحبها، فقبل وصولها لوجهتها تصطدم بإحدى المارة على جانب الطريق، أو تُخطئ الخوارزميّة في تمييز لوحة (قف) وتفهمها (السرعة ٩٠)، فترفع السرعة وتصطدم ويموت صاحبها، ففي الحالتين هناك ضررٌ قائمٌ وتعدٍ؛ ولكن من نحاسب؟

الموقفان آنفا الذكر حصلا وليسا بغريبين، ومن المُصادفة أنّهما حدثا متزامنين، وبينهما فترة قصيرة، فكان الحادث الأول بسيّارة لشركةِ (تيسلا) وهي في وضع القيادة الآليّة، في ولاية كاليفورنيا، بالولايات المُتحِدة ومات على إثر هذا الحادث صاحب المركبة[4].

أما الحادث الثاني كان في ولاية أريزونا لسيّارة ذاتيّة القيادة تابعة لأوبر، كانت تُجرّب في الطرق العامة، وبها قائدة مساعدة للتعامل مع المواقف العسيرة التي قد تقابل هذا النظام غير المُكتمِل، ولكن القائدة كانت مُتلهّية وغافلة حين اصطدمت السيارة بإحدى المشاة متسببة بموتها، حري الذكر أنّ الشركة قد بُرّئت من هذا الحادث تمامًا، ولكن اُتهمت القائدة بالقتل غير العمد، لتركها مسؤوليتها في مراقبة الطريق، ولأنّ الحادث كان بإمكانها تجنبه وتفاديه[5].

ما سبق ذكره يبيّن ضرورة جلب واستحضار هذه القضايا والبتّ فيها، لا الانتظار لحين تَحقّق الضرر، فحينها ستكون المضرّة أشدّ؛ والوضع أكثر اضطرابًا وارتجاجًا.

في سردي هذا أُفرق بين مفهومين، الأول قديمٌ لا إشكال فيه، وهو الأتمتة[6] وهي كلمة مُعرّبة مستوحاة من الإنجليزية، ويُعنى بها جعل الشيء آليًّا أُوتوماتيكيًّا دون تدخّل الإنسان، وإنما يَتّبع شروطًا معيّنة تحت ظروف معيّنة، فهو غير متكيّف، ولا يتخذ قرارات غير التي وُضعت له، ومن أمثلتها؛ الإشارات الضوئية، وآلات التصنيع البسيطة، وهلمّ جرّا.

أما الثاني-وهو موضع الإشكال-فهي الأتمتة الذكيّة[7] إن صحّت الصياغة، فالشيء متكيّف، ويتعلّم من محيطه، ويتخذ قراراته باستقلالية وانفرادٍ عن الإنسان؛ لذا فهو مُشكّل ومُختلِف عن الأوّل بذكائه واستقلاليته عن الآدمي.

الأوّل لا غموض فيه؛ بما أّنه غير ذكي، بل يتّبع التعليمات التي وُضعَت له، والقوانين فيه واضحة جليّة لا اختلاط فيها، أمّا الثّاني فهو موضع البحث والنقاش؛ لذكائه، فهل نعتبره جامدًا في حين أنّه ذكي؟ أم نعتبره ذكي لكنّه غير عاقل؟ ومن يُحاسب على الضرر الحاصل؟ الآلة ذاتها؟ أم الشركات القائمة عليها؟

حوادث السيارات ذاتيّة القيادة ما هي إلا قطرة من محيط مترامي الأطراف في إشكالات أخلاقيّات الذّكاء الاصطناعي الجمّة.

من العقبات في الإحاطة والإلمام بالموقف: هو أنّنا لا نفهم كيف يعمل الذّكاء الاصطناعي أحيانًا! خصوصًا المُعقّدة منها؛ أي أنّ صانعي هذه الخوارزميّات لا يعلمون كيف تعمل، وكيف اتّخذت قراراتها وكيف تعلّمتها، وتُسمّى هذه في الذّكاء الاصطناعي بالصندوق الأسود[8]، ويحاول باحثون دراسة هذه الآلات وفهمها كما يفهم علماء الأنثروبولوجيا البشر[9]، وأُطلق على هذه المجال “سلوكيات الآلة”، وقد يوحي كلامي بأنّ الآلة أمست واعية وذكيّة جدًا، لا؛ ولكن معاملة الآلات على أنّها كيانات مُستقِلة أصبح ضرورة.

مع انتشار تطبيقات الذّكاء الاصطناعي التي تتعامل مع البشر بشكلٍ مُباشر، انبثقت مشكلة أخرى عويصة، وهي تَحيّز الآلات! قد تتحيّز الخوارزميّات أحيانًا، وتنحاز أحيانًا؛ سواءً لعرقٍ أو جنسٍ أو ديانة، ويحدث هذا بسبب: أنّ مصدر ومُنظِّم البيانات والخوارزميّات هم البشر؛ الذين قد يكونوا مُتحيِّزين عمدًا أو سهوًا، وينشأ هذا التحيّز غالبًا عند تدريب هذه الخوارزميّات على بيانات وعيّنات مُتحيِّزة لا تُمثٍّل الواقع، كما في خوارزميّة جوجل المُفتِّشة والباحثة عن خطابات الكراهية على تويتر، الطريف؛ أنّ الخوارزميّة بذاتها كانت مُتحيِّزة عرقيًا[10].

من يُعمِل النظر ويمدّه يُدرك أنّ تبعات هذه الإشكالات جللة وعظيمة على حيواتنا، وهي دنيّة الحصول وقريبة، وقد تحرمنا من وظيفة كما حصل مع خوارزميّة أمازون لاصطفاء الأنسب بين المتقدمين على الوظائف؛ حيث كانت الخوارزميّة مُتحيِّزة للرجال على النّساء[11]، أو قد تبقينا قابعين في السجن لفترة أطول؛ مثل الخوارزميّة التي تستخدمها المحاكم الأمريكيّة لتقييم إذا ما كان المُتّهَم قد يُعاود الكرّة ويعود للجريمة أو لا يعود بناءً على مُعطيات عدّة، وكانت هذه الخوارزميّة مُتحيِّزة عرقيًا على السّود[12].

إحدى بواعث وأسباب هذه الإشكالات هو إهمال الجانب الأخلاقي والتشريعي على هذه التطبيقات، وهذا يُذكّرنا بضرورة أن نبتّ فيه (نحن)، بأخلاقيّاتنا ومبادئنا ونظرتنا، لا أن نترقب الرجل الغربي الأبيض أن يفرض مبادئه ونظرته؛ حيث تختلف نظرتنا نحن للمشاكل الأخلاقيّة عنه، كما في معضلة العربة؛ (هل تترك العربة تدهس أربعة أشخاص على المسار الأول أم تدع القطار يدهس شخصًا على المسار الثاني بلفّ المفتاح)؛ حيث تباينت الآراء على هذه المُعضلة بتأثير الثقافة والنطاق الجغرافي وعوامل أخرى عدّة[13].

اقرأ ايضًا: الإنسان والآلة: انفلات الفعل من مقاصدنا؟


[1] GPT-3, 2020  OpenAI

[2]AlphaFold, 2020, Deep Mind

[3] Stanford 2019 AI index report

[4] BBC

[5] BBC

[6] Automation

[7] Autonomous

[8] Harvard

[9] Nature

[10] MIT Technology Review

[11] Reuters

[12] propublica

[13] Nature

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى