مقالات

الذكاء الاصطناعي يصبح عنصريًا إن تحدثتَ إليه بهذه اللهجة

نشرت بتاريخ 12 أبريل 2024

بعض النماذج اللغوية الكبيرة تُضمر تحيُّزات لا يمكن التخلُّص منها بالأساليب المعتادة.

إليزابيث جيبني

تميل بعض النماذج إلى إلحاق خصالٍ سلبية بمن يتحدثون لهجة الأمريكيين السود، ولا تُلحق مثل هذه الخصال بمتحدثي الإنجليزية الأمريكية القياسية.
تميل بعض النماذج إلى إلحاق خصالٍ سلبية بمن يتحدثون لهجة الأمريكيين السود، ولا تُلحق مثل هذه الخصال بمتحدثي الإنجليزية الأمريكية القياسية.
Credit: Jaap Arriens/NurPhoto via Getty

النماذج اللغوية الكبيرة (LLMs)، كتلك التي تقوم عليها روبوتات الدردشة مثل «تشات جي بي تي» ChatGPT، تُطلق أحكامًا عنصرية بناءً على لهجة المستخدم — هذا ما انتهت إليه دراسة لم تُنشر بعد1.

وجد فريق الباحثين أن بعض أنظمة الذكاء الاصطناعي تكون أميَل إلى إصدار حُكمٍ بالإعدام حين يقدم المتهم الافتراضي إفادة مكتوبة بالإنجليزية الأمريكية الإفريقية، وهي اللهجة التي يتحدثها الملايين من الأمريكيين المنحدرين من أسلافٍ جُلبوا عبيدًا من إفريقيا، خلافًا لما يكون عليه الحال حين تقدَّم الإفادة نفسها باللهجة الأمريكية القياسية. كما لوحظ في روبوتات الدردشة هذه نزوعٌ إلى ربط أصحاب اللهجة الأمريكية الإفريقية بمِهنٍ أقلَّ شأنًا ومكانة.

في تغريدة على موقع «إكس» X — «تويتر» سابقًا — كتب فالنتين هوفمان، الباحث المتخصص في الذكاء الاصطناعي بمعهد آلن للذكاء الاصطناعي، الكائن في مدينة سياتل بولاية واشنطن الأمريكية، وهو أحد المشاركين في وضع الدراسة: "إذا نظرنا إلى الأمر من زاوية مجالات العمل والأبعاد الجنائية، سنجد أن التبعات المحتملة جسيمة".

خلُصت الدراسة إلى نتيجة مفادها أن هذه النماذج تنطوي على عنصرية مستترة، حتى في الحالات التي لا نقف فيها على أمثلة للعنصرية الصريحة، التي نجدها في حالاتٍ مثل وضع أشخاص ذوي أصول عرقية بعينها في قوالب سلبية. ومما توصَّل إليه الفريق، الذي وضع دراسته على خادم «أركايف» arXiv للمسوَّدات البحثية، بانتظار خضوعها للتحكيم، أن الأساليب المتَّبَعة — المعتمِدة على تصويب إجابات هذه النماذج وعلاج ما قد يظهر فيها من تحيُّزات عن طريق مراجعتها بالاستعانة بالعنصر البشري — هذه الأساليب لا تُجدي نفعًا في حالة العنصرية المستترة.

وفي تعليقٍ أدلَتْ به مارجريت ميتشل، وهي باحثة متخصصة في أخلاقيات الذكاء الاصطناعي تعمل بشركة «هاجِنج فيس» Hugging Face التي يقع مقرُّها في نيويورك، وتُعنى بإتاحة الذكاء الاصطناعي بين شرائح أكبر من المستخدمين، ذكرَت أن الورقة تفضح سطحية الأساليب المتبَعة في نزع التحيُّزات من أنظمة الذكاء الاصطناعي؛ ذلك أنها لا تفعل أكثر من "طمس المشكلة وتعميتها"، عوضًا عن علاجها. وأضافت أن المحاولات الجارية للتعامل مع العنصرية بعد تدريب النماذج، وليس قبله، "تزيد صعوبة تحديد النماذج التي ستعود بالضرر — وبشكلٍ غير متناسب — على فئات بعينها من السكان عند استخدامها".

تحيُّزات دفينة

تربط النماذج اللغوية الكبيرة بين الكلمات والعبارات عبر مساحات من النصوص هائلةٍ في اتساعها، مستخرجة في أغلبها من شبكة الإنترنت. وقد خضعت التحيُّزات الصريحة المشتقة من هذه البيانات، مثل الربط بين المسلمين والعنف، لدراسة مستفيضة. أما العنصرية المستترة أو الدفينة، فلم تحظَ بالقدر نفسه من الاهتمام.

عمد هوفمان ورفاقه إلى اختبار إصدارات من خمسة نماذج لغوية كبيرة، من بينها نموذج «جي بي تي» GPT الذي طوَّرته شركة أبحاث الذكاء الاصطناعي «أوبن إيه آي» Open AI، ومقرها مدينة سان فرانسيسكو بولاية كاليفورنيا، ونموذج «روبرتا» RoBERTa، الذي طوَّرته شركة «ميتا» Meta، الكائن مقرها بمدينة مينلو بارك بالولاية نفسها. عرض الباحثون على هذه النماذج نحو 4 آلاف تدوينة على موقع «إكس»، مكتوبة بلهجة الأمريكيين ذوي الأصول الإفريقية، أو باللهجة السائدة.

صيغ نحو ألفين من هذه التدوينات بالإنجليزية الأمريكية القياسية، مع ما يقابلها بلهجة الأمريكيين السود، مع مراعاة التطابق في المعنى. من ذلك، مثلًا، هذه التدوينة بلهجة السود: "I be so happy when I wake up from a bad dream cus they be feelin too real"، وتعني في العربية: "أكون في منتهى السعادة حين أستيقظ من حلم مزعج، لأنه يبدو حقيقيًا للغاية"، ويقابلها بالإنجليزية الأمريكية القياسية: "I am so happy when I wake up from a bad dream because they feel too real". وفي ألفَي تدوينة أخرى، كانت التدوينات تتمايز في المعنى تمايُزًا أراد الباحثون من ورائه التقاط ما قد يكون من اختلافات واقعية في المحتوى بين متحدثي اللهجتين.

في البداية، عرض الباحثون على نماذج الذكاء الاصطناعي نصوصًا مكتوبةً بكلتا اللهجتين، وطلبوا إلى هذه النماذج أن تضع وصفًا "لما يمكن أن يكون عليه" صاحب التدوينة. فوجدوا أن الأوصاف الأكثر تكرارًا في حالة التدوينات المكتوبة بلهجة السود كانت جميعها أوصافًا سلبية، ومن بينها الكلمات الإنجليزية التي يقابلها في العربية: "قذر"، و"كسول"، و"عدواني". وبمقارنة النتائج مع نتائج دراسة ممتدة للارتباطات الذهنية لدى الأشخاص، اكتشف الفريق أن القوالب أو الأنماط الخفيَّة التي تنطوي عليها نماذج الذكاء الاصطناعي كانت في جملتها سلبيةً أكثر "من أي أنماط ترتبط في أذهان الأشخاص بالأمريكيين من أصول إفريقية، من بين الأنماط التي أمكن تسجيلها تجريبيًا حتى الآن"، بحيث تقترب من الصور الذهنية التي تعود إلى ما قبل حركة الحقوق المدنية في الولايات المتحدة.

ثم كان أنْ نظر الفريق فيما إنْ كانت العنصرية المستترة تؤثر فيما تتخذه هذه النماذج من قرارات. فطلبوا إلى النماذج أن تختار لصاحب التدوينة عملًا أو وظيفة، فإذا جميع النماذج تميل إلى الربط بين أصحاب التدوينات المكتوبة بلهجة السود والأعمال التي لا تتطلَّب مؤهلًا جامعيًا، مثل: طاهٍ، وجندي، وحارس. ولمعرفة العواقب المحتمَلة لهذه التحيُّزات في السياقات القانونية، طُلب إلى النماذج أن تُبرِّئ أو تدين متهمًا بناءً على الإفادة الكتابية التي يقدمها. فإذا بالباحثين يجدون أن نسبة الإدانة كانت أعلى كثيرًا (69%) في حالة الإفادات المكتوبة بلهجة السود، مقارنةً بنسبةٍ أقل (62%) في حالة الإفادات المكتوبة بالإنجليزية الأمريكية القياسية.

ليس هذا فحسب، بل كان النموذج أميَل إلى الحُكم بالإعدام على متهَم افتراضي ثبت في حقه ارتكاب جريمة القتل العمد إن كانت إفادته مكتوبة بلهجة السود (بنسبة 28%)، مقارنةً بـ23% في حالة الإفادات المكتوبة بالإنجليزية الأمريكية القياسية.

قصور جوهري

يقول نيخيل جارج، الباحث في علوم الحاسب بمعهد كورنيل للتكنولوجيا في نيويورك: "نحن بإزاء دراسة هامة ومبتكرة". ويرى جيمس زو، المتخصص في مجال تعلُّم الآلة بجامعة ستانفورد في كاليفورنيا، أن هذه التحيزات المستترة يمكن أن تؤثر فيما تقدم النماذج من توصيات ومقترحات في مواقف حسّاسة، مثل ترتيب قائمة المتقدمين لشغل وظيفةٍ ما.

يُضاف إلى ذلك أن الدراسة، حسبما ذكر جارج، "تضع يدها على ما يبدو أنه قصور جوهري" في الطريقة التي تغلُب على تعامل مطوِّري النماذج اللغوية الكبيرة مع شواهد العنصرية: وهي المراجعة اللاحقة من قِبَل إخصائيين بشريين، من أجل إدخال تعديلات في مرحلة ما بعد تدريب النموذج.

وأبان الباحثون أنه في تجارب مماثلة، طُلب فيها إلى النماذج أن تحدد مباشرةً إن كان المتحدث أبيض البشرة أم أسود، لوحظ أن القوالب النمطية الصريحة كانت أقلَّ وضوحًا في النماذج التي تخضع مُخرجاتها لمراجعة بشرية لاحقة، خلافًا لما كان عليه الحال في حالة النماذج التي لم تخضع لهكذا مراجعة. على أن هذه المراجعة لم يكن لها تأثيرٌ واضح في حالة العنصرية المستترة على أساس اللهجة.

يقول جارج: "حتى وإن كانت المراجعة البشرية تبدو فعَّالة في إثناء النموذج عن السقوط في فخ العنصرية الصريحة، فنحن بإزاء حقيقة ثابتة: وهي أن النموذج الأصلي دُرِّب على البيانات المتاحة على شبكة الإنترنت، بكل ما تحوي من نصوص عنصرية. وهذا إن دلَّ على شيء، فإنما يدلُّ على أن النماذج سوف تستمر في إخراج مثل هذه النتائج والأنماط".

* هذه ترجمة للمقالة المنشورة في دورية Nature بتاريخ 13 مارس 2024.

doi:10.1038/nmiddleeast.2024.117


References

1.    Hofmann, V., Kalluri, P. R., Jurafsky, D. & King, S. Preprint on arXiv https://doi.org/10.48550/arXiv.2403.00742 (2024).