أخبار
Interview

خبير يحذر: الذكاء الاصطناعي يضع مستقبل البشرية على المحك

نشرت بتاريخ 4 ديسمبر 2025

في هذا اللقاء الصحفي، يتحدث يوشوا بنجيو عن جهوده لمواجهة أخطار الذكاء الاصطناعي والوقوف عليها.

دافيديه كاستلفيكي • بنجامين طومبسون

تحوَّل اهتمام أبحاث عالم الحاسوب يوشوا بنجيو إلى التركيز على استكشاف مخاطر الذكاء الاصطناعي. حقوق نشر الصورة: Amir Makar/AFP Via Getty
تحوَّل اهتمام أبحاث عالم الحاسوب يوشوا بنجيو إلى التركيز على استكشاف مخاطر الذكاء الاصطناعي. حقوق نشر الصورة: Amir Makar/AFP Via Getty

يوشوا بنجيو هو عالم حاسوب من جامعة مونتريال الكندية. في عام 2019، حاز جائزة «إيه. إم. تورينج» A.M. Turing، التي تُعد من أرفع الجوائز في مجال علوم الحاسوب، عن اكتشافاته الرائدة في مجال تقنيات "التعلم العميق"، والتي تكسب حاليًا الذكاء الاصطناعي انتشاره واكتساحه لكل المجالات.  وفي الشهر الماضي، أصبح أول شخص على قيد الحياة يُستشهد بأبحاثه لأكثر من مليون مرة على محرك البحث الأكاديمي «جوجل سكولار» Google Scholar.

لكنه في الأعوام الأخيرة، اتجه إلى التركيز على استكشاف مخاطر الذكاء الاصطناعي. ويرأس في الوقت الحالي لجنة دولية من الاستشاريين في هذا المجال، تشمل ممثلين من 30 دولة، ومن الاتحاد الأوروبي، ومن منظمة التعاوُن الاقتصادي والتنمية (OECD)، بالإضافة إلى الأمم المتحدة. وقد أصدرت اللجنة في يناير الماضي وثيقة بعنوان «التقرير الدولي حول أمان أنظمة الذكاء الاصطناعي» International AI Safety Report. حددت هذه الوثيقة ثلاثة مخاطر رئيسية لأنظمة الذكاء الاصطناعي، هي: المخاطر غير المتعمدة الناجمة عن الأعطال، والمخاطر النابعة من استخدام هذه الأنظمة للأغراض الخبيثة، والمخاطر المنظومية كخسارة سبل العيش بسبب استيلاء الذكاء الاصطناعي على وظائف نهض بها البشر سابقًا.

من هنا، أجرت دورية Nature مقابلة صحفية مع بنجيو في لندن لمناقشة الإمكانات والمخاطر المحتملة لهذه التقنية التي أسهم في ابتكارها.

من بين ما أنتجته من مؤلفات بحثية عديدة، هل هناك عمل بحثي تعتز تحديدًا به؟

إنها مجموعة الأوراق التي شاركت في تأليفها عن النماذج اللغوية ومحاكاة الانتباه، والتي بدأت في أواخر التسعينيات، حول الكيفية التي يمكننا بها استحداث آليات الانتباه 1 في الشبكات العصبية لتغدو أقرب إلى "النظام 2" (نسق التفكير البشري)؛ بمعنى أن تعتمد بدرجة أكبر على التفكير المدروس لا أن تكون مجرد آلات تستند إلى التكهن.

هل هذه هي آلية استحداث الانتباه ذاتها التي شكلت محور ورقة بحثية صدرت عن باحثين تابعين لشركة «جوجل» في عام 2017 1، حيث طُرحت فكرة المحولات، أي التقنية التي يرمز إليها حاليًا الحرف "T" في اسم روبوت الدردشة «تشات جي بي تي» ChatGPT؟

نعم، لكنني أود أيضًا أن أشير إلى مجموعة أوراق بحثية أخرى، تحظى بقدر أقل كثيرًا من الاهتمام، وأقصد بذلك الأبحاث حول تعلُم الآلة للمقررات2،والتي تُدرب فيها الآلة بتغذيتها بالبيانات بترتيب محدد وليس عشوائيًا. فقد أضحت هذه الطريقة الآلية القياسية في مجال تعلُم الآلة.  وكان ما ألهمني لكتابة هذه الأوراق البحثية هو ملاحظة آليات التعلم في الحيوانات.

لم يكن الخطر الوجودي الذي يشكله خروج أنظمة الذكاء الاصطناعي عن السيطرة من أكبر مخاوفك قبل بضع سنوات، فما الذي اختلف؟

عندما صدر روبوت الدردشة «تشات جي بي تي» ChatGPT  في نوفمبر من عام 2022، لم ألبث أن أدركت بعد مرور شهرين أو ثلاثة أشهر على ذلك أننا نسلك دربًا ينذر بخطر كبير. ورغم أنني سُررت في البداية بوصول تقنيات التعلم العميق إلى هذه المحطة المفصلية في تطورها، أدركت أن طبيعة هذه الأنظمة جعلتنا غير قادرين على الجزم بأي شكل بتصرفها على النحو الذي أردناه منها.

فبدأت أفكر في حفيدي، وأتساءل: سيكون في الثانية والعشرين من عمره بعد عشرين عامًا، فهل ستكون له حياة؟ وهل سيحيا في ظل ديموقراطية؟

أيًا كان من يملك السيطرة على أنظمة ذكاء اصطناعي شديدة التطور في المستقبل، سيتمتع بسلطة هائلة. وقد يستغل هذه السلطة على نحو يفيده بينما قد لا يفيد أغلبنا.  والديموقراطية تعني تشارُك السلطة. فإن تركزت هذه السلطة في أيدي قلة، ستنتفي الديموقراطية لتحل محلها الديكتاتورية.

بل ثمة مخاطر وجودية أخرى يشكلها وقوع الإمكانات التي يتيحها الذكاء الاصطناعي في الأيدي الخطأ. فالبعض، لدوافع إيديولوجية أو لاضطرابات في الصحة العقلية قد يضغط زنادًا، ويطلب من أنظمة الذكاء الاصطناعي أن ترتكب فظائع تفضي إلى وفاة مليارات البشر، على سبيل المثال، بإطلاق فيروس قوي جديد، أو حتى بكتيريا ذات يدوانية مغايرة قادرة على الفتك بجميع أشكال الحياة الحيوانية على ظهر الكوكب.

أي من المخاطر الثلاثة الأبرز التي حددها «التقرير الدولي حول أمان أنظمة الذكاء الاصطناعي» يرجح أن يكون له أثر كبير على المدى القصير؟ وأيها تجده الأكثر إثارة للقلق؟

بدأ بالفعل استخدام الذكاء الاصطناعي لأغراض خبيثة، وأعتقد أننا بدأنا نشهد لمحات من هذه الاستخدامات، وتظهر، على سبيل المثال، في مقاطع الفيديو المنتجة بتقنية التزييف العميق والهجمات السيبرانية. وهي استخدامات يرجح أنها مدفوعة بأحدث التطورات في إمكانات أنظمة الذكاء الاصطناعي السيبرانية. لذا علينا أن نتبنى المزيد من الإجراءات الوقائية لتخفيف هذه المخاطر. وقد تكون هذه الإجراءات فنية وسياسية، بمعنى وضع ضوابط أو غير ذلك من الإجراءات التحفيزية التي تُطبق لضمان اتخاذ الشركات للخطوات اللازمة لتلافي هذه المخاطر أو الحد منها.

لكن ما يقض مضجعي ويؤرقني ليلًا هو بلا شك احتمال انقراض البشر. لهذا تحول اهتمام أبحاثي إلى التركيز على القضية التالية: كيف نصمم ذكاءًا اصطناعيًا مُعدًا لئلا يضر بالبشر؟ وقد صرت أعتقد أن هذا من الممكن. وهذا برأيي ما يعنيه التقدم الهائل. وأنا اليوم أكثر تفاؤلًا بإمكان تحقيقه.

طرحت مع فريقك البحثي فكرة الذكاء الاصطناعي العالِم، المزود بخصائص أمان مدمجة فيه من البداية. هلا حدثتنا عن ذلك؟

استُلهم تصميم هذا الذكاء الاصطناعي من الكيفية التي يسعى بها العلماء إلى فهم هذا العالم، وإلى تصميم نماذج لقوانينه والآليات المسببة لظواهره.

وهذا الذكاء الاصطناعي ليس نظامًا وكيلًا. بمعنى أنه ليست له أهداف، أو أغراض ما. ويمكننا أن نثق في ما يخبرنا به. وبإمكاننا أن نصمم أنظمة على أكبر درجة من الموثوقية إن سرنا على هذا الدرب.

غير أن الشركات تسعى إلى تصميم أنظمة ذكاء اصطناعي وكيلة — أي أنظمة ذكاء اصطناعي تلعب دورًا في العالم، في حين يتطلع العلماء إلى تصميم أنظمة ذكاء اصطناعي تساعدهم في تصميم التجارب، وهذا أيضًا دور في هذا العالم. وهو ليس بالدور السلبي الذي يُختزل في إصدار التوقعات من التجارب. والنبأ السار هنا هو أنك إذا امتلكت أدوات تنبؤ جيدة، يمكنك استخدامها لاتخاذ إجراءات وقائية، بالتنبؤ مثلًا بما إن كانت تجربة ما أو إجراء ما للذكاء الاصطناعي قد يفضي إلى تبعات سيئة وبمدى احتمالية حدوث ذلك.

كيف استُقبل «التقرير الدولي حول أمان أنظمة الذكاء الاصطناعي»؟ وهل بدأ يؤثر في اتجاهات الحكومات في التعامل مع هذه الأنظمة؟

نعم. وقد سررت سرورًا كبيرًا عندما لاحظت أنه بدأ بالفعل يترك بصمة كبيرة. فما أدى إليه هو أنه حدد بدقة - بالاستناد إلى الأدبيات العلمية - المخاطر التي صرنا ندركها بالفعل. كما وقف على المقاربات المتاحة في الوقت الحالي للتخفيف من وطأة هذه المخاطر وبيّن حدودها ونقاط ضعفها.

والسؤال هنا: ما الفائدة التي عادت من ذلك؟ والجواب هو أن الكثير من الدول أنتجت معاهد لضمان أمان أنظمة الذكاء الاصطناعي، بمعنى أنه صارت هناك شبكة من هذه المعاهد، أو كيانات حكومية تستهدف فهم مخاطر أنظمة الذكاء الاصطناعي وتقييمها والحد منها.

وقد استفادت هذه المعاهد بدرجة كبيرة من النمط الذي اتبعه التقرير في جمع الأدبيات العلمية في هذا السياق. كما يساعد التقرير العلماء ممن لم تكن لديهم دراية بماهية مخاطر الذكاء الاصطناعي على خوض المجال. فهذا التقرير ملخص ثري لما وصلت إليه الأدبيات العلمية حاليًا، ويُحدَّث بانتظام. وقد جرت صياغته بلغة يمكن لأي مواطن فهمها أيضًا.

هل تعتقد أن الذكاء الاصطناعي على المدى الطويل سيسرع وتيرة نمو الاقتصاد العالمي، أم أنه سيفاقم الفقر في العالم؟

في الواقع، على صعيد الناتج المحلي الإجمالي، من المرجح أن يؤدي إلى نمو الاقتصاد، لأنه سيتيح زيادة الإنتاجية في شتى المجالات. السؤال هو: كيف سينعكس ذلك على رفاه الأفراد؟ بتعبير أدق، إن تركزت الثروة في أيدي قلة من الأفراد، وفي أيدي دول قليلة، فسائر العالم سينتظره مستقبل مظلم.

لذا، من الناحية الاقتصادية، يعتمد الأمر على القياس الذي تستخدمه في هذه الحالة. إن تأملت ثروة الشريحة الوسطى، فالنتيجة ستختلف عن الوضع إذا تأملت متوسط ثروة الأفراد ككل.

في الواقع، المسألة رهن بالقرارات السياسية التي ستُتخذ في غضون السنوات المقبلة حول كيفية السيطرة على الأدوات التي سيمنحها الذكاء الاصطناعي للبشرية؛ أي كيف نضمن أن يستفيد الجميع على ظهر الكوكب.

هل تجد أن الحماس لأنظمة الذكاء الاصطناعي مفرط في الوقت الحالي؟

نعم، وأعتقد أنه من الصعب على غالبية الأفراد توقع مستقبل يجدون فيه الآلات أكثر ذكاء بكثير مما هي عليه الآن. رغم أنك إن سألتهم "هل توقعتم الوضع الحالي قبل خمس سنوات؟" ستجد أن أغلبهم قبل خمس سنوات كان ليُسمي ما نراه الآن "ضربًا من الخيال العلمي". وإن تكرر الموقف نفسه مستقبلًا، ستجد أن خيالنا محدود، وهذه سمة بشرية خالصة.

هل تتمنى لو أن الذكاء الاصطناعي لم يُبتكر قط؟

هذا سؤال تصعب الإجابة عنه. أتمنى لو أننا جميعًا تمتعنا بدرجة أكبر بنظر ثاقب فيما يخص الاحتمالات الكارثية التي قد تنشأ عن استخدام الذكاء الاصطناعي، فهذا كان ليجعلنا أكثر حذرًا في هذه النقلة التي مضينا إليها.

حُررت هذه المقابلة مراعاةً للطول والوضوح.

هذه ترجمة المقال الإنجليزي المنشور في دورية Nature  بتاريخ 12 نوفمبر من عام 2025.

doi:10.1038/nmiddleeast.2025.203


1.    Vaswani, A. et al. Preprint at https://doi.org/10.48550/arXiv.1706.03762 (2017).

2.    Bengio, Y., Louradour, J., Collobert, R. & Weston, J. Proc. 26th Annu. Int. Conf. Mach. Learn. 41–48 https://doi.org/10.1145/1553374.1553380 (2009).