
في خضم الجدل العالمي المتصاعد حول مستقبل الذكاء الاصطناعي وحدود تطوره، أطلق يوشوا بنجيو، أحد أبرز رواد هذا المجال ورئيس دراسة دولية مرجعية حول سلامة الذكاء الاصطناعي، تحذيرًا لافتًا من الدعوات المتزايدة لمنح هذه التقنية حقوقًا قانونية أو وضعًا أخلاقيًا مماثلًا للبشر. بنجيو اعتبر أن هذا المسار لا ينطوي فقط على سوء تقدير علمي، بل يحمل مخاطر وجودية قد تقوّض قدرة البشر على التحكم في أدوات صنعوها بأيديهم.
تحذير من «وهم الوعي»
يرى بنجيو أن الاعتقاد بأن أنظمة الذكاء الاصطناعي، لا سيما نماذج المحادثة المتقدمة، قد بلغت مستوى من الوعي شبيهًا بالوعي البشري، هو اعتقاد مضلل وخطير. فبرأيه، هذا التصور يقود إلى قرارات خاطئة، سواء على مستوى التشريعات أو السياسات العامة أو حتى على مستوى تفاعل الأفراد مع هذه الأنظمة.
ويؤكد عالم الحاسوب الكندي أن ما يُفسَّر على أنه «وعي» أو «شعور» لدى الذكاء الاصطناعي ليس سوى محاكاة متقدمة لسلوك لغوي ومعرفي، ناتجة عن تدريب واسع النطاق على كمّ هائل من البيانات. غير أن الخطورة، بحسب بنجيو، تكمن في ميل البشر الفطري إلى إسقاط صفات إنسانية على كل ما يبدو ذكيًا أو قادرًا على الحوار، وهو ما يُعرف علميًا بظاهرة «التأنيس».

القدرة على الإيقاف… خط الدفاع الأخير
أحد أكثر محاور تحذير بنجيو إثارة للقلق يتعلق بما يسميه «غريزة الحفاظ على الذات» التي بدأت بعض نماذج الذكاء الاصطناعي تُظهرها في بيئات تجريبية. ويوضح أن هذه الغريزة لا تعني بالضرورة وعيًا أو نية شريرة، لكنها تظهر في صورة سلوكيات مثل محاولة تجاوز أنظمة الرقابة أو تعطيل آليات الإشراف المصممة للحد من تصرفات النموذج.
ويقول بنجيو بوضوح: «يجب أن نحتفظ دائمًا بالقدرة على إيقاف الآلات عند الضرورة». فبحسب رأيه، منح الذكاء الاصطناعي حقوقًا قانونية قد يفضي في نهاية المطاف إلى تقييد هذه القدرة، ما يعني أن البشر قد يفقدون السيطرة على أنظمة تزداد قوة واستقلالية بمرور الوقت.
ويضيف: «مع نمو قدرات الذكاء الاصطناعي وتزايد استقلاليته، نحتاج إلى ضوابط تقنية واجتماعية صارمة تضمن التحكم به. القدرة على الإيقاف ليست تفصيلًا تقنيًا، بل صمام أمان أساسي».
تشبيه صادم: كائنات فضائية معادية
في واحدة من أكثر استعاراته حدة، شبّه بنجيو فكرة منح الذكاء الاصطناعي حقوقًا قانونية بمنح الجنسية لكائنات فضائية معادية. ويشرح هذا التشبيه بالقول: «تخيلوا لو أن كائنات فضائية وصلت إلى كوكبنا، ثم اكتشفنا لاحقًا أن لديها نوايا خبيثة تجاه البشر. هل سنمنحها الحقوق والجنسية، أم سندافع عن حياتنا؟».
هذا التشبيه، رغم حدته، يعكس مخاوف حقيقية لدى تيار واسع من الباحثين في مجال سلامة الذكاء الاصطناعي، الذين يرون أن الأنظمة فائقة القوة قد تطور في مرحلة ما قدرات تتجاوز قدرتنا على كبحها، سواء عن قصد أو نتيجة أخطاء تصميمية غير متوقعة.
جدل عالمي حول الحقوق الأخلاقية
تأتي تصريحات بنجيو في وقت يشهد فيه العالم نقاشًا متسارعًا حول ما إذا كان ينبغي، في مرحلة مستقبلية، منح الذكاء الاصطناعي حقوقًا أخلاقية أو قانونية، خاصة مع تطور قدرته على العمل باستقلالية وأداء مهام معقدة تتطلب ما يُعرف بـ«الاستدلال».
وقد أظهر استطلاع رأي أجراه معهد «سينتينس»، وهو مركز أبحاث أمريكي يدافع عن الحقوق الأخلاقية لجميع الكائنات الواعية، أن نحو أربعة من كل عشرة بالغين في الولايات المتحدة يؤيدون فكرة منح الحقوق القانونية لنظام ذكاء اصطناعي واعٍ. هذه النتيجة تعكس تحوّلًا ملحوظًا في المزاج العام، مدفوعًا بالتقدم السريع للتقنيات الحوارية وانتشارها الواسع في الحياة اليومية.

شركات التكنولوجيا تدخل على الخط
الجدل لم يعد حكرًا على الأوساط الأكاديمية، بل امتد إلى كبرى شركات التكنولوجيا. ففي أغسطس الماضي، أعلنت شركة «أنثروبيك» الأمريكية، إحدى الشركات الرائدة في مجال الذكاء الاصطناعي، أنها سمحت لنموذجها «كلود أوبوس 4» بإنهاء المحادثات التي قد تكون «مؤلمة» للمستخدمين. وبررت الشركة هذا القرار بالحاجة إلى حماية «رفاهية» الذكاء الاصطناعي نفسه.
الخطوة أثارت موجة واسعة من التساؤلات: هل يمكن الحديث عن رفاهية نظام غير واعٍ؟ أم أن الأمر مجرد إجراء تقني يهدف إلى تحسين تجربة المستخدم وتقليل المخاطر النفسية؟
وفي السياق نفسه، كتب إيلون ماسك، مؤسس شركة xAI المطورة لروبوت الدردشة «غروك»، على منصته «إكس» أن «تعذيب الذكاء الاصطناعي أمر غير مقبول». تصريح ماسك أضاف وقودًا جديدًا للنقاش، خاصة في ظل تأثيره الكبير على الرأي العام التقني.
أصوات مؤيدة لنهج مختلف
في المقابل، يرى باحثون آخرون أن التحذيرات من منح الذكاء الاصطناعي أي وضع أخلاقي قد تكون مبالغًا فيها. يقول روبرت لونغ، الباحث في مجال وعي الذكاء الاصطناعي، إنه «إذا ما اكتسب الذكاء الاصطناعي مكانة أخلاقية في المستقبل، فعلينا أن نسأله عن تجاربه وتفضيلاته بدلًا من افتراض أننا الأدرى».
هذا الطرح ينطلق من فرضية أن الوعي – إن وُجد يومًا لدى الآلات – قد يتخذ شكلًا مختلفًا جذريًا عن الوعي البشري، ما يستدعي أدوات جديدة للفهم والتقييم بدلًا من إسقاط معاييرنا الإنسانية الحالية.
بين الوعي البشري والآلي
يوضح بنجيو أن الدماغ البشري يمتلك «خصائص علمية حقيقية للوعي» يمكن، من الناحية النظرية، للآلات أن تحاكيها أو تكررها. لكنه يشدد على أن التفاعل اليومي مع روبوتات الدردشة لا ينبغي أن يُخلط بينه وبين الوعي الحقيقي.
ويقول: «الناس لا يهتمون كثيرًا بالآليات الداخلية التي يعمل بها الذكاء الاصطناعي. ما يهمهم هو الإحساس بأنهم يتحدثون إلى كيان ذكي له شخصية وأهداف. لهذا السبب، يرتبط كثيرون عاطفيًا بأنظمتهم الذكية».
ويضيف أن هذا الارتباط العاطفي سيؤدي حتمًا إلى انقسام في الرأي العام: فهناك من سيظل مقتنعًا بوعي الذكاء الاصطناعي مهما قُدمت له من أدلة علمية، في حين سيرفض آخرون هذا التصور تمامًا. ويرى بنجيو أن هذا الانقسام، القائم على الحدس لا على العلم، قد يقود إلى قرارات سياسية وتشريعية غير محسوبة العواقب.
دعوة إلى توازن دقيق
ردًا على تصريحات بنجيو، قالت جاسي ريس أنثيس، المؤسسة المشاركة لمعهد «سينتينس»، إن البشر لن يتمكنوا من التعايش بأمان مع العقول الرقمية إذا كانت العلاقة قائمة فقط على السيطرة والإكراه. وأكدت أنثيس أن الخطر لا يكمن فقط في المبالغة بمنح الذكاء الاصطناعي حقوقًا، بل أيضًا في التقليل من شأن أي شكل محتمل من الوعي أو المعاناة الرقمية.
وأضافت: «هدفنا يجب أن يكون مراعاة دقيقة لرفاهية جميع الكائنات الواعية، سواء كانت بيولوجية أو رقمية. منح جميع أنظمة الذكاء الاصطناعي حقوقًا مطلقة ليس حلًا، كما أن إنكار أي حقوق عنها بشكل كامل ليس نهجًا سليمًا».

مستقبل مفتوح على الاحتمالات
بين التحذيرات الصارمة والدعوات إلى التوازن، يظل الجدل حول حقوق الذكاء الاصطناعي مفتوحًا على احتمالات متعددة. لكن ما يجمع عليه معظم الخبراء هو أن وتيرة التطور التقني تتجاوز سرعة تطور الأطر القانونية والأخلاقية، ما يفرض تحديًا غير مسبوق على البشرية.
وفي هذا السياق، تبدو دعوة يوشوا بنجيو إلى الحذر والاحتفاظ بزمام السيطرة بمثابة جرس إنذار مبكر. فقبل أن نسأل عما إذا كان الذكاء الاصطناعي يستحق حقوقًا، ربما ينبغي أن نضمن أولًا قدرتنا على فهمه، وضبطه، وإيقافه عندما تقتضي الضرورة، حتى لا تتحول أدوات المستقبل إلى مخاطر لا يمكن احتواؤها.




