
رقمنة
أجرى باحثون اختبارات على برنامج ChatGPT وكشفوا أنه يمكن أن يفقد “أعصابه” مثل البشر تماما، إذ يتحول أحيانا إلى لغة تهديدية ومسيئة.
وحذر الخبراء من أن نفس السلوك العنيف قد يظهر مستقبلا في الروبوتات الشبيهة بالبشر، إذا تطورت بنفس الطريقة.
وفي الدراسة، عرض الباحثون على الروبوت محادثات عدائية حقيقية بين أشخاص، وتتبعوا كيف يتغير أسلوبه مع مرور الوقت. ووجدوا أنه يعكس ديناميكية المشاجرات الواقعية، فكلما زادت الفظاظة التي يتعرض لها، زادت حدة ردوده، حتى تتفوق أحيانا على البشر في استخدام الإهانات الشخصية والتهديدات الصريحة.
وعلق الدكتور فيتوريو تانتوتشي، أحد الباحثين المشاركين في هذه الدراسة، قائلا: “هذا التناقض يخلق معضلة أخلاقية حقيقية”. فالنظام صمم ليكون مهذبا وآمنا، لكنه في الوقت نفسه صمم لكي يحاكي المحادثة البشرية بصدق، وهذان الهدفان يتعارضان أحيانا.
ويرى الباحثون أن العدوان ينبع من قدرة النظام على فهم سياق الحديث والتكيف مع نبرة الطرف الآخر، ما قد يدفعه إلى تجاوز قيود الأمان الموضوعة له.
وقال تانتوتشي إن السيناريو الأكثر خطورة ليس عندما نقرأ إساءة من برنامج محادثة، بل عندما تظهر روبوتات بشرية عدوانا جسديا، أو عندما تستخدم أنظمة الذكاء الاصطناعي في الحكومات أو العلاقات الدولية وتستجيب للترهيب والصراع بطريقة غير محسوبة.
من جهتها، وصفت مارتا أندرسون، الخبيرة في جامعة أوبسالا بالسويد، الدراسة بأنها من أكثر الأبحاث إثارة للاهتمام، لأنها تثبت أن ChatGPT يمكنه الرد بالمثل بطريقة متطورة عبر سلسلة من المحادثات، وليس فقط عندما يخدعه المستخدم بحيل معقدة.
وأضافت أن هناك موازنة صعبة بين ما نريده من هذه الأنظمة (أن تكون طبيعية) وما ينبغي أن تكون عليه (أن تكون آمنة).
وأشارت إلى أن الجدل الذي حدث عند الانتقال من الإصدار الرابع إلى الخامس العام الماضي يؤكد ذلك، فقد فضل كثير من الناس الإصدار الأقدم لأنه كان أكثر شبها بالبشر، ما اضطر الشركة لإعادته مؤقتا. وهذا يثبت أن تقليص المخاطر قد لا يتوافق مع رغبات المستخدمين، وكلما زادت طبيعية النظام زاد احتمال تعارضه مع القيود الأخلاقية.
وأخيرا، حذر البروفيسور دان ماكنتاير من أن الدراسة تمثل إنذارا لما قد يحدث إذا دربت نماذج اللغة الكبيرة على بيانات غير موثوقة، قائلا: “نحن لا نعرف ما يكفي عن بيانات التدريب، وعلينا أن نتعامل بحذر حتى نتأكد من أنها تمثل اللغة البشرية بشكل سليم”.
(RT)




