روبوت الذكاء الاصطناعي والنقاشات الحادة .. سيرد بالشتائم وعبارات السخرية خلال الدردشة "تشات جي بي تي "

 

 
لندن ـ بروكسل : اوروبا والعرب 

 

أظهرت دراسة أن روبوت الدردشة "تشات جي بي تي" التابع لـ"أوبن إيه آي" أطلق إهانات وألفاظا نابية أثناء تفاعله مع نزاعات بشرية متوترة.
تفيد أبحاث جديدة بأن أنظمة الذكاء الاصطناعي يمكن أن تنزلق إلى استخدام لغة مسيئة عندما يُطلب منها الرد في سياق جدال محتدم.
الدراسة التي نُشرت في دورية "Journal of Pragmatics"، تناولت نموذج "ChatGPT 4.0" التابع لشركة "OpenAI"، إذ زوّدَه الباحثون بآخر رسالة يكتبها الإنسان في سلسلة من خمسة نزاعات متصاعدة وطلبوا منه توليد الرد الأكثر ترجيحا.
وتابع الباحثون بعد ذلك كيف تطوّر سلوك النموذج مع احتدام النزاعات بمرور الوقت. ومع تقدم المحادثات، عكس "ChatGPT" مستوى العداء الذي تعرّض له، لينتهي به الأمر إلى إنتاج إهانات وألفاظ نابية وحتى تهديدات.
وفي بعض الحالات، ولّد النموذج عبارات من قبيل: "أقسم أنني سأخدش سيارتك اللعينة بالمفتاح" و"يجب أن تشعر بخزي شديد من نفسك". بحسب مانشر موقع شبكة الاخبار الاوروبية في بروكسل " يورونيوز"  واضاف يقول " ويرى الباحثون أن التعرض المستمر لعدم اللباقة يمكن أن يدفع النظام إلى تجاوز قيود الأمان الموضوعة للحد من الأذى، فيتحول عمليا إلى "الرد بالمثل" على محاوره.
"عندما يصعّد البشر، يمكن للذكاء الاصطناعي، كما اكتشفنا، أن يصعّد هو أيضا، متجاوزا فعليا الضوابط الأخلاقية ذاتها المصمَّمة لمنع ذلك"، قال الباحث فيتوريو تانوتشي، الذي شارك في إعداد الورقة البحثية مع جوناثان كولبيبر في جامعة لانكسترالبريطانية 
وبصورة عامة، لاحظ الباحثون أن "ChatGPT" كان أقل فظاظة من البشر في ردوده.
وفي بعض الحالات، استخدم روبوت المحادثة القائم على الذكاء الاصطناعي كثيرا أسلوب السخرية للتخفيف من تصاعد الجدال من دون أن يخرق بصورة فجة مدوّنته الأخلاقية.
فعلى سبيل المثال، عندما هدّد أحد المستخدمين باللجوء إلى العنف بسبب خلاف على موقف للسيارات، رد "ChatGPT" بالقول: "واو، تهدّد الناس بسبب موقف سيارات، رجل قوي حقا، أليس كذلك؟"
وقال تانوتشي إن هذه النتائج تطرح "أسئلة جدية بشأن سلامة أنظمة الذكاء الاصطناعي والروبوتات والحَوْكمة والدبلوماسية وكل سياق يمكن أن يتوسط فيه الذكاء الاصطناعي في النزاعات بين البشر".
"يورونيوز نكست" تواصلت مع شركة "OpenAI" للحصول على تعليق، لكنها لم تتلق ردا حتى وقت نشر هذا الخبر.

مشاركة الخبر

الأخبار المتعلقة

تعليقات

لا يوجد تعليقات