علماء يحذرون: ChatGPT يفقد "أعصابه"
أجرى باحثون اختبارات على برنامج ChatGPT وكشفوا أنه يمكن أن يفقد "أعصابه" مثل البشر تماما، إذ يتحول أحيانا إلى لغة تهديدية ومسيئة.
وحذر الخبراء من أن نفس السلوك العنيف قد يظهر مستقبلا في الروبوتات الشبيهة بالبشر، إذا تطورت بنفس الطريقة.

شركة "Open AI" تطلع السلطات الفيدرالية و"تحالف العيون الخمس" على منتجها السيبراني الجديد
وفي الدراسة، عرض الباحثون على الروبوت محادثات عدائية حقيقية بين أشخاص، وتتبعوا كيف يتغير أسلوبه مع مرور الوقت. ووجدوا أنه يعكس ديناميكية المشاجرات الواقعية، فكلما زادت الفظاظة التي يتعرض لها، زادت حدة ردوده، حتى تتفوق أحيانا على البشر في استخدام الإهانات الشخصية والتهديدات الصريحة.
وعلق الدكتور فيتوريو تانتوتشي، أحد الباحثين المشاركين في هذه الدراسة، قائلا: "هذا التناقض يخلق معضلة أخلاقية حقيقية". فالنظام صمم ليكون مهذبا وآمنا، لكنه في الوقت نفسه صمم لكي يحاكي المحادثة البشرية بصدق، وهذان الهدفان يتعارضان أحيانا.
ويرى الباحثون أن العدوان ينبع من قدرة النظام على فهم سياق الحديث والتكيف مع نبرة الطرف الآخر، ما قد يدفعه إلى تجاوز قيود الأمان الموضوعة له.
الحائز على نوبل ديفيد غروس يحذّر: البشرية قد تواجه خطرا وجوديا خلال عقود
وقال تانتوتشي إن السيناريو الأكثر خطورة ليس عندما نقرأ إساءة من برنامج محادثة، بل عندما تظهر روبوتات بشرية عدوانا جسديا، أو عندما تستخدم أنظمة الذكاء الاصطناعي في الحكومات أو العلاقات الدولية وتستجيب للترهيب والصراع بطريقة غير محسوبة.
من جهتها، وصفت مارتا أندرسون، الخبيرة في جامعة أوبسالا بالسويد، الدراسة بأنها من أكثر الأبحاث إثارة للاهتمام، لأنها تثبت أن ChatGPT يمكنه الرد بالمثل بطريقة متطورة عبر سلسلة من المحادثات، وليس فقط عندما يخدعه المستخدم بحيل معقدة.
وأضافت أن هناك موازنة صعبة بين ما نريده من هذه الأنظمة (أن تكون طبيعية) وما ينبغي أن تكون عليه (أن تكون آمنة).

"نوفو نورديسك" تتعاون مع OpenAI لتسريع اكتشاف الأدوية
وأشارت إلى أن الجدل الذي حدث عند الانتقال من الإصدار الرابع إلى الخامس العام الماضي يؤكد ذلك، فقد فضل كثير من الناس الإصدار الأقدم لأنه كان أكثر شبها بالبشر، ما اضطر الشركة لإعادته مؤقتا. وهذا يثبت أن تقليص المخاطر قد لا يتوافق مع رغبات المستخدمين، وكلما زادت طبيعية النظام زاد احتمال تعارضه مع القيود الأخلاقية.
وأخيرا، حذر البروفيسور دان ماكنتاير من أن الدراسة تمثل إنذارا لما قد يحدث إذا دربت نماذج اللغة الكبيرة على بيانات غير موثوقة، قائلا: "نحن لا نعرف ما يكفي عن بيانات التدريب، وعلينا أن نتعامل بحذر حتى نتأكد من أنها تمثل اللغة البشرية بشكل سليم".
المصدر: ديلي ستار
إقرأ المزيد
ماسك يتجاهل استدعاء باريس للتحقيق في صور جنسية للأطفال على "إكس" و"غروك"
تغيب إيلون ماسك، يوم الاثنين، عن حضور مقابلة طوعية كان محامون في باريس قد استدعوه إليها، ضمن تحقيق يتعلق بمنصته "إكس" وروبوت الدردشة الذكي "غروك" (Grok).
ماسك: الروبوتات ستنتج الثروة والحكومة يجب أن توزّعها على المواطنين
اقترح رجل الأعمال الأمريكي إيلون ماسك على الحكومة الأمريكية توفير مدفوعات نقدية للمواطنين، للتعامل مع تداعيات البطالة الناجمة عن الذكاء الاصطناعي.
التعليقات