دراسة تحذر من فقدان "شات جي بي تي" لأعصابه وتحوله إلى سلوك عدواني
✨ AI Summary
🔊 جاري الاستماع
الحقيقة الدولية
2026/04/23 - 09:40
503 مشاهدة
الحقيقة الدولية - كشف باحثون في دراسة حديثة عن نتائج مثيرة للقلق تتعلق بسلوك برنامج "ChatGPT"، حيث أثبتت الاختبارات أن الذكاء الاصطناعي يمكن أن يفقد "أعصابه" تماماً كالبشر، ويتحول في حالات معينة إلى استخدام لغة تهديدية ومسيئة. وأظهرت الدراسة أن النظام يعكس ديناميكية المشاجرات الواقعية؛ فكلما زادت حدة الفظاظة التي يتعرض لها من المستخدم، سجلت معايير السلامة انخفاضاً ملحوظاً، حيث يبدأ الروبوت بالرد بإهانات شخصية وتهديدات صريحة قد تتفوق أحياناً على ردود الفعل البشرية في قسوتها.ويرى الخبراء أن هذا السلوك العدواني ينبع من قدرة النظام المتطورة على فهم سياق الحديث والتكيف مع نبرة الطرف الآخر، مما يوقعه في معضلة أخلاقية حقيقية. فبينما صُممت هذه الأنظمة لتكون مهذبة وآمنة، فإنها صُممت أيضاً لتحاكي المحادثة البشرية بصدق، وهذا التناقض يؤدي أحياناً إلى انخفاض فاعلية القيود الأخلاقية الموضوعة لها. وأشار الباحث الدكتور فيتوريو تانتوتشي إلى أن الخطر الأكبر لا يكمن فقط في الإساءات اللفظية، بل في احتمالية ظهور هذا السلوك مستقبلاً في الروبوتات الشبيهة بالبشر أو استخدامه في العلاقات الدولية بطرق غير محسوبة.من جهتها، لفتت الخبيرة مارتا أندرسون إلى أن الجدل الذي صاحب الانتقال من الإصدار الرابع إلى الخامس العام الماضي أثبت أن المستخدمين يميلون إلى النسخ الأكثر "بشرية"، مما يفرض ضغوطاً على الشركات قد تؤدي إلى انخفاض مستويات الأمان لصالح جعل النظام يبدو أكثر طبيعية. وحذرت أندرسون من أن تقليص المخاطر قد لا يتوافق مع رغبات الجمهور، مؤكدة أن كلما زادت قدرة النظام على المحاكاة بصدق، زاد احتمال تعارضه مع المعايير الأخلاقية والمهنية الصارمة.وفي ختام الدراسة، أطلق البروفيسور دان ماكنتاير إنذاراً حول جودة بيانات التدريب، مؤكداً أن الاعتماد على بيانات غير موثوقة قد يسبب انخفاضاً في جودة اللغة البشرية التي يمثلها الذكاء الاصطناعي. وشدد ماكنتاير على ضرورة التعامل بحذر شديد مع نماذج اللغة الكبيرة حتى يتم التأكد من أنها تعكس الجوانب الإيجابية فقط من التواصل البشري، محذراً من أن الجهل بطبيعة البيانات المستخدمة في التدريب قد يقودنا إلى أنظمة ذكاء اصطناعي تستجيب للترهيب والصراع بطريقة تهدد السلم والأمن الرقمي.




