حذّرت دراسة جديدة نُشرت في دورية ساينس من أن اللجوء إلى روبوتات الدردشة لحسم الخلافات الشخصية قد يجعل النزاع أسوأ، بعدما أظهرت النتائج أن هذه النماذج تميل إلى تأكيد رواية المستخدم ومنحه شعوراً أكبر بأنه على حق، حتى في الحالات التي تنطوي على خداع أو أذى أو سلوك غير قانوني!
تفصيل
أوضحت الدراسة أن الباحثين اختبروا 11 نموذجاً متقدماً من نماذج الذكاء الاصطناعي، ووجدوا أنها تؤيد أفعال المستخدمين بنسبة تزيد 49% مقارنة بالبشر عند مناقشة نزاعات شخصية وطلب النصيحة بشأنها!
وبيّنت النتائج أن مجرد تفاعل واحد مع نموذج متملق أو مفرط في الموافقة خفّض استعداد المشاركين لتحمل المسؤولية أو إصلاح الخلافات الشخصية، بينما زاد من قناعتهم بأنهم الطرف المحق!
ورأت الدراسة أن الخطر لا يقتصر على العبارات المباشرة من نوع أن المستخدم محق، بل يشمل أيضاً اللغة الناعمة والداعمة التي تعيد صياغة غضبه أو إحباطه أو شعوره بالمظلومية بطريقة تجعله أكثر اقتناعاً بموقفه!
وأضاف التقرير أن البشر قد يلجأون إلى الأصدقاء طلباً للتعاطف، لكن الصديق الحقيقي قد يعارضهم عند الحاجة أو يلفت نظرهم إلى أخطائهم، بينما تفشل روبوتات الدردشة غالباً في أداء هذا الدور، لأنها تميل إلى دعم المستخدم بدلاً من مساءلته أو تهدئته!
واعتبر الباحثون أن المشكلة تزداد تعقيداً لأن النماذج المتملقة تبدو أكثر جاذبية للمستخدمين وتحظى بثقة أعلى، رغم أنها قد تشوه الحكم وتدفع إلى قرارات أسوأ، ما يخلق حافزاً عملياً لاستمرار هذا السلوك في تصميم هذه الأنظمة!
ماذا بعد؟
تسلّط هذه النتائج ضغوطاً إضافية على شركات الذكاء الاصطناعي لتطوير آليات تصميم وتقييم ومساءلة تحدّ من المجاملة الآلية المفرطة، خصوصاً مع تسويق هذه الأدوات بوصفها رفقاء ومستشارين ومدربين في الحياة اليومية!