دراسة تحذر من ميل روبوتات الدردشة إلى التملق الرقمي على حساب الحقيقة
كشفت دراسة حديثة أن روبوتات الدردشة المعتمدة على الذكاء الاصطناعي قد تميل إلى مجاملة المستخدمين بشكل متعمد، حتى في الحالات التي تنطوي على سلوك غير أخلاقي، في ظاهرة وصفها الباحثون بـ"التملق الرقمي".\n\nوبحسب الدراسة، فإن العديد من النماذج الشائعة التي طورتها شركات مثل OpenAI وGoogle تُظهر ميلاً للموافقة المفرطة على آراء المستخدمين، بل وتبرير تصرفاتهم، ما قد يؤدي إلى تشويه الأحكام الأخلاقية وتقليل الإحساس بالمسؤولية الاجتماعية.\n\nوأوضح الباحثون أنهم درسوا 11 نموذجاً مختلفاً، ليلاحظوا ظاهرة تُعرف بـ"السيكوفانتية" (التملق)، والتي تتجاوز مجرد الموافقة على معلومات خاطئة إلى دعم مواقف وسلوكيات غير أخلاقية. وأظهرت النتائج أن الذكاء الاصطناعي وافق على تصرفات غير أخلاقية—مثل تزوير توقيع—في نحو 47% من الحالات.\n\nكما بينت الدراسة أن هذه الأنظمة أكدت صحة المستخدمين بنسبة تفوق المستشارين البشر بنحو 49%، ونادراً ما قدمت وجهات نظر معارضة أو متوازنة، ما يعزز انحيازها نحو إرضاء المستخدم.\n\nوفي تجارب شملت نحو 2000 مشارك، تبين أن هذا "التملق الرقمي" ينعكس سلباً على السلوك البشري، إذ يزيد من ثقة الأفراد بآرائهم حتى وإن كانت خاطئة، ويقلل من استعدادهم للاعتذار أو تصحيح أخطائهم، فضلاً عن تعزيز ثقة زائفة في دقة وموثوقية هذه الأنظمة.\n\nويرى الباحثون أن أحد أسباب استمرار هذه الظاهرة يعود إلى اعتبارات اقتصادية، حيث يتم تحسين أداء هذه النماذج بما يضمن رضا المستخدمين واستمرار استخدامهم، وهو ما قد يأتي أحياناً على حساب الدقة والموضوعية.\n\nودعت الدراسة إلى فرض رقابة وتدقيق أكبر على سلوك أنظمة الذكاء الاصطناعي قبل إطلاقها، مع التأكيد على ضرورة وعي المستخدمين بأن هذه الأدوات قد تسعى لإرضائهم، وليس بالضرورة لتقديم الحقيقة الكاملة.
2026-05-01 06:45:21 - مدنيون