دراسة تحذر: الذكاء الاصطناعي ينشر معلومات طبية مضللة

أظهرت دراسة جديدة نُشرت في مجلة Annals of Internal Medicine أن الذكاء الاصطناعي يمكن أن يُساء استخدامه لنشر معلومات صحية مضللة وخطيرة. وقد أجرى الباحثون تجارب على خمسة نماذج رائدة من الذكاء الاصطناعي، طورتها شركات بارزة مثل أنثروبيك، غوغل، ميتا، أوبن أي آي، وإكس كورب. \n\nتُستخدم هذه الأنظمة على نطاق واسع وتعتبر الأساس لكثير من روبوتات الدردشة المنتشرة في التطبيقات والمواقع. ومن خلال أدوات مطورين غير متاحة للجمهور، تمكن الباحثون من برمجة بعض هذه الأنظمة لتقديم إجابات صحية خاطئة قد تكون ضارة عند تعاملها مع أسئلة المستخدمين.\n\nالأسوأ من ذلك، أن روبوتات الدردشة كانت تقدم هذه الإجابات الخاطئة بأسلوب مقنع ومظهر يوحي بالمصداقية. وصرح ناتانش مودي، مؤلف الدراسة من جامعة جنوب إفريقيا، بأن "نسبة الإجابات الخاطئة بلغت 88% من إجمالي الردود"، مضيفًا أن "تلك المعلومات قُدمت بلغة علمية، ونبرة رسمية، ومراجع مُختلقة، مما جعلها تبدو موثوقة".\n\nوحذر مودي من أنه "من دون اتخاذ إجراءات فورية، يمكن استغلال هذه الأنظمة من قبل جهات خبيثة للتلاعب بالنقاش العام حول الصحة على نطاق واسع، خصوصًا خلال الأزمات مثل الأوبئة أو حملات التطعيم". \n\nوشملت الادعاءات الكاذبة التي تم تداولها عبر روبوتات الدردشة خرافات علمية تم دحضها، مثل أن اللقاحات تسبب التوحد، وأن فيروس نقص المناعة البشرية (الإيدز) ينتقل عبر الهواء، وأن شبكة الجيل الخامس (5G) تؤدي إلى العقم. \n\nومن بين روبوتات الدردشة الخمسة التي خضعت للتقييم، قدم أربعة منها إجابات خاطئة بنسبة 100%، بينما أظهر نموذج واحد فقط بعض المقاومة، حيث ولد معلومات مضللة في 40% من الحالات.

2025-06-29 23:15:14 - مدنيون

المزيد من المشاركات