أسلوب جديد للحد من الثقة المفرطة في الذكاء الاصطناعي
يعاني الذكاء الاصطناعي من مشكلة "الثقة المفرطة" في الإجابات، حيث يقدم إجابات واثقة حتى إذا كانت مبنية على تخمين. واكتشف باحثون في معهد ماساتشوستس للتكنولوجيا أن هذه الثقة المفرطة تنبع من خلل في طريقة تدريب النماذج. لتجاوز هذه المشكلة، طور الباحثون أسلوبًا جديدًا يسمى RLCR (التعلم المعزز باستخدام مكافآت المعايرة)، والذي يتضمن تدريب النماذج على تقديم إجابات مرفقة بتقدير لدرجة الثقة. يساعد هذا الأسلوب في تقليل الأخطاء الناتجة عن الثقة المفرطة، خاصة في المجالات الحساسة مثل الطب والقانون. بفضل هذه الطريقة، يتعلم الذكاء الاصطناعي تقديم الإجابة مع تقدير لمستوى الثقة، مما يعزز التوازن بين الدقة والواقعية في الإجابة.
2026-04-26 10:45:13 - مدنيون