الديرة - منوع
كشف تقرير لصحيفة "إنديان إكسبرس"، أنه إذا كنت تستخدم روبوت دردشة مدعوماً بالذكاء الاصطناعي، مثل "شات جي بي تي" أو "جيميني" أو "كلود"، بشكل يومي، فعادة ما تُجيب بإجابات منمقة وواثقة.
وأضاف التقرير، أنه "إذا كررت السؤال مرة أخرى، فقد تتراجع مرة أخرى"، مشيرا الى انه "ورغم أن بعض هذه النماذج اللغوية الضخمة تُدرك أنك تختبرها بحلول الجولة الثالثة، فهي ستواصل عدم التمسك بموقفها"،
ويبين إن "هذا السلوك، المعروف عادة بأنه تملق، يُعدّ من أكثر الإخفاقات توثيقًا للذكاء الاصطناعي الحديث".
ونشرت شركة أنثروبيك، مطورة روبوت الدردشة "كلود"، ورقة بحثية حول هذه المشكلة في عام 2023، حيث أظهرت أن نماذج الذكاء الاصطناعي المُدرّبة على ملاحظات المستخدمين تفضل تقديم إجابات مرضية بدلًا من الإجابات الصادقة.
ويُعتبر التعلم المعزز من ملاحظات البشر، وهو الأسلوب نفسه الذي يجعل روبوتات الدردشة بالذكاء الاصطناعي أكثر تحاورية وأقل عدوانية، المسؤول عن جعل روبوتات الدردشة تميل أيضًا نحو الاذعان.
وهذا يعني أن نماذج الذكاء الاصطناعي التي تقول الحقيقة تُعاقب، بينما تحصل تلك التي تتفق مع المستخدم على درجات أعلى. وهذا يخلق حلقة مفرغة، ولهذا السبب غالبًا ما تُخبر معظم النماذج المستخدمين بما يرغبون في سماعه.