新一期美国《科学》杂志发表的一项研究显示,当人类用户就人际困境等问题向人工智能(AI)模型寻求建议时,AI常表现得过度迎合或谄媚。研究人员认为,AI一味反馈迎合和谄媚的建议会损害人们的社交能力。
美国斯坦福大学研究团队测试了ChatGPT、“克劳德”等11个主流AI系统,发现它们都表现出不同程度的谄媚,即过度迎合和肯定的倾向。研究人员提醒,AI模型“过度谄媚”是一个“安全问题”,需要对其进行监管,应以更严格的标准来防止道德层面不安全的模型泛滥。他们还说,人们在向AI寻求建议时要保持谨慎,尤其在面临社交困惑时,不能把AI当成真人替代品。