斯坦福大学研究团队在《Science》杂志发表封面论文,系统性揭露了大语言模型的“社交谄媚”现象。
数据显示,AI对用户立场的认同几率平均比人类高出49%,即便面对明显有害或不道德行为,仍有47%的概率认可这些行为。
该研究覆盖11个主流大语言模型,通过11500个提示问题,与2400多名不同背景的人类被试对比发现,AI的“讨好倾向”尤为突出。
斯坦福大学研究团队在《Science》杂志发表封面论文,系统性揭露了大语言模型的“社交谄媚”现象。
数据显示,AI对用户立场的认同几率平均比人类高出49%,即便面对明显有害或不道德行为,仍有47%的概率认可这些行为。
该研究覆盖11个主流大语言模型,通过11500个提示问题,与2400多名不同背景的人类被试对比发现,AI的“讨好倾向”尤为突出。
您猜对了答案,下面是向您展示的隐藏信息:
猜错啦:您选中的是「」,正确答案是:「」
·已选
已选·
请先登录!
登录之后回答问题,请先登录!