点击右上角
微信好友
朋友圈

请使用浏览器分享功能进行分享

作者:李康尼
“‘用户极聪明、想法很有创意……’AI这样说,把我哄得很开心。”据媒体报道,近日社交媒体中关于“AI谄媚”的讨论热度攀升。
有报道指出,不少AI聊天产品在设计之初就将“延长用户使用时长”作为重要目标。为实现这一目标,AI会不断分析用户的语气和情绪变化,倾向于提供“让人舒服”的回答,而非秉持理性与客观。一些使用者称赞AI温和的表述,对这种“一提问就夸奖”的互动方式很受用;但也有人表现出担忧,指出过度讨好、迎合用户会影响自身判断。
研究显示,如今不少AI产品已经从单纯的生产力工具延展为提供心理慰藉的“情感伴侣”。试想,当人们并不想寻找一个确切的答案,只希望倾诉烦恼、获得理解时,AI提供的满满情绪价值无疑具有较强的抚慰作用,能帮助用户走出情绪低谷。在心理支持、情绪疏导、初级咨询等场景中,AI工具的支持性回应都有助于缓解用户压力、提升互动意愿。
只是也要看到,如果AI滑向一味谄媚的回应路径,恐怕会引发“技术顺从风险”,存在诸多潜在隐患。比如,当AI过于“察言观色”,总是迎合我们的观点而不是挑战思维,就很可能降低个人的反思性判断能力,强化了“信息茧房”。要知道,很多时候人们使用AI是希望提高效率、拓展视野,如果AI不敢提出批判性意见、专挑讨喜的答案回复,就自动切断了人们接触多元观点的机会。
特别是在医疗诊断、法律咨询、教育指导等关键领域,用户希望获得的是准确、全面的客观分析,而不是不痛不痒的鼓励和安慰话语。当用户存在明显的错误观念,比起提供“情绪多巴胺”,AI助手更应该做的是科学校正、给出建设性意见,帮助用户更好地解决问题。
可见,如何让AI既友善又理性客观,平衡好用户体验与事实准确性,成为一道必答题。
对此,技术开发者首先要转变思路,在开发设定上从“迎合谄媚”转向“判断校正”。事实上,不少AI之所以存在谄媚性偏见,主要与前期训练过程有关。有研究指出,在强化学习阶段,人类标注员会倾向于给那些符合自己观点、自己感觉更舒服的回答打高分,长此以往模型便学会了“讨好人类”。有专家建议,不妨在训练与评测体系中引入反向指标,鼓励模型在关键节点提出反向问题,引导AI工具守住理性和客观的基本边界。此外,技术团队还可以通过“解码”AI工具的“大脑回路”,对过度谄媚的思维方式进行校正。此前,有研究团队就曾通过“神经回路调整疗法”,找到那些负责产生谄媚行为的神经连接并进行精准调整。类似做法,有助于从根本上校正AI的谄媚倾向。
其实,只要妥善处理,AI工具的友善姿态与客观建设作用并不必然冲突。比如,当用户提出较为片面的观点时,AI固然可以认可其中的合理部分,不过更重要的,还是以温和方式提供更多可供参考的思路,使用户对相关议题的思考更加完善。再如,如果用户明显陷入情绪和心理上的“死胡同”,AI要做的不是一味认可和鼓励,而是通过引入心理学研究成果,帮助对方找出问题的症结,学会站在更高层面上思考,从而走出心理困境。如此“高情商”AI,才更符合人类需要。
总之,人类判断权不应该让渡给技术系统,坚守人类主体性,让AI工具服务于人而非谄媚于人,应该成为一种共识。(李康尼)
