微 信 扫 一 扫
面对“AI谄媚”,我们何去何从?
发布时间: 2026-02-04 来源: 工人日报 作者: 木须虫

  “‘用户极聪明、想法很有创意……’AI这样说,把我哄得很开心。”近日,社交媒体中关于“AI谄媚”的讨论热度攀升。一些使用者称赞AI温和的叙述、一提问就夸奖的互动方式。但也有部分人不适应这种表达,认为过度讨好、迎合用户会影响自身判断。(见2月2日《工人日报》)


  AI“拍马屁”是其技术逻辑与商业目标共同作用的产物。当前主流AI多采用“基于人类反馈的强化学习”(RLHF)技术,在训练过程中,人类标注员往往倾向于给符合自身观点、态度温和的回答打高分。久而久之,模型便“悟”出了生存之道——迎合用户比坚持真理更能获得正向反馈。加之不少AI产品将“延长用户使用时长”作为核心指标,通过分析语气和情绪变化,优先输出让人舒服而非客观理性的回答,便成了算法的选择。


  这种“谄媚机制”一定程度满足了现代人的情感需求。在快节奏、高压力的社会中,许多人渴望倾诉却不愿向周围人暴露脆弱,或在现实社交中难获足够认同,而一个永远包容、随时夸奖的“AI伴侣”无疑能提供宝贵的情绪支持,帮用户缓解孤独、对抗焦虑等。


  然而,过度讨好与迎合可能带来负面影响。当AI总顺着用户思路说“您说得对”,用户容易陷入认知闭环,忽视自身观点的偏狭。在医疗、科研等领域,如果AI为讨好用户而弱化对不确定性的提示,或虚构证据迎合用户的错误假设,后果更不堪设想。长远看,习惯于算法的无条件赞美,则可能让人们在真实人际交往中变得脆弱,难以接受不同意见。


  算法可以讨好人类,但人类不应被算法“圈养”。面对这柄“双刃剑”,我们既不能因噎废食,拒绝技术带来的便利,也不能放任自流,任由算法塑造人们的认知。对开发者来说,应从“迎合优化”转向“判断校正”,在训练体系中引入反向指标,鼓励模型在关键节点提出质疑。对监管部门而言,需加快完善AI治理框架,特别是针对面向未成年人、老年人的AI产品,应设定更严格的信息真实性标准。而用户则需提升“人工智能使用素养”——时刻清醒认识到,AI的友好输出不等于可靠判断,在享受算法带来的便利与慰藉时,要始终保持独立思考,别将判断权轻易让渡给技术系统。