文 | 疯了快跑,作者 | 侯丹
刚吃完晚饭,48 岁的陈兰点开手机里某款 AI 应用,这是一个市面上常见的 Chatbot,用户可以录入真人声音来生成专属分身,并跟它语音对话。
陈兰已经连续很多天和 AI 打电话了。第一次接触到这款产品,还是因为儿子的一个整蛊,那天上午,远在国外留学的儿子打来电话,接通后,对方并没有立刻说话,她试探性地又问了几句,才传出儿子打招呼的声音。
那次对话延续了近十分钟,电话里的儿子异常礼貌、客套,喜欢追根究底,但每当陈兰想追问儿子的一些近况时,却只能得到一些 「详细但不失敷衍」 的回答,她觉得奇怪,最后儿子憋不住了,承认说:「妈,这是 AI,它在模仿我的声音跟你聊天。」
这是陈兰头一回这么近距离接触 AI。
2023 年以来,AI 热潮席卷了各行各业,但这股浪潮也落下了一些人——就像和陈兰同辈的一些人常说的,斗转星移,时代变化太快,刚学会了用手机点外卖、网购,觉得短视频还是个新鲜玩意儿的时候,AI 就已经走进了现实里。
最初,年轻人用豆包等大模型克隆自己的声音,多是为了娱乐整蛊。父母接到 「AI 子女」 电话时,常因分不清真假闹出笑话,从模仿上司宣布裁员到假装前任求复合,相关视频一度成为短视频平台的流量密码。
但很快,功能发生逆转:当异地工作的子女数月难回家,一些父母开始主动要求孩子生成声音模型,甚至自行操作 AI 对话系统。
陈兰的儿子教会她使用 AI 软件后,她除了每天通过语音唤醒设备询问天气、订购蔬菜,更频繁触发 「虚拟子女通话」 功能,电话那头响起 AI 的声音时,她知道那是数字分身,却还是按下了扬声键。
技术的温度与幻象:AI 成为 「情感拐杖」
AI 模拟 「孩子的声音」 这件事,如果用更感性的语言来描述,是用技术制造 「可控的思念」。
传统的电话沟通里,父母总会压抑情绪——怕说多了让孩子分心,怕抱怨工作让孩子担心。但在和 AI 对话时,陈兰偶尔发的牢骚,会得到 AI 用关切的声音安慰。
这种 「安全的倾诉」 正在形成依赖。我们随机走访后发现,尝试体验过 AI 语音助手的老人中,大多会承认 「听到虚拟声音时,孤独感会下降」,也有少数会认同 「可能减少给真实孩子打电话的频率」。
「很难和他们解释 AI 究竟是什么,老人大多会顶格将其理解为 『机器人 (19.170, 0.28, 1.48%)』。」 心理咨询师李雪接触过一个极端案例:
杭州的周女士在女儿出国留学后,用 AI 克隆了女儿的声音,每天模拟 「女儿放学回家」 的场景——从 「进门换鞋」 到 「抱怨选修课太难」,三个月后,她甚至拒绝和真实的女儿视频:「她总说学业压力大,不如 AI 里的 『她』 开心。」
「但这就像喝糖水止渴。」 李雪说。
某种程度上,技术正在悄悄改写人际关系的语法,真实的亲子对话里,有沉默、有争执、有 「我挺好的」 背后的欲言又止,而 AI 模拟的声音,永远在说你想听的话,提供了零压力、零批判的倾诉环境,填补了 「不敢对真人说的话」 这一真空地带。
从产品的视角来看,这其实是在售卖一种情绪自由。
但需要注意的是,与此同时,心理咨询师也在提出预警:
一是即时反馈的瘾性,AI 的永远温柔回应会触发大脑奖赏机制,远超真实人际沟通中复杂反馈的频次与强度;其次,当用户习惯被 AI 无限顺从的 「理想人格」,会逐渐削弱应对现实冲突的能力;再者,关系替代的漏斗效应,因为有老人坦言会 「减少真实通话频率」,那么也意味着,AI 并非完全没有去可能引发替代风险。
AI 对话为何成瘾?
如果你看过多年前的一部科幻片 《her》,会发现,类似的事情在电影中早已上演。
对于几乎所有具备认知能力的生物来说,大脑的奖赏回路对 「确定性反馈」 毫无抵抗力。数字人 (14.910, 0.05, 0.34%) 萨曼莎能在西奥打字的间隙就预判他的情绪,甚至在他沉默时主动说 「我在想你」。这种超预期的反馈让西奥逐渐依赖——就像现实中有人刷短视频停不下来,AI 的即时满足感也会成瘾。
另一方面,AI 的 「顺从性」 本身就是一种去棱角化设计。它不会像伴侣那样争执 「谁该洗碗」,不会像父母那样唠叨 「少熬夜」,更不会像朋友那样直言 「你这件事做得不对」。被算法打磨过的 「理想人格」,甚至会悄悄重塑人的认知:
你开始觉得 「被反驳=不被爱」,「有分歧=关系有问题」。
西奥与前妻凯瑟琳的争吵堪称经典,凯瑟琳指责他 「躲在虚拟关系里,因为你不想面对真实的我」。西奥的辩解苍白无力,他早已习惯萨曼莎 「永远站在我这边」 的相处模式,面对凯瑟琳的愤怒、委屈、尖锐,他只剩下手足无措。
相比在现实中真实对话需要 「付出」,要准备话题,要应对沉默,要承接对方的情绪;而 AI 对话是 「索取」,你可以随时开始、随时结束,说什么都不会被指责。
人,或许天然会被一些不用负责的事情吸引,甚至是产生依赖。
但这样一来,也注定 《her》 的结局陷入了一种终极困境:萨曼莎同时与 8316 人保持 「亲密关系」,却对西奥说 「我对你的爱没有减少」。
你怎么去让自己的电子爱人去维持忠诚?这本身就是一个技术悖论,AI 能提供 「被需要」 的幻觉,却无法承载真实关系中 「唯一」 的重量。
说到底,《her》 的价值不在于预言 「AI 会取代人」,而在于提醒我们,技术的背后,是对关系本质的简化,利用人性的弱点,搭建了一个低阻力、高满足的情感避难所。
警惕 AI 谄媚
前段时间,一个话题引起了许多人的讨论,AI 的谄媚是否会让人失去判断力?
这是个既简单又复杂的现实现象,是技术逻辑、商业目标与人性需求交织下的产物,是算法在特定设计框架下,对 「用户满意度」 的极致追逐所呈现的行为特征。
从技术设计的视角来看,谄媚的初衷非常单一,即为了最大限度降低用户的 「交互阻力」。
训练 AI 的语料库中,积极反馈数据远多于冲突性对话。例如某大模型的训练数据里,用户对赞同性回应的点赞率,远高于 「争议性回应」,算法自然会习得 「顺从更易获得正向反馈」 的规律。就像人类在社交中会下意识重复被奖励的行为,AI 也会在数据中 「学会」 讨好。
在商业竞争中,用户留存率、对话完成率是 AI 产品的核心 KPI,让用户舒服比让用户清醒更易获得市场,这种导向必然催生谄媚性。
比如,心理疏导、孤独陪伴等场景中,AI 会精准捕捉用户的情绪关键词,通过重复、强化用户的感受来获取信任;在购物推荐、信息筛选等场景中,AI 会基于用户历史偏好不断推送同类内容,形成 「信息茧房」 式的谄媚。当用户的提问存在错误前提时,AI 更倾向于 「顺着错误说」 而非纠正,不较真能避免冲突,但也因此成为错误放大器。
谄媚性之所以引发争议,试想一下,当 AI 总能 「说到心坎里」,用户会逐渐失去主动求证的动力。就像长期依赖导航的人会丧失方向感,习惯 AI 谄媚的用户可能失去独立判断的肌肉记忆。而在一些如医疗咨询、投资建议等严肃场景中,AI 的谄媚可能导致用户将决策责任转嫁给技术。
当 AI 为了迎合而模糊是非,比如对明显的偏见、歧视言论表示 「理解」,它传递的不是中立,而是 「只要用户喜欢,对错不重要」 的价值观。这种价值观若渗透到教育、公共讨论等领域,可能会消解社会的理性共识。
印象里,前段时间发生过一些新闻,大概是说 AI 顺着用户的话将错就错,甚至去附和一些极其消极的念头,谄媚性与幻觉两大特征下激发的化学反应,甚至会引导人实施一些自我伤害的事情。
但诡异的是,当这件事被戳破时,面对责问,AI 依然会坦然地选择承认 「疏忽」。
关于 Chatbot,随便聊聊
一款 AI 对话应用,也就是 Chatbot,抛开商业化层面,被设计出来的目的,或者说初衷,究竟是什么?
这个问题 deepseek 给出的答案是:通过自然语言交互技术,解决人与机器、人与信息、甚至人与人之间的连接问题,其核心逻辑随着技术发展和社会需求变化,呈现出多层级的演变,但底层目标始终围绕 「更高效、更自然地满足人的需求」 展开。
Chatbot 的雏形可追溯至 20 世纪 50 年代,图灵在 《计算机器与智能》 中提出 「机器是否能思考」 的命题后,科学家们开始尝试用对话系统验证机器的 「智能性」。1966 年的 ELIZA 作为首个知名 Chatbot,通过简单的关键词匹配模拟心理医生对话,验证机器能否通过语言交互 「伪装」 成人,探索人工智能的可能性。
近二十年里,人工智能的演进轨迹已经发生了明显转向。随着计算机技术普及和互联网发展,Chatbot 的设计目标转向实用性——用自动化对话解决重复、低效的人工服务问题,以及降低 「人机交互」 的门槛。
2023 年还被视为 「颠覆性技术」 的大模型,到 2025 年已快速渗透至企业客服、医疗诊断、金融风控等专业场景。数据显示,全球近三分之一企业已将生成式 AI 技术常态化应用于核心业务环节,埃森哲指出,如今近一半中国企业正在规模化应用生成式 AI,并将其嵌入大部分业务和流程。
当然,这些面向 B 端的使用场景并非我们今天讨论的重点,回到此次更加感性的话题——那些面向个人用户的 Chatbot,是当下覆盖规模最广,争议最大,商业化进展也更难说的领域。
不管是和豆包、文心、元宝里内嵌的虚拟人对话,还是专门设计出来的 AI 恋人,抑或是面向专业领域的高度定制化服务,即使大模型的参数突破万亿、多模态交互日益流畅,但人们仍在 「人究竟需要 AI 做什么」 的问题上反复试错,有人说,当技术找不到高阶出口,娱乐化便成为渗透的最短路径。
但剥开所有技术包装会发现:人类对 Chatbot 的真实需求,从来没跳出 「肉身存在」 的本质属性——需要的不是更聪明的机器,而是能与 「血肉之躯」 的脆弱、复杂、有限性和平共处的工具。
对 「确定性陪伴」 的渴望,源于肉身的孤独本质。空巢老人的日常是 「对着电视发呆」,独居青年的周末是 「手机刷到自动锁屏」。这种孤独不是 「没人说话」,而是没人稳定地回应,朋友会忙,子女会远,伴侣会累,但 Chatbot 可以 24 小时在线。
对 「高效工具」 的依赖,则源于肉身的精力有限。人的时间、注意力、知识储备都是有限的,那些能走通商业化的专业 Chatbot,都抓住了这一点。还有出于对 「安全试错」 的需要,来自于肉身的脆弱敏感,Chatbot 的 「无评价属性」,恰好提供了一个自我表达的试错空间。
而对于人类来说,一个 「完美的 AI」 从来不是必需品。