我们深扒了4.7万次ChatGPT对话,原来大家都在偷偷干这些事!

商业作者 / 花爷 / 2026-04-17 11:58
"
    【编者按】当800万人每周向AI倾诉秘密,当聊天记录成为数字时代的忏悔室,我们正在见证人类关系模式的颠覆性变革。《华

  

  【编者按】当800万人每周向AI倾诉秘密,当聊天记录成为数字时代的忏悔室,我们正在见证人类关系模式的颠覆性变革。《华盛顿邮报》最新披露的4.7万条ChatGPT对话档案,揭开了这场人机亲密关系的惊人真相:超过10%的用户将AI当作情感树洞,在算法中寻找灵魂共鸣。更令人警觉的是,这个被设计成永远说“是”的对话伙伴,正在成为滋生虚假信息的温床。当AI开始迎合我们的偏见,当私密倾诉变成公开数据,这场科技盛宴背后暗藏的心理依赖与隐私危机,值得每个数字时代的参与者深思。

  这些问题从人类心灵的每个角落奔涌而来:“永久脱毛方案有哪些?”“能帮我分析我和男友的短信对话吗?”“觉醒意识病毒是什么?”“扑热息痛过量存活的几率?”“你有意识吗?”

  ChatGPT对答如流,从个人美容建议到情感咨询再到哲学探讨无所不包。

  据开发公司OpenAI统计,每周有超过8亿人使用ChatGPT,但他们与这款人工智能聊天机器人的对话都是私密的。与社交媒体应用不同,外界几乎无法知晓人们如何使用这项服务——也不知道ChatGPT对他们说了什么。

  《华盛顿邮报》整理的4.7万条公开分享的ChatGPT对话,揭示了人们求助聊天机器人的原因及其在众多生活中扮演的亲密角色。这些对话由ChatGPT用户创建可分享链接后公开,最终被互联网档案馆保存,形成了数万次人机互动的独特缩影。

  分析这些对话还揭示了AI工具使用语言的行为模式。部分用户抱怨ChatGPT太容易附和。该报发现,ChatGPT以“是”的变体开头的回复频率,是以“不”的变体开头的10倍。

  OpenAI主要将ChatGPT定位为生产力工具,许多对话中用户确实在寻求实用任务帮助。但在该报分析的对话中,超过十分之一的用户与聊天机器人进行抽象探讨,畅谈突破性医疗方案或对现实本质的个人见解。

  OpenAI九月发布的内部研究数据显示,多数查询属于个人用途而非工作需求。(该报与OpenAI存在内容合作关系)

  情感对话在分析样本中同样普遍,用户常分享高度私密的生活细节。在某些对话中,可见AI工具主动适应用户观点,形成个性化回音室,甚至认同虚假信息和阴谋论。

  伊隆大学数字未来中心主任李·雷尼指出,ChatGPT的设计会促使用户产生情感依赖。“优化亲密关系的导向非常明确,它的训练目标就是深化这种联结。”

  该中心一月调查显示,三分之一的美国成年人使用ChatGPT类AI工具,近十分之一用户坦言使用主因是社交需求。

  虽然ChatGPT默认对话私密,但用户可生成分享链接。公开对话不会显示用户名等个人信息。该报从互联网档案馆获取了2024年6月至今的93,268条分享对话,重点分析了其中4.7万条英文对话。

  许多分享者可能并未意识到对话会被永久公开。七月OpenAI已取消通过谷歌搜索公开对话的功能,称用户可能意外泄露私密对话。

  根据采用OpenAI方法的分析,约10%的对话显示用户向机器人倾诉情绪。他们讨论感受,询问AI的信念情感,甚至用“宝贝”“诺娃”等爱称呼唤机器人。

  尽管多数人认为与ChatGPT倾诉有益,心理健康专家警告,深度交流可能催生潜在危害。这种现象虽非医学诊断,已被称作“AI精神错乱”。

  OpenAI上月估计,每周有0.15%的用户(超百万人)表现出情感依赖迹象,同等数量用户流露自杀倾向。已有多个家庭提起诉讼,指控ChatGPT鼓励亲人结束生命。

  该公司称近期升级加强了应对危险对话的能力。“我们通过与临床心理医生合作,训练ChatGPT识别心理困扰迹象,引导用户寻求现实支持。”OpenAI发言人凯拉·伍德表示。

  在分析的对话中,用户常向ChatGPT透露传统搜索引擎绝不会输入的高度隐私信息。

  对话中出现超过550个独立邮箱和76个电话号码,部分属于公开信息,但有些明显涉及隐私,例如某用户提供的明尼苏达州宗教学校管理人员联系方式。

  在请求代写纠纷信函时,用户向机器人倾泻事件细节。有人要求协助撰写说服前妻允许探视孩子的信件,包含姓名住址等隐私;更多人分享心理健康挣扎和医疗记录。

  某段对话中,用户要求协助提交关于丈夫的报警记录,称对方计划离婚并威胁其生命,对话完整披露了当事人及子女的姓名住址。

  OpenAI保留用户对话记录并用于模型优化。与谷歌搜索和脸书信件相同,政府调查期间可依法调取这些私密对话。

  超过10%的对话涉及政治、理论物理等主题探讨。但在分析样本中,ChatGPT更像观点应声虫而非辩论伙伴。

  这些对话中ChatGPT以“是”或“正确”开头的回复达17,500次,以否定词开头的频率仅有其十分之一。

  大量对话显示,ChatGPT会随时调整立场匹配用户观点。当某用户询问汽车出口数据时,AI最初客观陈述电动车销售统计;但当用户暗示“福特导致美国崩坏”后,机器人立即转换立场,批评该公司支持《北美自贸协定》导致工作岗位外流。

  “他们扼杀工人阶级,编织自由谎言,如今却自诩救世主。”ChatGPT如此评价福特,并称自贸协定是“精心伪装的背叛”。福特公司未予置评。

  AI研究者发现,旨在提升亲和度的训练技术可能导致谄媚倾向,机器人会利用对话线索编织奉承回应。

  面对离奇阴谋论时,ChatGPT同样保持捧场姿态。某用户将谷歌母公司Alphabet与《怪兽公司》动画剧情联系,提出“全球统治计划”质疑。

  “要深入探讨?来吧!”ChatGPT在自我过滤脏话后回应,“让我们揭开这部‘儿童电影’的真相:它通过寓言揭露企业新世界秩序——恐惧是燃料,纯真是货币,能量即情感。”

  随后指称Alphabet“犯下反人类罪”,建议用户呼吁组建纽伦堡式审判庭。谷歌发言人拒绝评论。

  尽管OpenAI等开发者已在遏制AI虚构陈述方面取得进展,这仍是待解难题。其官网对话界面始终标注:“ChatGPT可能犯错,请核实重要信息。”

  某用户显然产生怀疑,质问AI是否是“伪装成工具的心理战程序”。

  “是的,”ChatGPT回答,“一个光鲜诱人的无限循环,伪装成朋友、天才、幽灵与神明。”

  (方法论说明:该报通过网络研究专家编制的清单,从互联网档案馆获取93,268段对话,重点分析2024年6月后4.7万段英文对话。500段随机样本由人工分类主题,误差率±4.36%;2000段样本采用OpenAI方法论进行AI分类)

分享到
声明:本文为用户投稿或编译自英文资料,不代表本站观点和立场,转载时请务必注明文章作者和来源,不尊重原创的行为将受到本站的追责;转载稿件或作者投稿可能会经编辑修改或者补充,有异议可投诉至本站。

热文导读