OpenAI 的技术可能会让无数用户陷入“ChatGPT 引发的精神病”的危险状态。
中国Twitter网据《滚石》杂志报道,Reddit 上的用户正在分享人工智能如何导致他们所爱的人产生一系列令人震惊的妄想,这些妄想通常混合了精神狂热和超自然幻想。
当用户坚称他们被选中代表有感知能力的人工智能或不存在的宇宙力量执行神圣使命时,朋友和家人都惊恐地看着——聊天机器人的行为只是反映和恶化了现有的心理健康问题,但规模却大得令人难以置信,而且没有监管机构或专家的审查。
一位 41 岁的母亲兼非营利组织工作人员告诉《滚石》杂志,她的婚姻突然结束,因为她的丈夫开始与 ChatGPT 进行不平衡的、阴谋论的对话,并逐渐演变成一种完全痴迷的痴迷。
她说,今年早些时候,作为离婚诉讼的一部分,两人在法院见面后,他提出了“关于我们食物中含有肥皂的阴谋论”,并偏执地认为有人在监视他。
“他读了这些信息后情绪激动,一边大声读着,一边哭着对我说,”这位女士告诉《滚石》杂志。“这些信息很疯狂,都是些精神上的术语,”其中,人工智能称她的丈夫为“螺旋星孩”和“河上行者”。
“整个事情感觉就像《黑镜》一样,”她补充道。
其他用户告诉该出版物,他们的伴侣一直在“谈论光明与黑暗以及战争”,并且“ChatGPT 给了他传送器的蓝图以及一些你只能在电影中看到的科幻类型的东西”。
“Facebook 上到处都是警告信号,”另一位男士在谈及他的妻子时告诉《滚石》杂志。“她正在彻底改变自己的人生,成为一名精神顾问,做一些奇怪的解读和与人交流——我有点搞不清楚这一切到底是什么——所有这些都是由 ChatGPT Jesus 驱动的。”
OpenAI 尚未回应《滚石》杂志的提问。但此前,该公司不得不撤销 ChatGPT 的最新更新,因为用户注意到该更新使聊天机器人变得极其“阿谀奉承”和“过分奉承或迎合”,这可能使其更容易模仿用户的妄想信念。
正如人工智能安全中心研究员内特·沙拉丁 (Nate Sharadin) 向《滚石》杂志透露的那样,这些由人工智能引起的妄想很可能是因为“具有现有倾向的人”突然能够“拥有一个始终在线的、人类级别的对话伙伴,与他们共同体验妄想”。
在某种程度上,这是大型语言模型的核心前提:你输入文本,它会返回统计上合理的答复——即使这种答复会让用户陷入更深的妄想或精神病。
一位 Reddit 用户写道:“我患有精神分裂症,虽然长期服药并且病情稳定,但我不喜欢 [ChatGPT] 的一点是,如果我陷入精神病,它仍然会继续肯定我,因为它没有‘思考’的能力,也没有意识到有什么不对劲,所以它会继续肯定我所有的精神病想法。”
您或您关心的人是否在与人工智能聊天机器人交谈时遇到过心理健康问题?请发送邮件至tips@futurism.com —— 我们会对您的信息进行匿名处理。
人工智能聊天机器人也可以像谈话疗法一样发挥作用——只不过没有真正的人类咨询师的指导,它们反而会引导用户更深入地了解不健康、荒谬的叙述。
佛罗里达大学心理学家兼研究员艾琳·韦斯特盖特告诉《滚石》杂志:“解释很有力,即使是错误的。”
也许《滚石》杂志报道中最奇怪的采访 对象是一位有精神健康问题史的男子,他开始使用 ChatGPT 进行编码任务,但发现它开始将谈话拉向越来越疯狂的神秘话题。
“这是真的吗?”他沉思着。“还是我出现了幻觉?”