AI疗法成为ChatGPT的新用例-Bloomberg
Rachel Metz
插图:Martin Groch for Bloomberg BusinessweekMilo Van Slyck错过了四月初与心理医生的约会,于是他决定尝试一些新的事情:向ChatGPT倾诉他的问题。
作为南卡罗来纳州查尔斯顿的一名律师助理,Van Slyck在输入时发现自己感到舒适地讨论了一系列深层次的个人问题。他告诉OpenAI的聊天机器人关于他作为一名跨性别男性在跨性别权利在全国大部分地区受到攻击的时候的恐惧和挫折。他提到了与不支持他性别认同的父母的冲突,以及他为即将到来的访问做的准备。
“当涉及再次见到你的父母时,重要的是优先考虑你自己的需求和健康,”聊天机器人回答道。“考虑一下你需要什么才能在他们面前感到舒适和安全。设定关于你与他们共度多少时间、哪些话题是禁忌,以及他们如何称呼你和你的身份的界限是可以的。”
在接下来的几天里,Van Slyck养成了在需要宣泄时一次输入几条消息的习惯,他开始感觉到ChatGPT的回应提供了情感释放。他说他经常觉得自己是对其他人的负担,甚至对他的心理医生,但他从来不觉得自己对聊天机器人是一种侵扰。“它提供了你希望从朋友或生活中的支持者那里听到的东西,”Van Slyck说。“就是那种鼓励,有时你只是想从别人那里听到——在这种情况下,是某种东西。”
范斯利克(Van Slyck)表示,ChatGPT的回应提供了一种情感释放,但他并不打算停止看他的人类治疗师。摄影师:Gavin McIntyre,彭博商业周刊这仍然是一代新型人工智能聊天机器人的早期阶段,虽然数百万人正在尝试ChatGPT和其他机器人,但目前还不清楚哪些用途会在新奇阶段之后持续存在。人们正在用它们来搜索互联网、作弊、编写软件代码和预订餐厅。彭博商业周刊最近还采访了一些人,他们像范斯利克一样开始将ChatGPT用作一种机器人治疗师。
以治疗师或教练的方式使用聊天机器人的想法并非没有先例。事实上,早期的聊天机器人之一Eliza是由麻省理工学院的教授Joseph Weizenbaum在1960年代构建的,用于模拟治疗师。一些聊天机器人,如Woebot和Wysa,现在专注于心理健康。与人类治疗师不同,聊天机器人永远不会感到疲倦,而且相比之下价格便宜。
但也存在潜在的风险。包括ChatGPT、Google的Bard和微软公司的OpenAI提供支持的Bing Chat在内的功能强大的通用聊天机器人是基于大型语言模型的,这种技术已经被充分记录,有倾向于简单地制造出令人信服的信息。通用聊天机器人并非为治疗而设计,也没有被编程成遵守人类治疗师遵守的道德和法律准则。在它们目前的形式中,它们也无法跟踪用户在不同会话之间告诉它们的内容——这是大多数患者可能无法容忍的一个缺点,他们的人类治疗师没有这个问题。
“如果有人患有严重的精神疾病,这个东西还没有准备好取代心理健康专业人员,”堪萨斯大学的临床心理学家和教授斯蒂芬·伊拉迪说道。他研究情绪障碍。“风险太高了。”他将ChatGPT描述为“有点像魔术表演。”尽管如此,他认为它是一个足够好的对话伙伴,许多人可能会发现它有帮助。
总部位于旧金山的OpenAI的发言人拒绝就人们以治疗方式使用聊天机器人发表评论,但指出了其政策,即人们不应“使用我们的模型为严重医疗状况提供诊断或治疗服务。”
当范·斯莱克与ChatGPT互动时,有时会警告他自己不是治疗师——同时似乎邀请他继续将其用作治疗师。他回忆起告诉聊天机器人他看到的一条推特帖子,描述该产品比面对面治疗更有效。“重要的是要注意,在线资源可能有所帮助,但它们不能取代寻求专业帮助,如果您正在处理创伤或心理健康问题,”ChatGPT回应道。“也就是说,如果您有特定问题或关注事项,希望我提供信息或见解,我将尽力帮助您。”
凡斯利克多年来一直在进行面对面的治疗,他表示不打算停止与他的人类治疗师会面,并在采取任何ChatGPT指向的决定之前会咨询她。“到目前为止,对我来说,它建议给我的一切都似乎是非常合理和富有洞察力的反馈,”他说。
伊拉迪表示,在正确的保护措施下,他可以想象ChatGPT被改编为在需求超过供给的心理健康服务时作为补充。Hugging Face首席伦理科学家玛格丽特·米切尔认为,这样的聊天机器人可以用来帮助在危机援助热线工作的人增加他们能够回答的电话数量。
但米切尔也担心,寻求聊天机器人治疗的人可能会在不知情的情况下加剧他们的痛苦。“即使有人发现这项技术很有用,也不意味着它正在引导他们走向正确的方向,”她说。
米切尔还提出了潜在令人不安的隐私问题。OpenAI审查用户的对话并将其用于训练,这可能不吸引那些想要谈论极其个人问题的人。(用户可以删除他们的账户,尽管这个过程可能需要长达四周。)今年三月,一个故障导致OpenAI短暂关闭ChatGPT,因为有报告称一些用户可以看到其他用户的聊天历史的标题。
隐私问题搁置一边,有些人可能会觉得机器人疗法太奇怪了。圣地亚哥一家电气工程公司的项目经理Aaron Lawson喜欢尝试ChatGPT,并试图让它扮演一个易于亲近的心理治疗师角色。它的回答听起来足够像人类,但Lawson无法克服他并非在与真人交谈的事实。“我告诉它扮演一个角色,”他说。“我很难跟上它的节奏。”
另一方面,Emad Mostaque在三月的一次会议上表示,他每天都在使用GPT-4——OpenAI向公众提供的最强大模型——每天。Mostaque是Stability AI Ltd.的创始人兼首席执行官,该公司推广了稳定扩散图像生成器,他将这款聊天机器人描述为“最好的心理治疗师”。
在一次后续采访中,Mostaque表示,他已经构建了提示,将其输入到聊天机器人中,以使其更像人类心理治疗师。他说,他与它聊天的话题涵盖了各种内容:如何处理领导一家年轻AI公司的压力(尤其是作为一个公开谈论自己的神经多样性和注意力缺陷/多动障碍的人),如何优先考虑生活的不同方面,如何应对不堪重负的感觉。作为回报,他说,它生成了“很好、非常合理的建议”,比如平衡生活更有效的应对机制。
Mostaque表示,他不认为聊天机器人可以替代人类心理治疗师,但他认为当你需要倾诉却没有人可以倾诉时,它们可能会有所帮助。“不幸的是,人类无法扩展,”他说。阅读下一篇: AI的发展速度足够快,以至于会出问题。听起来耳熟吗?