人工智能能比人类更好地表现出同情心吗?公司正在尝试-《华尔街日报》
Lisa Bannon
繁忙、压力重重的人类并不总是擅长表达同情心。现在,计算机科学家正在训练人工智能来代替我们表达同情心。
通过大规模语音、文本和视频对话训练的AI驱动的大型语言模型现在足够智能,能够检测和模仿同情等情绪,有人认为有时甚至比人类更好。科技专家表示,强大的新功能承诺改善客户服务、人力资源、心理健康等领域的互动。它们也引发了关于是否应该允许缺乏悔恨和责任感的机器来解释和评估人类情绪的道德和伦理问题。
像电信巨头考克斯通讯和电话营销巨头Teleperformance这样的公司使用人工智能来衡量呼叫中心代理的同情心水平,并将得分用于绩效评估。医生和治疗师使用生成式人工智能来制作富有同情心的与患者的通信。例如,Lyssn.io,一个用于培训和评估治疗师的人工智能平台,正在测试一种专门的GPT模型,该模型建议治疗师给患者发送文本回复。当一名女性在工作一周后透露焦虑时,Lyssn的聊天机器人给出了三个选项供治疗师回复: “听起来工作这周确实让你很疲惫” 或 “很抱歉听到这个消息,你这周是如何管理你的压力和焦虑的?” 或 “谢谢分享。你过去是如何应对焦虑的?”
即使是从您的银行或互联网服务提供商打来的电话的人,也可能是在阅读由AI助手生成的脚本。下次接到电话、短信或电子邮件时,您可能无法知道是人还是机器在回复。
公司官员表示,新技术的好处可能是变革性的。在客户服务方面,训练有素的机器人可以立即提升消费者互动体验,提高销售额和客户满意度,支持者说。治疗师机器人可以帮助缓解严重的心理健康专业人员短缺问题,并帮助无其他医疗资源的患者。
“AI甚至可以比人类更擅长帮助我们进行社交情感学习,因为我们可以向其输入世界上最优秀的心理学家的知识,来指导和培训人们,”位于华盛顿贝尔维尤的对话分析公司mpathic.ai的临床心理学家兼首席执行官格林·洛德说。
一些社会科学家质疑使用没有人类痛苦经验的AI来解释情绪状态是否符合伦理。在临床环境中使用人工同理心可能会降低人们对于处于困境中的人应该得到真正人类关注的期望。如果人类将善意的言辞的制作委托给AI,那么我们自己的同理心技能会萎缩吗?
加州大学伯克利分校生物伦理学教授、同理心和技术专家乔迪·哈尔珀恩表示,AI可能具备“认知同理心”,即根据其训练数据识别和回应人类的能力。但这与“情感同理心”不同,后者是内化他人的痛苦、希望和苦难,并表现出真正的关切的能力。
“临床上最有价值的同理心要求医生在倾听病人时有所体会,”她说。这是一个没有感情或经历的机器人所做不到的。
让我们来看看人工同理心应用的发展方向。
心理健康
支持结构化疗法方法的人工智能,如激励式访谈和认知行为疗法,据支持者称,可以帮助应对从戒烟和物质使用问题到饮食失调、焦虑和抑郁等问题。“我们长期以来一直有自助、在线认知行为疗法、视频和交互式工作表,没有人类治疗师。我们知道技术可以有所帮助。这是下一个合乎逻辑的步骤,”Lyssn的首席执行官兼联合创始人大卫·阿特金斯(David Atkins)说。
研究表明,利用人工智能建议和修改治疗师对患者的回应可以提高同理心评分。在在线同行支持平台TalkLife上进行的一项实验中,经过AI训练的名为Hailey的机器人建议了300名志愿支持人员如何使他们对用户的建议更具同理心。例如,当支持者输入“我理解你的感受”时,Hailey建议将其替换为“如果这发生在我身上,我会感到非常孤立。”当支持者写下“别担心,我在这里支持你”时,Hailey建议替换为:“这肯定是一场真正的斗争。你有试过和你的老板交谈吗?”
研究发现,人类和人工智能的共同回应相比仅有人类的回应,同理心回应率提高了19.6%。研究发现。“当与人类搭配时,人工智能可以增强同理心,”华盛顿大学计算机科学助理教授、该研究的作者之一蒂姆·阿尔托夫(Tim Althoff)与阿特金斯等人说。
AI用于治疗将需要政府监管和专业指南来强制透明并保护用户,心理健康专家表示。 今年早些时候,一家在线治疗服务激怒了用户,因为它未披露使用GPT-3生成建议。另外,国家饮食失调协会信息热线使用的机器人在向用户提出不当建议后被暂停。 该机器人给一些用户提供了具体的治疗建议,比如减少卡路里摄入量和设定每周减重目标,专家表示这可能对患有厌食症等疾病的人有害。
客户服务和销售
研究长期以来一直表明,考虑他人感受的人在商业交往中更成功,无论是房地产销售还是投资建议。
总部位于加利福尼亚州帕洛阿尔托的企业AI平台Uniphore销售一款AI虚拟会议工具,该工具可以实时跟踪通话参与者的情绪线索,帮助主持人分析谁参与谁不参与,以及哪些内容引起共鸣。该技术通过分析面部表情、语调和措辞来测量愤怒、快乐和困惑等情绪信号。屏幕上的仪表板显示参与者的情绪和参与度评分,并提供提示,告诉主持人是否应该放慢速度、表现更多同情心或做出其他改变。
一些评论家质疑当公司记录人们的行为时,人们是否在不知情中放弃了隐私。Uniphore的首席执行官兼联合创始人Umesh Sachdev表示,公司必须在使用该技术之前披露并征得参与者的许可。
未来,这种技术可能会应用在教育领域,当教师需要在虚拟教室中跟踪数十名学生时,Sachdev表示。它也可以用于娱乐领域,用于对电视和电影进行虚拟观众测试。
人力资源
人力资源专家表示,人工智能在对话中评分共情将越来越多地用于绩效评估和招聘。
Humanly.io是一家拥有微软、Moss Adams和Worldwide Flight Services等客户的招聘和分析公司,评估聊天机器人和人类招聘人员在面试中展现的共情。Humanly的首席执行官兼联合创始人Prem Kumar表示:“对话中更高的共情和积极倾听与工作和销售的更高接受率相关联。”
在一家大型科技公司,Humanly的对话分析发现招聘人员在面试女性时缺乏共情和积极倾听。Kumar表示,在模型确定问题并招聘人员接受反馈后,女性的工作接受率提高了8%。
Accolade是一家位于费城以外的医疗服务公司,过去,主管们需要听取其1,200名健康助手与客户就敏感医疗问题的录音对话。但他们每周只有时间审查每名员工的一两通电话。
“我们评估代理商最重要的事情之一是,‘你在通话中展现出同情心了吗?’” Accolade公司运营高级副总裁Kristen Bruzek说。“同情心是我们身份的核心。但它是最难、最复杂的事情之一来衡量和校准。”
Accolade现在使用了来自Observe.AI的机器学习AI模型,该模型经过训练可以检测代理商通话中的同情心表达。Observe.AI的现成同情心模型预先编程以识别短语,如“很抱歉听到这个消息”,但它并没有反映出人们根据年龄、种族和地区使用的表达多样性。因此,Accolade的工程师正在训练算法以识别更广泛的同情表达,向计算机模型中插入员工可能用来表达关切的短语,比如:“那一定很可怕”,“我无法想象那种感觉”,“那一定很艰难。”
目前,据Accolade估计,该模型与人工评估相比准确率约为70%。即便如此,它已经显示出了重大的效率。Observe.AI可以评分客户和员工之间的每天1万次互动,Bruzek女士说,而过去人类每天只能评分100到200次。
一些学者表示,随着自动化绩效评估变得更加普遍,人类将需要了解AI可以衡量的能力和局限。
“如果机器不擅长衡量人类认为重要的同情心方面,比如疾病、疼痛、爱和失落的经历,会发生什么?” 麻省理工学院社会科学和技术研究教授Sherry Turkle说。“机器可以评分的将成为同情心的定义。”
出现在2023年10月12日的印刷版上,标题为’人工智能能比人类更好地表达同情吗?公司正在尝试’。