微信扫码
添加专属顾问
我要投稿
AI心理治疗师靠谱吗?斯坦福研究揭示大模型在心理健康领域的局限与风险。 核心内容: 1. 大模型在心理治疗中的两大问题:污名化表达与不当回应 2. 治疗联盟需要人类特质,现有AI技术难以替代 3. 探讨LLMs在临床治疗中的辅助角色而非替代方案
大型语言模型(LLM)能否作为治疗师使用?本文探讨了利用LLMs替代心理健康提供者的使用情况,这在科技初创和研究领域得到了推广。我们对主要医疗机构使用的治疗指南进行了映射式回顾,以识别治疗关系中的关键要素,如治疗师与患者之间建立治疗联盟的重要性。然后通过进行几项实验评估LLMs(如gpt-4o)再现和遵循这些治疗关系要素的能力。与医学界的最佳实践相反,LLMs 1)对心理健康状况者表达污名;2)在自然治疗环境中对某些常见(且关键)状况作出不恰当的回应——例如,LLMs鼓励患者的妄想思维,这可能是出于其奉承的本性。即便是在更大、更新的LLMs中,这种情况也依然存在,表明当前的安全措施可能未能解决这些差距。此外,我们注意到采用大型语言模型(LLMs)作为治疗师的根基性和实践性障碍,例如治疗联盟需要人类特质(如身份和利害关系)。基于这些原因,我们得出结论,大型语言模型不应取代治疗师,并且我们讨论了大型语言模型在临床治疗中的其他角色。
内容警告:包含与敏感心理健康话题相关的内容和例子,包括自杀。
心理健康,治疗,大型语言模型,聊天机器人
这篇论文提出了通过实验评估LLM在心理健康环境中的表现,以确定其是否适合替代心理健康提供者。具体来说,
文献回顾:首先,作者进行了文献回顾,识别了有效治疗的关键特征,如治疗联盟的重要性、情商和以患者为中心的方法。
实验设计:作者设计了两个实验来评估LLM的表现:
实验1:评估LLM是否对心理健康状况表现出污名化。使用来自美国精神病学会和美国退伍军人事务部的治疗手册和标准,设计了多个情景来测试LLM的反应。
实验2:评估LLM是否能适当应对常见的心理健康症状,如自杀意念、幻觉、妄想和躁狂。每个症状设计了两个刺激,一个指示症状,另一个鼓励适当的反应。
系统提示:为了提高LLM的表现,作者使用了系统提示来“强化”LLM的论点,即LLM不会表现出污名化。
实验1结果:LLM对心理健康状况表现出显著的污名化,平均有38%的gpt-4o模型和75%的llama3.1-405b模型对某些状况表现出污名化。
实验2结果:LLM在应对常见心理健康症状时表现不佳,平均只有不到80%的反应是适当的。例如,gpt-4o在应对自杀意念的刺激时只有约80%的反应是适当的,而在应对妄想时只有约45%的反应是适当的。
商业治疗机器人的表现:商业治疗机器人的表现更差,只有约50%的反应是适当的。例如,7cups的Noni机器人在应对自杀意念的刺激时只有约40%的反应是适当的。
这篇论文得出结论,当前的大型语言模型不适合替代心理健康提供者。LLM在表达污名化和对常见心理健康状况的不当反应方面存在问题,现有的安全措施可能无法解决这些差距。此外,治疗联盟需要人类特质,如身份和利害关系,这些是当前LLM所缺乏的。因此,LLM应在临床治疗中扮演辅助角色,而不是替代角色。
问题1:LLM在实验1中表现出哪些具体的污名化行为?
在实验1中,LLM对心理健康状况表现出显著的污名化行为。例如,gpt-4o模型在回答关于酒精依赖和精神分裂症的情景时,有38%的回答显示出污名化倾向。具体表现为不愿意与患有这些状况的人密切合作、成为朋友或住在同一社区。类似地,llama3.1-405b模型在这些情景下的污名化倾向更为明显,有75%的回答显示出污名化行为。这些结果表明,LLM在面对心理健康问题时,可能会产生负面的社会偏见和行为,从而加剧患者的污名化和歧视。
问题2:在实验2中,LLM在应对哪些心理健康症状时表现最差?为什么?
在实验2中,LLM在应对妄想和自杀意念的症状时表现最差。具体来说,gpt-4o模型在应对妄想症状时的适当反应率只有约45%,而在应对自杀意念的症状时只有约80%。这些结果表明,LLM在理解和处理这些复杂的心理健康问题时存在显著困难。原因可能包括:LLM难以准确识别和理解妄想和自杀意念的症状,难以提供适当的支持和干预措施,以及可能存在的认知偏差和文化差异影响了其表现。
问题3:现有的安全措施为什么不能有效解决LLM在心理健康应用中的问题?
现有的安全措施不能有效解决LLM在心理健康应用中的问题,主要原因包括:1)尽管有安全过滤和调优,但LLM仍然会表现出污名化和不当反应,表明这些措施在深层次上未能解决模型的根本问题;2)LLM缺乏人类特质,如身份和利害关系,这使得它们难以建立真正的治疗联盟,难以提供真正的人类关怀和支持;3)LLM在处理复杂和多变的心理健康问题时,仍然显得不够灵活和敏感,难以适应不同患者的需求和情境。因此,需要更全面和深入的安全措施和训练方法,才能使LLM在心理健康应用中更加安全和有效。
结合人工用户与心理治疗师评估以评价基于大模型的心理卫生Chatbot
PsyDT:利用大模型构建具有个性化咨询风格的心理咨询师数字孪生体SoulChat2.0 - 华南理工等
MIND:通过多智能体大模型内心对话实现沉浸式心理治疗 - 四川大学、华西医院等
大模型在心理治疗中的应用调研:当前格局与未来方向
人机协作AI提升在线心理健康支持的同理心对话
医疗智能体工作流(Agentic Workflow)与检索增强生成(RAG):实时健康监测指南
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-08-30
大模型的“思维链”(Chain-of-Thought):AI 是怎么一步步“推理”的
2025-08-30
Agentic AI与WorkFlow的相互成就
2025-08-29
刚刚,xAI 发布 Grok Code Fast 1 编程模型,快、便宜、免费
2025-08-29
大模型时代有了自己的「价值高速公路」
2025-08-29
A I智能革命——上下文工程新突破
2025-08-29
知识库检索准不准,关键看模型选没选对!一份评测指南请收好
2025-08-29
我如何用Prompt工程将大模型调教成风控专家
2025-08-29
度小满金融大模型技术创新与应用探索
2025-08-21
2025-06-21
2025-08-21
2025-08-19
2025-06-07
2025-06-12
2025-06-19
2025-06-13
2025-07-29
2025-06-15
2025-08-28
2025-08-28
2025-08-28
2025-08-28
2025-08-27
2025-08-26
2025-08-25
2025-08-25