跳转至

type: concept tags: [wearable, llm, mental-health, stress-management, conversational-ai, 可穿戴] related: [[wearable-llm-stress-support]], [[badgex-wearable-llm-learning]], [[ecg-foundation-models-edge]] sources: - url: https://arxiv.org/abs/2604.04915v1 title: "Exploring Expert Perspectives on Wearable-Triggered LLM Conversational Support for Daily Stress Management" date: 2026-04-19 reliability: high created: 2026-04-19 updated: 2026-04-19


Wearable-Triggered LLM 心理支持

15 位心理健康专家深度访谈,探索可穿戴设备触发 LLM 对话支持的设计空间,提出 EmBot 系统四阶段交互框架。

核心问题

可穿戴设备能检测压力(HRV、皮肤电导等),LLM 能提供对话式心理支持,但两者之间的有意义连接尚未被充分探索。现有挑战: - 误报率高:穿戴设备数据存在上下文歧义 - 通知疲劳:频繁干预导致用户脱嵌 - 缺乏数据锚定:LLM 心理健康系统通常独立于穿戴数据运行,依赖用户主动输入文本

方法/架构

EmBot:四阶段交互框架

  1. Detection(检测):穿戴设备触发压力事件,模拟生理数据
  2. Feedback(反馈):向用户展示压力信号解读
  3. Support(支持):LLM 生成个性化对话干预
  4. Reflection(反思):引导用户回顾和记录压力体验

研究设计

  • 参与者:15 位心理健康专家(持证临床医生、临床研究员、数字心理健康计算科学家)
  • 方法:半结构化访谈,18 场(3 场因录音问题排除)
  • 招募:专业网络 + 滚雪球抽样
  • 时长:每场 45-60 分钟,IRB 审批
  • 格式:现场交互完整移动 App / 远程交互式原型

实验结果/关键数据

专家观点汇总

论文通过 18 场专家访谈,从预探测阶段和后探测阶段收集了关于穿戴触发 LLM 对话系统的多维度洞察:

设计机遇: - 穿戴数据可为 LLM 提供上下文锚定,使对话干预更精准 - 多阶段交互(检测→反馈→支持→反思)比单次对话更有效 - 用户主动触发比被动推送更易被接受

关键风险: - 假阳性导致的过度干预 - 敏感心理健康话题的 LLM 安全边界 - 穿戴数据的隐私和知情同意

关键洞察

这项研究的核心价值在于桥接了穿戴感知与 LLM 生成之间的设计鸿沟

  1. 从数据到对话的转化难题:穿戴设备产生的是数字信号(HR、EDA),而 LLM 需要自然语言上下文。如何将"HRV 下降 20%"转化为 LLM 能理解的"用户可能正在经历压力"是一个被低估的设计挑战。

  2. 专家对 LLM 心理支持的谨慎乐观:专家们认可 LLM 的对话能力,但强调需要人类在环的安全机制,特别是在涉及自杀意念等高风险场景。

  3. 端侧推理的必要性:心理健康数据是最敏感的个人信息之一。云端推理面临隐私风险,端侧 LLM 推理(如 [[wearable-llm-stress-support]] 中探讨的方案)成为刚需。

为什么重要

对手机端 AIOS 生态的意义: - 穿戴+手机协同:穿戴设备检测压力,手机端 LLM 生成对话——天然的端云协同场景 - 端侧 LLM 需求验证:心理健康场景要求数据不出设备,直接推动端侧推理需求 - 多模态 Agent 范例:感知(穿戴数据)→ 理解(LLM)→ 行动(对话干预)是手机端 Agent 的典型模式 - [[ecg-foundation-models-edge]] 基础设施:ECG 基础模型可为 EmBot 提供更精准的生理信号解读

关联

  • [[wearable-llm-stress-support]] — 同主题已有页面
  • [[badgex-wearable-llm-learning]] — 可穿戴 + LLM 协作学习
  • [[ecg-foundation-models-edge]] — ECG 基础模型与端侧医疗 AI