type: concept tags: [具身智能, 传感器优先, 可穿戴, 边缘AI, 硬件协同] related: [[trispirit-cognitive-architecture]], [[edgecim-hardware-codesign]], [[sustainability-ondevice-intelligence]], [[secagent-mobile-gui]] sources: - url: https://arxiv.org/abs/2604.13959 title: "[Emerging Ideas] Artificial Tripartite Intelligence: A Bio-Inspired, Sensor-First Architecture for Physical AI" date: 2026-04-15 reliability: high created: 2026-04-16 updated: 2026-04-16
ATI:仿生传感器优先的具身AI三层架构¶
首尔国立大学提出的仿生AI架构,以传感器为设计起点,为机器人和可穿戴设备上的物理AI提供分层认知框架。
核心问题¶
AI 从数据中心走向机器人和可穿戴设备时,单纯扩大模型规模已不足够。物理AI受严格的延迟、能耗、隐私和可靠性约束,其性能不仅取决于模型容量,还取决于如何通过可控传感器在动态环境中获取信号。现有方法将传感器控制和模型推理割裂设计,导致系统效率低下。
方法/架构¶
三层仿生架构¶
ATI 在系统层面分为三层,借鉴人脑的解剖结构:
| 层级 | 仿生名称 | 功能 | 执行位置 |
|---|---|---|---|
| L1 | Brainstem (脑干) | 反射性安全控制、信号完整性管理 | 传感器端/本地 MCU |
| L2 | Cerebellum (小脑) | 持续传感器校准、自适应感知 | 端侧处理器 |
| L3/L4 | Cerebral Inference (大脑推理) | L3: 常规技能选择与执行 / L4: 深度推理与协调 | L3 边缘NPU / L4 云端 |
核心原则¶
- 传感器优先 (Sensor-First):不是先训练模型再接入传感器,而是将传感器控制作为架构的一等公民
- 闭环协同:传感器控制、自适应感知、边缘-云端执行、基础模型推理在同一闭环架构中共同进化
- 时间关键本地化:时间关键的感知和控制在设备上完成,仅在需要时才调用高层推理
实验结果¶
在动态光照和运动条件下的移动端摄像头原型:
| 配置 | 端到端准确率 | L4 (云端) 推理调用 |
|---|---|---|
| 默认自动曝光 | 53.8% | 基线 |
| ATI (L1/L2 自适应感知) | 88% | ↓ 62.4% |
- 准确率提升 +34.2 个百分点
- 云端推理调用减少 62.4%
关键洞察¶
- 传感器即模型的一部分:ATI 的核心洞察是,智能不仅仅存在于推理模型中,传感器的自适应控制本身就是一种"推理"——L1/L2 层通过物理信号调节来完成大量预处理工作
- 62.4% 的云端调用减少意味着大多数场景下端侧处理就足够了,只有边缘情况才需要大模型——这与手机端AI的成本优化需求高度一致
- 仿生分层与 Tri-Spirit 的认知分解异曲同工,但更强调物理传感器的角色
为什么重要¶
对于手机端 AIOS 而言,ATI 提供了一个关键视角:摄像头、麦克风等传感器不应只是被动的数据采集工具,而应是智能系统的主动组件。手机的 ISP、NPU 和传感器融合引擎可以实现 L1/L2 层的功能,将大量AI推理工作前置到信号获取阶段,大幅减少需要调用大模型的场景。
关联¶
- [[trispirit-cognitive-architecture]] — 两者都采用分层认知架构,ATI 更聚焦物理传感器
- [[edgecim-hardware-codesign]] — ATI 的 L1/L2 层需要类似 EdgeCIM 的近传感器计算硬件
- [[sustainability-ondevice-intelligence]] — 62.4% 云端调用减少直接降低能耗
- [[secagent-mobile-gui]] — GUI Agent 的屏幕感知可借鉴 ATI 的传感器优先理念