跳转至

type: concept tags: [具身智能, 传感器优先, 可穿戴, 边缘AI, 硬件协同] related: [[trispirit-cognitive-architecture]], [[edgecim-hardware-codesign]], [[sustainability-ondevice-intelligence]], [[secagent-mobile-gui]] sources: - url: https://arxiv.org/abs/2604.13959 title: "[Emerging Ideas] Artificial Tripartite Intelligence: A Bio-Inspired, Sensor-First Architecture for Physical AI" date: 2026-04-15 reliability: high created: 2026-04-16 updated: 2026-04-16


ATI:仿生传感器优先的具身AI三层架构

首尔国立大学提出的仿生AI架构,以传感器为设计起点,为机器人和可穿戴设备上的物理AI提供分层认知框架。

核心问题

AI 从数据中心走向机器人和可穿戴设备时,单纯扩大模型规模已不足够。物理AI受严格的延迟、能耗、隐私和可靠性约束,其性能不仅取决于模型容量,还取决于如何通过可控传感器在动态环境中获取信号。现有方法将传感器控制和模型推理割裂设计,导致系统效率低下。

方法/架构

三层仿生架构

ATI 在系统层面分为三层,借鉴人脑的解剖结构:

层级 仿生名称 功能 执行位置
L1 Brainstem (脑干) 反射性安全控制、信号完整性管理 传感器端/本地 MCU
L2 Cerebellum (小脑) 持续传感器校准、自适应感知 端侧处理器
L3/L4 Cerebral Inference (大脑推理) L3: 常规技能选择与执行 / L4: 深度推理与协调 L3 边缘NPU / L4 云端

核心原则

  1. 传感器优先 (Sensor-First):不是先训练模型再接入传感器,而是将传感器控制作为架构的一等公民
  2. 闭环协同:传感器控制、自适应感知、边缘-云端执行、基础模型推理在同一闭环架构中共同进化
  3. 时间关键本地化:时间关键的感知和控制在设备上完成,仅在需要时才调用高层推理

实验结果

在动态光照和运动条件下的移动端摄像头原型:

配置 端到端准确率 L4 (云端) 推理调用
默认自动曝光 53.8% 基线
ATI (L1/L2 自适应感知) 88% ↓ 62.4%
  • 准确率提升 +34.2 个百分点
  • 云端推理调用减少 62.4%

关键洞察

  • 传感器即模型的一部分:ATI 的核心洞察是,智能不仅仅存在于推理模型中,传感器的自适应控制本身就是一种"推理"——L1/L2 层通过物理信号调节来完成大量预处理工作
  • 62.4% 的云端调用减少意味着大多数场景下端侧处理就足够了,只有边缘情况才需要大模型——这与手机端AI的成本优化需求高度一致
  • 仿生分层与 Tri-Spirit 的认知分解异曲同工,但更强调物理传感器的角色

为什么重要

对于手机端 AIOS 而言,ATI 提供了一个关键视角:摄像头、麦克风等传感器不应只是被动的数据采集工具,而应是智能系统的主动组件。手机的 ISP、NPU 和传感器融合引擎可以实现 L1/L2 层的功能,将大量AI推理工作前置到信号获取阶段,大幅减少需要调用大模型的场景。

关联

  • [[trispirit-cognitive-architecture]] — 两者都采用分层认知架构,ATI 更聚焦物理传感器
  • [[edgecim-hardware-codesign]] — ATI 的 L1/L2 层需要类似 EdgeCIM 的近传感器计算硬件
  • [[sustainability-ondevice-intelligence]] — 62.4% 云端调用减少直接降低能耗
  • [[secagent-mobile-gui]] — GUI Agent 的屏幕感知可借鉴 ATI 的传感器优先理念