欢迎试用 FacePhys Findings 科研平台

欢迎试用 FacePhys Findings 科研平台

2026年2月19日·
Yuntao Wang
Yuntao Wang
· 2 分钟阅读时长
FacePhys Findings 科研平台
blog

FacePhys Findings,我们的研究级非接触式生理数据采集系统,现已准备发货!这标志着我们朝着“让全球研究人员更便捷地使用先进生理行为计算技术”迈出的重要一步。

什么是 Findings?

Findings 是一套“单设备、多能力”的研究级系统,可在一定程度上替代多种传统传感器。它基于 远程光电容积描记(rPPG) 技术,通过摄像头实现零接触采集,支持捕获 100+ 维度 的生理与行为数据。

核心能力

生理测量

  • 心率:≤ 2 BPM 精度
  • 心率变异性(HRV)分析:覆盖时域、频域与非线性域,共 18 项指标
  • 连续监测:支持 8 小时以上长时采集
  • 实时处理:输出延迟 ≤ 1 秒

行为分析

  • 面部表情识别与情绪分析
  • 52 个动作单元(AU) 编码,实现细粒度面部运动追踪
  • 眼动追踪
  • 语音声学特征提取

研究级设计

Findings 面向真实研究流程进行系统化设计:

  • 定制高灵敏度图像传感器:针对生理信号采集优化
  • 边缘 AI 算法:支持本地实时处理
  • 物理事件标记按钮:用于精确实验标注与控制
  • 64GB 本地存储:覆盖长时会话与多轮实验
  • 静音冷却系统:降低环境与行为干扰
  • 1/4 标准三脚架接口:便于多场景部署与定位

隐私与数据处理

我们充分重视伦理与合规需求:

  • 本地处理优先:数据在设备端完成处理,不强制依赖云端
  • 完整元数据记录:支持可追溯与可复现的科学研究
  • 可选 Wi-Fi 同步:按需启用加密传输
  • 研究级合规设计:面向 IRB/伦理审查流程优化

应用场景

Findings 尤其适合以下研究与评测任务:

  • 人因工程与可用性实验室
  • 自动驾驶与驾驶员状态研究
  • 心理咨询与治疗相关研究
  • 用户体验测试与行为实验
  • 任何需要非接触式生理监测的研究场景

由清华 × MIT 团队开发

该系统凝聚了团队在普适计算、生理感知与人机交互领域多年的研究与工程积累。


想把 Findings 集成到您的研究中?
欢迎访问 https://www.facephys.com/Findings/ 了解更多,或联系我们咨询发货与合作细节。

将研究级生理传感带到全球实验室。

Yuntao Wang
Authors
Associate Professor (Research Track)
Yuntao Wang’s research centers on physiobehavioral computing and intelligent interaction for mobile and wearable systems. His work focuses on (1) developing robust, efficient sensing that performs reliably on mainstream devices, (2) extracting spatiotemporal patterns from multimodal signals to infer interaction intent by leveraging natural behavioral correlations, and (3) designing edge-efficient interfaces that deliver high performance on mobile and wearable platforms. He has published 90+ papers, received 10 international conference awards, and holds 30+ granted patents. His contributions have been recognized with honors including the Wu Wenjun AI Outstanding Youth Award (2024), the CAST Young Elite Scientists Sponsorship Program (2022), the Qinghai High-Level Innovation & Entrepreneurship Leading Talent (2024), and the First Prize of the China Electronics Institute Science & Technology Award (2019).