眼球转动能否控制操作手机?
答案是:可以,但有条件限制。 目前主流方案分为「系统原生支持」和「第三方应用/硬件」两类:
系统原生支持(推荐优先尝试)
iOS / iPadOS(iOS 18+)
Apple 于 2024 年推出了设备端眼动追踪功能[[13]][[15]]:
开启方法:设置 → 辅助功能 → 眼动追踪 → 开启 → 按提示校准(跟随屏幕上的点移动视线)核心特性:
| 指针跟随 | 屏幕上显示指针,随眼球移动 |
| 停留控制 | 注视某元素2秒自动触发点击(可自定义时长) |
| 隐私保护 | 所有数据本地处理,不上传云端 |
| 无需额外硬件 | 仅用前置摄像头+AI算法实现 |
| 辅助功能定位 | 主要面向行动/言语障碍用户设计 |
注意:需 iPhone XS 或更新机型,且系统升级到 iOS 18+
Android 方案
系统级无障碍功能(Android 12+)Camera Switches:通过前置摄像头识别眼球移动、眨眼、微笑等[[19]]
设置路径:设置 → 辅助功能 → Camera Switches
支持操作:上下左右滚动、返回、主页等基础导航
开发者 API(Android XR / OpenXR)Android 提供 XR_ANDROID_eye_tracking 扩展[[11]],支持:
// 检查设备是否支持眼动追踪
XrSystemEyeTrackingPropertiesANDROID props;
xrGetSystemProperties(..., &props);
if (props.supportsEyeTracking) {
// 创建眼动追踪器
xrCreateEyeTrackerANDROID(...);
} 目前主要用于 VR/AR 设备,普通手机支持有限
第三方解决方案
APP 方案(无需额外硬件)
| Tobii Dynavox | iOS/Android | 专业辅助沟通工具,支持眼控输入[[10]] |
| Eye Control | Android | 开源项目,基础眼动操作 |
| EyeMU | 研究原型 | 卡内基梅隆大学研发,结合眼球+IMU传感器实现自然操控[[3]][[27]] |
硬件+APP 方案(精度更高)
| Tobii Eye Tracker 5 | ¥2000+ | 科研/专业辅助 |
| 七鑫易维 GP3-Mobile | ¥3000+ | 移动端眼动实验[[12]] |
| Pupil Labs | 开源硬件 | 开发者定制 |
实际体验建议
适合使用的场景:
残障人士辅助操作(核心价值)
双手被占用时的简单导航(如做饭时看菜谱)
驾驶中有限交互(需配合语音,注意安全⚠️)
VR/AR 沉浸式交互
当前局限性:
精度有限:普通前置摄像头误差约 1-2cm,难以精准点击小按钮
延迟问题:从注视到触发通常有 0.5-2 秒延迟
环境依赖:强光、戴墨镜、快速移动时易失效
疲劳问题:长时间"瞪眼操作"比触屏更易累
开发者:如何集成眼动控制?
iOS 示例(Swift):
import UIKit
// 检查眼动追踪可用性
if UIAccessibility.isEyeTrackingSupported {
// 启用停留控制
UIAccessibility.isEyeTrackingEnabled = true
// 监听注视事件
NotificationCenter.default.addObserver(
self,
selector: #selector(eyeGazeChanged),
name: .eyeTrackingGazeChanged,
object: nil
)
} Android 权限配置:
<!-- AndroidManifest.xml --> <uses-permission android:name="android.permission.EYE_TRACKING_COARSE" /> <!-- 精细追踪需额外申请 --> <uses-permission android:name="android.permission.EYE_TRACKING_FINE" />
实用小技巧
校准很重要:每次使用前重新校准可提升精度
光线要充足:避免逆光或过暗环境
保持距离:手机距面部 30-50cm 效果最佳
组合使用:眼动+语音/手势比纯眼控更高效
开启「Snap to Item」:让指针自动吸附到最近的可交互元素[[20]]
未来展望
随着端侧 AI 芯片(如 Apple Neural Engine、Android Tensor)和摄像头技术进步,眼动控制正从「辅助功能」向「主流交互」演进[[5]][[6]]。预计 2-3 年内:
普通旗舰手机将普遍支持基础眼动操作
与 AR 眼镜结合实现「所见即所控」
多模态交互(眼+手+语音)成为新标准
总结:如果您使用的是 iPhone(iOS 18+)或较新 Android 手机,现在就可以尝试系统自带的眼动追踪功能;若追求更高精度或开发需求,可考虑专业硬件方案。但对于日常使用,触屏+语音仍是最高效的组合
网友回复


