+
8
-

回答

 眼球转动能否控制操作手机?

答案是:可以,但有条件限制。 目前主流方案分为「系统原生支持」和「第三方应用/硬件」两类:

系统原生支持(推荐优先尝试)

iOS / iPadOS(iOS 18+)

Apple 于 2024 年推出了设备端眼动追踪功能[[13]][[15]]:

开启方法:
设置 → 辅助功能 → 眼动追踪 → 开启
→ 按提示校准(跟随屏幕上的点移动视线)
核心特性:
指针跟随屏幕上显示指针,随眼球移动
停留控制注视某元素2秒自动触发点击(可自定义时长)
隐私保护所有数据本地处理,不上传云端
无需额外硬件仅用前置摄像头+AI算法实现
辅助功能定位主要面向行动/言语障碍用户设计

 注意:需 iPhone XS 或更新机型,且系统升级到 iOS 18+

Android 方案

系统级无障碍功能(Android 12+)

Camera Switches:通过前置摄像头识别眼球移动、眨眼、微笑等[[19]]

设置路径:设置 → 辅助功能 → Camera Switches

支持操作:上下左右滚动、返回、主页等基础导航

开发者 API(Android XR / OpenXR)

Android 提供 XR_ANDROID_eye_tracking 扩展[[11]],支持:

// 检查设备是否支持眼动追踪
XrSystemEyeTrackingPropertiesANDROID props;
xrGetSystemProperties(..., &props);
if (props.supportsEyeTracking) {
    // 创建眼动追踪器
    xrCreateEyeTrackerANDROID(...);
}

目前主要用于 VR/AR 设备,普通手机支持有限

第三方解决方案

APP 方案(无需额外硬件)

Tobii DynavoxiOS/Android专业辅助沟通工具,支持眼控输入[[10]]
Eye ControlAndroid开源项目,基础眼动操作
EyeMU研究原型卡内基梅隆大学研发,结合眼球+IMU传感器实现自然操控[[3]][[27]]

硬件+APP 方案(精度更高)

Tobii Eye Tracker 5¥2000+科研/专业辅助
七鑫易维 GP3-Mobile¥3000+移动端眼动实验[[12]]
Pupil Labs开源硬件开发者定制

实际体验建议

适合使用的场景:

残障人士辅助操作(核心价值)

双手被占用时的简单导航(如做饭时看菜谱)

驾驶中有限交互(需配合语音,注意安全⚠️)

VR/AR 沉浸式交互

当前局限性:

精度有限:普通前置摄像头误差约 1-2cm,难以精准点击小按钮

延迟问题:从注视到触发通常有 0.5-2 秒延迟

 环境依赖:强光、戴墨镜、快速移动时易失效

 疲劳问题:长时间"瞪眼操作"比触屏更易累

开发者:如何集成眼动控制?

iOS 示例(Swift):

import UIKit

// 检查眼动追踪可用性
if UIAccessibility.isEyeTrackingSupported {
    // 启用停留控制
    UIAccessibility.isEyeTrackingEnabled = true

    // 监听注视事件
    NotificationCenter.default.addObserver(
        self,
        selector: #selector(eyeGazeChanged),
        name: .eyeTrackingGazeChanged,
        object: nil
    )
}

Android 权限配置:

<!-- AndroidManifest.xml -->
<uses-permission android:name="android.permission.EYE_TRACKING_COARSE" />
<!-- 精细追踪需额外申请 -->
<uses-permission android:name="android.permission.EYE_TRACKING_FINE" />

实用小技巧

校准很重要:每次使用前重新校准可提升精度

光线要充足:避免逆光或过暗环境

保持距离:手机距面部 30-50cm 效果最佳

组合使用:眼动+语音/手势比纯眼控更高效

开启「Snap to Item」:让指针自动吸附到最近的可交互元素[[20]]

未来展望

随着端侧 AI 芯片(如 Apple Neural Engine、Android Tensor)和摄像头技术进步,眼动控制正从「辅助功能」向「主流交互」演进[[5]][[6]]。预计 2-3 年内:

普通旗舰手机将普遍支持基础眼动操作

与 AR 眼镜结合实现「所见即所控」

多模态交互(眼+手+语音)成为新标准

总结:如果您使用的是 iPhone(iOS 18+)或较新 Android 手机,现在就可以尝试系统自带的眼动追踪功能;若追求更高精度或开发需求,可考虑专业硬件方案。但对于日常使用,触屏+语音仍是最高效的组合 

网友回复

我知道答案,我要回答