
苹果
图1:专利插图展示上图清晰展示了实际工作原理与流程:意图手势功能通过手机传感器捕捉设备动作和指向。比如,当用户拿起手机晃两下并朝向电视机时,内部的惯性测量单元(IMU)和指南针等传感器会将特定信号传递给应用,从而让手机识别出用户希望启动遥控操作的需求。手机的RF收发模块会在指定模式和信道上,采集当前可获取的被控设备(可能为多个)发出的 beacon 类信号。通过信号到达角度 AoA 和强度 RSSI,判断用户当前指向方向上最可能的被控目标(单个或多个)。手机对筛选出的潜在被控目标进行ToF测距,蓝牙和WIFI均适用。通过信号的单次往返飞行,可测量所有潜在目标的高精度距离,并需解决多径效应中主径的选择问题。这要求ToF测量脉冲足够短,以接近UWB的测量精度,但无需达到其最高水平。如果是单个检测对象,手机将显示该物体的简要信息,用户可据此决定是否进入下一步控制流程;若为多个对象,则显示所有物体的概要信息,让用户选择其中一个继续操作。此外,决定或选择也可通过手势完成,例如快速摇晃手机(可能实现)。确定目标物体后,用户通过执行预设的动作手势进行控制,如调节音量高低、关闭电视或显示器等,具体操作丰富多样,取决于用户的想象力。整个控制过程需核验用户身份与手机标识,可采用指纹或FaceID,以防止非法滥用。这项技术看似平凡,实则是人机交互的重大突破。若能在消费电子的核心设备——手持终端上广泛推广,必将显著提升用户体验,这是巨大的进步,非常大的一步!不要小看苹果的创新与细节掌控力,我们必须紧跟其后。这里添加一个流程图,方便更清晰地理解。
图2 专利插图整体分为四大步骤,与前面六点描述对应。想深入了解的读者可仔细对比,有疑问欢迎留言交流。若依据Apple的专利设计此功能,需留意几个细节之处:遥控应用在OS中应有较高优先级,休眠或黑屏时保持活跃,避免用户重复激活。否则,减少触控操作的努力将大打折扣,影响使用体验的便捷性与流畅度。手势意图触发时,通常未知用户要操控哪个设备。再次强调,此功能无需预先设定设备间的绝对位置关系,否则会过于繁琐不便。这是为了简化操作流程,提升用户体验。手势意图识别(见图1)之后,进行测距与目标物体ID的识别(见图2)。此时上报的物体ID可能有多个。由于室内环境多径效应和非视距(NLOS)情况复杂,多数静默期的受控电子设备(但仍通过WIFI或蓝牙广播存在信号)可能会被手机检测到。然而,这高度依赖于手机的阵列天线对无线信号到达角(AOA)的判断。只有满足接收信号强度指示(RSSI)门限或AOA门限的设备,才可能在手机上显示为可选对象,但这并非绝对规则,具体实现方式灵活多样。接着,选定受控对象并发送动作手势,这就不难理解了。专利虽模糊却覆盖广泛,与具体实现差距甚远。不过,苹果对极致体验的追求值得学习,这正是乔布斯时代Apple一贯的风格。
Copyright © 2025 IZhiDa.com All Rights Reserved.
知答 版权所有 粤ICP备2023042255号