九州bet9娱乐ju111-九州体育官方网站

智能显示器上的视线跟踪:下一个智能家居界面

本周早些时候,GOOGLE推出了Look to Speak,这是一个实验性的Android应用,可为那些不会说话或打字的人带来输入权限。“说话说话”使用Android手机的摄像头来跟踪用户的视线,从而允许他们通过说明他们的观看位置来键入或选择按钮。根据视频演示,它看起来很棒。

而且,尽管我不想为预期的用途折衷积极的可访问性方面,但我不禁想到这在智能家居中可能会很有用。我之前已经写过各种用户界面的文章,我的看法是:改善智能家居体验越多越好。

语音是一个很好的隐形界面,例如,无论大家使用Alexa,谷歌 Assistant还是Siri,都可以让大家命令家里的设备。但是在某些情况下语音并不理想。例如,当我妻子在沙发上躺在我旁边睡着时,我不想和聪明的人说话。

只要手机可触及或放在口袋中,始终可以选择使用智能手机进行此类控制。不过,我认为将电话应用程序用于智能家居控制是一种不成熟且非最佳的体验。手机应用程序是第一个智能家居界面,至少在数字助理问世之前。尽管手势是将来控制设备的潜在选择,但该技术还不够成熟。

因此,当我看到诸如眼动追踪之类的信息时,我会感到很兴奋。

对于当今的智能显示器而言,实现类似说话的外观的体验并不过分。许多人已经拥有用于视频通话的相机,有些甚至已经足够先进,可以使用在房间周围跟踪您的App。

今年,谷歌的智能显示器甚至能够识别哪个家庭成员在看硬件。这提供了有用的上下文来显示特定于该人的信息。

的确,在10月举行的Level Up Smarthome活??动中,Synapse的技术负责人Jake Sprouse分享了有关此类上下文以及可以使用它的潜在智能接口的想法。

我正在设想这种类型的上下文是否可以将谷歌的视线输入技术用于当前或将来的智能显示器。当我看到自己走近时,我的谷歌 Next设备已经浮出了几个上下文触摸磁贴。在晚上,它会显示一个“灯光”按钮,而在白天,会显示一个恒温器选项。

简单看了一眼甚至眨眼就可以了,为什么要说一个命令或点击屏幕以与这些可操作的按钮进行交互呢?这可以进一步减少用户交互摩擦,而不必说一个字或伸出手来触摸屏幕。

明确地说,我不知道谷歌希翼将这项技术引入智能家居。我衷心感谢“说话说话”的预期目的,因为它可以为其他人没有发言权。但是我希翼看到这种或类似的交互式体验进入我的智能家居。

慎重声明:本文版权归原编辑所有,转载文章仅为传播更多信息之目的,如编辑信息标记有误,请第一时间联系大家修改或删除,多谢。

九州bet9娱乐ju111|九州体育官方网站

XML 地图 | Sitemap 地图