穿戴裝置新操作-手舞足蹈!

  • A
  • A+
  • A++
2014-10-28

穿戴裝置新操作-手舞足蹈!

(圖/取自網路)

 

穿戴設備如Google眼鏡,已經成為人們十分關注的未來人機交互體驗工具,相比手機,它擁有更加直觀的資料呈現方式,也能夠提供更主動式的服務,因為它就戴在你的臉上。

 

當然,目前Google眼鏡發展似乎遇到了一些瓶頸,主要是由於外形設計不佳、隱私窺探、正式版遙遙無期等問題,讓人們對Google眼鏡的熱情有所下降。另外,語音對話模式也帶來了一定的局限性。試想一下,在一個嘈雜的酒吧說“OK,Glass”,不僅眼鏡無法識別,也會讓周圍人反感。

 

那麼,有沒有一種可能性讓Google眼鏡可以實現類似“Kinect”體感攝像頭的操作呢?一家位於美國波特蘭的軟體廠商給出了答案:ARI應用。近日,該公司發佈了首個測試版本,讓我們看到了一種新的人機交互模式。

 

當移動電腦應用從手機轉移到你的眼睛,一個新的操作形式勢在必行,“ARI”就提供了這樣的一種體驗。你可以把它看作是手勢識別版的siri,但不需要任何按鈕,直接就能夠使用。

 

ARI的創始人表示,開發這個軟體平臺的初衷在於他們發現Google眼鏡的操作形式不夠靈活,語音技術會遭到環境的限制,最終讓智慧眼鏡產品成為一種花瓶式產品。ARI的出現,則意味著智慧眼鏡可以應用在更多場景中,比如戴著厚厚手套無法觸摸眼鏡按鍵的滑雪運動員。

 

ARI在遊戲環境下也具有更大的發展前景,畢竟沒有一個用戶想通過大叫「飛起來,小鳥」來操作Flappy Bird;但是微軟Kinect已經證明,玩家逐漸接受了「手舞足蹈」式的體感操作。

 

總得來說,智慧眼鏡產品距離成熟還有很長一段時間,不僅僅是因為它涉及到敏感的隱私問題,還在於其使用體驗不完美、應用雞肋,不如直接使用手機來得方便。不過,ARI的出現證明智慧眼鏡擁有極大的潛力,相信在不斷地完善、優化之後,對智慧眼鏡的操作體驗會產生積極的影響。

 

 

【一零一傳媒/整理報導】

 

  • 本文評論:
延伸閱讀