從構想、規劃、試錯到完成深度學習的手勢辨識模型。
第1關 – 構想
自從 Kinect & Leap Motion 出現後,
對於機器能夠辨識肢體動作或手勢的機制覺得很有趣。
儘管Kinect已經停產,Leap Motion在應用上仍有限制,目前在VR設備上的發展空間較多。
(還有幾乎沒有被人想起的Myo, 雷聲不大,雨點更小……)
人類手部、手指的靈活多變性仍是人機介面的直覺輸入工具。
例如手指在觸控平板上的直覺應用,現在是人們離不開的生活必備之物。
要求精準輸入,可以透過鍵盤、滑鼠、遊戲手把 等輸入介面,讓裝置接收到明確的指令。
相信這樣的概念仍會持續發展,
我也相信,未來AR與VR設備最終仍需要可以解放雙手,才能更發揮其價值。
綜觀上述產品未能成功或延續其生命週期的原因,
- 沒有更適合的適用環境,導致熱度很快就消退,或被更新的產品取代。
- 為了要求精準的偵測,而不得不加上的諸多硬體條件與使用情境限制。
- 硬體的售價與占用的體積。
以上種種因素互相影響相乘,也因此形成了對一般用戶過高的門檻而無法普及的主因。
目前沒有非得一定要用到這些,而且又貴又佔空間,
Why
do we need it?
讓我們想像未來可能在特定條件的使用情境:
● 當你在某些情況下找不到遙控器,如果你家的裝置可以辨別你的手勢,然後就能播放音樂、影片? 燈光開關?
● 手勢最直接讓人聯想到的應用就是手語,但不是每個人都能理解學習。若能藉由手勢辨識機制解讀,是否可能增進交流的機會呢?
● 裝置解讀連續的手勢訊息,而這組密碼只有你知道,可以當作家中大門的備用鑰匙方案嗎?
手勢辨識,基礎的條件應該要在甚麼樣的情境/環境下運作呢??
如果,可以降低使用硬體的門檻限制。
如果,在不便使用語音(吵雜環境)、不便裝設輸入裝置(空間限制沒有觸控螢幕),等情境下是否有發揮空間?
如果,能用簡單與相對平價的輸入裝置(如webcam),搭配運行程式的環境就能運作(避免上述提及高昂的硬體成本)。
Series link:
[DL]Static Gestures Recognition(1): Conception
[DL]Static Gestures Recognition(2): Solution finding
[DL]Static Gestures Recognition(3): Define workflow
[DL]Static Gestures Recognition(4): Preparing appropriate dataset
[DL]Static Gestures Recognition(5): Time is worth more than money
[DL]Static Gestures Recognition(6): Training Model & Next Step
沒有留言:
張貼留言