2020年12月1日 星期二

[DL]Static Gestures Recognition(1): Conception

從構想、規劃、試錯到完成深度學習的手勢辨識模型。

 





第1關  – 構想


自從 Kinect & Leap Motion 出現後,

對於機器能夠辨識肢體動作或手勢的機制覺得很有趣。

儘管Kinect已經停產,Leap Motion在應用上仍有限制,目前在VR設備上的發展空間較多。

(還有幾乎沒有被人想起的Myo, 雷聲不大,雨點更小……)

 

 

人類手部、手指的靈活多變性仍是人機介面的直覺輸入工具。

例如手指在觸控平板上的直覺應用,現在是人們離不開的生活必備之物。

要求精準輸入,可以透過鍵盤、滑鼠、遊戲手把 等輸入介面,讓裝置接收到明確的指令。

相信這樣的概念仍會持續發展,

我也相信,未來ARVR設備最終仍需要可以解放雙手,才能更發揮其價值。

 

 

綜觀上述產品未能成功或延續其生命週期的原因,

-      沒有更適合的適用環境,導致熱度很快就消退,或被更新的產品取代。

-      為了要求精準的偵測,而不得不加上的諸多硬體條件與使用情境限制。

-      硬體的售價與占用的體積。

以上種種因素互相影響相乘,也因此形成了對一般用戶過高的門檻而無法普及的主因。

目前沒有非得一定要用到這些,而且又貴又佔空間,

Why do we need it?

 

 

讓我們想像未來可能在特定條件的使用情境:

當你在某些情況下找不到遙控器,如果你家的裝置可以辨別你的手勢,然後就能播放音樂、影片?  燈光開關?

手勢最直接讓人聯想到的應用就是手語,但不是每個人都能理解學習。若能藉由手勢辨識機制解讀,是否可能增進交流的機會呢?

裝置解讀連續的手勢訊息,而這組密碼只有你知道,可以當作家中大門的備用鑰匙方案嗎?

 


手勢辨識,基礎的條件應該要在甚麼樣的情境/環境下運作呢??

如果,可以降低使用硬體的門檻限制。

如果,在不便使用語音(吵雜環境)、不便裝設輸入裝置(空間限制沒有觸控螢幕),等情境下是否有發揮空間?

如果,能用簡單與相對平價的輸入裝置(如webcam),搭配運行程式的環境就能運作(避免上述提及高昂的硬體成本)。

當接收到影像時,便能根據影像資訊,判斷給予正確的回饋。

這一切是否有可能成真!?

 



 


 

Series link:

[DL]Static Gestures Recognition(1): Conception

[DL]Static Gestures Recognition(2): Solution finding

[DL]Static Gestures Recognition(3): Define workflow

[DL]Static Gestures Recognition(4): Preparing appropriate dataset

[DL]Static Gestures Recognition(5): Time is worth more than money

[DL]Static Gestures Recognition(6): Training Model & Next Step






沒有留言:

張貼留言