從構想、規劃、試錯到完成深度學習的手勢辨識模型。
第2關 – 最初的方向與實驗
首先,我們必須先將判斷的區域限縮定義出ROI (Region Of Interest),
而不想因為其他的東西加入而造成影響判斷結果。
既然要辨識手勢,就應該先將圈選出手部區域,並去除之外不需要的部分。過多的背景資訊也是暫時不需要的。
發想/試錯/縮小目標範圍過程 - Using OpenCV
一開始從網路上找範例參考,使用 OpenCV 來檢測手部輪廓,
但發現光線因素將影響偵測結果的好壞,
如果沒有準確判斷出手部輪廓,且手指之間的凹點若沒有精準求出,並無法算出目前手勢中有伸出幾根指頭,
而且再複雜一點的手勢並無法用同一套演算法求得。
很快地我得出了結論,這並非是一個有效的解決方案。
必定要找更確實,能夠實現功能的方式。
Series link:
[DL]Static Gestures Recognition(1): Conception
[DL]Static Gestures Recognition(2): Solution finding
[DL]Static Gestures Recognition(3): Define workflow
[DL]Static Gestures Recognition(4): Preparing appropriate dataset
[DL]Static Gestures Recognition(5): Time is worth more than money
[DL]Static Gestures Recognition(6): Training Model & Next Step
沒有留言:
張貼留言