從構想、規劃、試錯到完成深度學習的手勢辨識模型。
第3關 – 深度學習 Detection & Recognition
除了將衡量範圍限縮到只有判斷手部外,
在進行之前,我們需要先理解影像偵測與識別是兩件事情 Detection & Recognition
舉例來說,圖片片中的人像、有車輛、有建築物,
Detection人物偵測能夠判斷,照片中可能有多少人,但無法分辨這些人是誰?
Recognition 是能夠指出,照片中的人是男、是女、進一步可能預測出年齡、姓名等資訊(如果背後的資料量足夠)
同樣地,以手勢辨識,如果畫面資訊中標記出手,那是偵測有沒有手或其他物件。
但手做出了甚麼動作,是OK? 還是比讚?,這行為叫做辨識 recognition。
唯有先定義清楚問題,才能找出問題,往可能正確的方向邁進。
所以,我開始著手找尋資料,研究如何實現深度學習的圖像識別預測Recognition,
以達到最終專案的最終目標,有高度可靠性的手勢辨識模型。
經過第一個深度學習的Hello Wrold - MNIST的手寫數字辨識範例後,可參考網頁1、網頁2
我瞭解到,就像玩遊戲的要去武器防具店購買裝備一樣,工具與知識都備齊了,才能繼續往下一關前進啊~
需要甚麼 & 做甚麼事情,工作流程
● 定義問題 Definition of Problem
既然是手勢辨識,所以要準備關於手勢的圖片。
● 建立資料集 To build Dataset
<1>很多的圖片,要有大量的資料讓機器去學習之間的差異。再將此切分為訓練、測試、驗證等區塊。
<2>圖片對應的標籤,要告訴機器學習的圖片對應的答案(這裡稱為標籤),
先告訴機器答案,讓它去學習、去練習考題(在深度學習稱之為訓練training)。
回想學生時代不停考試+被老師用藤條激勵(X),鞭笞(O)大家奮發努力,
不停地練習題目,不停地背題型......機器一樣需要很多~很多~很多~的練習才能從中找到共同的特徵並記憶。
● 資料預處理 Data Preprocessing
圖片與標籤都必須要轉成神經網路模型能夠接受的格式才能進行訓練。
● 訓練模型 Training Model
當資料備齊後,選擇合適的模型來訓練,不同的資料與問題有著不同的方式處理。
去比對預測結果與預定結果的落差,持續調整的過程中,落差應該要逐漸縮小,這個過程就是training.
● 評估與驗證 Validation
模型的輸入與輸出之間的關係,如準確率、損失函數(衡量模型的預測與真實不一致的程度有多少
Series link:
[DL]Static Gestures Recognition(1): Conception
[DL]Static Gestures Recognition(2): Solution finding
[DL]Static Gestures Recognition(3): Define workflow
[DL]Static Gestures Recognition(4): Preparing appropriate dataset
[DL]Static Gestures Recognition(5): Time is worth more than money
[DL]Static Gestures Recognition(6): Training Model & Next Step
沒有留言:
張貼留言