應用於人體姿勢偵測,可偵測出人的眼睛、鼻子、耳朵、脖子、肩部、手肘、手腕、髖關節、膝關節、腳踝的位置。
[操作步驟及說明]
解決方案大致流程為:
準備資料集 -> 產生訓練所需的檔案 -> 訓練 -> 使用各種方式進行推論
這裡所使用的資料集為 coco2017 的資料集。
1. 1_prepare_train_labels.ipynb
運行後會產生訓練所需的 pkl 檔。
參數:
--labels 資料集 object keypoints 格式的 json 標記檔 。
--output-name 輸出訓練用的 pkl 檔。
補充:
若想要使用自己的資料集,需注意標記檔必須為 object keypoints 格式的 json 檔,且 train/annotations 資料夾內 object keypoints 格式的標記檔名稱必須為 “person_keypoints_train.json”,val/annotations 資料夾內 object keypoints 格式的標記檔名稱必須為 “val.json”。
2. 2_train.ipynb
訓練 coco2017 資料集。
參數:
--train-images-folder 訓練的影像資料夾位置
--prepared-train-labels 訓練用的 pkl 標記檔,來自 1_prepare_train_labels.ipynb 運行後產生。
--val-labels 測試影像的 object keypoints 格式 json 標記檔
--val-images-folder 測試的影像資料夾位置
--checkpoint-path pretrained 模型檔位置
3. 3_inference.ipynb
推論一張影像,標出人體位置及關節的位置。
參數:
--images-folder 推論影像位置。
--checkpoint-path 訓練模型位置。
4. 4_inference_folder.ipynb
推論資料夾內的所有影像,標出人體位置及關節的位置。
參數:
--images-folder 推論影像資料夾位置。
--checkpoint-path 訓練模型位置。
5. 5_inference_webcam.ipynb
推論 webcam 影像,標出人體位置及關節的位置。
參數:
--checkpoint-path 訓練模型位置。
--video 第幾個 webcam。
這個 SDK 內建於 AppForAI 人工智慧開發工具。
單獨購買價格:5,000元,永久授權,單一 SDK 授權,單機授權,一次下載,無更新服務,一年電子郵件範例諮詢服務。如果是軟體客製化問題,請購買我們的客製化顧問服務點數。