• 方案二 :MediaPipe

     

    運用MediaPipe的facemesh(人臉網格)計算眼睛縱橫比 (EAR)區分睜眼與閉眼,並設定閉眼後不間斷的時長以判斷學生狀況。

    broken image

    MediaPipe的facemesh(人臉網格)

    MediaPipe 是 Google Research 所開發針對視覺的多媒體機器學習模型應用框架,其中facemesh是可以實時估計3D 面部特徵的模型。只需要一個攝像頭輸入,經由機器學習判斷人臉的表面和深度,再透過 468 個臉部標記畫出 3D 的人臉網格。

    broken image

    眼睛縱橫比(EAR)

    眼睛縱橫比 (The Eye Aspect Ratio) 是在2016年的一篇《使用面部標記的實時眨眼測試》論文中被Soukupová 和 Čech所提出的指標,單以個人而言可以發現在張眼時縱向數值幾乎恆定不變,但在閉眼時分子數值幾乎為零,配合橫向眼距套用到每個人身上。

    主要程式介紹

    用Python版MediaPipe的facemesh(人臉網格)抓取12個眼眶特徵,將座標套入眼睛縱橫比 (EAR)公式,計算值和閾值的大小區分睜眼與閉眼,並設定閉眼後不間斷的時長以判斷學生狀況。

     

    分稱三個程式檔介紹

    • 主程式的定義
    • 反映的聲音程式
    • 主程式的執行和介面