System.ArgumentOutOfRangeException: 索引和長度必須引用該字符串內的位置。 參數名: length 在 System.String.Substring(Int32 startIndex, Int32 length) 在 zhuanliShow.Bind()
【技術實現步驟摘要】
本專利技術提出了一種基于大數據分析的學生注意力評估方法及系統,涉及計算機。
技術介紹
1、課堂注意力揭示了學生在課堂上一定時間內專注于某事的能力,也是學生在課堂上自發地、積極地獲取信息、提高學識和掌握技能的基本品質。課堂注意力的質量對聽課效果、學習成效和其他評價手段的有效性有非常重要的影響。但傳統教學場景中,義務教育的普及使學生的數量增多,如果沒有科學的量化標準和技術支持,教師需要很長的時間跨度來觀察和評價所有學生的注意力狀態,且更多停留于主觀層面。
2、而且目前數據集中關注的是單個圖像而不是圖像序列,是瞬時特征。人處于某種狀態的時候,他的面部以及肢體動作是一個連續變化的過程,某一時刻的畫面不一定能顯著的代表該狀態,不能使用記錄的若干序列進行評估,以得到更為真實的結果。
技術實現思路
1、本專利技術提供了一種基于大數據分析的學生注意力評估方法及系統,用以解決上述提到的問題:
2、本專利技術提出的一種基于大數據分析的學生注意力評估方法,所述方法包括:
3、通過相機捕捉學生上課圖像,從學生上課圖像中采集學生的面部表情,根據學生的面部表情識別學生表情類型;
4、從學生上課圖像采集學生姿態圖像,根據學生姿態圖像判斷學生是否舉手回答問題;
5、從學生面部表情類型和身體特征的變化中計算注意力分數,基于注意力分數判定學生注意力是否集中。
6、進一步的,通過相機捕捉學生上課圖像,從學生上課圖像中采集學生的面部表情,根據學生的面
7、定義學生上課表情;
8、根據對學生上課表情的定義對表情數據集進行標注;
9、對標注后的表情數據集進行劃分,將其劃分為訓練集、測試集和驗證集;
10、搭建卷積神經網絡模型,使用訓練集訓練卷積神經網絡模型,使用測試集和驗證集對訓練過得卷積神經網絡模型進行評估和優化獲得表情識別模型;
11、通過相機捕捉學生上課圖像,從學生上課圖像采集學生面部表情,將學生面部表情輸入所述表情識別模型獲取學生表情類型。
12、進一步的,定義學生上課表情,包括:
13、通過dlib庫中的68點檢測技術提取并返回學生面部關鍵點的坐標;
14、當嘴部的48、54點和66點坐標的連線與水平線所成夾角為負數時,定義表情為排斥;
15、當嘴部的48、54點和66點坐標的連線與水平線所成夾角為正數時,定義表情為輕視;
16、將左眼37點處的縱坐標與41點處的縱坐標進行相減獲得眼高數值,36點的橫坐標與39點的橫坐標進行相減獲得眼寬數值,右眼同理,左眉毛點17、21分別與19連線獲得兩條連線,右眉同理,當所述左右眼高數值與眼寬數值的比值均大于0.25且左右眉兩條連線夾角均大于120°時,定義表情為聆聽;
17、獲得嘴部的48、54點和66點坐標的連線與水平線所成夾角,左眼37點處的縱坐標與41點處的縱坐標進行相減獲得眼高數值,36點的橫坐標與39點的橫坐標進行相減獲得眼寬數值,右眼同理,左眉毛點17、21分別與19連線獲得兩條連線,右眉同理,當所成夾角為正數、所述左右眼高數值與眼寬數值的比值大于0.25且左右眉兩條連線夾角大于120°時,定義表情為理解;
18、獲得嘴部的48、54點和66點坐標的連線與水平線所成夾角,左眉毛點17、21分別與19連線獲得兩條連線,當所成夾角為負數且左右眉兩條連線夾角小于120°時,定義表情為困惑;
19、獲得嘴部的48、54點和66點坐標的連線與水平線所成夾角,嘴部66、62兩點連線高度,左眼37點處的縱坐標與41點處的縱坐標進行相減獲得眼高數值,36點的橫坐標與39點的橫坐標進行相減獲得眼寬數值,左眉毛點17、21分別與19連線獲得兩條連線,當嘴部所成夾角為正數、兩點連線高度大于0.03、左右眼的眼高眼寬比大于0.25且左右眉連線夾角大于120度時,定義表情為高興。
20、進一步的,從學生上課圖像采集學生姿態圖像,根據學生姿態圖像判斷學生是否舉手回答問題,包括:
21、采集學生姿態圖像,通過深度學習中的姿態估計算法openpose分析處理后的圖像,識別并標記出學生的肘部坐標和手腕坐標;
22、通過角度模型判斷學生是否舉手,具體的,所述角度模型為:
23、
24、當45°≤α≤135°時,判斷該學生為舉手狀態。
25、進一步的,從學生面部表情類型和身體特征的變化中計算注意力分數,基于注意力分數判定學生注意力是否集中,包括:
26、通過注意力模型從學生面部表情類型和身體特征的變化中計算注意力分數,具體的,所述注意力模型為:
27、
28、其中,a(t)代表時間t的注意力評分,ω1和ω2是調整面部特征和肢體動作對最終注意力評分影響的權重,αi和βi是面部特征fi和肢體姿態pi的重要性系數,n為考慮的時間窗口長度;
29、當a(t)≤0.3時,判斷該學生注意力為低狀態;
30、當0.3<a(t)≤0.7時,判斷該學生注意力為一般狀態;
31、當0.7<a(t)時,判斷該學生注意力為集中。
32、本專利技術提出的一種基于大數據分析的學生注意力評估系統,所述系統包括:
33、識別學生表情類型模塊,用于通過相機捕捉學生上課圖像,從學生上課圖像中采集學生的面部表情,根據學生的面部表情識別學生表情類型;
34、判斷是否舉手模塊,用于從學生上課圖像采集學生姿態圖像,根據學生姿態圖像判斷學生是否舉手回答問題;
35、計算注意力分數模塊,用于從學生面部表情類型和身體特征的變化中計算注意力分數,基于注意力分數判定學生注意力是否集中。
36、進一步的,所述識別學生表情類型模塊包括:
37、定義表情模塊,用于定義學生上課表情;
38、標注模塊,用于根據對學生上課表情的定義對表情數據集進行標注;
39、劃分數據集模塊,用于對標注后的表情數據集進行劃分,將其劃分為訓練集、測試集和驗證集;
40、訓練模型模塊,用于搭建卷積神經網絡模型,使用訓練集訓練卷積神經網絡模型,使用測試集和驗證集對訓練過得卷積神經網絡模型進行評估和優化獲得表情識別模型;
41、獲取學生表情類型模塊,用于通過相機捕捉學生上課圖像,從學生上課圖像采集學生面部表情,將學生面部表情輸入所述表情識別模型獲取學生表情類型。
42、進一步的,所述定義表情模塊包括:
43、通過dlib庫中的68點檢測技術提取并返回學生面部關鍵點的坐標;
44、當嘴部的48、54點和66點坐標的連線與水平線所成夾角為負數時,定義表情為排斥;
45、當嘴部的48、54點和66點坐標的連線與水平線所成夾角為正數時,定義表情為輕視;
46、將左眼37本文檔來自技高網...
【技術保護點】
1.一種基于大數據分析的學生注意力評估方法,其特征在于,所述方法包括:
2.根據權利要求1所述一種基于大數據分析的學生注意力評估方法,其特征在于,通過相機捕捉學生上課圖像,從學生上課圖像中采集學生的面部表情,根據學生的面部表情識別學生表情類型,包括:
3.根據權利要求2所述一種基于大數據分析的學生注意力評估方法,其特征在于,定義學生上課表情,包括:
4.根據權利要求1所述一種基于大數據分析的學生注意力評估方法,其特征在于,從學生上課圖像采集學生姿態圖像,根據學生姿態圖像判斷學生是否舉手回答問題,包括:
5.根據權利要求1所述一種基于大數據分析的學生注意力評估方法,其特征在于,從學生面部表情類型和身體特征的變化中計算注意力分數,基于注意力分數判定學生注意力是否集中,包括:
6.一種基于大數據分析的學生注意力評估系統,其特征在于,所述系統包括:
7.根據權利要求6所述一種基于大數據分析的學生注意力評估系統,其特征在于,所述識別學生表情類型模塊包括:
8.根據權利要求6所述一種基于大數據分析的學生注意力
9.根據權利要求6所述一種基于大數據分析的學生注意力評估系統,其特征在于,所述判斷是否舉手模塊包括:
10.根據權利要求6所述一種基于大數據分析的學生注意力評估系統,其特征在于,所述計算注意力分數包括:
...【技術特征摘要】
1.一種基于大數據分析的學生注意力評估方法,其特征在于,所述方法包括:
2.根據權利要求1所述一種基于大數據分析的學生注意力評估方法,其特征在于,通過相機捕捉學生上課圖像,從學生上課圖像中采集學生的面部表情,根據學生的面部表情識別學生表情類型,包括:
3.根據權利要求2所述一種基于大數據分析的學生注意力評估方法,其特征在于,定義學生上課表情,包括:
4.根據權利要求1所述一種基于大數據分析的學生注意力評估方法,其特征在于,從學生上課圖像采集學生姿態圖像,根據學生姿態圖像判斷學生是否舉手回答問題,包括:
5.根據權利要求1所述一種基于大數據分析的學生注意力評估方法,其特征在于,從學...
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。