【技術實現步驟摘要】
本專利技術屬于計算機
,特別涉及一種基于可調模板頭像的人人交互的方法。
技術介紹
目前,隨著網絡技術的快速增長,通過移動網絡或無線網絡進行傳輸數據的移動終端也在快速增長,其功能也是越來越豐富。為了方便人們在忙碌的生活中抽取短暫的時間進行比較全面而又形象的交流,在移動終端上開發了多款視屏聊天的軟件。由于傳統的視頻聊天是通過攝像頭獲取的整個視頻數據,并將獲取的視屏數據傳輸給對方。然而,整個視頻數據所占的內存較大,在傳輸的過程中存在以下缺陷:在移動網絡或無線網絡的網速的限制下,內存越大的視頻數據,其傳輸速度越慢,同時,還花費更多的流量,耗費更多的費用。
技術實現思路
本專利技術為了克服上述現有技術的不足,提供了一種基于可調模板頭像的人人交互的方法,本方法僅需獲取與頭像及臉部表情動作相關的關鍵點的表情變化數據,該表情變化數據所占的內存較小,在交互的過程中,有利于實現加快傳輸速度及降低流量耗費的目的。為實現上述目的,本專利技術采用了以下技術方案:一種基于可調模板頭像的人人交互的方法,包括如下步驟:S1:通過攝像頭對發送者用戶終端的用戶臉部進行定位捕捉,并獲取用戶臉部畫面;所述發送者用戶終端上設有一個平面可調的基本模板頭像,所述基本模板頭像上設有多個用于表達臉部表情的關鍵點;S2:發送者用戶終端根據獲取的用戶臉部畫面與所述基本模板頭像進行匹配,并將所述基本模板頭像的臉部特征修 ...
【技術保護點】
一種基于可調模板頭像的人人交互的方法,包括如下步驟:S1:通過攝像頭對發送者用戶終端的用戶臉部進行定位捕捉,并獲取用戶臉部畫面;所述發送者用戶終端上設有一個平面可調的基本模板頭像,所述基本模板頭像上設有多個用于表達臉部表情的關鍵點;S2:發送者用戶終端根據獲取的用戶臉部畫面與所述基本模板頭像進行匹配,并將所述基本模板頭像的臉部特征修改成與所述用戶臉部畫面中的臉部特征相似,以生成用戶模板頭像,所述用戶模板頭像通過發送者設定生成用戶虛擬頭像;發送者用戶終端將所述用戶虛擬頭像保存并發送至服務器,所述服務器使接收者用戶終端和發送者用戶終端彼此共享所述用戶虛擬頭像;S3:發送者用戶終端從所述用戶臉部畫面中獲取用于表達該用戶臉部畫面表情的關鍵點的表情變化數據,并將所得表情變化數據發送至接收者用戶終端,然后轉入步驟S4和/或步驟S5;S4:接收者用戶終端根據接收到的表情變化數據,驅動接收者用戶終端上的發送者的用戶虛擬頭像跟隨發送者顯示同樣的臉部表情,并在接收者用戶終端上的顯示窗口上顯示;S5:發送者用戶終端根據獲取的表情變化數據,驅動發送者用戶終端自身的用戶虛擬頭像跟隨發送者做同步臉部表情動作,并在 ...
【技術特征摘要】
1.一種基于可調模板頭像的人人交互的方法,包括如下步驟:
S1:通過攝像頭對發送者用戶終端的用戶臉部進行定位捕捉,并獲取用
戶臉部畫面;
所述發送者用戶終端上設有一個平面可調的基本模板頭像,所述基本模
板頭像上設有多個用于表達臉部表情的關鍵點;
S2:發送者用戶終端根據獲取的用戶臉部畫面與所述基本模板頭像進行
匹配,并將所述基本模板頭像的臉部特征修改成與所述用戶臉部畫面中的臉
部特征相似,以生成用戶模板頭像,所述用戶模板頭像通過發送者設定生成
用戶虛擬頭像;發送者用戶終端將所述用戶虛擬頭像保存并發送至服務器,
所述服務器使接收者用戶終端和發送者用戶終端彼此共享所述用戶虛擬頭
像;
S3:發送者用戶終端從所述用戶臉部畫面中獲取用于表達該用戶臉部畫
面表情的關鍵點的表情變化數據,并將所得表情變化數據發送至接收者用戶
終端,然后轉入步驟S4和/或步驟S5;
S4:接收者用戶終端根據接收到的表情變化數據,驅動接收者用戶終端
上的發送者的用戶虛擬頭像跟隨發送者顯示同樣的臉部表情,并在接收者用
戶終端上的顯示窗口上顯示;
S5:發送者用戶終端根據獲取的表情變化數據,驅動發送者用戶終端自
身的用戶虛擬頭像跟隨發送者做同步臉部表情動作,并在發送者用戶終端的
顯示窗口上顯示。
2.如權利要求1所述的基于可調模板頭像的人人交互的方法,其特征
在于:所述發送者用戶終端獲取發送者的音頻數據,并對所述音頻數據及表
情變化數據加時間戳,所述時間戳用于使發送者的表情與聲音在播放的過程
中達到同步。
3.如權利要求2所述的基于可調模板頭像的人人交互的方法,其特征
在于:所述加有時間戳的音頻數據及表情變化數據的傳輸步驟具體如下:
S11:判斷接收者是否在線;
S12:若接收者在線時,則進行實時傳輸,轉入步驟S13;否則,進行延
時傳輸,轉入步驟S14;
S13:實時傳輸時,發送者用戶終端發送加有時間戳的表情變化數據及
音頻數據至服務器,服務器將接收到的加有時間戳的表情變化數據及音頻數
據發送至接收者用戶終端;
S14:延時傳輸時,發送者用戶終端預存該發送者的加有時間戳的表情
變化數據及音頻數據,然后將預存的加有時間戳的表情變化數據及音頻數據
進行打包后發送至服務器,并等待接收者用戶終端下載。
4.如權利要求3所述的基于可調模板頭像的人人交互的方法,其特征
在于:在實時傳輸的過程中,其傳輸步驟如下:
S21:判斷是否實時捕捉到發送者的用戶臉部畫面和聲音;
S22:若能實時捕捉到發送者的用戶臉部畫面和聲音,則實時傳輸獲取
的發送者的加有時間戳的表情變化數據和音頻數據;否則轉入步驟S23;
S23:在設定時間T內,判斷是否能捕捉到發送者的用戶臉部畫面或聲
音;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S24;當僅能捕捉到
發送者的聲音時,轉入步驟S25;當發送者的用戶臉部畫面或聲音均捕捉不
到時,停止傳輸發送者的加有時間戳的表情變化數據及音頻數據,接收者用
戶終端上的顯示窗口上顯示的畫面靜止,同時停止播放發送者的音頻數據;
若超過設定時間T,當能實時捕捉到發送者的用戶臉部畫面和聲音,則
重新轉入步驟S22;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S26;
當僅能捕捉到發送者的聲音時,轉入步驟S27;否則,結束傳輸過程;
S24:發送者用戶終端獲取發送者的表情變化數據,然后向接收者用戶
終端傳輸發送者的加有時間...
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。