• 
    <ul id="o6k0g"></ul>
    <ul id="o6k0g"></ul>
    當前位置: 首頁 > 專利查詢>程超專利>正文

    一種基于可調模板頭像的人人交互的方法技術

    技術編號:15068854 閱讀:74 留言:0更新日期:2017-04-06 16:31
    本發明專利技術公開了一種基于可調模板頭像的人人交互的方法,屬于計算機技術領域。本基于可調模板頭像的人人交互的方法包括如下步驟:通過攝像頭獲取發送者用戶終端的用戶臉部畫面;根據獲取的用戶臉部畫面與所述基本模板頭像進行匹配,最終生成用戶虛擬頭像;發送者用戶終端保存并發送用戶虛擬頭像至服務器;發送者用戶終端獲取關鍵點的表情變化數據,并將所得表情變化數據發送至接收者用戶終端;驅動接收者用戶終端上的發送者的用戶虛擬頭像顯示臉部表情;驅動發送者用戶終端自身的用戶虛擬頭像做臉部表情動作。本發明專利技術僅需獲取關鍵點的表情變化數據,該表情變化數據所占的內存較小,有利于實現加快傳輸速度及降低流量耗費的目的。

    【技術實現步驟摘要】

    本專利技術屬于計算機
    ,特別涉及一種基于可調模板頭像的人人交互的方法
    技術介紹
    目前,隨著網絡技術的快速增長,通過移動網絡或無線網絡進行傳輸數據的移動終端也在快速增長,其功能也是越來越豐富。為了方便人們在忙碌的生活中抽取短暫的時間進行比較全面而又形象的交流,在移動終端上開發了多款視屏聊天的軟件。由于傳統的視頻聊天是通過攝像頭獲取的整個視頻數據,并將獲取的視屏數據傳輸給對方。然而,整個視頻數據所占的內存較大,在傳輸的過程中存在以下缺陷:在移動網絡或無線網絡的網速的限制下,內存越大的視頻數據,其傳輸速度越慢,同時,還花費更多的流量,耗費更多的費用。
    技術實現思路
    本專利技術為了克服上述現有技術的不足,提供了一種基于可調模板頭像的人人交互的方法,本方法僅需獲取與頭像及臉部表情動作相關的關鍵點的表情變化數據,該表情變化數據所占的內存較小,在交互的過程中,有利于實現加快傳輸速度及降低流量耗費的目的。為實現上述目的,本專利技術采用了以下技術方案:一種基于可調模板頭像的人人交互的方法,包括如下步驟:S1:通過攝像頭對發送者用戶終端的用戶臉部進行定位捕捉,并獲取用戶臉部畫面;所述發送者用戶終端上設有一個平面可調的基本模板頭像,所述基本模板頭像上設有多個用于表達臉部表情的關鍵點;S2:發送者用戶終端根據獲取的用戶臉部畫面與所述基本模板頭像進行匹配,并將所述基本模板頭像的臉部特征修改成與所述用戶臉部畫面中的臉部特征相似,以生成用戶模板頭像,所述用戶模板頭像通過發送者設定生成用戶虛擬頭像;發送者用戶終端將所述用戶虛擬頭像保存并發送至服務器,所述服務器使接收者用戶終端和發送者用戶終端彼此共享所述用戶虛擬頭像;S3:發送者用戶終端從所述用戶臉部畫面中獲取用于表達該用戶臉部畫面表情的關鍵點的表情變化數據,并將所得表情變化數據發送至接收者用戶終端,然后轉入步驟S4和/或步驟S5;S4:接收者用戶終端根據接收到的表情變化數據,驅動接收者用戶終端上的發送者的用戶虛擬頭像跟隨發送者顯示同樣的臉部表情,并在接收者用戶終端上的顯示窗口上顯示;S5:發送者用戶終端根據獲取的表情變化數據,驅動發送者用戶終端自身的用戶虛擬頭像跟隨發送者做同步臉部表情動作,并在發送者用戶終端的顯示窗口上顯示。本專利技術還可以通過以下步驟進一步實現。優選的,所述發送者用戶終端獲取發送者的音頻數據,并對所述音頻數據及表情變化數據加時間戳,所述時間戳用于使發送者的表情與聲音在播放的過程中達到同步。優選的,所述加有時間戳的音頻數據及表情變化數據的傳輸步驟具體如下:S11:判斷接收者是否在線;S12:若接收者在線時,則進行實時傳輸,轉入步驟S13;否則,進行延時傳輸,轉入步驟S14;S13:實時傳輸時,發送者用戶終端發送加有時間戳的表情變化數據及音頻數據至服務器,服務器將接收到的加有時間戳的表情變化數據及音頻數據發送至接收者用戶終端;S14:延時傳輸時,發送者用戶終端預存該發送者的加有時間戳的表情變化數據及音頻數據,然后將預存的加有時間戳的表情變化數據及音頻數據進行打包后發送至服務器,并等待接收者用戶終端下載。優選的,在實時傳輸的過程中,其傳輸步驟如下:S21:判斷是否實時捕捉到發送者的用戶臉部畫面和聲音;S22:若能實時捕捉到發送者的用戶臉部畫面和聲音,則實時傳輸獲取的發送者的加有時間戳的表情變化數據和音頻數據;否則轉入步驟S23;S23:在設定時間T內,判斷是否能捕捉到發送者的用戶臉部畫面或聲音;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S24;當僅能捕捉到發送者的聲音時,轉入步驟S25;當發送者的用戶臉部畫面或聲音均捕捉不到時,停止傳輸發送者的加有時間戳的表情變化數據及音頻數據,接收者用戶終端上的顯示窗口上顯示的畫面靜止,同時停止播放發送者的音頻數據;若超過設定時間T,當能實時捕捉到發送者的用戶臉部畫面和聲音,則重新轉入步驟S22;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S26;當僅能捕捉到發送者的聲音時,轉入步驟S27;否則,結束傳輸過程;S24:發送者用戶終端獲取發送者的表情變化數據,然后向接收者用戶終端傳輸發送者的加有時間戳的表情變化數據;接收者用戶終端上的顯示窗口上顯示發送者的表情,此時停止播放發送者的音頻數據;S25:發送者用戶終端獲取發送者的音頻數據,然后向接收者用戶終端傳輸發送者的加有時間戳的音頻數據;此時接收者用戶終端繼續播放發送者的音頻數據,其顯示窗口上顯示的畫面靜止;S26:發送者用戶終端獲取發送者的表情變化數據,然后向接收者用戶終端傳輸發送者的加有時間戳的表情變化數據;接收者用戶終端上的顯示窗口上顯示發送者的表情,此時停止播放發送者的音頻數據;S27:發送者用戶終端獲取發送者的音頻數據,然后向接收者用戶終端傳輸發送者的加有時間戳的音頻數據;此時接收者用戶終端繼續播放發送者的音頻數據,并提取接收者用戶終端自身內部已存儲的表情變化數據,在其顯示窗口上顯示。優選的,在延時傳輸的過程中,其預存步驟如下:S31:判斷是否實時捕捉到發送者的用戶臉部畫面和聲音;S32:若能實時捕捉到發送者的用戶臉部畫面和聲音,則對獲取的發送者的加有時間戳的表情變化數據和音頻數據進行預存;否則,轉入步驟S33;S33:在設定的時間S內,判斷是否捕捉到發送者的用戶臉部畫面或聲音;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S34;當僅能捕捉到發送者的聲音時,轉入步驟S35;當發送者的用戶臉部畫面和聲音均捕捉不到時,發送者的音頻數據預存中斷,在中斷前后預存的發送者的表情變化數據之間進行插值算法;若超過設定的時間S,當能實時捕捉到發送者的用戶臉部畫面和聲音,則重新轉入步驟S32;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S36;當僅能捕捉到發送者的聲音時,轉入步驟S37;否則,結束預存狀態;S34:發送者用戶終端預存發送者的加有時間戳的表情變化數據,發送者的音頻數據預存中斷;S35:發送者用戶終端預存發送者的加有時間戳的音頻數據,并在中斷前后預存的發送者的表情變化數據之間進行插值算法,使得整個畫面平滑過渡;S36:發送者用戶終端預存發送者的加有時間戳的表情變化數據;S37:發送者用戶終端預存發送者的加有時間戳的音頻數據。進一步,所述平面可調模板頭像包括由多條Bezier曲線構成的具有臉本文檔來自技高網...
    一種基于可調模板頭像的人人交互的方法

    【技術保護點】
    一種基于可調模板頭像的人人交互的方法,包括如下步驟:S1:通過攝像頭對發送者用戶終端的用戶臉部進行定位捕捉,并獲取用戶臉部畫面;所述發送者用戶終端上設有一個平面可調的基本模板頭像,所述基本模板頭像上設有多個用于表達臉部表情的關鍵點;S2:發送者用戶終端根據獲取的用戶臉部畫面與所述基本模板頭像進行匹配,并將所述基本模板頭像的臉部特征修改成與所述用戶臉部畫面中的臉部特征相似,以生成用戶模板頭像,所述用戶模板頭像通過發送者設定生成用戶虛擬頭像;發送者用戶終端將所述用戶虛擬頭像保存并發送至服務器,所述服務器使接收者用戶終端和發送者用戶終端彼此共享所述用戶虛擬頭像;S3:發送者用戶終端從所述用戶臉部畫面中獲取用于表達該用戶臉部畫面表情的關鍵點的表情變化數據,并將所得表情變化數據發送至接收者用戶終端,然后轉入步驟S4和/或步驟S5;S4:接收者用戶終端根據接收到的表情變化數據,驅動接收者用戶終端上的發送者的用戶虛擬頭像跟隨發送者顯示同樣的臉部表情,并在接收者用戶終端上的顯示窗口上顯示;S5:發送者用戶終端根據獲取的表情變化數據,驅動發送者用戶終端自身的用戶虛擬頭像跟隨發送者做同步臉部表情動作,并在發送者用戶終端的顯示窗口上顯示。...

    【技術特征摘要】
    1.一種基于可調模板頭像的人人交互的方法,包括如下步驟:
    S1:通過攝像頭對發送者用戶終端的用戶臉部進行定位捕捉,并獲取用
    戶臉部畫面;
    所述發送者用戶終端上設有一個平面可調的基本模板頭像,所述基本模
    板頭像上設有多個用于表達臉部表情的關鍵點;
    S2:發送者用戶終端根據獲取的用戶臉部畫面與所述基本模板頭像進行
    匹配,并將所述基本模板頭像的臉部特征修改成與所述用戶臉部畫面中的臉
    部特征相似,以生成用戶模板頭像,所述用戶模板頭像通過發送者設定生成
    用戶虛擬頭像;發送者用戶終端將所述用戶虛擬頭像保存并發送至服務器,
    所述服務器使接收者用戶終端和發送者用戶終端彼此共享所述用戶虛擬頭
    像;
    S3:發送者用戶終端從所述用戶臉部畫面中獲取用于表達該用戶臉部畫
    面表情的關鍵點的表情變化數據,并將所得表情變化數據發送至接收者用戶
    終端,然后轉入步驟S4和/或步驟S5;
    S4:接收者用戶終端根據接收到的表情變化數據,驅動接收者用戶終端
    上的發送者的用戶虛擬頭像跟隨發送者顯示同樣的臉部表情,并在接收者用
    戶終端上的顯示窗口上顯示;
    S5:發送者用戶終端根據獲取的表情變化數據,驅動發送者用戶終端自
    身的用戶虛擬頭像跟隨發送者做同步臉部表情動作,并在發送者用戶終端的
    顯示窗口上顯示。
    2.如權利要求1所述的基于可調模板頭像的人人交互的方法,其特征
    在于:所述發送者用戶終端獲取發送者的音頻數據,并對所述音頻數據及表
    情變化數據加時間戳,所述時間戳用于使發送者的表情與聲音在播放的過程
    中達到同步。
    3.如權利要求2所述的基于可調模板頭像的人人交互的方法,其特征
    在于:所述加有時間戳的音頻數據及表情變化數據的傳輸步驟具體如下:
    S11:判斷接收者是否在線;
    S12:若接收者在線時,則進行實時傳輸,轉入步驟S13;否則,進行延
    時傳輸,轉入步驟S14;
    S13:實時傳輸時,發送者用戶終端發送加有時間戳的表情變化數據及
    音頻數據至服務器,服務器將接收到的加有時間戳的表情變化數據及音頻數
    據發送至接收者用戶終端;
    S14:延時傳輸時,發送者用戶終端預存該發送者的加有時間戳的表情
    變化數據及音頻數據,然后將預存的加有時間戳的表情變化數據及音頻數據
    進行打包后發送至服務器,并等待接收者用戶終端下載。
    4.如權利要求3所述的基于可調模板頭像的人人交互的方法,其特征
    在于:在實時傳輸的過程中,其傳輸步驟如下:
    S21:判斷是否實時捕捉到發送者的用戶臉部畫面和聲音;
    S22:若能實時捕捉到發送者的用戶臉部畫面和聲音,則實時傳輸獲取
    的發送者的加有時間戳的表情變化數據和音頻數據;否則轉入步驟S23;
    S23:在設定時間T內,判斷是否能捕捉到發送者的用戶臉部畫面或聲
    音;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S24;當僅能捕捉到
    發送者的聲音時,轉入步驟S25;當發送者的用戶臉部畫面或聲音均捕捉不
    到時,停止傳輸發送者的加有時間戳的表情變化數據及音頻數據,接收者用
    戶終端上的顯示窗口上顯示的畫面靜止,同時停止播放發送者的音頻數據;
    若超過設定時間T,當能實時捕捉到發送者的用戶臉部畫面和聲音,則
    重新轉入步驟S22;當僅能捕捉到發送者的用戶臉部畫面時,轉入步驟S26;
    當僅能捕捉到發送者的聲音時,轉入步驟S27;否則,結束傳輸過程;
    S24:發送者用戶終端獲取發送者的表情變化數據,然后向接收者用戶
    終端傳輸發送者的加有時間...

    【專利技術屬性】
    技術研發人員:程超
    申請(專利權)人:程超
    類型:發明
    國別省市:安徽;34

    網友詢問留言 已有0條評論
    • 還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。

    1
    主站蜘蛛池模板: 亚洲中文字幕无码中文| 国模GOGO无码人体啪啪| 亚洲中文无码线在线观看| 亚洲午夜无码久久久久小说 | 亚洲精品无码中文久久字幕| 日韩av无码成人无码免费| 精品无码国产自产拍在线观看蜜 | 午夜福利无码不卡在线观看| 亚洲精品GV天堂无码男同| 亚洲精品无码国产| 国产乱子伦精品无码专区| 无码熟妇人妻AV在线影院| 无码毛片视频一区二区本码| 久久久久亚洲精品无码网址| 丰满少妇被猛烈进入无码| 人妻aⅴ无码一区二区三区| 久青草无码视频在线观看| 午夜无码熟熟妇丰满人妻| 日韩精品无码久久久久久| 成人午夜亚洲精品无码网站| 国产在线无码精品无码| 亚洲av无码有乱码在线观看| 色窝窝无码一区二区三区成人网站| 久久亚洲av无码精品浪潮| av无码a在线观看| 欧日韩国产无码专区| 69成人免费视频无码专区| 免费无码AV片在线观看软件| 无码永久免费AV网站| 久久久久久久久免费看无码| 亚洲AV无码国产一区二区三区| 亚洲Av无码专区国产乱码DVD | 久久亚洲AV无码精品色午夜麻| 国产高清无码视频| 18禁超污无遮挡无码免费网站| a级毛片免费全部播放无码| 中文字幕乱码无码人妻系列蜜桃| 亚洲午夜无码AV毛片久久| 国产又爽又黄无码无遮挡在线观看 | 少妇无码一区二区二三区| 日韩乱码人妻无码中文字幕|