The invention relates to the technical field of computer, and provides a content output method matched with a user's emotion, an electronic device and a server. Among them, including the content and output method, user emotion: information acquisition behavior of the user; according to the analysis of user behavior information retrieval and the emotional state; emotional state matching; output and the emotional state matching content. The embodiment of the invention can according to the user's emotional state and emotional state of the child push relevant content, and can interact with the user, to guide the user to happy state change, not just according to the user's operation output corresponding to the content, can realize the artificial intelligence with effect.
【技術實現步驟摘要】
一種與用戶情緒匹配的內容輸出方法、電子設備及服務器
本專利技術涉及計算機
,尤其涉及一種與用戶情緒匹配的內容輸出方法、電子設備及服務器。
技術介紹
電子玩具是一種運用電子技術、采用電子元器件來控制動作或產生各種聲光效果的機動玩具,按產品的工藝技術及功能結構可分為聲控玩具、光控玩具、遙控玩具、機械玩具、氣動玩具、電動玩具等。目前,大部分電子玩具都是通過接收用戶的操作,然后對該操作做出回應,如電子玩具接收用戶按壓控制按鈕后,向用戶輸出一首兒歌;再如電子玩具接收到用戶通過遙控器發射的紅外信號時,往預設方向移動,等等。這些電子玩具能夠給孩子們帶來極大的樂趣。上述電子玩具的內容輸出方式存在的問題是,無法根據孩子的情緒狀態推送與孩子情緒狀態相應的內容,不能達到真實的人在孩子身邊的陪伴效果。
技術實現思路
本專利技術實施例公開了一種與用戶情緒匹配的內容輸出方法、電子設備及服務器,能夠推送與用戶情緒同步的內容。本專利技術實施例技術方案如下:(1)一種與用戶情緒匹配的內容輸出方法,包括:獲取用戶的行為信息;根據所述行為信息分析用戶的情緒狀態;調取與所述情緒狀態相匹配的內容;輸出與所述情緒狀態相匹配的內容。進一步地,所述用戶的行為信息包括語音和/或面部表情和/或語句和/或詞語。進一步地,所述語音包括語速和/或音調和/或音量信息,所述獲取用戶的行為信息具體為通過錄制用戶的語音輸入獲取用戶的行為信息。進一步地,所述根據所述行為信息分析用戶的情緒狀態具體為:分析語音的語速和/或音調和/或音量;將所述分析出的語速和/或音調和/或音量與預存儲的不同情緒的語速和/或音調和/或音量表匹配 ...
【技術保護點】
一種與用戶情緒匹配的內容輸出方法,其特征在于,包括:獲取用戶的行為信息;根據所述行為信息分析用戶的情緒狀態;調取與所述情緒狀態相匹配的內容;輸出與所述情緒狀態相匹配的內容。
【技術特征摘要】
1.一種與用戶情緒匹配的內容輸出方法,其特征在于,包括:獲取用戶的行為信息;根據所述行為信息分析用戶的情緒狀態;調取與所述情緒狀態相匹配的內容;輸出與所述情緒狀態相匹配的內容。2.如權利要求1所述的與用戶情緒匹配的內容輸出方法,其特征在于,所述用戶的行為信息包括語音和/或面部表情和/或語句和/或詞語。3.如權利要求1所述的與用戶情緒匹配的內容輸出方法,其特征在于,所述語音包括語速和/或音調和/或音量信息,所述獲取用戶的行為信息具體為通過錄制用戶的語音輸入獲取用戶的行為信息;所述根據所述行為信息分析用戶的情緒狀態具體為:分析語音的語速和/或音調和/或音量;將所述分析出的語速和/或音調和/或音量與預存儲的不同情緒的語速和/或音調和/或音量表匹配,獲取分析出的語速和/或音調和/或音量所屬的情緒狀態;或者,所述面部表情包括面部特征信息,所述獲取用戶的行為信息具體為通過拍攝用戶的面部圖像獲取用戶的行為信息;所述根據所述行為信息分析用戶的情緒狀態具體為:分析所述面部圖像中的面部特征信息;將所述分析出的面部特征信息與預存儲的不同情緒的面部特征信息表匹配,獲取分析出的面部特征信息所屬的情緒狀態;或者,所述語句包括語意信息,所述獲取用戶的行為信息具體為通過錄制用戶的語音輸入獲取用戶的行為信息;所述根據所述行為信息分析用戶的情緒狀態具體為:分析語句的關鍵詞匯;將所述分析出的關鍵詞匯與預存儲的不同情緒的關鍵詞匯表匹配,獲取分析出的關鍵詞匯所屬的情緒狀態。4.如權利要求1所述的與用戶情緒匹配的內容輸出方法,其特征在于,所述情緒狀態包括多個級別;所述方法還包括:判斷用戶是否在超過持續預定時間處于同一情緒狀態和/或上一級情緒狀態;若是,則調取與用戶當前情緒狀態的上一級情緒狀態相匹配的內容;輸出與用戶當前情緒狀態的上一級情緒狀態相匹配的內容。5.一種與用戶情緒匹配的內容輸出的電子設備,其特征在于,包括:行為信息獲取模塊,用于獲取用戶的行為信息;情緒狀態分析模塊,用于根據所述行為信息分析用戶的情緒狀態;內容調取模塊,用于調取與所述情緒狀態相匹配的內容;內容輸出模塊,用于輸出與所述情緒狀態相匹配的內容。6.一種與用戶情緒匹配的內容輸出的電子設備,其特征在于,包括:行為信息獲取模塊,用于獲取用戶的行為信息;情緒狀態分析模塊,用于根據所述行為信息分析用戶的情緒狀態;內容調取模塊,用于調取與所述情緒狀態相匹配的內容;內容輸出模塊,用于輸出與所述情緒狀態相匹配的內容;所述用戶的行為信息包括語音和/或面部表情和/或語句和/或詞語;所述語音包括語速和/或音調和/或音量信息,所述獲取用戶的行為信息具體為通過錄制用戶的語音輸入獲取用戶的行...
【專利技術屬性】
技術研發人員:歐鴻達,
申請(專利權)人:深圳新創客電子科技有限公司,
類型:發明
國別省市:廣東,44
還沒有人留言評論。發表了對其他瀏覽者有用的留言會獲得科技券。