韓國電子和電信研究所(ETRI)的研究人員最近開發(fā)了一個基于深度學習的模型,該模型可以幫助機器人創(chuàng)造自發(fā)的社會行為,如擁抱或握手。手。他們的模型在arXiv上一篇預先發(fā)表的論文中提出,我們可以通過檢查人與人之間的交互來動態(tài)地學習新的社會行為。
“深度學習技術在計算機視覺和自然語言理解等領域產(chǎn)生了有趣的結(jié)果,”領導這項研究的研究人員之一Woo-RiKo告訴TechXplore?!拔覀円呀?jīng)開始將深度學習應用于社交機器人,尤其是讓機器人從人類的互動中學習社交行為。
Ko和他的同事開發(fā)的基于人工神經(jīng)網(wǎng)絡(ANN)的技術將谷歌研究人員在2014年推出的Seq2Seq(序列對序列)模型與對抗網(wǎng)絡(GAN)的生成相結(jié)合。新架構在AIR-Act2Act數(shù)據(jù)庫上進行訓練,該數(shù)據(jù)庫包含10種不同情況下的5000次人機交互。
“建議的神經(jīng)網(wǎng)絡結(jié)構由編碼器、解碼器和鑒別器組成,”Ko解釋道?!熬幋a器解釋用戶的當前行為,解碼器根據(jù)用戶和機器人的當前行為創(chuàng)建下一個機器人行為,鑒別器防止解碼器在導致持續(xù)行為時輸出錯誤的手勢序列。”
利用AIR-Act2Act數(shù)據(jù)庫中記錄的5000次交互,提取了超過11萬個訓練樣本(即短視頻),其中人類在與他人交互時執(zhí)行特定的非語言社交行為。研究人員專門訓練他們的模型,為機器人創(chuàng)造五種非語言手勢,即鞠躬、眼神、握手、擁抱和捂臉。
Ko和他的同事在一系列模擬中評估了他們的非語言社會行為模型,特別是將其應用于模擬版Pepper,這是一種廣泛應用于研究領域的人形機器人。他們的初步發(fā)現(xiàn)是有希望的,因為他們的模型將在人類互動過程中的正確時間執(zhí)行五種行為。
“我們已經(jīng)證明,不同類型的社會行為可以通過深度學習方法教給機器人,”Ko說?!拔覀兊哪P涂梢援a(chǎn)生更自然的行為,而不是根據(jù)現(xiàn)有的規(guī)則以某種方式重復預定的行為。當機器人創(chuàng)造這些社交行為時,它會讓用戶意識到他們的行為在情感上被理解和關心?!?/p>
研究人員創(chuàng)建的新模型可以幫助社交機器人變得更加靈活,對社交更加敏感,這可能會提高它們與人類用戶互動的整體質(zhì)量和過程。未來可以在家庭服務機器人、引導機器人、送貨機器人、教育機器人、臨場機器人等各種機器人系統(tǒng)中進行應用和測試?!拔覀儸F(xiàn)在計劃進行額外的實驗,測試機器人在現(xiàn)實世界中面對人類時表現(xiàn)出適當社交行為的能力;提議的行為發(fā)生器的強度將在數(shù)據(jù)上進行測試?!贝送?,通過收集和學習更多的交互數(shù)據(jù),我們計劃擴大社會行為和復雜行動的范圍,我們就是展出的機器人。"
特別聲明:文章僅代表作者個人觀點,不代表麗泰的觀點和立場。如果侵犯到您的權益,版權或其他問題請及時聯(lián)系我們,我們會第一時間處理。