国产精品无码制服丝袜-亚洲中文久久精品无码ww16-欧美大片aaaaa免费观看-亚洲日韩欧美内射姐弟

仿生系列3--機器人的聽力系統(tǒng)

仿生系列3--機器人的聽力系統(tǒng)

 

 

我們的耳朵是一個高度復(fù)雜的系統(tǒng),同時也是一個高精度的測量儀器。普通人的每只耳朵都有約15 500個毛細胞,可以分辨出400 000余種音調(diào)。經(jīng)過專門訓(xùn)練的人甚至可以直接判斷他所聽到聲音的音調(diào)值。但是,人類的聽覺有一定的頻率范圍限制。舉例來說,在水下負責(zé)錄制鯨詠(又名鯨歌)的潛水員需要佩戴專業(yè)的擴音收音裝置,因為鯨詠的頻率最高可達280KHz,而人類可以聽見的頻率范圍是16Hz~20KHz。雖然專業(yè)的擴音收音裝置可以錄制到更廣的聲音頻率范圍,但是只有人類可以專注于某種特定的聲音,并且準確定位聲音的來源。

耳朵:立體聲定位

無論聲音來自前面、后面,還是側(cè)面,雙耳都可以迅速定位其來源和距離。人耳的兩種關(guān)鍵能力正在被科學(xué)家們遷移到機器人身上,一種是對于耳間時間差(Interaural Time Difference,ITD)的處理,一種是對于耳間聲壓差(Interaural Intensity Difference,IID)的處理。由于人的雙耳分布在頭部兩側(cè),所以頭部在聲音傳遞的過程中形成了天然的障礙。因此兩只耳朵會獲得不同的聲壓,而且大部分聲音不會同時進入雙耳,例如來自左側(cè)的聲音會先進入左耳,然后繼續(xù)以340m/s的速度進入右耳,形成時間差。在聲學(xué)上,這種現(xiàn)象被稱為頭影效應(yīng)Head-Shadow Effect)。慕尼黑科技大學(xué)仿生學(xué)教授Werner Hemmert博士表示:人耳可以分辨出0.01ms的時差,但是由于軟件的處理速度較慢,所以目前的機器人只能精確到10ms級別。

柏林洪堡大學(xué)神經(jīng)機器人實驗室主任Manfred Hild博士對CHIP雜志表示:人的立體聲聽覺也受到耳朵肌肉和肩膀的影響??茖W(xué)家們已經(jīng)有意識地將人耳的完整結(jié)構(gòu)運用于人工智能系統(tǒng)。因此,很多機器人的頭部設(shè)計與人的大小和形狀相當(dāng),盡可能地以人類的方式利用頭部兩側(cè)的麥克風(fēng)獲取立體聲信號。

當(dāng)機器人身處預(yù)先專門準備好的測試環(huán)境中時,可以利用立體聲定位功能,像人一樣快速定位聲源。但是,當(dāng)機器人身處同人一樣的真實日常生活環(huán)境中時,聲源定位就不是一件簡單的事情了。機器人與人類最關(guān)鍵的區(qū)別就是缺乏環(huán)境適應(yīng)和理解能力。一個我們熟知的現(xiàn)象就是雞尾酒效應(yīng):當(dāng)許多人在聚會場所聊天,同時還伴隨著從音響中散播出來的背景音樂的時候,人類依然可以僅專注于某一個對話。但是這種場合對于機器而言就是難以逾越的挑戰(zhàn)了。由于機器人無法確定哪個聲源是真正需要關(guān)注的而無法快速過濾掉所有無關(guān)的頻率,所以此時的環(huán)境里只有一種不可識別的聲音——噪音。

人工智能:聽覺的妥協(xié)

科學(xué)家們根據(jù)應(yīng)用需求的不同,使用了很多巧妙的方法使機器人獲得更好的聽覺表現(xiàn)。其中,很多人工智能研究中使用到的成熟方法,已經(jīng)成功轉(zhuǎn)換為市場上的可行解決方案。有幾項優(yōu)秀的音頻過濾方案已經(jīng)開始在移動終端設(shè)備、車載免提裝置和遠程會議系統(tǒng)上嶄露頭角。但是柏林洪堡大學(xué)的機器人專家Hild告訴我們:目前來看效果并非總是令人滿意,例如汽車發(fā)動機的聲音會干擾到車廂內(nèi)的整個聲音頻帶,所以無法通過頻率過濾技術(shù)簡單地將其消除掉,必須配合聲源定位技術(shù)才可以更好地工作。

最新解決方案就是使用盲信號分離(Blind Signal Separation)技術(shù),制造商采用多個分散放置的麥克風(fēng)協(xié)助錄制令人煩惱的噪音,然后將其過濾掉,只留下司機的聲音。智能手機制造商也使用這個原理,通過機身背部的麥克風(fēng)與機身正面的麥克風(fēng)配合過濾掉雜音。慕尼黑科技大學(xué)仿生學(xué)教授Hemmert說:我們目前的研究遇到了瓶頸,雖然新的解決方案取得了很大的進步,但是距離真正突破性的進展,還有很長的路要走。其實,最關(guān)鍵的原因是日常生活中的噪音幾乎是無規(guī)律的,而通過人工智能實現(xiàn)的機器耳朵無法適應(yīng)不同的情景。

對于語音識別程序而言,這個過程并沒有什么障礙,通常只要將麥克風(fēng)至于嘴下即可,此時系統(tǒng)可以識別最大的聲源。但是語音識別程序,尤其是非特定語音識別系統(tǒng),比如導(dǎo)航系統(tǒng)面臨著另一個很有難度的問題,就是它們需要識別講話者的嗓音,保證輸入的準確度,然后結(jié)合龐大的語義數(shù)據(jù)庫和糾錯能力,將語音轉(zhuǎn)換為可理解的文字。

結(jié)論

Hild對目前的進展并不樂觀,他說:我們必須回頭審視過去的發(fā)展歷程,理解只有機器人可以并行處理所有信號數(shù)據(jù),并根據(jù)這些數(shù)據(jù)進行綜合判斷的時候才可能取得重大的突破。其實,即使這樣也遠遠不夠,因為我們并非僅通過耳朵聽聲音,還會通過眼睛定位對話者、移動自己的頭部找到最好的試聽位置。因此人工智能機器人必須將動力系統(tǒng)、聲音信號和視覺信號結(jié)合起來,才能有機會擁有人類這樣敏銳的耳朵。


最新消息
 

然而,據(jù)最新消息,由日本研制的“聽力理解分析機器人HEARBO已經(jīng)很好地突破了技術(shù)瓶頸,據(jù)稱該機器人能同時區(qū)分出四種不同類型的聲音,并作分析。舉個例子:當(dāng)4個人同時說話,機器人通過分析音頻,能區(qū)分出哪個聲音來源于哪個人;3個人在玩石頭,剪刀,布的游戲,當(dāng)3個人同時說話,機器人則可以判斷出贏家是誰。

可見,仿生機器人技術(shù)已經(jīng)越來越先進,但離我們的預(yù)期效果還差很遠,相信在不久的將來,智能機器人能夠達到電影中《我,機器人》那樣智能,并且能和人類并肩作戰(zhàn)。

 

 

澳博機器人微信公眾號
掃一掃
分享到朋友圈
或者
手機上繼續(xù)看