韩国资源视频一区二区三区,午夜私人影院粉色视频我要,99国产高清久久久久久网站,久久国内精品自在自线观看,国产青榴在线观看视频

Internet Develppment
互聯(lián)網(wǎng)開(kāi)發(fā)& 推廣服務(wù)提供商

我們擅長(cháng)商業(yè)策略與用戶(hù)體驗的完美結合。

歡迎瀏覽我們的案例。

首頁(yè) > 新聞中心 > 新聞動(dòng)態(tài) > 正文

谷歌開(kāi)源AI可在嘈雜環(huán)境中區分聲音,準確率達92%

發(fā)布時(shí)間:2018-11-14 15:14:36來(lái)源:網(wǎng)易科技

  據 VentureBeat 報道,Google 人工智能研究部門(mén)在語(yǔ)音識別方面取得了新的進(jìn)展,能從嘈雜的環(huán)境中分辨聲音,準確率高達 92%。Google 人工智能研究部門(mén)在一篇名為《Fully Super vised Speaker Diarization》的論文中描述了這一新的 AI 系統,稱(chēng)它“能以一種更有效的方式識別聲音”。

  這套強大的 AI 系統涉及到 Speaker diarization 任務(wù),需要標注出“誰(shuí)”從“什么時(shí)候”到“什么時(shí)候”在說(shuō)話(huà),將語(yǔ)音樣本分割成獨特的、同構片段的過(guò)程。還能將新的演講者發(fā)音與它以前從未遇到過(guò)的語(yǔ)音片段關(guān)聯(lián)起來(lái)。

  其核心算法已經(jīng)開(kāi)源可用。它實(shí)現了一個(gè)在線(xiàn)二值化錯誤率(DER),在 NIST SRE 2000 CALLHOME 基準上是 7.6%,這對于實(shí)時(shí)應用來(lái)說(shuō)已經(jīng)足夠低了,而谷歌之前使用的方法 DER 為 8.8%。

  谷歌研究人員的新方法是通過(guò)遞歸神經(jīng)網(wǎng)絡(luò )(RNN)模擬演講者的嵌入(如詞匯和短語(yǔ)的數學(xué)表示),遞歸神經(jīng)網(wǎng)絡(luò )是一種機器學(xué)習模型,它可以利用內部狀態(tài)來(lái)處理輸入序列。每個(gè)演講者都從自己的 RNN 實(shí)例開(kāi)始,該實(shí)例不斷更新給定新嵌入的 RNN 狀態(tài),使系統能夠學(xué)習發(fā)言者共享的高級知識。

  研究人員在論文中寫(xiě)道:“由于該系統的所有組件都可以在監督環(huán)境下學(xué)習,所以在有高質(zhì)量時(shí)間標記演講者標簽訓練數據的情況下,它比無(wú)監督系統更受青睞。我們的系統受到全面監督,能夠從帶有時(shí)間戳的演講者標簽例子中學(xué)習。”

  在未來(lái)的工作中,研究團隊計劃改進(jìn)模型,使其能夠集成上下文信息來(lái)執行脫機解碼,他們希望這將進(jìn)一步減少 DER。研究人員還希望能夠直接對聲學(xué)特征進(jìn)行建模,這樣整個(gè) Speaker diarization 系統就可以進(jìn)行端到端訓練。
 ?。?a href="http://www.cki5.com">邯鄲網(wǎng)絡(luò )公司)

最新資訊
? 2018 河北碼上網(wǎng)絡(luò )科技有限公司 版權所有 冀ICP備18021892號-1   
? 2018 河北碼上科技有限公司 版權所有.
韩国资源视频一区二区三区,午夜私人影院粉色视频我要,99国产高清久久久久久网站,久久国内精品自在自线观看,国产青榴在线观看视频