谷歌搞出個機器學習多面手:能處理聲音圖像多種任務(wù)

時間:2017-06-20

來源:網(wǎng)絡(luò)轉(zhuǎn)載

導(dǎo)語:北京時間6月20日早間消息,谷歌近期發(fā)表的一篇學術(shù)論文或許為機器學習未來的發(fā)展制定了藍圖。這篇論文題為"一種可以進行各種學習的模型",為可處理多任務(wù)的單一機器學習模型提供了模板。

北京時間6月20日早間消息,谷歌近期發(fā)表的一篇學術(shù)論文或許為機器學習未來的發(fā)展制定了藍圖。這篇論文題為"一種可以進行各種學習的模型",為可處理多任務(wù)的單一機器學習模型提供了模板。

谷歌研究員將其稱作"MultiModel"(多任務(wù)模型),并訓(xùn)練該模型完成一系列任務(wù),包括翻譯、語言分析、語音識別、圖像識別和對象探測等。盡管結(jié)果相對于當前方法并沒有質(zhì)的飛躍,但這表明,用多種任務(wù)去訓(xùn)練機器學習系統(tǒng)將提升其整體性能。

例如,如果用可以勝任的所有任務(wù)來進行訓(xùn)練,那么相對于用單一任務(wù)進行訓(xùn)練,MultiModel在機器翻譯、語音和分析任務(wù)方面的準確性會更高。

谷歌的論文為未來機器學習系統(tǒng)的開發(fā)提供了模板。這種系統(tǒng)可以得到更廣泛的應(yīng)用,或許也會更準確。這將與當前的狹義解決方案不同。更重要的是,這些技術(shù)(及其衍生技術(shù))有助于減少機器學習算法所需的訓(xùn)練數(shù)據(jù)量。

該團隊的研究結(jié)果表明,在用可以勝任的所有任務(wù)來進行訓(xùn)練時,準確性會隨著訓(xùn)練數(shù)據(jù)的減少而提高。這點很重要,因為某些領(lǐng)域很難積累起足夠多的訓(xùn)練數(shù)據(jù)。

然而,谷歌并沒有宣稱已找到一種可以學會所有任務(wù)的"主算法"。正如名稱所暗示的,MultiModel網(wǎng)絡(luò)包含為解決不同挑戰(zhàn)而訂制的系統(tǒng),以及協(xié)助直接向這些專家算法提供輸入的系統(tǒng)。谷歌采取的方法將有助于未來開發(fā)類似的系統(tǒng),以解決不同領(lǐng)域的問題。

需要指出,這方面仍有許多測試需要去做。谷歌的研究結(jié)果尚未得到證實,目前也很難弄清,這項研究能否拓展至其他領(lǐng)域。作為TensorFlow開源項目的一部分,谷歌大腦團隊已經(jīng)發(fā)布了MultiModel的代碼,而其他人可以嘗試這個模型。

更多資訊請關(guān)注人機界面頻道

中傳動網(wǎng)版權(quán)與免責聲明:

凡本網(wǎng)注明[來源:中國傳動網(wǎng)]的所有文字、圖片、音視和視頻文件,版權(quán)均為中國傳動網(wǎng)(surachana.com)獨家所有。如需轉(zhuǎn)載請與0755-82949061聯(lián)系。任何媒體、網(wǎng)站或個人轉(zhuǎn)載使用時須注明來源“中國傳動網(wǎng)”,違反者本網(wǎng)將追究其法律責任。

本網(wǎng)轉(zhuǎn)載并注明其他來源的稿件,均來自互聯(lián)網(wǎng)或業(yè)內(nèi)投稿人士,版權(quán)屬于原版權(quán)人。轉(zhuǎn)載請保留稿件來源及作者,禁止擅自篡改,違者自負版權(quán)法律責任。

如涉及作品內(nèi)容、版權(quán)等問題,請在作品發(fā)表之日起一周內(nèi)與本網(wǎng)聯(lián)系,否則視為放棄相關(guān)權(quán)利。

關(guān)注伺服與運動控制公眾號獲取更多資訊

關(guān)注直驅(qū)與傳動公眾號獲取更多資訊

關(guān)注中國傳動網(wǎng)公眾號獲取更多資訊

最新新聞
查看更多資訊

熱搜詞
  • 運動控制
  • 伺服系統(tǒng)
  • 機器視覺
  • 機械傳動
  • 編碼器
  • 直驅(qū)系統(tǒng)
  • 工業(yè)電源
  • 電力電子
  • 工業(yè)互聯(lián)
  • 高壓變頻器
  • 中低壓變頻器
  • 傳感器
  • 人機界面
  • PLC
  • 電氣聯(lián)接
  • 工業(yè)機器人
  • 低壓電器
  • 機柜
回頂部
點贊 0
取消 0