您好, 歡迎來(lái)到儀表網(wǎng)! 登錄| 免費(fèi)注冊(cè)| 產(chǎn)品展廳| 收藏商鋪|
當(dāng)前位置:揚(yáng)州冠豐電力設(shè)備有限公司>>公司動(dòng)態(tài)>>“谷歌大腦”:9個(gè)基礎(chǔ)方向研究、6大具體領(lǐng)域成果定義谷歌AI進(jìn)展
作為谷歌 AI 帝國(guó)的重要部分,谷歌大腦團(tuán)隊(duì)一直致力于通過(guò)研究和系統(tǒng)工程來(lái)推動(dòng)人工智能領(lǐng)域的發(fā)展。去年他們分享了 2016 年的工作總結(jié)。在接下來(lái)的一年中,他們?cè)谥圃熘悄軝C(jī)器的*研究中不斷取得進(jìn)步,并與來(lái)自 Google 和 Alphabet 的其他團(tuán)隊(duì)合作,利用研究成果來(lái)為人類(lèi)造福。
近日,該團(tuán)隊(duì)按照慣例,發(fā)表了 2017 年的年度總結(jié)。這份總結(jié)由谷歌研究員 Jeff Dean 代表整個(gè)團(tuán)隊(duì)執(zhí)筆。總結(jié)分為上下兩篇。在上篇中主要介紹了 2017 年團(tuán)隊(duì)的基礎(chǔ)研究工作,開(kāi)源一些軟件和數(shù)據(jù)集以及用于機(jī)器學(xué)習(xí)的硬件更新。下篇將介紹團(tuán)隊(duì)在特定領(lǐng)域的研究,比如醫(yī)療,機(jī)器人,和一些基礎(chǔ)科學(xué)。以及更多的關(guān)于團(tuán)隊(duì)富有的創(chuàng)造力,公平和包容性的工作,和跟多關(guān)于團(tuán)隊(duì)自身的內(nèi)容。
核心研究
谷歌大腦團(tuán)隊(duì)的關(guān)注的重點(diǎn)是那些可以在機(jī)器學(xué)習(xí)領(lǐng)域提高理解力和解決新問(wèn)題的能力的研究。以下是一些研究主題。
1. 自動(dòng)化機(jī)器學(xué)習(xí)
如我們所知,機(jī)器學(xué)習(xí)的算法是由機(jī)器學(xué)習(xí)專(zhuān)家精細(xì)設(shè)計(jì)的,但是需要解決的新問(wèn)題層出不窮。自動(dòng)化機(jī)器學(xué)習(xí)的目標(biāo)就是讓計(jì)算機(jī)自動(dòng)去解決新的機(jī)器學(xué)習(xí)問(wèn)題,而不需要人類(lèi)機(jī)器學(xué)習(xí)專(zhuān)家在每個(gè)新問(wèn)題上進(jìn)行干預(yù)。如果我們希望得到真正的智能系統(tǒng),這就是必須的基本能力。
谷歌大腦團(tuán)隊(duì)設(shè)計(jì)出使用強(qiáng)化學(xué)習(xí)和演化算法的新的神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)方法。這項(xiàng)工作已經(jīng)被擴(kuò)展到的 ImageNet 分類(lèi)和檢測(cè),并展示了如何自動(dòng)學(xué)習(xí)新的優(yōu)化算法和有效的激活函數(shù)。團(tuán)隊(duì)積極與谷歌的 Cloud AI 團(tuán)隊(duì)合作,讓谷歌用戶(hù)可以享受這項(xiàng)成果,同時(shí)將這項(xiàng)研究在多個(gè)方向上推進(jìn)。
2. 語(yǔ)音理解與生成
團(tuán)隊(duì)發(fā)展新的技術(shù)來(lái)改善計(jì)算機(jī)理解和生成人類(lèi)語(yǔ)音的能力,并與谷歌的語(yǔ)音團(tuán)隊(duì)合作為一個(gè)多端到端的語(yǔ)音識(shí)別系統(tǒng)研究出多種優(yōu)化方法。這使得 Google 的產(chǎn)品——語(yǔ)音識(shí)別系統(tǒng)的相對(duì)單詞錯(cuò)誤率降低了 16%。這項(xiàng)工作將許多獨(dú)立的研究線(xiàn)索匯集到一起。
團(tuán)隊(duì)還與 Google 的 Machine Perception 團(tuán)隊(duì)合作開(kāi)發(fā)了一種新的文本到語(yǔ)音生成方法,Tacotron 2。它*地提高了生成的語(yǔ)音的質(zhì)量。這個(gè)模型達(dá)到了 4.53 的平均意見(jiàn)得分(MOS),相比之下,有聲讀物中的專(zhuān)業(yè)記錄語(yǔ)音的 MOS 為 4.58,之前的計(jì)算機(jī)語(yǔ)音生成系統(tǒng)成績(jī)也僅僅為 4.34。
3. 新的機(jī)器學(xué)習(xí)算法和途徑
團(tuán)隊(duì)一直致力于開(kāi)發(fā)新奇的機(jī)器學(xué)習(xí)算法和方法,包括在 capsules 上的研究(明確地尋找激活特征協(xié)議,作為在執(zhí)行視覺(jué)任務(wù)時(shí)評(píng)估多種不同噪音假設(shè)的方式),sparsely-gated mixtures of experts(使非常大的模型仍能有很高的計(jì)算效率),超網(wǎng)絡(luò)(使用一個(gè)模型的權(quán)重為另一個(gè)模型生成權(quán)重),新型多模式模型(在同一模型中跨音頻,視覺(jué)和文本輸入執(zhí)行多任務(wù)學(xué)習(xí)),基于注意的機(jī)制(替代卷積和循環(huán)模型),符號(hào)和非符號(hào)化的學(xué)習(xí)優(yōu)化方法,一種通過(guò)離散變量的反向傳播技術(shù),以及一些對(duì)強(qiáng)化學(xué)習(xí)算法改進(jìn)。
4. 計(jì)算機(jī)系統(tǒng)領(lǐng)域的機(jī)器學(xué)習(xí)
谷歌大腦團(tuán)隊(duì)對(duì)于用機(jī)器學(xué)習(xí)的方法在計(jì)算機(jī)系統(tǒng)中取代傳統(tǒng)的啟發(fā)式應(yīng)用非常感興趣。他們已經(jīng)展示了如何使用強(qiáng)化學(xué)習(xí)來(lái)進(jìn)行放置決策,將計(jì)算圖映射到一組計(jì)算設(shè)備上,而且比人類(lèi)專(zhuān)家做的更好。團(tuán)隊(duì)還與 Google Research 合作,展示了神經(jīng)網(wǎng)絡(luò)建立的索引比傳統(tǒng)數(shù)據(jù)結(jié)構(gòu)(如 B 樹(shù),散列表和布隆過(guò)濾器)更快,更小。如 NIPS 關(guān)于機(jī)器學(xué)習(xí)系統(tǒng)和系統(tǒng)的機(jī)器學(xué)習(xí)討論會(huì)上所說(shuō)的,谷歌大腦團(tuán)隊(duì)相信,他們正在觸及在核心計(jì)算機(jī)系統(tǒng)中使用機(jī)器學(xué)習(xí)這一領(lǐng)域。
5. 隱私與安全
機(jī)器學(xué)習(xí)及其與安全和隱私的交互一直是團(tuán)隊(duì)關(guān)注的焦點(diǎn)。在一篇獲得 ICLR 2017“論文獎(jiǎng)”的的論文中,團(tuán)隊(duì)展示了機(jī)器學(xué)習(xí)技術(shù)可以提供不同方式的隱私保證。團(tuán)隊(duì)還繼續(xù)調(diào)查了抗性樣例的性質(zhì),包括在現(xiàn)實(shí)世界中展現(xiàn)的對(duì)抗性樣例,以及在訓(xùn)練過(guò)程中如何充分利用他們來(lái)使模型更適應(yīng)這些對(duì)抗性樣例。
6. 理解機(jī)器學(xué)習(xí)系統(tǒng)
雖然人們已經(jīng)見(jiàn)識(shí)到了深度學(xué)習(xí)的強(qiáng)大能力,但更重要的是理解它為什么起作用,什么時(shí)候不起作用。在另一篇獲得 ICLR 2017“論文獎(jiǎng)”的論文中,團(tuán)隊(duì)向大家闡明,目前的機(jī)器學(xué)習(xí)理論框架無(wú)法解釋深度學(xué)習(xí)方法的一些杰出的結(jié)果。團(tuán)隊(duì)展示了,通過(guò)優(yōu)化方法找到的小值的“平坦度”,并不像初想象的那樣與良好的泛化緊密相關(guān)。為了更好地理解深層架構(gòu)下的訓(xùn)練過(guò)程是如何進(jìn)行的,谷歌大腦團(tuán)隊(duì)發(fā)表了一系列分析隨機(jī)矩陣的論文,因?yàn)樗鼈兪谴蠖鄶?shù)訓(xùn)練方法的出發(fā)點(diǎn)。
了解深度學(xué)習(xí)的另一個(gè)重要途徑就是更好地衡量他們的效果。在近的一項(xiàng)對(duì)眾多生成對(duì)抗網(wǎng)絡(luò)的比較的研究中,團(tuán)隊(duì)展示了良好的實(shí)驗(yàn)設(shè)計(jì)和統(tǒng)計(jì)嚴(yán)謹(jǐn)性的重要性,他們發(fā)現(xiàn)許多流行的對(duì)生成模型的增強(qiáng)方法實(shí)際上并沒(méi)有提高它的性能。我們希望這項(xiàng)研究能夠?yàn)槠渌芯咳藛T提供一個(gè)可靠的實(shí)驗(yàn)研究的范例。
團(tuán)隊(duì)正在開(kāi)發(fā)能夠更好地解釋機(jī)器學(xué)習(xí)系統(tǒng)的方法。在三月份,團(tuán)隊(duì)與 OpenAI,DeepMind,YC Research 等合作,宣布推出 Distill,這是一本致力于支持人類(lèi)對(duì)機(jī)器學(xué)習(xí)的進(jìn)行理解的在線(xiàn)開(kāi)放式科學(xué)雜志。它因?qū)C(jī)器學(xué)習(xí)概念的清晰闡釋和在出色的交互式可視化工具而廣受贊譽(yù)。在*年,Distill 上就發(fā)表了許多啟發(fā)性的文章,旨在了解各種機(jī)器學(xué)習(xí)技術(shù)的內(nèi)部工作機(jī)理,我們期待 2018 年迎來(lái)更多可能。
7. 機(jī)器學(xué)習(xí)研究的開(kāi)源數(shù)據(jù)集
數(shù)據(jù)集對(duì)于機(jī)器學(xué)習(xí)研究的重要性不言而喻。像 MNIST, CIFAR-10, ImageNet, SVHN, and WMT 這樣的開(kāi)源數(shù)據(jù)集一直推動(dòng)著機(jī)器學(xué)習(xí)飛速發(fā)展。谷歌大腦團(tuán)隊(duì)和 Google Research 在過(guò)去一年一直積極地為開(kāi)放式機(jī)器學(xué)習(xí)研究公開(kāi)有趣的新數(shù)據(jù)集,提供更多的大型標(biāo)記數(shù)據(jù)集,包括:
YouTube-8M: >用 4716 個(gè)不同類(lèi)別標(biāo)注的 7 百萬(wàn) YouTube 視頻YouTube-Bounding Boxes: 來(lái)自 21 萬(wàn) Youtube 視頻的五百萬(wàn)個(gè)邊際框標(biāo)注Speech Commands Dataset: 成千上萬(wàn)人所說(shuō)的簡(jiǎn)短的命令字AudioSet: 用 527 個(gè)聲音事件標(biāo)注的 2 百萬(wàn)個(gè) 10 秒的 YouTube 剪輯Atomic Visual Actions (AVA): 57000 個(gè)視頻剪輯片段中 21 萬(wàn)個(gè)動(dòng)作標(biāo)注Open Images: 9M 的通過(guò) 6000 個(gè)類(lèi)別對(duì)創(chuàng)意共享許可圖像進(jìn)行標(biāo)注Open Images with Bounding Boxes: 1.2M 的共計(jì) 600 個(gè)分類(lèi)的邊界框標(biāo)注
8.TensorFlow 和開(kāi)源軟件
縱觀(guān)團(tuán)隊(duì)的歷史,許多構(gòu)建的工具已經(jīng)在 Google 的許多產(chǎn)品應(yīng)用,進(jìn)行機(jī)器學(xué)習(xí)研究并部署機(jī)器學(xué)習(xí)系統(tǒng)。2015 年 11 月,第二代機(jī)器學(xué)習(xí)框架 TensorFlow 開(kāi)源,團(tuán)隊(duì)希望整個(gè)機(jī)器學(xué)習(xí)社區(qū)能夠從中受益。在 2017 年 2 月,TensorFlow 1.0 發(fā)布。在 11 月,1.4 版本發(fā)布,這其中包括重要的添加內(nèi)容:用于交互式命令式編程的 Eager execution,TensorFlow 程序的優(yōu)化編譯器 XLA,以及適用于移動(dòng)設(shè)備和嵌入式設(shè)備的輕量級(jí)解決方案 TensorFlow Lite。現(xiàn)在,預(yù)編譯的 TensorFlow 二進(jìn)制文件現(xiàn)在已經(jīng)在 180 多個(gè)國(guó)家被下載了超過(guò)一千萬(wàn)次,GitHub 上的源代碼現(xiàn)在已經(jīng)有超過(guò) 1200 個(gè)貢獻(xiàn)者。
今年 2 月,首屆 TensorFlow成功舉辦,吸引了 450 多人親臨現(xiàn)場(chǎng)參加活動(dòng),6500 人觀(guān)看直播,在 35 多個(gè)國(guó)家和地區(qū)舉辦了超過(guò) 85 場(chǎng)的本地觀(guān)看活動(dòng)。所有會(huì)談都被記錄下來(lái),主題包括新特性,使用 TensorFlow 的技巧,或者對(duì)低層次 TensorFlow 抽象的探討。團(tuán)隊(duì)預(yù)計(jì)于 2018 年 3 月 30 日在灣區(qū)舉辦另一個(gè) TensorFlow。
在十一月,TensorFlow 慶祝其開(kāi)放源代碼項(xiàng)目?jī)芍苣辍ensorFlow 是 GitHub 上排名*的機(jī)器學(xué)習(xí)平臺(tái),也是 GitHub 上的五大軟件庫(kù)之一,已經(jīng)被許多大大小小的公司和機(jī)構(gòu)所使用,包括 GitHub 上超過(guò) 24,500 個(gè)與 TensorFlow 相關(guān)的倉(cāng)庫(kù)。現(xiàn)在,許多研究論文都與開(kāi)放源碼的 TensorFlow 實(shí)現(xiàn)和研究結(jié)果一起出版,使社區(qū)能夠更容易地理解所使用的確切方法,并重現(xiàn)或擴(kuò)展工作。
除了 TensorFlow 之外,團(tuán)隊(duì)還在瀏覽器中發(fā)布了 deeplearn.js,一個(gè)開(kāi)源的硬件加速深度學(xué)習(xí)的 API 實(shí)現(xiàn)(無(wú)需下載或安裝任何東西)。deeplearn.js 主頁(yè)有許多很好的例子,其中包括 Teachable Machine, 可以使用網(wǎng)絡(luò)攝像頭訓(xùn)練的計(jì)算機(jī)視覺(jué)模型,以及 Performance RNN,一個(gè)基于實(shí)時(shí)神經(jīng)網(wǎng)絡(luò)的鋼琴作曲和演奏效果的演示。團(tuán)隊(duì)將在 2018 年繼續(xù)開(kāi)展工作,以便將 TensorFlow 模型直接部署到 deeplearn.js 環(huán)境中。
請(qǐng)輸入賬號(hào)
請(qǐng)輸入密碼
請(qǐng)輸驗(yàn)證碼
以上信息由企業(yè)自行提供,信息內(nèi)容的真實(shí)性、準(zhǔn)確性和合法性由相關(guān)企業(yè)負(fù)責(zé),儀表網(wǎng)對(duì)此不承擔(dān)任何保證責(zé)任。
溫馨提示:為規(guī)避購(gòu)買(mǎi)風(fēng)險(xiǎn),建議您在購(gòu)買(mǎi)產(chǎn)品前務(wù)必確認(rèn)供應(yīng)商資質(zhì)及產(chǎn)品質(zhì)量。