除了深度學(xué)習(xí),你還應(yīng)該關(guān)注這 6 大 AI 領(lǐng)域
編者按:因?yàn)樯疃葘W(xué)習(xí)最近在語(yǔ)音識(shí)別、圖像識(shí)別等領(lǐng)域取得的突破,很多人都把人工智能與深度學(xué)習(xí)混為一談。但深度學(xué)習(xí)只是AI的一方面,實(shí)際上還有其他一些AI的分支也正在取得進(jìn)展,并且這些技術(shù)分支在很多領(lǐng)域都有極大的應(yīng)用潛力。投資人Nathan Benaich系統(tǒng)地闡述了AI的6個(gè)值得關(guān)注的領(lǐng)域以及其潛在應(yīng)用于相關(guān)的公司和研究人員,是分析和跟蹤AI的一篇很好的介紹文章。
提煉出一個(gè)能被普遍接受的適合于人工智能(AI)的定義已經(jīng)成為最近多次的話(huà)題之爭(zhēng)。一些人把AI重新貼上“認(rèn)知計(jì)算”或者“機(jī)器智能”的標(biāo)簽,而有的則不恰當(dāng)?shù)貙I和“機(jī)器學(xué)習(xí)”混為一談。這部分是因?yàn)锳I不是一種技術(shù)。實(shí)際上它是包含了從機(jī)器人到機(jī)器學(xué)習(xí)等許多學(xué)科的一個(gè)廣泛領(lǐng)域。我們大多數(shù)人斷言,AI的終極目標(biāo)是開(kāi)發(fā)出能執(zhí)行以往屬于人類(lèi)智能范疇的任務(wù)以及認(rèn)知功能的機(jī)器。為了實(shí)現(xiàn)這一點(diǎn),機(jī)器必須能自動(dòng)學(xué)習(xí)這些能力而不是對(duì)每一臺(tái)機(jī)器進(jìn)行端到端的顯式編程。
從無(wú)人車(chē)到語(yǔ)音識(shí)別與合成,過(guò)去10年AI領(lǐng)域取得的進(jìn)展之多令人贊嘆。在此背景下,AI已經(jīng)成為越來(lái)越多公司與家庭的討論話(huà)題,他們認(rèn)為AI作為一項(xiàng)技術(shù)不再需要20年的時(shí)間才能到來(lái),而是認(rèn)為這個(gè)東西現(xiàn)在已經(jīng)在影響著自己的生活。的確,熱門(mén)媒體幾乎每天都會(huì)報(bào)道AI,而技術(shù)巨頭都在接二連三地闡述自己重大的長(zhǎng)期AI戰(zhàn)略。盡管若干投資者和既有企業(yè)渴望理解如何在這個(gè)新世界中捕捉價(jià)值,但絕大部分還在抓破腦袋想搞清楚這一切到底意味著什么。與此同時(shí),政府正在與社會(huì)自動(dòng)化的潛在影響作斗爭(zhēng)(參見(jiàn)奧巴馬的告別演說(shuō))。
考慮到AI會(huì)影響到整個(gè)經(jīng)濟(jì),這場(chǎng)對(duì)話(huà)的參與者代表了開(kāi)發(fā)或使用AI系統(tǒng)的各種意圖,不同的理解水平以及不同經(jīng)驗(yàn)程度。同樣地,一場(chǎng)有關(guān)AI的討論,包括問(wèn)題,以及據(jù)此獲得的結(jié)論和建議等,這些東西應(yīng)該以數(shù)據(jù)和事實(shí)而不是猜測(cè)為基礎(chǔ),這一點(diǎn)是至關(guān)重要的。發(fā)表的研究、技術(shù)新聞公告、推測(cè)性的評(píng)論以及思想實(shí)驗(yàn)把結(jié)果的潛在影響瘋狂地外推實(shí)在是太容易了(有時(shí)候是太令人興奮了!)。
以下是AI在對(duì)未來(lái)數(shù)字化產(chǎn)品和服務(wù)潛在影響能力方面尤其值得注意的6個(gè)領(lǐng)域。我將描述它們分別是什么,為什么重要,目前是如何應(yīng)用的,同時(shí)還將提供攻關(guān)這些技術(shù)的公司和研究者的清單(但絕對(duì)不是詳盡的)。
1、強(qiáng)化學(xué)習(xí)(RL)
強(qiáng)化學(xué)習(xí)是一種通過(guò)試錯(cuò)法學(xué)習(xí)的范式,其靈感源自人類(lèi)學(xué)習(xí)新任務(wù)的方式。在典型的強(qiáng)化學(xué)習(xí)設(shè)定里面,一個(gè)代理會(huì)承擔(dān)在數(shù)字化環(huán)境中觀(guān)察其當(dāng)前狀態(tài)的任務(wù),并采取能讓自己被設(shè)定的累計(jì)長(zhǎng)期獎(jiǎng)勵(lì)最大化的動(dòng)作。作為每次動(dòng)作的結(jié)果,代理從環(huán)境接收反饋,這樣它就可以知道動(dòng)作是促進(jìn)還是妨礙了自己的進(jìn)展。一個(gè)RL代理因此必須在對(duì)環(huán)境進(jìn)行探索以找到累積獎(jiǎng)勵(lì)的優(yōu)化策略與探索實(shí)現(xiàn)所要達(dá)到目標(biāo)的最佳策略之間做出權(quán)衡。這種辦法因?yàn)镚oogle DeepMind在玩Atari和圍棋(Alphago)游戲中的表現(xiàn)而變得流行。RL在現(xiàn)實(shí)世界的一個(gè)例子是Google數(shù)據(jù)中心在優(yōu)化制冷效率當(dāng)中的應(yīng)用。Google的RL系統(tǒng)取得了將制冷成本降低40%的效果。在可模擬的環(huán)境(比如視頻游戲)中采用RL代理的一個(gè)重要的天然優(yōu)勢(shì)是訓(xùn)練數(shù)據(jù)是可以生成的且成本極低。這與有監(jiān)督的深度學(xué)習(xí)形成了鮮明對(duì)比,后者往往需要昂貴且在現(xiàn)實(shí)世界中很難獲得的訓(xùn)練數(shù)據(jù)。
應(yīng)用:多個(gè)代理以共同的模型在環(huán)境中以自己的實(shí)例進(jìn)行學(xué)習(xí),或者通過(guò)在相同環(huán)境下進(jìn)行互動(dòng)和相互學(xué)習(xí),學(xué)習(xí)在像迷宮或者城市街道那樣的3D環(huán)境下為無(wú)人車(chē)進(jìn)行導(dǎo)航,運(yùn)用逆向強(qiáng)化學(xué)習(xí)通過(guò)學(xué)習(xí)某個(gè)人物的目標(biāo)來(lái)概括觀(guān)察到的行為(比如學(xué)習(xí)駕駛或者賦予非玩家視頻游戲角色以類(lèi)似人類(lèi)的行為)。
主要研究人員:Pieter Abbeel (OpenAI),David Silver,Nando de Freitas,Raia Hadsell,Marc Bellemare (Google DeepMind),Carl Rasmussen (劍橋大學(xué)),Rich Sutton (Alberta),John Shawe-Taylor (倫敦大學(xué)學(xué)院)等。
公司:Google DeepMind,Prowler.io,Osaro,MicroPSI,Maluuba/微軟,NVIDIA,Mobileye。
2、生成模型
相對(duì)于用于分類(lèi)或回歸分析任務(wù)的判別模型,生成模型學(xué)習(xí)的是訓(xùn)練例子的概率分布。通過(guò)從這一高維分布中采樣,生成模型可以輸出新的類(lèi)似與訓(xùn)練數(shù)據(jù)的例子。這意味著,比方說(shuō),基于真實(shí)臉部圖像訓(xùn)練出來(lái)的生成模型可以輸出類(lèi)似臉部的合成圖像。要想了解這些模型如何工作的細(xì)節(jié),可參見(jiàn)Ian Goodfellow精彩的NIPS 2016指南文章。他介紹的生成對(duì)抗網(wǎng)絡(luò)(GAN)架構(gòu),是目前研究界尤其熱門(mén)的方向,因?yàn)檫@種架構(gòu)提供了一條通往無(wú)監(jiān)督學(xué)習(xí)的道路。GAN有兩個(gè)神經(jīng)網(wǎng)絡(luò):一個(gè)是生成器,它會(huì)以隨機(jī)輸入噪聲作為輸入,接受合成內(nèi)容(比如圖像)的任務(wù);另一個(gè)是鑒別器,它會(huì)學(xué)習(xí)真正的圖像看起來(lái)是什么樣的,然后接受辨別由生成器創(chuàng)造的圖像是真的還是假冒的。對(duì)抗訓(xùn)練可被看成是一個(gè)游戲,在這個(gè)游戲里面,生成器必須交替學(xué)習(xí)如何通過(guò)噪音來(lái)創(chuàng)造出逼真的圖像,逼真到鑒別器再也無(wú)法分清真?zhèn)蔚牡夭健_@一框架正在被延伸到許多數(shù)據(jù)形態(tài)和任務(wù)當(dāng)中。
應(yīng)用:模擬未來(lái)可能的時(shí)間序列(比如說(shuō)強(qiáng)化學(xué)習(xí)的任務(wù)規(guī)劃);超清晰圖像;通過(guò)2D圖像修復(fù)3D結(jié)構(gòu);對(duì)小型的帶標(biāo)簽數(shù)據(jù)集進(jìn)行歸納;從一個(gè)輸入推出多個(gè)正確結(jié)果的軟任務(wù)(比如預(yù)測(cè)視頻的下一幀);在對(duì)話(huà)接口(如聊天機(jī)器人)中創(chuàng)建自然語(yǔ)言;加密;當(dāng)并非所有數(shù)據(jù)都帶標(biāo)簽時(shí)進(jìn)行半監(jiān)督學(xué)習(xí);藝術(shù)風(fēng)格的變換;合成音樂(lè)和語(yǔ)音;圖像修復(fù)。
公司:Twitter Cortex,Adobe,Apple,Prisma,Jukedeck*,Creative.ai,Gluru*,Mapillary*,Unbabel。
主要研究者:Ian Goodfellow(OpenAI), Yann LeCun 和 Soumith Chintala(Facebook AI Research), Shakir Mohamed 和 A?ron van den Oord(Google DeepMind), Alyosha Efros(Berkeley)等。
3、帶記憶的神經(jīng)網(wǎng)絡(luò)
為了讓AI能像我們?nèi)祟?lèi)一樣歸納不同的現(xiàn)實(shí)世界環(huán)境,它們必須能夠不斷學(xué)習(xí)新任務(wù)并記住如何在未來(lái)執(zhí)行所有這些任務(wù)。然而,傳統(tǒng)神經(jīng)網(wǎng)絡(luò)一般都不能記住此類(lèi)任務(wù)序列。這一缺點(diǎn)的術(shù)語(yǔ)叫做災(zāi)變性失憶(catastrophic forgetting)。之所以會(huì)發(fā)生這種情況,是因?yàn)樵谝粋€(gè)神經(jīng)網(wǎng)絡(luò)中對(duì)于解決任務(wù)A很重要的權(quán)重在該網(wǎng)絡(luò)隨后受訓(xùn)解決任務(wù)B時(shí)會(huì)發(fā)生變化。
不過(guò)有若干強(qiáng)大的架構(gòu)能賦予神經(jīng)網(wǎng)絡(luò)不同程度的記憶功能。這些就包括了長(zhǎng)短期記憶人工神經(jīng)網(wǎng)絡(luò)(LSTM,遞歸神經(jīng)網(wǎng)絡(luò)的派生),這種網(wǎng)絡(luò)能處理和預(yù)測(cè)時(shí)間序列;為了自行學(xué)習(xí)復(fù)雜數(shù)據(jù)結(jié)構(gòu)并在其中導(dǎo)航,DeepMind的可微神經(jīng)計(jì)算機(jī)結(jié)合了神經(jīng)網(wǎng)絡(luò)和內(nèi)存系統(tǒng),學(xué)習(xí)的彈性權(quán)重合并(elastic weight consolidation)算法,視之前在任務(wù)中的重要性不同,這種算法可放慢特定權(quán)重的學(xué)習(xí);漸進(jìn)性神經(jīng)網(wǎng)絡(luò)( progressive neural networks),這種神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)任務(wù)相關(guān)模型的橫向聯(lián)系,從而從此前學(xué)過(guò)的神經(jīng)網(wǎng)絡(luò)中析取出有用的功能來(lái)執(zhí)行新任務(wù)。
應(yīng)用:可歸納到新環(huán)境的學(xué)習(xí)代理;機(jī)器臂空子任務(wù);無(wú)人車(chē);時(shí)間序列預(yù)測(cè)(比如金融市場(chǎng),視頻,物聯(lián)網(wǎng)等);自然語(yǔ)言理解和下一個(gè)單詞預(yù)測(cè)。
公司:Google DeepMind,NNaisense(?), SwiftKey/微軟研究院, Facebook AI Research。
主要研究人員:Alex Graves, Raia Hadsell, Koray Kavukcuoglu(Google DeepMind), Jürgen Schmidhuber(IDSIA), Geoffrey Hinton(Google Brain/Toronto), James Weston, Sumit Chopra, Antoine Bordes(FAIR)。
4、從更少的數(shù)據(jù)學(xué)習(xí),建立更小的模型
深度學(xué)習(xí)模型因?yàn)樾枰嫶笠?guī)模的訓(xùn)練數(shù)據(jù)才能實(shí)現(xiàn)最好性能而引人關(guān)注。比方說(shuō), 讓參賽隊(duì)伍挑戰(zhàn)自己的圖像識(shí)別模型的ImageNet Large Scale Visual Recognition Challenge(ImageNet大規(guī)模視覺(jué)識(shí)別挑戰(zhàn)賽)擁有120萬(wàn)張手工標(biāo)記的訓(xùn)練圖像,涵括了1000個(gè)對(duì)象類(lèi)別。如果沒(méi)有大規(guī)模的訓(xùn)練數(shù)據(jù),深度學(xué)習(xí)就沒(méi)有辦法集中到優(yōu)化設(shè)置上面,注入語(yǔ)音識(shí)別或者機(jī)器翻譯之類(lèi)的那些復(fù)雜的任務(wù)就無(wú)法執(zhí)行得好。當(dāng)單個(gè)神經(jīng)網(wǎng)絡(luò)用于端到端解決一個(gè)問(wèn)題(也就是說(shuō),把說(shuō)話(huà)的裸音頻錄音作為輸入然后輸出說(shuō)話(huà)的錄音文本)時(shí),這一數(shù)據(jù)需求只會(huì)越來(lái)越高。這跟用多個(gè)神經(jīng)網(wǎng)絡(luò)各提供中間表示是不一樣的(比如說(shuō),裸語(yǔ)音音頻輸入→音素→單詞→錄音文本輸出)。如果我們希望AI系統(tǒng)解決那些訓(xùn)練數(shù)據(jù)尤其具有挑戰(zhàn)性、成本又高、又敏感或者獲得又十分耗時(shí)的任務(wù)時(shí),從較少例子(比如1次或0次學(xué)習(xí))形成可學(xué)習(xí)優(yōu)化解決方案的模型就很重要了。當(dāng)針對(duì)小規(guī)模數(shù)據(jù)集進(jìn)行訓(xùn)練時(shí),其挑戰(zhàn)包括過(guò)度擬合,處理異常值的困難,訓(xùn)練和測(cè)試之間不同的數(shù)據(jù)分布等。一個(gè)替代的方案是用一個(gè)共同的流程將機(jī)器學(xué)習(xí)模型執(zhí)行之前任務(wù)獲得的知識(shí)轉(zhuǎn)移過(guò)去以改善新任務(wù)的學(xué)習(xí),這被稱(chēng)為是遷移學(xué)習(xí)(transfer learning)。
一個(gè)相關(guān)問(wèn)題是利用類(lèi)似數(shù)量或者數(shù)量顯著減少的參數(shù)開(kāi)發(fā)更小型的最新深度學(xué)習(xí)架構(gòu)。其優(yōu)勢(shì)包括更有效的分布式訓(xùn)練,因?yàn)閿?shù)據(jù)需要在服務(wù)器之間進(jìn)行溝通;從云導(dǎo)出新模型到邊緣設(shè)備需要更少的帶寬;可以部署到內(nèi)存有限的硬件,靈活性得到了改進(jìn)。
應(yīng)用:訓(xùn)練淺層網(wǎng)絡(luò)學(xué)習(xí)模仿原本基于大型帶標(biāo)簽訓(xùn)練數(shù)據(jù)而訓(xùn)練出來(lái)的深度網(wǎng)絡(luò)的表現(xiàn);參數(shù)更少但表現(xiàn)與深度模型相當(dāng)?shù)募軜?gòu)(比如SqueezeNet);機(jī)器翻譯。
公司:Geometric Intelligence/Uber, DeepScale.ai, 微軟研究院, Curious AI Company, Google, Bloomsbury AI。
主要研究人員:Zoubin Ghahramani(劍橋大學(xué)), Yoshua Bengio(蒙特利爾大學(xué)), Josh Tenenbaum(MIT), Brendan Lake(紐元大學(xué)), Oriol Vinyals(Google DeepMind), Sebastian Riedel(UCL)。
5、用于訓(xùn)練與推理的硬件
AI取得進(jìn)展的一個(gè)主要的催化劑是圖形處理單元(GPU)被重新利用到了訓(xùn)練大型神經(jīng)網(wǎng)絡(luò)模型上面。GPU跟按序列進(jìn)行計(jì)算的中央處理單元(CPU)不一樣,它提供了大規(guī)模的并行架構(gòu),可并發(fā)處理多個(gè)任務(wù)。考慮到神經(jīng)網(wǎng)絡(luò)必須處理龐大(有時(shí)候還是高維)的數(shù)據(jù),在GPU上面訓(xùn)練要比在CPU上訓(xùn)練快得多。這就是為什么自2012年AlexNet(首個(gè)在GPU上實(shí)現(xiàn)的神經(jīng)網(wǎng)絡(luò)) 發(fā)布以來(lái)GPU實(shí)際上已經(jīng)成為淘金熱的鐵鏟原因。這方面NVIDIA一直處于領(lǐng)先地位,把英特爾、高通、AMD以及最近進(jìn)入的Google甩在了身后。
但是GPU并不是專(zhuān)門(mén)用于訓(xùn)練或推理的硬件;它們?cè)瓉?lái)是為了替視頻游戲渲染圖像而創(chuàng)造的。GPU具有很高的計(jì)算精度,但卻不是隨時(shí)之需,同時(shí)還遭遇了內(nèi)存帶寬和數(shù)據(jù)吞吐量的問(wèn)題。這為Google之類(lèi)的大公司內(nèi)部新型的初創(chuàng)企業(yè)和項(xiàng)目開(kāi)放了競(jìng)技場(chǎng),使得后者可以設(shè)計(jì)和制造特殊的針對(duì)高維機(jī)器學(xué)習(xí)應(yīng)用的芯片。新芯片設(shè)計(jì)有望實(shí)現(xiàn)的改進(jìn)包括更高的內(nèi)存帶寬,基于圖的計(jì)算而不是基于向量(GPU)或者標(biāo)量(CPU),更高的計(jì)算密度,每瓦特的效率和性能提升。這令人興奮,因?yàn)锳I系統(tǒng)顯然為它的所有者和用戶(hù)帶來(lái)了加速回報(bào):更快更高效的模型訓(xùn)練→更好的用戶(hù)體驗(yàn)→用戶(hù)與產(chǎn)品的互動(dòng)更多→創(chuàng)造出更大規(guī)模的數(shù)據(jù)集→通過(guò)優(yōu)化改進(jìn)模型性能。因此,那些能以更高計(jì)算效率和能效更快訓(xùn)練并部署好AI模型的人將具備重大優(yōu)勢(shì)。
應(yīng)用:模型訓(xùn)練更快(尤其是基于圖的訓(xùn)練);以很高的能效和數(shù)據(jù)效率做出預(yù)測(cè);在邊緣層(物聯(lián)網(wǎng)設(shè)備)運(yùn)行AI系統(tǒng);隨時(shí)偵聽(tīng)的物聯(lián)網(wǎng)設(shè)備;云基礎(chǔ)設(shè)施即服務(wù);無(wú)人車(chē)、無(wú)人機(jī)和機(jī)器人。
公司:Graphcore, Cerebras, Isocline Engineering, Google(TPU), NVIDIA(DGX-1), Nervana Systems(英特爾), Movidius(英特爾), Scortex。
主要研究人員:?
6、仿真環(huán)境
正如前面討論過(guò)那樣,AI系統(tǒng)訓(xùn)練數(shù)據(jù)的生成往往是很有挑戰(zhàn)性的。此外,AI如果想在現(xiàn)實(shí)世界中發(fā)揮作用的話(huà)必須推廣到許多情況下也適用。而開(kāi)發(fā)可模擬真實(shí)世界的物理結(jié)構(gòu)和行為的數(shù)字化環(huán)境,可以為我們衡量和訓(xùn)練AI一般智能提供試驗(yàn)場(chǎng)。這些環(huán)境以裸像素的形式呈現(xiàn)給AI,后者然后采取行動(dòng)以便解決被設(shè)定(或者學(xué)會(huì))的目標(biāo)。在這些模擬環(huán)境下訓(xùn)練可以幫助我們理解AI系統(tǒng)時(shí)如何學(xué)習(xí)的以及如何對(duì)它們加以改進(jìn),但也能為我們提供有可能轉(zhuǎn)移到現(xiàn)實(shí)世界應(yīng)用的模型。
應(yīng)用:學(xué)會(huì)駕駛;制造;工業(yè)設(shè)計(jì);游戲開(kāi)發(fā);智慧城市。
公司:Improbable, Unity 3D, 微軟(Minecraft), Google DeepMind/Blizzard, OpenAI, Comma.ai, Unreal Engine, Amazon Lumberyard
研究人員:Andrea Vedaldi(牛津大學(xué))