中國工程院院士、浪潮集團首席科學(xué)家王恩東
計算如何應(yīng)對AI的需求
眾所周知,這輪人工智能浪潮爆發(fā)很重要的一個原因,就在于以GPU為代表的異構(gòu)計算帶來的算力的跨越式發(fā)展,為深度神經(jīng)網(wǎng)絡(luò)算法應(yīng)用于大數(shù)據(jù)處理提供了可能性。來自O(shè)penAI的一份報告佐證了這一點,2012年以來,AI訓(xùn)練中使用的計算力每3.5個月增長一倍,6年增長30萬倍以上。在此期間,硬件算力的提升一直是人工智能快速發(fā)展的重要因素。目前,GPU加速計算成為一種主流的AI計算形態(tài),同時可定制計算開始興起,谷歌、寒武紀(jì)、百度等公司都推出了自主研發(fā)的AI芯片。
美國杜克大學(xué)終身副教授、美國自然科學(xué)基金委智能與可持續(xù)計算產(chǎn)學(xué)合作中心主任陳怡然是一位從事AI芯片研究的頂尖學(xué)者。他認(rèn)為“過去五年如果單看GPU的單板計算能力,只提高了3-4倍,但參數(shù)提高了幾百上千倍。需要有更加高效的AI芯片,才能彌補摩爾定律本身發(fā)展限制以及參數(shù)增加所帶來的算力差距。”
微軟加速器CEO檀林則認(rèn)為:“英特爾再迭代兩到三代,基本就到物理極限了,通用計算的這種芯片結(jié)構(gòu)未來已經(jīng)不能引領(lǐng)信息產(chǎn)業(yè)發(fā)展?,F(xiàn)在出現(xiàn)這么多XPU是一件好事,超級摩爾定律會在不同的新的技術(shù)里繼續(xù)發(fā)揮摩爾定律的原則,推動技術(shù)的發(fā)展和應(yīng)用的百花齊放?!贝送猓瑏碜陨虦萍佳芯吭旱目偙O(jiān)顏深根還談到:“在AI領(lǐng)域比如圖像、語音計算模式有很大的區(qū)別,在不同的應(yīng)用場景下計算模式也有很大的區(qū)別,例如在移動端、在物聯(lián)網(wǎng)設(shè)備上和在服務(wù)器上也有很大的區(qū)別,因此XPU的發(fā)展趨勢會持續(xù)下去。”
美國工程院院士、美國加州大學(xué)洛杉磯分校教授叢京生是一位從事可定制計算研究的頂尖學(xué)者,他認(rèn)為“AI發(fā)展一是因為互聯(lián)網(wǎng)帶來的大數(shù)據(jù),二是計算使AI無所不在。深度學(xué)習(xí)實際上是借助大數(shù)據(jù)和大計算來完成的,但神經(jīng)網(wǎng)絡(luò)的復(fù)雜性增長的非常快,可定制計算必須要達到相應(yīng)的計算能力才能推動人工智能的繼續(xù)發(fā)展?!痹趨簿┥磥恚窈驛I的大多數(shù)計算工作都將在可定制的專用加速器上來運算,而通用處理器只負(fù)責(zé)協(xié)調(diào)計算的過程,“這是一個非常漂亮的技術(shù),它有一個共用的數(shù)據(jù)通道,再加上控制邏輯,各種各樣的指令都可以執(zhí)行?!?/p>
除了專用加速器這一方向,如何讓現(xiàn)有的產(chǎn)品和技術(shù)發(fā)揮最大價值也是方法之一。浪潮AI&HPC總經(jīng)理劉軍談到“如何在計算量劇增的環(huán)境下獲得更高的研發(fā)效力是一大挑戰(zhàn),浪潮的AI計算產(chǎn)品線一直在追求極致的性能。”據(jù)悉,在此次AICC大會上,浪潮發(fā)布的AI超級服務(wù)器AGX-5每秒可提供的AI計算是2千萬億次!
谷歌首席AI科學(xué)家Jeff Dean曾經(jīng)說過:“我們需要的是超過現(xiàn)在一百萬倍的計算能力。”或許,這句話更能反映出AI發(fā)展對計算的焦灼與期待。
AI給計算提出新挑戰(zhàn)
現(xiàn)實正如王恩東院士所說那樣,AI對計算力的無止境需求,正推動越來越多的計算形態(tài)涌現(xiàn),可定制計算、邊緣計算乃至更加顛覆性的量子計算技術(shù),為AI計算賦予了充滿想象空間的未來。
百度深度學(xué)習(xí)技術(shù)平臺部負(fù)責(zé)人馬艷軍談到AI深度學(xué)習(xí)跟硬件結(jié)合需要在并行能力、調(diào)度、異構(gòu)計算等領(lǐng)域做進一步的整合融合來提升效率。陳怡然教授則認(rèn)為AI芯片要想提高能效,一定要打破通用性。但目前在設(shè)計上依然面臨5大挑戰(zhàn),一是大容量存儲和高密度計算,二是面向特定領(lǐng)域的架構(gòu)設(shè)計,三是終端和“云”的需求差異,四是芯片設(shè)計要求高、周期長、成本昂貴,五是架構(gòu)及工藝面臨的挑戰(zhàn)。
AI和計算相互需求彼此促進——中美頂尖專家說
在業(yè)界看來,采用半導(dǎo)體工藝的經(jīng)典計算機在未來數(shù)年之間,很可能就會到達工藝的極限,這也讓很多人對量子計算寄予厚望。在中國科學(xué)技術(shù)大學(xué)的朱曉波教授看來,超導(dǎo)量子計算比所有的經(jīng)典計算機都要快,但建造量子計算機的一個核心難題是可擴展性和隔離性的內(nèi)存性矛盾,“量子比特的脆弱性遠(yuǎn)遠(yuǎn)不能用經(jīng)典比特理解,它是高精度模擬的,是量子化的,如果受到的干擾稍微大一點點,它的信息根本沒法保存和運算,要求跟外界環(huán)境和相互作用的比特隔離起來。但同時我們又希望可以將它擴展成一個通用的計算機,至少要幾千幾萬個比特才能進行精準(zhǔn)計算?!?/p>
朱曉波坦承:“在很長一段時間內(nèi),量子計算的加速能力更多會局限在某些特定問題上,但將來云接入量子計算會是一個趨勢。”
雖然量子計算還遠(yuǎn)沒有到應(yīng)用階段,但從谷歌、微軟、IBM等科技巨頭的動向看,量子計算和人工智能的結(jié)合將是未來最大的熱門科技之一。
中國工程院院士、北京大學(xué)教授高文所從事的類腦視覺研究,是一個典型的邊緣計算+AI的融合技術(shù)?!艾F(xiàn)在云端的視頻處理,大部分是沒有效的,只有少部分能有效工作,“在他看來:“我們現(xiàn)在需要一場革命,把現(xiàn)在的攝像頭顛覆掉,按照類腦的方式做一個新的攝像頭,做一個新的視覺系統(tǒng)。而這項研究的挑戰(zhàn)之一,就是未來怎么將數(shù)字視網(wǎng)膜或者類腦數(shù)字視網(wǎng)膜變成芯片,集成到攝像頭之中,這是業(yè)界共同的挑戰(zhàn)。
AI與計算的密切關(guān)系,或許比想象中還要來的緊密,這也促使我們對AI計算投入更多的重視。而圍繞AI需求研討AI計算,促進AI技術(shù)創(chuàng)新與合作發(fā)展,恰恰是AICC大會的宗旨所在。作為一個國際性的AI計算交流平臺,AICC大會致力于推動“計算讓AI無處不在“。