AGI時代很快會來臨,現(xiàn)在的AI跟以前的AI有什么區(qū)別呢?

其實就是在智慧能力上。以前我們很多時候都是想著怎么用方法去解決,或者說我們用什么工具去解決一個問題,現(xiàn)在并不是在用一個工具來解決問題。不管之前最早的數(shù)學建模,再到后來的深度學習的網絡DNN,再到后面卷積神經網絡做圖像的,再到其他的,比如說語言模型的循環(huán)神經網絡,他們其實本質上是在找一種方法。

大模型的本質問題它解決了什么,解決了規(guī)模,并不是以前的傳統(tǒng)人工智能架構不好。

第一,在超大超長的文本上一個特征的抽取問題,以前是用循環(huán)神經網絡那就會有依賴,依賴的話就意味著你無法把規(guī)模做大。

第二,規(guī)模做大之后會出現(xiàn)什么東西,我們都很難去理解。存儲的人經常會講,我做一個存儲系統(tǒng),當達到了一定規(guī)模之后,它的可靠性,它的性能,它的穩(wěn)定性以及它的QoS會有很多的挑戰(zhàn),在1萬個并發(fā)、100萬并發(fā)、1億個并發(fā)的時候,你面臨的規(guī)模是不一樣的。這些是上一個時代,互聯(lián)網時代阿里云成功的經驗,阿里云很早地具備了上億級客戶應用這種大型架構的實踐,所以它解決了大家用傳統(tǒng)的,比如說你用IOE你解不了的問題。

同樣的道理,縮放原理其實就是大模型的第一性原理,它是OpenAI總結出來的,它認為一個模型的智能化水平跟你模型提供的數(shù)據(jù)量以及模型的運算量,還有模型的參數(shù)規(guī)模,這三者進行一個匹配之后,你的模型的lost將會越來越小,lost就是我檢驗這個模型的一個損失,拿一組的驗證問答,我看它跟結果之間的差異到底足不夠足夠大。他堅信這個原則,GPT1和GPT2剛出來的時候,他其實跟谷歌的bard差異是很大的,兩者之間我可以稱之為,bard是第一梯隊,而GPT是第二梯隊,甚至于我們都知道的引發(fā)這一次大語言模型的關鍵的論文是谷歌發(fā)明的,包括我們后來看到的谷歌其實在AI這個領域,它其實有了所有的技術經驗。但是他缺乏這個問題就是,他沒有把模型去做大,他沒有去做到最終。

單字接龍就解決了你想象到的所有的中間功能,而且還消亡了很多的AI中間狀態(tài)。所以不管我們相不相信,至少這是在當前對我們理論上最有指導的理論,那就是我們要相信縮放原理,業(yè)界其實也是這么干的。

大家可以看到現(xiàn)在的國內當中,GP4大概就是個萬億模型的一個參數(shù),但事實上最近大家一直在炒作的,至少在當前2024年的今天,大模型的參數(shù)是以萬億為門檻的;千億為門檻的那些東西,就是跟我們傳統(tǒng)的那些,像咱們現(xiàn)在看到的百億和千億這些開源的模型,它很多時候是為了繁榮生態(tài)做的,真真正正的實際的大模型能力可能在萬億級別才能解決這個問題。

其實文生圖和文生視頻本身模型的架構或者說它的參數(shù)量是遠低于自然語言模型的,而語言是最復雜的東西。當語言被突破以后,其他東西一次在一個確定性的賽道上有足夠的資金投入,它就會爆發(fā)出結果。

所以你看到Sora它僅僅是個demo版本或者說一個內測版本,它的原始數(shù)據(jù)量大概是100G,包括前面說的1TB級的數(shù)據(jù),其實很多人會講TB有什么大的值得存儲廠商討論嗎?大家要清楚我們講的是訓練語料和數(shù)據(jù)集,而數(shù)據(jù)集在清洗之前的話一般是100倍以上的一個規(guī)模。我們可以預見的將來就是2024年肯定會有,國內的大模型廠商,它的原始素材采集量會在100PB以上,這是一個必然的結果,而且是確定性的。

在海量的數(shù)據(jù)集上,我們存儲該怎么來應對?

大家開始論證機器AI創(chuàng)造數(shù)據(jù)來做訓練語料的可能性以及它是否可行,至少有一些理論認為是可行的,所以我認為未來的存儲架構將會發(fā)生極大轉變。

傳統(tǒng)的我們的檢索和數(shù)據(jù)訪問模式與新的AI的訪問模式如何進行交互和結合,這都是問題。所以我們還是從最基礎的,大家最容易忽視的數(shù)據(jù)預處理這個場景來開始看。

其實數(shù)據(jù)預處理在大數(shù)據(jù)時代其實已經很多了,今天跟過去有什么區(qū)別,以前清洗量沒那么大,現(xiàn)在清洗量可能到90%或者99%的數(shù)據(jù)都會被淘汰掉。

第二,以前我們是半結構化數(shù)據(jù)會居多,所以我們有一些傳統(tǒng)的引擎去解,大家都知道大數(shù)據(jù)其實就是一個確定性的函數(shù),而AI是一個概率分布的抽樣,所以它倆是一個很大差異的,所以它處理數(shù)據(jù)的方式也非常的不一樣。

我們在考慮到這兩個場景之后,首先考慮第一個,如何采集足夠多的世界知識來讓你的AI更加的智能。

阿里云提供了OSS的傳輸加速,可以覆蓋全球的所有主要區(qū)域,滿足快速的數(shù)據(jù)采集功能。而且我們針對大型的數(shù)據(jù)采集,會有新的商業(yè)模式,因為這是一個全新的時代,我們不會部署在原有的商業(yè)模式上止步不前,我們希望跟大家一塊探索更多的可能性。

第二,我們看到數(shù)據(jù)清洗,以前其實大部分都是用大數(shù)據(jù)的生態(tài)來做清洗,我們簡單的一個數(shù)據(jù)湖存儲就可以解決這個問題。但是現(xiàn)在你會發(fā)現(xiàn)多模態(tài)里邊,比如說Sora預測的時候,它出幀的時候它出的是什么幀呢?它抽取的是一個特定場景的帪,它并不是一個跳變的東西,所以希望機器可以學習在一個長鏡頭下不同的物理世界的規(guī)律,以及如何平滑演變的物理規(guī)律,所以他會在出帪有很多的AI的操作,轉碼的、出幀的、找關鍵幀的,然后如何識別它是一個長鏡頭區(qū)域。

在谷歌文生圖的時候,其實大概也是谷歌先提出來的,我們會發(fā)現(xiàn)歷史在互聯(lián)網上的語料,圖片和文字之間的對比和關聯(lián)是很差的,它缺乏足夠豐富的信息。那怎么辦呢?谷歌當時提供了一個自動生成的這樣一個模型,就相當于我為了訓練一個很強大的生成模型,我先要訓練一個很強大的判定模型,所以先用圖生文,再用圖生文造就出來的書內容,再去訓練一個更加強大的文生圖。所以你會發(fā)現(xiàn)整個過程中它是很多個AI在處理這些過程,數(shù)據(jù)會進行很多輪的清洗。

這個清洗過程中會有大量的臨時數(shù)據(jù)產生,它不僅對性能要求很高,同時他還需要非常隨時的彈性的釋放,傳統(tǒng)的存儲是滿足不了的。但是如果你用全閃存的分布式存儲是否值得,我相信不會有人會給一個數(shù)據(jù)清洗工程師配套一套高端的并行的渲染的文件系統(tǒng)。所以這個時候我們推出了我們的彈性臨時盤,更便宜、按需、隨時釋放,同時跟你的上層的ECS和GPU服務器之間是解耦的,沒有任何強關聯(lián)。

其次就是訓練,最關鍵的問題,CheckPoint的問題,很多人都在講這個問題,這其實是我們存儲人的悲哀。我們的塊存儲在多少年前都是已經實現(xiàn)了快照,大模型時代需要tenseflow 來做,我們?yōu)槭裁吹搅舜竽P蜁r代,需要人家需要人家配套式來做,需要通過服務來做,而我們并沒有把這一層給它替換掉。在座的是不是覺得很慚愧,我也覺得很慚愧?你看GPT4他大概用了25,000張卡去訓練了大概三個月,他整個的GPU利用率只有30%多,原因并不是說它的存儲不夠,大家不要以為說GPT存儲不行,雖然我也不知道他用的什么存儲。它的原因主要是在于AI跟HPC有個很大的區(qū)別,就是HPC它是確定性的任務,一般情況下很少犯錯誤。而AI是一個煉丹的過程,隨時都有可能錯誤,你都不知道錯誤從哪里來,所以大家都需要不斷的把錢給CheckPoint,以前可能是一天一個CheckPoint,在HPC的時候,現(xiàn)在在AI的時候,英偉達在去年推薦的是4個小時,我前兩天去跟頭部的客戶常常聊說如果進入萬卡時代,我們要求是5分鐘打一個,因為我等不起30分鐘。

這么多年存儲人夢寐以求的超大性能需求場景終于出現(xiàn)了,這個參數(shù)量會從千億到萬億,一個CheckPoint大概20T左右,20T客戶要求多少時間?5分鐘寫完,大概你就是200GB/s一個帶寬。而上面講了張量并行、數(shù)據(jù)并行,CheckPoint如果要加載起來的話不是加載一份,現(xiàn)在張量并行度默認就是8以上了,你至少得加8分,200G的帶寬你再讀帶寬乘以8,你大概1.6T,所以大家看到一個TB級帶寬吞吐的一個場景出現(xiàn)了。但是這個場景現(xiàn)在大家滿足起來都很難,雖然有些人會宣傳我是TB級的帶寬,但是它是用多少臺機器堆出來的,這個就是我們大家需要討論的問題,我們如何去滿足這個場景。

當然阿里也做了很多的優(yōu)化。

首先RDMA網絡,我們暫時在AI的Cloud或者meta,meta就是建了兩張網,一張是24萬張,用的Infiniband。另外一張他用的Rocky網絡,然后他發(fā)布了說我這個Rocky網絡的性能其實跟Infiniband另外一個是接近的。

過去幾年,計算端和存儲端的RDMA網絡并沒有完全打通在云上。原因很簡單就是說,要滿足云上各種VPC網絡各種的需求,你就不能再摒棄TCP已有的一些東西。但是AI時代來得比較好的一點,就是說其實這東西我10年前我是特別希望這種場景出現(xiàn)的,場景又單一,操作系統(tǒng)全部都一致,硬件一個型號一個批次,對存儲來說這是特別好的一個場景,我就只需要滿足典型的特定的場景。

所以我們有時候做企業(yè)產品主要是做減法,你如果減的越多,你就做出來越高效,我就可以去定制屬于我自己的CPFS Client(分布式讀緩存),基于我們的大地分布式存儲,我們把CPU Cache,本地 Cache,然后還包括各個節(jié)點之間,我們做分布式 Cache,然后這樣的話整個的元數(shù)據(jù)開始和數(shù)據(jù)開始就做起來了。如果是讀請求比較多的時候,post語音下來之后,尤其我又可以做到并行的訪問,所以整個的帶寬是可以做得很大。    

第二,我們把很多東西放在我們的智能的網卡里邊來卸載了,這樣的話就達到了一個很低時延的一個效果。當然這不是結束,這只是個開始。

其次就是推理。大模型的推理有兩種情況,一種情況就是說大廠,比如說我們講OpenAI,它的推理,首先他在推理之前我們會對模型進行一個量化,剪枝,讓模型做的特別的小,讓推理成本降低,因為訓練是拿入場券的,推理是生死線,你如何在保證因為質量的情況下降低推理的成本,是你商業(yè)成功的一個基礎,所以未來一定推理是一個最大的成本中心,遠超訓練。

而訓練當前的基礎是什么?因為咱賣了500億美金的卡,整個IT消耗了1,000億美金,未來的推理可能是訓練的5倍以上,那只是當前的水平,因為一年在訓練上開銷是1,000億,推理上可以看5,000億左右的一個美金的市場,所以未來推理是一個萬億市場的可替代空間。所以在推理的時候,我們一般會把模型精巧之后變小。其次做推理很多時候是創(chuàng)業(yè)企業(yè),他們需要的是不同的模型來滿足不同的需求,動態(tài)的加載。比如說我們現(xiàn)在當前商業(yè)化比較成功的文生圖,做PPT這些領域場景,他做的模型其實都比較小。但是每一個人加載的時候需求其實都不一樣,所以每次都是一個動態(tài)的加載。那能不能把這些模型全部放在我們上面講的CPFS全閃存儲里面,完全可以,但是成本如何解決?

所以第二個在這種場景下,大部分大家都是按需來做,所以當大家用了小卡,做推理卡,是彈性的容器場景。所以這個時候,你會發(fā)現(xiàn)第一個問題就是并行的時候,你如何把你的模型加載起來,以Stable Diffusion為例,你做這個文生圖的時候,不同的監(jiān)控的一般2~10個G你加載起來之后,一個任務你生一張圖現(xiàn)在效率挺高的,30秒到一分鐘你生成了一張圖,但是你要把10個G的文件加載到你的容器內存里邊,你可能也需要1分鐘,甚至以前還需要5分鐘,結果你GPU總共花了6分鐘,5分鐘的GPU錢是花在了存儲加載上。

所以針對這個場景,我們提供了一個比較簡單的處理方式,我們提供了我們的osS加速器是一個server端的Cache,我把你最熱的那部分模型給你Cache到我SSD層上,這一層對外它是一個統(tǒng)一的namespace,你不需要再去改變任何的架構,你直接訪問就行了,不需要做任何操作。

其次針對加速器這種高性能的場景,我們很多時候發(fā)現(xiàn)好好的一個東西他沒用好,給你機會你不中用,你把后臺做好了,你前面的OSS、FS不行,這也是我們值得詬病的一個場景,就是為什么對象存儲在原生場景下,用csn插件竟然不是一個原生的邏輯,所以我認為這可也是我們在座的可以去探討和去探索的一個地方。

我們以前可能會有一些強制限制,現(xiàn)在我們是在線彈性,你用多少彈多少。另外,我們可以把TB的數(shù)據(jù)我們可以瞬間落實到百GB的一個量級,但是百GB可能有多個進程并發(fā),多個請求并發(fā)。同時我們通過OSS和FS緩存機制,然后最重要的是強一致性,你不需要擔心,剛才我們講存儲里邊每個廠商都有一堆的存儲產品,每個存儲產品這邊的數(shù)據(jù)流動實際上有一個非常麻煩的問題,很多時候數(shù)據(jù)流動過來了,權限沒有流動過去;權限流動過去了,元數(shù)據(jù)參數(shù)信息沒有流動過去,比如說對象存儲的語義和文件存儲的語義差異很大的。

這個時候我們的強一致性就不需要考慮那些問題,就是一個極高性能對象存儲,但是它價格還是跟對象存儲沒太大差異,何樂而不為。

最后一個,其實我認為在現(xiàn)階段其實是比較重要的,很多人忽視了這個場景,當前大模型可能是在一個炒作周期的頂峰,但是落地該怎么落地呢,文達的觀點就是說你通過AI引擎建成加上GPT3.5,你可以達到GPT4.0的效果,如果過兩天GPT5.0出來之后,你通過AI建成你可能達到更好的效果。

所以我們可以堅信就是我們做了很多東西,它一定是有價值的,當然也可能潑一盆涼水,OpenAI的奧特曼說你做這些都是無用功,大模型會把你所有的這些所謂的定制化全部給你干掉,因為我們會發(fā)現(xiàn)世界上的第一性原理就是說什么,不要針對特定場景去定制,我會把所有場景全部適配掉,大家可以自己根據(jù)自己的看法去判定,有些是階段性策略,有些是長期的策略。

所以我們其實也一直在AI Landing這一塊做了很多的努力,比如說阿里的通訊千問,其實我們有兩套平臺,千尋平臺,百鏈平臺,就是可以讓不具備AI能力,不具備大模型訓練能力的人,可以快速享受到這種技術突破所帶來的價值。所以我們從整個的服務層、轉化層、引擎層我們做了很多的優(yōu)化。

下面我講兩個最簡單的場景,第一個就是我一個典型的客戶,他以前是做數(shù)據(jù)服務類的,以前你選很多東西你去找到你想要那個文件,或者以前經常還有人賣數(shù)據(jù),賣幾千條的結構化數(shù)據(jù)。他給我提了一個問題,他說大模型這么好,我想讓客戶隨便問,我就把他想要的東西給到他,我想這就是個典型的速度增強的一個場景。

但是你會發(fā)現(xiàn)現(xiàn)在的速度增強,包括OpenAI他做的速度增強其實非常弱,弱到爆,其實就是一個對話機器人,跟企業(yè)的生產是有很大一段距離的。

生產里邊最核心的是什么?數(shù)據(jù)庫,如何讓AI和數(shù)據(jù)庫結合起來,和你已有的知識結合起來,所以大家都會探討一個問題。如何把標量查詢和向量查詢在自然語言的環(huán)境下快速地集合,客戶的特定狹窄場景,精準的給到一個速度增強,這是我們需要解決的問題。

一般的解決之道是什么呢?NLP2SQL這個時候你會發(fā)現(xiàn)每一個客戶你都要訓練,如果表太復雜的話,一般一個不太大的公司,它的表可能都會有幾千個列,你需要訓練投入量特別大,還需要有專業(yè)的人才。

第二個就是聯(lián)合查詢。你的標量查詢和向量查詢,向量查詢解決的是非結構化數(shù)據(jù)的查詢,標量查詢解決的結構化數(shù)據(jù)的查詢,它兩者之間的關聯(lián)怎么來解?很多時候是用不同的數(shù)據(jù)架構在中間做融合和穿插,那不是一個好的解決方案。我們一定要遵從一個如無必要勿增實體。

到這個階段后,你會發(fā)現(xiàn)向量數(shù)據(jù)庫會帶來極大的數(shù)據(jù)量,當前大家可能感知不是很明顯,未來可能就會很明顯了。你從非結構化,向量化化,你想以前我們結構化和非結構化數(shù)據(jù)比例是和數(shù)據(jù)價值是個什么情況,現(xiàn)在它相當于給非結構化數(shù)據(jù)增大了極高的數(shù)據(jù)價值,數(shù)據(jù)價值決定了存儲產業(yè)的價值,所以我們應該感謝這個時代,它給我們創(chuàng)造了很多數(shù)據(jù)價值,也創(chuàng)造了很多存儲價值,那意味著你能賣出更多的價值。所以我們用我們的表格存儲來做這樣的一個底座。

它有幾個好處,第一個就是說它是向量和標量在一個數(shù)據(jù)庫里邊,可以做聯(lián)合查詢,你就不需要那么復雜,用兩個數(shù)據(jù)庫做了數(shù)據(jù)之后再做交叉。很多人會做很多牽強的處理,比如說統(tǒng)一建索引,建完索引之后,然后再從向量查詢里邊抽出來索引和標量數(shù)的差異,再做一次,然后再做二次的連表,然后再把結果輸出來,沒有必要,我們以一個數(shù)據(jù)庫來解決這一個問題。

第二,我們跟我們的百煉平臺和千尋平臺進行了對接,這樣的話你可以一站式做數(shù)據(jù)的標準檢索項目查詢,你只要在一個層級上全部解決了,而且不需要做那些額外的處理。

還有一個問題就是,當前大家還沒有碰到瓶頸,很多人用AI AGENT的還是在實驗階段,小打小鬧,真真正正如果商用,如果去做成一個海量化的業(yè)務系統(tǒng)的話,它一定會面臨一個問題,向量化的速度、存儲成本和檢索成本,這個時候我們現(xiàn)在提供的是一個service的架構,這是在大部分數(shù)據(jù)庫里邊很少提供的。Service的架構就是說你可以按需來做,你查的多你就消耗的查詢資源多,你就多付點查詢的費用,你存的數(shù)據(jù)多,你多付點存儲的費用,同時我們還支持分級。

而最關鍵的問題其實就是開箱即用,不需要掌握那么多知識,普及是很重要的。

我相信AI時代,中國在這方面依然是領先的,所以這方面依然是我們存儲很大的機會。

第二就是在服務的過程中你會服務,當你把所有的今天你能看到的、國民級APP全部做了AI化改造之后,你就面臨一個很典型的問題,如何收費和計費的問題,你如何把這個客戶在AI上產生的這些消耗進行一個多租戶的管理,如果是1億的用戶,我怎么樣給他管理。我們其實在這個場景下,我們做了自帶的消息模型,幫大家去存儲這些東西,但那些都不重要。

最重要問題是兩點,第一我們支持1億個虛擬表,這樣的話你可以對任何一個用戶做單獨的額度和配額的管理,還有計費計量的控制。

第二,我們剛才講了serless的產品,所以開發(fā)周期你可以從一個月,甚至幾個月縮短到幾天。今天我其實很零碎的把AI從數(shù)據(jù)準備、模型訓練和推理、AI如何落地講了一下,也介紹了一些阿里的產品,比如說我們的數(shù)據(jù)庫產品,同時支持傳統(tǒng)的文件語義和HDFS語義。在數(shù)據(jù)處理的時候,我們還推出了我們新的產品特性臨時盤,在多模態(tài)大模型的數(shù)據(jù)清治理情況下,可以大幅的降低你的存儲使用成本,然后而且非常高效。

在訓練的過程中,我們提供了我們的并行文件系統(tǒng)CPFS,它可以同時兼顧AI FACTOTY和AI COUND兩個場景,然后在AI推理上我們推出了加速器,可以讓你在對象存儲上來做AI的推理,同時獲取到像并行文件全閃存系統(tǒng)一樣的接近它的性能。同時我們在AI AGENT診斷上提供了速度增強,一些增強能力,以及大模型推理上的一些東西。

當然我相信,就像我剛開始說的,今天我講的只是這個時代的一個快照,我們其實有很多的領域值得去發(fā)掘。第一個領域,我們所有架構是否會發(fā)生改變?假如說到1:1的層級的話,我們的訓練是否還是一個樹形結構的元數(shù)據(jù),我們還是傳統(tǒng)的大數(shù)據(jù)之前的那種方式,我要把所有的訓練機全部 shuffle一遍,我們以前是為了防止梯度下降的時候下降的不夠隨機,不是一個最優(yōu)解。但當你到了全量的數(shù)據(jù)的時候,是否還需要?這個時候可能 key value storage serverless才是未來,所以我們一定堅信我們會做大做強我們的對象存儲的產品能力,來等待那個時代。

第二,大家都看到了Cache的重要性,你單靠一個server端的存儲是解決不了的,存儲永遠是整個數(shù)據(jù)中心中最慢的部件,不管你怎么優(yōu)化,它都是最慢的?,F(xiàn)在英偉達提出的觀點是什么?CPU和PCle太慢,而不是存儲太慢。

大模型最大的痛點是什么?是內存墻的問題,是顯存的內存不夠的問題。所以要解決這個問題的話Cache是很重要的,現(xiàn)在的Cache是覆蓋到哪了,少部分覆蓋的是server端的開始,比如說在傳統(tǒng)存儲上做加速,比如說我用全閃存做加速。第二種是我做元數(shù)據(jù)加速等。

下個時代我們需要考慮的是GPU的ROM和CPU ROM之間的CASH,比如說CheckPoint,1TB的數(shù)據(jù)是不是先 offload到CPU的ROM,GPU的ROM空出來之后我就可以繼續(xù)訓練了,再一步到持續(xù)化存儲,其實現(xiàn)在很多大型的模型已經這么做了,包括阿里派平臺上的 easy checkpoint,他已經在做這些相關的

第二是 GPU的數(shù)據(jù)調動,大家都知道GPS,GPU directory storage可以直接從GPU去加載,但是整個過程的控制指令還是CPU。英偉達GIDS是想從GPU虛擬出來了的一個隊列來做數(shù)據(jù)的加載,它解決兩部分問題,第一個問題就是說更精細化加載,以前GDS你是大塊大塊的加載,而GIDS你可以按需的去加載,這個時候你可以在一些小l的場景下效果可能達到一個很大。而這不僅僅是他當前的一個想法,他在這次的GTC上他做大型的DATASETACCCERLARE,他就把GPU的ROM和cpu ROM,還有本地的NVME,它做成一個統(tǒng)一的CASH慢慢做。???

他當前是在哪個神經網絡上在圖神經網絡上去做這個處理,因為圖神經網絡現(xiàn)在對于數(shù)據(jù)加載它的量很大,我們的常規(guī)的AI訓練它是有批次的,有順序的可以做預加載,當前的痛點并不強。但是我相信下一個時代一定是會有這樣的需求的,所以假設英偉達把這一套全部在CUDA里邊實現(xiàn)完成了之后,我們是如何去適配它,如何在這個場景下找到你獨特的存儲差異化,這是我們要考慮的一些問題。

還有我們是否能跳躍這個東西,我們往上看AI的訓練和推理都基于拍照紙,而且現(xiàn)在拍照只是主流,它的DATASET其實就是一個內碼,我們的存儲是不是可以在這一層上搞一個確定性的市場,一個確定性的場景,確定性的技術需求,而且不需要你發(fā)散,不需要你做兼容性,我覺得這也是我們值得考慮,這些都是我們值得去思索的。

分享到

nina

相關推薦