不記得當時什么想法,時至今日,我依然保留著這個動態(tài)logo

那時的意氣風發(fā),如今成了AI時代再次出發(fā)的序章。

目前看,這是一個網(wǎng)頁,不知道以后是在美團APP開模塊,還是新開一個龍貓應用。目前無法生成圖片和視頻。問它有什么長處?

然后說自己本地生活服務很厲害,我的理解就是旅游出行規(guī)劃6,然后問了蘇州旅游規(guī)劃,還推薦哪家東西好吃,對比一下確實比其他大模型周到,甚至連店鋪都照顧到了,而且因為我做過攻略,這份推薦基本可信。

又隨機問了最近的熱播劇獻魚,想讓它用古龍小說風格介紹一下劇情。聯(lián)網(wǎng)狀態(tài)也不行,就是它的信息還沒更新到最近,起碼半個月時間。

下面是一些美團公布的測試成果,有興趣可自行查看:

根據(jù)多項基準測試綜合評估,作為一款非思考型基礎模型,LongCat-Flash-Chat 在僅激活少量參數(shù)的前提下,性能比肩當下領先的主流模型,尤其在智能體任務中具備突出優(yōu)勢。

因為面向推理效率的設計和創(chuàng)新,LongCat-Flash-Chat 具有明顯更快的推理速度,更適合于耗時較長的復雜智能體應用。

目前,美團在?Github、Hugging Face 平臺同步開源。

/?技術亮點?/

LongCat-Flash 模型在架構層面引入“零計算專家(Zero-Computation Experts)”機制,總參數(shù)量 560 B,每個token 依據(jù)上下文需求僅激活 18.6B~31.3 B 參數(shù),實現(xiàn)算力按需分配和高效利用。為控制總算力消耗,訓練過程采用 PID 控制器實時微調(diào)專家偏置,將單 token 平均激活量穩(wěn)定在約 27 B。

圖1:LongCat-Flash 架構圖

通過算法和工程層面的聯(lián)合設計,LongCat-Flash 在理論上的成本和速度都大幅領先行業(yè)同等規(guī)模、甚至規(guī)模更小的模型;通過系統(tǒng)優(yōu)化,LongCat-Flash 在 H800 上達成了 100 tokens/s 的生成速度,在保持極致生成速度的同時,輸出成本低至 5元/百萬 token

圖2:LongCat-Flash 的基準測試性能

分享到

崔歡歡

相關推薦