華為公布開源盤古 7B 稠密和 72B 混合專家模型

綜合中媒報導 ,華為(Huawei)30 日正式公布開源盤古 70 億參數的稠密模型、盤古 Pro MoE 720 億參數的爱华外汇官方网站混合專家模型,以及基於昇騰的模型推理技術。

華為表示 ,AVA外汇平台MT4下载此舉是公司踐行昇騰生態戰略的又一關鍵舉措 ,以推動大模型技術的研究與創新發展 ,並加速推進人工智慧在千百行業的應用與價值創造 。

華為公布開源盤古 7B 稠密和 72B 混合專家模型

此外 ,華為亦表示,盤古Pro MoE 72B模型權重、基礎推理代碼 ,以及基於昇騰的超大規模MoE模型推理代碼 ,均已正式上線開源平台;盤古7B相關模型權重與推理代碼則將於近期上線開源平台。

(本文由 MoneyDJ新聞 授權轉載;首圖來源 :Flickr/Kārlis Dambrāns CC BY 2.0)

想請我們喝幾杯咖啡 ?

每杯咖啡 65 元

x1
x3
x5
x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》
取消 確認

更多内容请点击【知识】专栏

精彩资讯