C114訊 7月5日消息(南山)6月30日,華為正式宣布開源盤古70億參數(shù)的稠密模型、盤古Pro MoE 720億參數(shù)的混合專家模型,同時(shí)開放基于昇騰AI平臺的模型推理技術(shù)。此次是華為首次將盤古大模型的核心能力開源。
但在7月4日(昨日),一篇技術(shù)論文在專業(yè)論壇Github上引起熱議。文章認(rèn)為,通過比較,發(fā)現(xiàn)盤古Pangu Pro MoE模型與Qwen-2.5 14B模型在注意力參數(shù)分布上有相關(guān)性,超正常范圍。
被質(zhì)疑“抄襲”阿里云的模型,華為盤古Pro MoE技術(shù)開發(fā)團(tuán)隊(duì)今日迅速進(jìn)行了公開回應(yīng)。
回應(yīng)稱,我們注意到近期開源社區(qū)及網(wǎng)絡(luò)平臺關(guān)于盤古大模型開源代碼的討論。
盤古Pro MoE開源模型是基于昇騰硬件平臺開發(fā)、訓(xùn)練的基礎(chǔ)大模型,并非基于其他廠商模型增量訓(xùn)練而來,在架構(gòu)設(shè)計(jì)、技術(shù)特性等方面做了關(guān)鍵創(chuàng)新,是全球首個(gè)面向昇騰硬件平臺設(shè)計(jì)的同規(guī)格混合專家模型,創(chuàng)新性地提出了分組混合專家模型(MoGE)架構(gòu),有效解決了大規(guī)模分布式訓(xùn)練的負(fù)載均衡難題,提升訓(xùn)練效率。
回應(yīng)強(qiáng)調(diào),盤古Pro MoE開源模型部分基礎(chǔ)組件的代碼實(shí)現(xiàn)參考了業(yè)界開源實(shí)踐,涉及其他開源大模型的部分開源代碼。我們嚴(yán)格遵循開源許可證的要求,在開源代碼文件中清晰標(biāo)注開源代碼的版權(quán)聲明。這不僅是開源社區(qū)的通行做法,也符合業(yè)界倡導(dǎo)的開源協(xié)作精神。
據(jù)了解,盤古是華為推出的一系列超大規(guī)模人工智能預(yù)訓(xùn)練模型,涵蓋自然語言處理、計(jì)算機(jī)視覺、科學(xué)計(jì)算等多個(gè)領(lǐng)域。其名稱寓意“開天辟地”,象征著華為在人工智能基礎(chǔ)研究和行業(yè)應(yīng)用上的突破性探索。盤古模型自發(fā)布以來,已在多個(gè)行業(yè)中實(shí)現(xiàn)落地,包括金融、制造、能源、交通等,助力企業(yè)實(shí)現(xiàn)智能化升級。