LG AI Research 于 8 月 7 日宣布推出韓國首個(gè)開源 AI 模型 EXAONE 3.0,標(biāo)志著韓國進(jìn)入了由美國科技巨頭以及中國和中東新興企業(yè)主導(dǎo)的全球 AI 領(lǐng)域。
EXAONE 3.0 開源模型基于 Decoder-only Transformer 架構(gòu),參數(shù)數(shù)量為 7.8B,訓(xùn)練數(shù)據(jù)量(tokens)為 8T,是一款針對(duì)英語和韓語的雙語模型。
▲ EXAONE 模型迭代路線
LG 新聞稿稱:“在為各種目的而構(gòu)建的 EXAONE 3.0 語言模型陣容中,7.8B 指令調(diào)整模型正在提前開源,以便可以用于研究。我們希望該模型的發(fā)布能夠幫助國內(nèi)外 AI 研究人員進(jìn)行更有意義的研究,幫助 AI 生態(tài)系統(tǒng)向前邁進(jìn)一步。”
官方測(cè)試顯示,該模型的英語能力達(dá)到“全球頂級(jí)水平”,真實(shí)用例平均分第一,超越了 Llama 3.0 8B、Gemma 2 9B 等一眾模型。在數(shù)學(xué)和編碼方面,EXAONE 3.0 的平均得分也排名第一,推理能力也較強(qiáng)。
而在韓語方面,EXAONE 3.0 實(shí)際用例和單一基準(zhǔn)的平均得分均排名第一。
LG 聲稱,EXAONE 3.0 與上一代產(chǎn)品相比,推理時(shí)間縮短了 56%,內(nèi)存使用量減少了 35%,運(yùn)營成本降低了 72%;與首次發(fā)布的 EXAONE 1.0 相比,成本降低了 6%。
該模型已在 6000 萬個(gè)與專利、代碼、數(shù)學(xué)和化學(xué)相關(guān)的專業(yè)數(shù)據(jù)案例上進(jìn)行了訓(xùn)練,并計(jì)劃在年底前擴(kuò)展到各個(gè)領(lǐng)域的 1 億個(gè)案例。