C114通信網(wǎng)  |  通信人家園

人工智能
2025/1/21 10:37

谷歌公布 Titans 系列 AI 模型架構(gòu):融合長短期記憶與注意力機(jī)制、突破 200 萬上下文 Token

IT之家  漾仔

谷歌研究院發(fā)文,公布了“Titans”系列模型架構(gòu),相應(yīng)模型架構(gòu)最大的特點(diǎn)是采用“仿生設(shè)計(jì)”,結(jié)合了短期記憶、長期記憶和注意力機(jī)制,支持超過 200 萬個(gè) Token 的上下文長度,目前相關(guān)論文已發(fā)布在 arXiv 上,谷歌計(jì)劃未來將 Titans 相關(guān)技術(shù)開源。

目前業(yè)界流行的 Transformer 模型架構(gòu)雖然在大多數(shù)場景表現(xiàn)優(yōu)秀,但其上下文窗口(Window)長度的限制,通常僅為幾千到幾萬個(gè) Token,這使得它們?cè)谔幚黹L文本、多輪對(duì)話或需要大規(guī)模上下文記憶的任務(wù)中,往往無法保持語義連貫性和信息準(zhǔn)確性。

而谷歌這一 Titans 系列模型架構(gòu)通過引入深度神經(jīng)長期記憶模塊(Neural Long-Term Memory Module)有效解決了相應(yīng)問題,其設(shè)計(jì)靈感號(hào)稱來自人類的記憶系統(tǒng),結(jié)合了短期記憶的快速反應(yīng)與長期記憶的持久特性,并通過注意力機(jī)制來著重執(zhí)行當(dāng)前的上下文(著重于用戶即時(shí)輸入的提示詞,并保留對(duì)于以往提示詞的準(zhǔn)確記憶)。

IT之家參考論文獲悉,Titans 具有三種架構(gòu)設(shè)計(jì)變體,分別是 Memory as a Context(MAC)、Memory as a Gate(MAG)和 Memory as a Layer(MAL),可以根據(jù)不同的任務(wù)需求整合短期與長期記憶。其中“MAC”架構(gòu)變體將長期記憶作為上下文的一部分,允許注意力機(jī)制動(dòng)態(tài)結(jié)合歷史信息與當(dāng)前數(shù)據(jù),適合處理需要詳細(xì)歷史上下文的任務(wù)。“MAG”架構(gòu)變體則根據(jù)任務(wù)需求,調(diào)整實(shí)時(shí)數(shù)據(jù)與歷史信息的重要性比例,專注于當(dāng)前最相關(guān)的信息。

谷歌重點(diǎn)強(qiáng)調(diào)了“MAL”架構(gòu)變體,該架構(gòu)主要將記憶模塊設(shè)計(jì)為深度網(wǎng)絡(luò)的一層,也就是從模型設(shè)計(jì)層面,直接將用戶的歷史記錄和現(xiàn)在輸入的上下文內(nèi)容進(jìn)行固定壓縮,之后交由模型的注意力模塊處理,因此效率相對(duì)較高,但輸出內(nèi)容效果不如“MAC”和“MAG”變體。

谷歌聲稱,Titans 系列模型架構(gòu)在長序列處理任務(wù)中的表現(xiàn)明顯優(yōu)于現(xiàn)有模型,無論是語言建模還是時(shí)間序列預(yù)測,Titans 在準(zhǔn)確性和效率上都展現(xiàn)了“壓倒性優(yōu)勢(shì)”,甚至在某些場景中超越了如 GPT-4 等具有數(shù)十倍參數(shù)的模型。

給作者點(diǎn)贊
0 VS 0
寫得不太好

免責(zé)聲明:本文僅代表作者個(gè)人觀點(diǎn),與C114通信網(wǎng)無關(guān)。其原創(chuàng)性以及文中陳述文字和內(nèi)容未經(jīng)本站證實(shí),對(duì)本文以及其中全部或者部分內(nèi)容、文字的真實(shí)性、完整性、及時(shí)性本站不作任何保證或承諾,請(qǐng)讀者僅作參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。

熱門文章
    最新視頻
    為您推薦

      C114簡介 | 聯(lián)系我們 | 網(wǎng)站地圖 | 手機(jī)版

      Copyright©1999-2025 c114 All Rights Reserved | 滬ICP備12002291號(hào)

      C114 通信網(wǎng) 版權(quán)所有 舉報(bào)電話:021-54451141