99国产精品欲av蜜臀,可以直接免费观看的AV网站,gogogo高清免费完整版,啊灬啊灬啊灬免费毛片

網易首頁 > 網易號 > 正文 申請入駐

Multi-Token突破注意力機制瓶頸,Meta發明一種很新的Transformer

0
分享至

機器之心報道

編輯:蛋醬、杜偉

Attention 還在卷自己。

當上下文包含大量 Token 時,如何在忽略干擾因素的同時關注到相關部分,是一個至關重要的問題。然而,大量研究表明,標準注意力在這種情況下可能會出現性能不佳的問題。

標準多頭注意力的工作原理是使用點積比較當前查詢向量與上下文 Token 對應的鍵向量的相似性。與查詢相似的關鍵字會獲得更高的注意力權重,隨后其值向量會主導輸出向量。

例如,與「Alice」Token 相對應的查詢向量能夠定位上下文中所有提及「Alice」的內容。然而,每個注意力權重只取決于單個關鍵字和查詢向量(除了歸一化為 1)。

對單個 token 向量相似性的依賴給注意力機制帶來了根本性的限制。在許多情況下,上下文的相關部分無法通過單個 token 來識別。例如,查找一個同時提到「Alice」和「rabbit」的句子需要查詢向量對這兩個 token 進行編碼。用一個注意頭查找「Alice」,再用另一個注意頭查找「rabbit」,可以分別找到這兩個詞,但不足以確定這兩個詞在哪里被同時提及雖然可以通過 Transformer 的層將多個 token 編碼成一個向量,但這需要增加維度,而且模型需要將大量容量用于這項任務。

在本文中,研究者提出了一種超越「單個 token」瓶頸的新型注意力機制 ——Multi-Token 注意力(MTA),其高層次目標是利用多個向量對的相似性來確定注意力必須集中在哪里。

而研究者僅通過對現有注意力機制進行簡單的修改去實現這一目標。他們設計了對注意力權重的卷積運算,該運算在三個維度上運行:鍵、查詢和注意力頭。這就允許其注意力權重以相鄰鍵、之前的查詢和其他頭為條件。

直觀地說,在上述例子中,MTA 可以先分別查找「Alice」和「rabbit」的提及,然后將這些注意力組合在一起,只關注兩者都存在的地方。



  • 論文:Multi-Token Attention
  • 論文鏈接:https://arxiv.org/abs/2504.00927

具體來說,這項研究的亮點在于:

  • 研究者首先用一個有趣的玩具任務進行實驗,該任務揭示了標準注意力的缺陷,并證明 MTA 可以輕松解決這一問題;
  • 接下來,研究者通過在標準語言建模任務中對 1050 億個詞庫的 880M 個參數模型進行預訓練,對本文的方法進行了大規模測試;
  • 研究者發現 MTA 在驗證復雜度和標準基準任務方面都有所改進,而參數數量只增加了 0.001%;
  • 此外,研究者還在長語境任務(如 Needle-in-the-Haystack 和 BabiLong)上評估了所生成的模型,結果發現 MTA 的表現明顯優于基線。

方法概覽

如圖 1(右圖)所示,本文提出的「Multi-Token 注意力」由建立在多頭注意力基礎上的三個重要部分組成:鍵 - 查詢卷積、頭混合卷積和帶深度縮放的組歸一化。

研究者提出了鍵 - 查詢卷積,以在頭部內組合多個鍵和查詢,并提出了頭卷積,在頭之間共享知識并放大重要信息。最后,研究者應用具有深度縮放功能的組歸一化來抵消殘差流,改善梯度流。



鍵 - 查詢卷積(key-query convolution)

對于 pre-softmax 卷積,MTA 在注意力 logit 上進行了一個卷積操作,并結合來自多個查詢和鍵 token 的信息:



鍵和查詢的長度維數中采用了卷積,同時 batch 和頭維數保持獨立。更確切地說,從查詢 q_i 到鍵 k_j 的注意力權重 a_ij 計算如下:



對于鍵,研究者使用指示函數 1_i≥j?j′將未來鍵歸零。但是,這樣的掩碼太復雜,無法實現(必須修改卷積 CUDA 內核),因此本文提出了一個更簡單的版本,將已有的因果掩碼應用了兩次:



對于 post-softmax 卷積,研究者同樣在注意力權重的頂部進行卷積操作:



這使得注意力權重之間的交互累加而不是相乘。研究者試驗了兩個版本,但默認情況下使用 pre-softmax 版本。每個注意力頭都有單獨的 θ 參數,所以它們可以執行不同的卷積操作。選擇的內核維數決定了如何將離得遠的 token 組合在一起。

頭混合卷積(head mixing convolution)

鍵 - 查詢卷積允許從不同的時間步中混合注意力權重,而研究者進一步提出在頭組中使用頭卷積,因此可以將不同頭的注意力權重組合起來。

具體地,對于大小為 c_h 的頭卷積內核,所有頭被分為 M/c_h 個組。在每個組中,研究者使用了不重疊的卷積操作。這樣一來,MTA 不僅允許在每個頭內部的多個查詢和鍵向量上調整注意力權重,還可以跨頭共享注意力信息。

舉例而言,考慮將所有頭分為兩個組,使內核大小為「c_h = 2」。當使用上標來表示頭指數時,則 A^1 和 A^2 是來自兩個不同頭的注意力權重。這時,新的注意力權重如下:



其中 w_11、w_12、w_21 和 w_22 是內核權重。這里 softmax 之后出現混合,但可以在 softmax 之前混合 logit。



將一切組合起來(putting everything together)

在前文中,研究者引入兩種不同的方式來混合注意力權重,一是跨鍵 - 查詢時間步,二是跨不同頭。這兩種方式都可以在單個 MTA 模塊中實現。每種方式都有 pre - 和 post-softmax 版本,因此有多種方法將它們組合在一起。如果都采用 pre-softmax 來混合,則可以通過單個 3 維卷積操作來實現,如下圖 2 所示。



實驗結果

研究者在一系列標準和長距離(long-range)依賴任務上對 MTA 架構進行了實驗,并與基線進行了比較,從「toy」任務開始。他們使用了鍵 - 查詢卷積 pre-softmax 和頭混合 post-softmax,另有說明除外。

簡單的 toy 任務

研究者首先測試了 toy 任務,以驗證本文方法相較于標準多頭注意力的有效性。此任務中為模型提供了一個塊序列,其中每個塊由 N 個隨機字母組成。相比之下,MTA 先是找到了每個問題字母的位置,然后使用卷積操作來增加所有 L 字母一起被發現的位置的注意力。

結果如下表 1 所示,如預期一樣,具有標準多頭注意力的 transformer 解決這項任務時,即使問題中只有「L = 2」字母,通常也無法找到目標塊。相比之下,MTA 以接近零誤差的成功率解決了所有版本的任務。



大型語言建模

對于語言建模實驗,研究者對 880M 參數的模型進行了預訓練,并比較了 Transformer、DIFF Transformer 和 Transformer with MTA。對于每個模型,他們進行了兩次訓練,并在下表 2 中提供了平均驗證困惑度。

結果顯示,經過 MTA 訓練的模型,在所有驗證數據集上均實現了性能提升,即使只在四分之一的層中應用鍵 - 查詢卷積,并且要比 DIFF Transformer 的可學習參數更少。此外,使用層 scaling 的組歸一化是一個重要組件,可以為 DIFF Transformer 和 MTA 架構提供更優越的性能。



接著,研究者在以上相同的六個數據集上對模型進行了另外 10.5B token 的微調,并將上下文長度從 2048 增加到了 4096。同時將 RoPE 的 θ 值增加到了 50 萬,將權重衰減變成 0,并將預熱步驟降為 50,其他參數與預訓練階段保持一致。結果表明,使用 MTA 生成的 Transformer 模型在困惑度評估中同樣優于新的基線。

在 zero-shot 設置下,研究者進一步評估了模型在一系列流行基準上的表現,結果如下表 3 所示。經過 MTA 訓練的模型在大多數基準上優于基線,并取得了更高的平均分,盡管這些并不是長上下文任務。



長距離依賴任務 Long-range dependency tasks

此前的研究表明,Transformer 很難找到相關信息,尤其是在長上下文中。

為了在這種情況下測試 MTA,研究者在三個任務中對訓練有素的模型進行了評估: LAMBADA、NeedleIn-A-Haystack 和 BabiLong。所有這些任務都要求模型幾乎要密切關注埋藏在上下文中的長距離 tokens。

LAMBADA。研究者觀察到使用 MTA 訓練的模型在正確猜測下一個單詞方面更勝一籌(如表 4),明顯優于基線 Transformer 模型。



如表 5 所示,使用 MTA 訓練的模型在所有「針數」和不同上下文長度的撈針能力都有顯著提高。



BabiLong。研究者將重點放在了 QA1-5 任務上,在這些任務中,正確的回答需要不同數量的事實或論據關系。輸入和目標輸出樣本如表 7 所示。



圖 4(左)展示了平均準確率,附圖 5 展示了每個任務的準確率。與其他模型相比,MTA 模型表現良好,尤其是當輸入中有較多干擾文本(4K token)時。





更多實驗結果請查看原論文。

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
66歲父親將40歲情人介紹給兒子當老婆,父親:生了兒子,我給你帶

66歲父親將40歲情人介紹給兒子當老婆,父親:生了兒子,我給你帶

胖胖侃咖
2025-04-08 08:00:07
真大!我好像進入了“黃巢”……

真大!我好像進入了“黃巢”……

印象逍遙子
2025-04-06 17:17:13
最高104%關稅!特朗普剛攤牌,就踢到鐵板,中方這次準備“決戰”

最高104%關稅!特朗普剛攤牌,就踢到鐵板,中方這次準備“決戰”

墜入二次元的海洋
2025-04-08 12:42:48
張雪峰:本科已嚴重飽和的五個專業,1、臨床醫學,2、法學,3、計算機…考研是唯一出路!

張雪峰:本科已嚴重飽和的五個專業,1、臨床醫學,2、法學,3、計算機…考研是唯一出路!

老板手記
2025-02-01 19:36:44
破案了!胡明軒關鍵罰球為何失手,一細節看出杜鋒本場比賽不想贏

破案了!胡明軒關鍵罰球為何失手,一細節看出杜鋒本場比賽不想贏

小嵩
2025-04-09 08:51:07
郭美美徹底涼涼!賬號被封,知情人曝原因,疑直播間中賣泰國娃娃

郭美美徹底涼涼!賬號被封,知情人曝原因,疑直播間中賣泰國娃娃

裕豐娛間說
2025-04-09 00:15:44
濫施關稅有什么下場?里根38年前就講明白了!

濫施關稅有什么下場?里根38年前就講明白了!

大象新聞
2025-04-08 17:07:01
籃筐像大海一樣寬廣!首節湖人雷霆43-43 雙方合計命中16個三分

籃筐像大海一樣寬廣!首節湖人雷霆43-43 雙方合計命中16個三分

直播吧
2025-04-09 08:42:53
鐘欣凌減重6公斤「半夜餓哭」吐煎熬! 體檢遭健檢中心退貨原因曝光

鐘欣凌減重6公斤「半夜餓哭」吐煎熬! 體檢遭健檢中心退貨原因曝光

ETtoday星光云
2025-04-08 09:49:05
降準降息將擇機而動 一批儲備政策在路上

降準降息將擇機而動 一批儲備政策在路上

21世紀經濟報道
2025-04-09 02:18:10
三星S25 Ultra:全球封神,國內“涼涼”?這屆消費者真難帶!

三星S25 Ultra:全球封神,國內“涼涼”?這屆消費者真難帶!

輝哥說動漫
2025-04-09 00:32:03
奉陪到底,63歲奧巴馬重出江湖,特朗普被催離職,美聯儲束手無策

奉陪到底,63歲奧巴馬重出江湖,特朗普被催離職,美聯儲束手無策

博覽歷史
2025-04-08 13:47:18
鄭琴現在非常憤怒,她覺得被謝岳騙了

鄭琴現在非常憤怒,她覺得被謝岳騙了

魔都姐姐雜談
2025-04-08 13:41:04
中美關鍵產品貿易中斷創紀錄

中美關鍵產品貿易中斷創紀錄

邊際財經實驗室
2025-04-08 09:19:20
破案了!難怪S媽不滿遺產分配!汪小菲身價高達25億退一步能咋滴

破案了!難怪S媽不滿遺產分配!汪小菲身價高達25億退一步能咋滴

小娛樂悠悠
2025-04-09 07:07:37
中英香港談判,我方多次陷入被動,后來得知,我方一員大將叛變!

中英香港談判,我方多次陷入被動,后來得知,我方一員大將叛變!

軍師侃侃
2023-11-27 16:26:16
突發!掘金內訌爆發,馬龍下課+總經理被炒,約基奇默認操作

突發!掘金內訌爆發,馬龍下課+總經理被炒,約基奇默認操作

球童無忌
2025-04-09 08:53:37
神劇都不敢這么拍,200個饑疲凍餓的山東硬漢,硬是打垮了2萬美軍

神劇都不敢這么拍,200個饑疲凍餓的山東硬漢,硬是打垮了2萬美軍

這才是戰爭
2025-03-29 14:46:53
劉燁兒子上法國新聞聯播,14歲諾一長相大變不敢認,一圈胡子搶鏡

劉燁兒子上法國新聞聯播,14歲諾一長相大變不敢認,一圈胡子搶鏡

農村教育光哥
2025-04-07 09:13:51
美國關稅戰的“狗頭軍師”,被噴慘了

美國關稅戰的“狗頭軍師”,被噴慘了

上觀新聞
2025-04-08 06:42:06
2025-04-09 09:40:49
機器之心Pro incentive-icons
機器之心Pro
專業的人工智能媒體
10332文章數 142286關注度
往期回顧 全部

科技要聞

馬斯克財富跌破3000億美元 怨特朗普?

頭條要聞

美企業主:8年來所有美國制造商都勸我"回中國生產吧"

頭條要聞

美企業主:8年來所有美國制造商都勸我"回中國生產吧"

體育要聞

100%當選狀元,但弗拉格不想進NBA?

娛樂要聞

金子涵正式宣布退圈,想回歸自己的生活

財經要聞

央地國資聯手護盤 國家隊領銜千億增持潮

汽車要聞

插混純電雙修 寶駿享境預售13.28萬起

態度原創

親子
房產
手機
時尚
公開課

親子要聞

還在受傷不想去上學,歪理一大堆,這娃娃嘴可太會說了

房產要聞

廣州樓市迎來小陽春!一二手市場全線飄紅,釋放哪些信號?

手機要聞

據傳iPhone 17 Pro機型將在相機應用中提供前后雙視頻錄制功能

可持續時裝的多維棱鏡

公開課

李玫瑾:為什么性格比能力更重要?

無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 大田县| 景宁| 和硕县| 仙桃市| 临江市| 醴陵市| 隆化县| 永福县| 乌鲁木齐市| 突泉县| 巴东县| 榆中县| 平度市| 保康县| 长宁县| 河池市| 盐源县| 城固县| 葵青区| 基隆市| 积石山| 托克托县| 黔西| 贵南县| 定日县| 云南省| 兴业县| 钦州市| 葫芦岛市| 原阳县| 温州市| 乌拉特后旗| 拜城县| 牡丹江市| 黎城县| 横山县| 冕宁县| 安达市| 顺义区| 青神县| 永嘉县|