彩神网

活動新聞

活動新聞

EVENT NEWS

活動新聞

當前位置:首頁 > 活動新聞

破解 36 年前魔咒!Meta 推出反向练习大法消除大模型「反转咒骂」

大言語模型的破解「回轉咒罵」,被解開了 。年前近來 ,魔咒罵來自 Meta FAIR 的推出研討人員推出了反向練習大法,讓模型從反方向上學到了實際之間的練習邏輯,總算改進了這個困擾人們已久的大法大模問題  。

大言語模型的消除型反「回轉咒罵」 ,被解開了!轉咒

這個咒罵在上一年 9 月初次被發現 ,破解一時刻引起 LeCun 、年前Karpathy、魔咒罵馬庫斯等一眾大佬的推出驚呼 。

因為風景無兩、大法大模惟我獨尊的消除型反大模型竟存在著“阿克琉斯之踵”:一個在「A 是 B」上練習的言語模型 ,并不能正確回答出「B 是 A」。

比方下面這個比方 :在 LLM 明知道「湯姆?克魯斯的母親是 Mary Lee Pfeiffer」的情況下,卻無法答出「Mary Lee Pfeiffer 的孩子是湯姆?克魯斯」。

—— 這但是其時最先進的 GPT-4,成果連小孩子都具有的正常邏輯思想 ,LLM 卻做不到 。

立于海量的數據之上 ,記住了簡直超越一切人類的常識 ,卻體現得如此板滯,取得了才智之火,卻永久被軟禁于這個咒罵之中。

論文地址://arxiv.org/ pdf / 2309.12288v1.pdf。

這事一出,全網一片嘩然。

一方面 ,網友們表明 ,大模型真傻,真的。單知道「A 是 B」,卻不知道「B 是 A」 ,自己總算保住了作為人類的莊嚴 。

而另一方面 ,研討人員們也開端對此打開研討 ,快馬加鞭處理這個嚴重應戰 。

近來,來自 Meta FAIR 的研討人員推出了反向練習大法來一舉處理 LLM 的“回轉咒罵”。

論文地址 ://arxiv.org/ pdf / 2403.13799.pdf 。

研討人員首要觀察到,LLMs 從左到右以自回歸的辦法進行練習 ,—— 這或許是導致回轉咒罵的原因。

那么 ,假如以從右到左的方歷來練習 LLM(逆向練習),就有或許讓模型在反方向上看到實際 。

可以將反向文本視為第二言語 ,經過多使命處理或跨言語預練習 ,來運用多個不同的來歷 。

研討人員考慮了 4 種反向類型 :符號回轉、單詞回轉、實體保存回轉和隨機段回轉。

符號和單詞回轉,經過將序列別離拆分為符號或單詞 ,并倒置它們的次序以構成新序列 。

實體保存回轉 ,在序列中查找實體稱號 ,并在其間保存從左到右的單詞次序 ,一起進行單詞回轉。

隨機段回轉,將符號化的序列切割成隨機長度的塊,然后保存每個塊內從左到右的次序。

研討人員在 1.4B 和 7B 的參數規劃上,測驗了這些回轉類型的有效性,成果表明,實體保存和隨機分段反向練習可以減輕逆向咒罵,甚至在某些情況下徹底消除它  。

此外 ,研討人員還發現 ,與規范的從左到右練習比較,練習前回轉的辦法使模型的體現有所提高,—— 所以反向練習可以作為一種通用的練習辦法。

反向練習大法 。

逆向練習包括獲取具有 N 個樣本的練習數據集 ,并結構反向樣本集 REVERSE(x) 。

函數 REVERSE 擔任回轉給定的字符串,具體做法如下:

單詞回轉 :每個示例首要被拆分為單詞,然后在單詞等級回轉字符串 ,用空格將其銜接在一起。

實體保存回轉:對給定的練習樣本運轉實體檢測器,將非實體也拆分為單詞 。然后將非實體的單詞進行倒置,而表明實體的單詞保存原有詞序。

隨機段回轉 :這兒沒有運用實體檢測器,而是測驗運用均勻采樣,將序列隨機切割成巨細為 1 到 k 個 token 之間的句段,然后倒置這些句段 ,但堅持每個句段內的詞序,之后 ,這些句段運用特別符號 [REV] 銜接 。

上表給出了在給定字符串上,不同回轉類型的示例。

此刻 ,言語模型依然從左到右進行練習,在單詞回轉的情況下 ,就相當于從右到左猜測語句。

逆向練習觸及對規范和反向示例的練習,因而練習 token 的數量增加了一倍 ,一起正向和反向練習樣本都混合在一起。

逆向轉化可以看作是模型有必要學習的第二種言語,請注意,在回轉的過程中,實際之間的聯系堅持不變  ,模型可以從語法中判別它是處于正向仍是反向言語猜測方式  。

逆向練習的另一個視點可以由信息論來解說:言語建模的方針是學習自然言語的概率散布。

反向使命練習測驗 。

實體對映射。

首要創立一個簡略的根據符號數據集,以研討受控環境中的回轉咒罵。

以1對1的辦法隨機配對實體 a 和 b ,練習數據包括一切(a → b)映射對 ,但僅包括一半的(b → a)映射 ,另一半作為測驗數據。

模型有必要從練習數據中揣度規矩 a → b ? b → a,然后將其推行到測驗數據中的對。

上表展現了符號反向使命的測驗準確率(%)。雖然這項使命很簡略,但規范言語模型練習徹底失利了,這表明僅靠擴展不太或許處理。

比較之下,反向練習簡直可以處理兩個單詞實體的問題 ,但隨著實體變長,其功能會敏捷下降。

單詞回轉適用于較短的實體,但關于具有較多單詞的實體,實體保存回轉是必要的。當最大段長度 k 至少與實體相同長時,隨機段回轉體現杰出。

康復人名 。

上表展現了確認人全名的回轉使命,當僅給出出生日期確認一個人的全名時,回轉使命的準確性依然接近于零,—— 這是因為在本文選用的實體檢測辦法中,日期被視為三個實體 ,因而在回轉中不會保存它們的次序 。

假如將回轉使命簡化為僅確認人的姓氏 ,則單詞等級的回轉就足夠了 。

另一個或許會令人感到驚奇的現象是,實體保存辦法可以確認該人的全名,但不能確認該人的姓氏。

這是一個已知的現象:言語模型或許徹底無法檢索常識片段的后期符號(比方姓氏)。

實際國際實際 。

這兒作者練習了一個 Llama-2 14 億參數模型 ,在從左到右方向上練習一個 2 萬億個 token 的基線模型 。

比較之下,逆向練習僅運用 1 萬億 token ,但運用相同的數據子集在從左到右和從右到左兩個方向上進行練習,—— 兩個方向合起來是 2 萬億個 token ,在核算資源上做到公平公平 。

為了測驗對實際國際實際的回轉才能 ,研討人員運用了一個名人使命,其間包括“比方某個名人的母親是誰”之類的問題 ,一起還包括更具應戰性的反向問題,比方“某個名人的爸爸媽媽的孩子是誰” 。

成果如上表所示。研討人員對每個問題的模型進行屢次抽樣 ,假如其間任何一個包括正確答案 ,則將其視為成功。

一般來說 ,因為模型在參數數量方面很小,預練習有限,而且缺少微調,因而準確性一般相對較低 。但是 ,反向練習的體現愈加優異 。

36 年前的預言。

1988 年,Fodor 和 Pylyshyn 在《認知》刊物上發了一篇關于思想的系統性的文章 。

假如你真的了解這個國際  ,那你就應該可以了解 a 相關于 b 的聯系 ,也能了解 b 相關于 a 的聯系。

即便對錯言語認知生物,也應該可以做到這一點 。

廣告聲明:文內含有的對外跳轉鏈接(包括不限于超鏈接  、二維碼 、口令等方式) ,用于傳遞更多信息 ,節約甄選時刻 ,成果僅供參考,IT之家一切文章均包括本聲明。

彩88_彩88「官网彩神网」 江苏五分-手机版下载 胜游亚洲|网址 中心购彩-通用app 彩名堂-ios 5分排列3-通用app 彩天下|Welcome