在AAAI2024上,小紅書搜索算法團(tuán)隊(duì)推出了一項(xiàng)創(chuàng)新框架,旨在解決大語言模型(LLMs)在推理任務(wù)中的黑盒屬性和龐大參數(shù)量帶來的問題。傳統(tǒng)研究方法主要關(guān)注正樣本,而這項(xiàng)工作強(qiáng)調(diào)了負(fù)樣本在知識蒸餾中的價值。通過負(fù)向協(xié)助訓(xùn)練(NAT)、負(fù)向校準(zhǔn)增強(qiáng)(NCE)和動態(tài)自洽性(ASC)等序列化步驟,他們構(gòu)建了一個全方位利用負(fù)樣本的模型專業(yè)化框架。
首先,他們提出了負(fù)向協(xié)助訓(xùn)練(NAT)方法,通過設(shè)計(jì)dual-LoRA結(jié)構(gòu),從正向和負(fù)向兩方面獲取知識。這一步驟在訓(xùn)練中動態(tài)地集成正、負(fù)LoRA模塊的知識,以構(gòu)建更全面的推理能力。其次,他們設(shè)計(jì)了負(fù)向校準(zhǔn)增強(qiáng)(NCE),利用負(fù)知識來幫助自我增強(qiáng)過程,通過KL散度來度量正、負(fù)推理鏈路之間的不一致性,以選擇性地學(xué)習(xí)和增強(qiáng)嵌入的知識。
除了訓(xùn)練階段,他們還在推理過程中利用負(fù)向信息,提出了動態(tài)自洽性(ASC)方法,通過排序模型在正、負(fù)樣本上進(jìn)行訓(xùn)練,為正確答案的推理鏈路分配更高的權(quán)重。整體來說,這一框架通過充分挖掘負(fù)樣本的寶貴信息,使得小模型能夠更有效地進(jìn)行復(fù)雜的算術(shù)推理,從而在實(shí)際應(yīng)用中更廣泛地部署大語言模型的推理能力。
這一研究為提高大語言模型應(yīng)用性能提供了新思路,通過引入負(fù)樣本的知識,彌補(bǔ)了傳統(tǒng)研究方法的不足,為推理任務(wù)的應(yīng)用提供了更可靠和高效的解決方案。
榜單收錄、高管收錄、融資收錄、活動收錄可發(fā)送郵件至news#citmt.cn(把#換成@)。
海報生成中...