要點(diǎn):
1、微軟研究人員推出了一個(gè)僅有13億參數(shù)的LLM模型Phi-1.5。
2、Phi-1.5在常識(shí)推理任務(wù)上表現(xiàn)優(yōu)異,優(yōu)于多個(gè)參數(shù)量十倍以上的模型。
3、研究表明,模型參數(shù)規(guī)模不是決定性因素,高質(zhì)量數(shù)據(jù)更為重要。
站長(zhǎng)之家(ChinaZ.com)9月18日 消息:微軟研究人員最近在一篇論文中提出了一個(gè)新的語(yǔ)言模型Phi-1.5,該模型的參數(shù)量?jī)H有13億。研究人員主要關(guān)注Phi-1.5在常識(shí)推理方面的表現(xiàn),因?yàn)檫@是對(duì)語(yǔ)言模型能力的重要考驗(yàn)。
論文地址:https://arxiv.org/abs/2309.05463
項(xiàng)目地址:https://huggingface.co/microsoft/phi-1_5
結(jié)果表明,Phi-1.5在多個(gè)常識(shí)推理基準(zhǔn)測(cè)試數(shù)據(jù)集上都取得了與參數(shù)量是其10倍以上的模型相當(dāng)或更好的結(jié)果。例如在WinoGrande、ARC-Easy、ARC-Challenge、BoolQ和SIQA等數(shù)據(jù)集上的表現(xiàn),都與Llama2-7B、Falcon-7B和Vicuna-13B相當(dāng)甚至更好。
這說(shuō)明模型的參數(shù)規(guī)模不是決定性因素,采用高質(zhì)量合成數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練可能更為關(guān)鍵。研究中,Phi-1.5使用了微軟之前提出的Phi-1模型的訓(xùn)練數(shù)據(jù),以及新增的“教科書(shū)級(jí)”合成數(shù)據(jù)進(jìn)行訓(xùn)練。
結(jié)果表明,Phi-1.5不僅展現(xiàn)出許多大模型所具有的語(yǔ)言理解和推理能力,在控制有害內(nèi)容生成方面也具有一定優(yōu)勢(shì),這對(duì)研究大型語(yǔ)言模型的社會(huì)影響意義重大。本研究表明,相比單純追求模型規(guī)模,如何獲取高質(zhì)量訓(xùn)練數(shù)據(jù)可能更為重要,這為未來(lái)語(yǔ)言模型研究提供了新的思路。
(舉報(bào))