近日,加州大學(xué)圣克魯茲分校的一項(xiàng)研究揭示了ChatGPT等大模型“變笨”的背后原因。研究指出,由于大模型在訓(xùn)練時(shí)期見(jiàn)識(shí)過(guò)很多任務(wù)示例,給人一種AI擁有零樣本或少樣本能力的錯(cuò)覺(jué)。然而,隨著時(shí)間的推移,人們開(kāi)始提出更多新問(wèn)題,AI表現(xiàn)逐漸退化。
對(duì)此,有學(xué)者指出,大模型訓(xùn)練后參數(shù)凍結(jié),人們不斷提出新的任務(wù),也就是輸入分布不斷變化。如果模型不能適應(yīng)這種變化,就會(huì)表現(xiàn)成能力慢慢退化。
以代碼問(wèn)題為例,編程語(yǔ)言還在持續(xù)發(fā)展變化,遲早有一天效率會(huì)低到不可接受。這是所有不具備持續(xù)學(xué)習(xí)能力模型的命運(yùn)。
研究團(tuán)隊(duì)評(píng)估了12種模型,發(fā)現(xiàn)它們都存在類似問(wèn)題,即在訓(xùn)練截止之前的任務(wù)上表現(xiàn)明顯更好。對(duì)此,團(tuán)隊(duì)采用4種方法來(lái)測(cè)量任務(wù)污染程度,包括檢查訓(xùn)練數(shù)據(jù)、提取任務(wù)示例、成員推斷以及按時(shí)間順序分析。
最后團(tuán)隊(duì)得出結(jié)論:由于任務(wù)污染,閉源模型可能會(huì)在零樣本或少樣本評(píng)估中表現(xiàn)的比實(shí)際好,特別是經(jīng)過(guò)RLHF微調(diào)的模型。污染的程度仍不清楚,因此建議謹(jǐn)慎行事。
這項(xiàng)研究提醒我們,AI的“變笨”并非是其本身能力的退化,而是因?yàn)槭澜缭诓粩嘧兓鳤I的訓(xùn)練數(shù)據(jù)和任務(wù)已經(jīng)不再匹配。為了解決這個(gè)問(wèn)題,我們需要更多地關(guān)注模型的持續(xù)學(xué)習(xí)能力,以及如何適應(yīng)不斷變化的環(huán)境和任務(wù)需求。同時(shí),公開(kāi)訓(xùn)練數(shù)據(jù)也是解決任務(wù)污染問(wèn)題的一種有效方法。只有當(dāng)更多的數(shù)據(jù)被公開(kāi)并用于研究和開(kāi)發(fā),我們才能更好地理解AI的能力和局限性,并找到更好的解決方案。
原創(chuàng)文章,作者:happy,如若轉(zhuǎn)載,請(qǐng)注明出處:http://2079x.cn/article/614232.html