ChatGPT變笨新解來了 AI如何應對不斷變化的世界

ChatGPT變笨新解來了 AI如何應對不斷變化的世界

近日,加州大學圣克魯茲分校的一項研究揭示了ChatGPT等大模型“變笨”的背后原因。研究指出,由于大模型在訓練時期見識過很多任務示例,給人一種AI擁有零樣本或少樣本能力的錯覺。然而,隨著時間的推移,人們開始提出更多新問題,AI表現(xiàn)逐漸退化。

對此,有學者指出,大模型訓練后參數(shù)凍結(jié),人們不斷提出新的任務,也就是輸入分布不斷變化。如果模型不能適應這種變化,就會表現(xiàn)成能力慢慢退化。

以代碼問題為例,編程語言還在持續(xù)發(fā)展變化,遲早有一天效率會低到不可接受。這是所有不具備持續(xù)學習能力模型的命運。

研究團隊評估了12種模型,發(fā)現(xiàn)它們都存在類似問題,即在訓練截止之前的任務上表現(xiàn)明顯更好。對此,團隊采用4種方法來測量任務污染程度,包括檢查訓練數(shù)據(jù)、提取任務示例、成員推斷以及按時間順序分析。

最后團隊得出結(jié)論:由于任務污染,閉源模型可能會在零樣本或少樣本評估中表現(xiàn)的比實際好,特別是經(jīng)過RLHF微調(diào)的模型。污染的程度仍不清楚,因此建議謹慎行事。

這項研究提醒我們,AI的“變笨”并非是其本身能力的退化,而是因為世界在不斷變化,而AI的訓練數(shù)據(jù)和任務已經(jīng)不再匹配。為了解決這個問題,我們需要更多地關注模型的持續(xù)學習能力,以及如何適應不斷變化的環(huán)境和任務需求。同時,公開訓練數(shù)據(jù)也是解決任務污染問題的一種有效方法。只有當更多的數(shù)據(jù)被公開并用于研究和開發(fā),我們才能更好地理解AI的能力和局限性,并找到更好的解決方案。

原創(chuàng)文章,作者:happy,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/614232.html

happy的頭像happy管理團隊

相關推薦

發(fā)表回復

登錄后才能評論