OpenAI已訓(xùn)練CriticGPT模型:基于GPT-4 用于發(fā)現(xiàn)ChatGPT生成內(nèi)容錯誤

近日消息,據(jù)外媒報道,隨著GPT系列大模型的不斷升級,OpenAI所訓(xùn)練的ChatGPT也在擁有更強的能力,但這也帶來了一些挑戰(zhàn),它所生成的內(nèi)容中存在的錯誤也越來越隱蔽,逐漸到了AI訓(xùn)練師難以發(fā)現(xiàn)的程度。

近日消息,據(jù)外媒報道,隨著GPT系列大模型的不斷升級,OpenAI所訓(xùn)練的ChatGPT也在擁有更強的能力,但這也帶來了一些挑戰(zhàn),它所生成的內(nèi)容中存在的錯誤也越來越隱蔽,逐漸到了AI訓(xùn)練師難以發(fā)現(xiàn)的程度。

OpenAI已訓(xùn)練CriticGPT模型:基于GPT-4 用于發(fā)現(xiàn)ChatGPT生成內(nèi)容錯誤

而為了應(yīng)對這一挑戰(zhàn),OpenAI也想出了新招,他們基于GPT-4模型,訓(xùn)練了一個用于發(fā)現(xiàn)ChatGPT輸出代碼錯誤的模型。

OpenAI當?shù)貢r間周四,已在官網(wǎng)宣布了這一消息,他們訓(xùn)練的模型名為CriticGPT,從名稱來看就是用于發(fā)現(xiàn)不足,以便讓相關(guān)的應(yīng)用變得更好。

從OpenAI在官網(wǎng)公布的消息來看,CriticGPT在他們的應(yīng)用中有不錯的效果,他們發(fā)現(xiàn)在新模型的輔助下,使用者在檢查ChatGPT的輸出代碼時,比沒有CriticGPT的協(xié)助要好60%。

在官網(wǎng)上,OpenAI提到,他們也是通過RLHF (從人類反饋中強化學習,Reinforcement Learning from Human Feedback)來訓(xùn)練CriticGPT,與訓(xùn)練ChatGPT類似。但與訓(xùn)練ChatGPT不同的是,他們在訓(xùn)練CriticGPT時,看了大量包含錯誤的輸入。

雖然CriticGPT能幫助發(fā)現(xiàn)更多的問題,但也存在不足,還有改進的空間。OpenAI在官網(wǎng)上就提到,并不是所有的發(fā)現(xiàn)都是準確的,用于訓(xùn)練的ChatGPT生成內(nèi)容也普遍很短,還需要開發(fā)新的方式,以協(xié)助訓(xùn)練師理解更長和更復(fù)雜的任務(wù)。

此外,OpenAI在官網(wǎng)上也提到,在研發(fā)CriticGPT的過程中,他們發(fā)現(xiàn)將RLHF應(yīng)用于GPT-4時,能幫助生成更好的RLHF數(shù)據(jù),他們計劃擴大這一項工作的規(guī)模,并付諸實踐。

原創(chuàng)文章,作者:科技探索者,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/664246.html

科技探索者的頭像科技探索者管理團隊

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論