日本正打造日語版ChatGPT投入數(shù)億美元啟用超級計算機Fugaku

日本正打造日語版ChatGPT投入數(shù)億美元啟用超級計算機Fugaku

9 月15 日消息,日本政府聯(lián)合NEC、富士通、軟銀等大型科技公司投入數(shù)億美元,開發(fā)日語的大型語言模型LLM。ChatGPT 的熱度在全球雖有下降,但仍未消散。

據(jù)報道,研究自然語言處理的日本東北大學(xué)研究員Keisuke Sakaguchi認為,目前的大型語言模型智能系統(tǒng)在英語方面表現(xiàn)出色,但在日語方面表現(xiàn)平平。由于日語的復(fù)雜性,ChatGPT有時會生成大多數(shù)人從未見過的罕見的字符,以及奇怪的未知單詞。

研究日語模型的東京大學(xué)物理學(xué)家Passaglia表示,LLM目前遠遠落后于GPT-4,但將來未必不能達到或超過GPT-4的水平。其認為,這只是資源問題,并不是技術(shù)上無法克服的問題。

值得一提的是,創(chuàng)建LLM需要使用日本超級計算機Fugaku,主要用于訓(xùn)練日語輸入。與GPT-4和其他專有模式不同,它將與其他開源LLM一起向所有用戶提供其代碼。

東京慶應(yīng)義塾大學(xué)醫(yī)學(xué)院醫(yī)學(xué)技術(shù)研究員Shotaro Kinoshita表示,如果日文版的ChatGPT能夠表述準確,有望為那些想學(xué)習(xí)日語或進行日本研究的人帶來好處,從而產(chǎn)生積極影響。

原創(chuàng)文章,作者:net,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/581893.html

net的頭像net認證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論