Meta 推出 LLM Compiler 代碼優(yōu)化模型,可搭配其他 AI 改善代碼生成 / 編譯能力

近日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個版本,允許學術及商業(yè)使用。

近日消息,Meta 前天推出了一款名為“LLM Compiler”的模型,該模型基于 Meta 現(xiàn)有的 Code Llama 打造,主打代碼優(yōu)化,目前相關模型已登陸 Hugging Face,提供 70 億參數(shù)及 130 億參數(shù)兩個版本,允許學術及商業(yè)使用。

Meta 推出 LLM Compiler 代碼優(yōu)化模型,可搭配其他 AI 改善代碼生成 / 編譯能力

Meta 認為,盡管業(yè)界各大語言模型已在各種編程代碼任務中展現(xiàn)了出色的能力,但此類模型在代碼優(yōu)化還有進步空間,目前推出的 LLM Compiler 模型便是一款專為優(yōu)化代碼任務設計的預訓練模型,能夠模擬編譯器對代碼進行優(yōu)化,或?qū)ⅰ耙呀?jīng)過優(yōu)化的代碼轉(zhuǎn)換回原本的語言”。

LLM Compiler 在 5460 億個 LLVM-IR 和匯編代碼標記的龐大語料庫上進行了訓練,據(jù)稱能夠達到 77% 的“代碼優(yōu)化潛力”,開發(fā)者可以自由將相關模型配合其他 AI 模型一起使用,從而改善生成代碼的質(zhì)量。

原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/664475.html

蘋果派的頭像蘋果派管理團隊

相關推薦

發(fā)表回復

登錄后才能評論