Meta發(fā)布Code Llama AI編程工具重大更新:旨在提升代碼生成準確率

Meta發(fā)布Code Llama AI編程工具重大更新:旨在提升代碼生成準確率

近日,Meta宣布對其AI編程工具Code Llama進行了重大更新,推出了新版Code Llama 70B。據(jù)稱,這是迄今為止最大、性能最優(yōu)的模型,旨在提高代碼生成的準確率。

Code Llama工具自去年8月發(fā)布以來,一直受到開發(fā)者的歡迎,因其所有人都可以免費使用。新版Code Llama 70B現(xiàn)在能夠處理更多的查詢,并在HumanEval基準測試中達到了53%的準確率。這一表現(xiàn)優(yōu)于GPT-3.5的48.1%,盡管與OpenAI論文中GPT-4的67%準確率相比仍有一段差距。

Meta在推出Code Llama 70B的同時,還針對特定的編程語言推出了另外兩款Code Llama工具——Code Llama – Python和Code Llama – Instruct。這些工具旨在為不同的編程語言提供更精確的代碼生成支持。值得一提的是,新版的Code Llama 70B同樣分為三個版本,并且仍然可以免費用于研究和商業(yè)用途。

據(jù)悉,這個大模型是基于1TB的代碼和代碼相關(guān)數(shù)據(jù)進行訓(xùn)練的。Meta表示,其較大的型號34B和70B“可返回最佳結(jié)果并提供更好的編碼幫助?!?/p>

此次更新旨在解決開發(fā)者在編寫代碼時面臨的挑戰(zhàn),提供更精確、高效的代碼生成支持。隨著人工智能技術(shù)的不斷發(fā)展,相信未來還會有更多類似的工具問世,為開發(fā)者帶來更多便利。

原創(chuàng)文章,作者:秋秋,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/625890.html

秋秋的頭像秋秋管理團隊

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論