Meta發(fā)布Llama 3,高管:最智能開源大模型,最強版還在路上

Meta此次推出了兩個版本的Llama 3模型:一個版本擁有80億參數(shù),另一個則有700億參數(shù)。參數(shù)數(shù)量是衡量人工智能系統(tǒng)模型大小和性能的關(guān)鍵指標(biāo),它直接反映了模型的復(fù)雜性和計算能力。

4月19日消息,美國時間周四,Facebook的母公司Meta發(fā)布了其開源大語言模型的最新版本——Llama 3。凸顯了目前硅谷人工智能之戰(zhàn)日益激烈。

Meta發(fā)布Llama 3,高管:最智能開源大模型,最強版還在路上

Meta此次推出了兩個版本的Llama 3模型:一個版本擁有80億參數(shù),另一個則有700億參數(shù)。參數(shù)數(shù)量是衡量人工智能系統(tǒng)模型大小和性能的關(guān)鍵指標(biāo),它直接反映了模型的復(fù)雜性和計算能力。Meta指出,即使是參數(shù)較少的Llama 3版本,其性能也足以與去年發(fā)布的擁有700億參數(shù)的Llama 2的最大版本相匹敵。

Meta CEO馬克·扎克伯格(Mark Zuckerberg)透露,即將推出的Llama 3的大型版本將擁有超過4000億參數(shù),遠超之前的版本。Llama 2在訓(xùn)練過程中使用了2萬億個token,而Llama 3的大型版本使用的token超過了15萬億,這表明其具有更廣泛的數(shù)據(jù)處理能力。盡管OpenAI尚未公開確認GPT-4的參數(shù)或token數(shù)量,業(yè)界估計其參數(shù)可能達到1.5萬億。Meta首席產(chǎn)品官克里斯·考克斯(Chris Cox)表示,這款大型模型待訓(xùn)練完成后將正式發(fā)布。他補充道:“根據(jù)我們目前看到的基準(zhǔn)測試結(jié)果,Llama 3無疑是市場上目前免費提供的同類產(chǎn)品中最智能、性能最出色的大模型?!?/p>

Meta還計劃在未來幾個月陸續(xù)推出更多功能豐富的Llama 3模型,包括支持更多語種的版本。這一舉措顯示了Meta在激烈的人工智能市場中,為了與包括OpenAI在內(nèi)的競爭對手抗衡而持續(xù)加大的投入。

Meta計劃利用Llama 3模型升級其Meta AI助理聊天機器人,后者將在Meta的多個應(yīng)用中扮演更加顯著的角色。此外,Llama 3還將被深度整合到Meta主要平臺的搜索功能中,包括Facebook、Instagram、WhatsApp和Messenger。升級后的Meta AI還將能夠?qū)︽溄觾?nèi)容進行簡單總結(jié)。

回顧過去,OpenAI在2022年底推出了ChatGPT人工智能聊天機器人,從此拉開了硅谷人工智能競賽的序幕。從那以后,越來越多的公司,無論是初創(chuàng)企業(yè)還是老牌科技巨頭,都紛紛投入到這場競爭中。

去年7月,Meta首次公開推出了Llama 2模型,并在9月將其用于支持Instagram、WhatsApp和Messenger上的Meta AI聊天機器人。與業(yè)界其他公司不同,Meta選擇以開源軟件的形式發(fā)布自己的模型,這意味著全球的開發(fā)者都可以免費使用并改進Llama 2。

Sonata Insights的首席分析師黛布拉·阿霍·威廉姆森(Debra Aho Williamson)指出,如果Meta能吸引億萬用戶使用其人工智能產(chǎn)品,該公司可能會在模型中植入廣告,并可能拓展其他付費服務(wù)。她認為:“大多數(shù)面向消費者的人工智能體驗最終都可能融入某種形式的付費廣告,例如聊天機器人對話中的定向廣告結(jié)果?!?/p>

隨著Llama 3的發(fā)布,Meta AI的功能將進一步擴展,覆蓋包括澳大利亞和加拿大在內(nèi)的13個英語市場。然而,值得注意的是,這項服務(wù)在初期不會在歐盟推出。

考克斯補充說:“Meta AI將變得更加強大和智能,特別是對企業(yè)用戶來說,在處理長篇內(nèi)容時,鏈接摘要功能將極具價值?!?/p>

此外,Meta AI的圖像生成功能Emu也將迎來升級,不僅將提高生成結(jié)果的速度和質(zhì)量,還能在用戶輸入查詢時即時顯示預(yù)覽結(jié)果。

考克斯表示:“在生成式人工智能領(lǐng)域,Meta始終致力于將這些先進技術(shù)免費普及給廣大用戶?!彼€強調(diào),隨著更大版本的Llama模型的推出,公司可能會考慮采用與OpenAI的ChatGPT Plus及Google One AI Premium相似的月度訂閱模式。

值得注意的是,Meta在訓(xùn)練Llama 3時采用了合成數(shù)據(jù),即利用其他人工智能模型生成的文本。隨著科技公司用于訓(xùn)練人工智能模型的數(shù)據(jù)日益匱乏,它們不得不尋找新的解決方案來獲取或創(chuàng)造更多數(shù)據(jù)。

原創(chuàng)文章,作者:蘋果派,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/648448.html

蘋果派的頭像蘋果派管理團隊

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論