Mistral發(fā)布新一代AI旗艦?zāi)P蚅arge 2,性能直逼GPT-4

Mistral發(fā)布新一代AI旗艦?zāi)P蚅arge 2,性能直逼GPT-4

AI競賽日益激烈的背景下,法國人工智能初創(chuàng)公司Mistral近日宣布推出其新一代旗艦?zāi)P汀?span id="iegbvy6" class="wpcom_tag_link">Mistral Large 2,該模型以1230億個參數(shù)的強大陣容亮相,標志著Mistral在AI技術(shù)領(lǐng)域的又一重要突破。

Mistral Large 2在多個方面展現(xiàn)出卓越的性能,特別是在代碼生成、數(shù)學(xué)和推理能力上實現(xiàn)了顯著提升。據(jù)Mistral公司介紹,該模型不僅支持包括中文在內(nèi)的數(shù)十種語言,還覆蓋了80多種編程語言的代碼生成,為開發(fā)者提供了前所未有的便利。此外,其128k的上下文窗口設(shè)計,使得模型在處理復(fù)雜任務(wù)時能夠保持更高的連貫性和準確性。

在性能上,Mistral Large 2雖然參數(shù)數(shù)量少于Meta公司的Llama 3.1(后者擁有4050億個參數(shù)),但其表現(xiàn)卻極為接近,甚至在多項基準測試中展現(xiàn)出與GPT-4、Llama 3.1-405以及Anthropic的Claude 3.5 Sonnet等頂尖模型相媲美的能力。這一成就無疑為Mistral在AI領(lǐng)域的地位增添了重要砝碼。

尤為值得一提的是,Mistral Large 2在訓(xùn)練過程中特別注重減少模型的“幻覺問題”,即模型在不確定時傾向于編造合理答案的現(xiàn)象。通過優(yōu)化訓(xùn)練策略,Large 2能夠在不確定時誠實地表示自己的無知,從而提高了回答的準確性和可信度。

在開放方式上,Mistral采取了“授權(quán)開放”的策略,允許非商業(yè)研究用途的用戶免費獲取模型權(quán)重并進行微調(diào)。這一舉措旨在促進AI技術(shù)的學(xué)術(shù)交流與創(chuàng)新,同時也為Mistral贏得了廣泛的贊譽和支持。對于商業(yè)/企業(yè)用戶而言,則需要從Mistral公司購買單獨的許可和使用協(xié)議。

展望未來,Mistral表示將繼續(xù)致力于推動成本效益、速度和性能的發(fā)展,同時不斷探索新的功能和應(yīng)用場景。隨著Mistral Large 2的發(fā)布,我們有理由相信,這家法國初創(chuàng)公司將在AI領(lǐng)域掀起新的波瀾,為全球用戶帶來更多驚喜和可能。

原創(chuàng)文章,作者:泡沫大盜,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/669632.html

泡沫大盜的頭像泡沫大盜認證作者

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論