AI大模型風(fēng)生水起,但是不是所有企業(yè)都適合自建大模型??

青春昂揚,創(chuàng)新不止。大模型技術(shù)的練兵場上,正如火如荼地進行著“千里馬”選拔賽。

自9月7日正式啟動以來,歷經(jīng)兩個月的時間,第二屆百度搜索創(chuàng)新大賽吸引了來自各大高校的數(shù)千名參賽者,大家初展拳腳,爭相競技展示,越來越多的團隊正通過亮眼的成績在初賽中脫穎而出,如約進入決賽開發(fā)階段。

“這不只是一個比賽,更像是一個實踐課,讓我們在真實的環(huán)境中測試我們的想法和產(chǎn)品,從中獲得反饋并學(xué)習(xí)如何改進,為我們未來從事AI行業(yè)積累了寶貴的經(jīng)驗,也讓我們相信自己也有能力投身于AI技術(shù)的革新之中,可以在AI革命中扮演著重要的角色?!眳①愓邆冇芍愿袊@。

廣發(fā)英雄帖,吸引優(yōu)秀人才,讓參賽者們認識自己、了解行業(yè)、激發(fā)內(nèi)在潛能,就是百度搜索創(chuàng)新大賽的初衷。而他們也不負眾望,用實際行動詮釋著未來,詮釋著希望,一切都大有可為。

60天的精彩博弈

沖刺之戰(zhàn)打響

如同蒸汽時代的蒸汽機、電氣時代的發(fā)電機、信息時代的計算機和互聯(lián)網(wǎng),AI也正成為推動人類進入智能時代的決定性力量。而在AI發(fā)展新浪潮下,大語言模型這一新興賽道則正創(chuàng)造出更多的可能性和創(chuàng)新性作品,為經(jīng)濟社會發(fā)展不斷注入新動能。

面對AI新浪潮,越來越多的行業(yè)、企業(yè)、高校投入其中,但如何在茫茫人海中尋得優(yōu)秀人才,以夯實行業(yè)發(fā)展底座,仍是較為迫切之事。畢竟,“千里馬常有,而伯樂不常有”,而百度創(chuàng)新搜索大賽要做的就是AI界的“伯樂”。

9月7日,第二屆百度創(chuàng)新搜索大賽正式啟動。此次大賽以“新奇點 新搜索”為主題,設(shè)置五大賽道,廣泛涵蓋語義檢索、多模態(tài)、軟硬結(jié)合優(yōu)化等豐富的技術(shù)方向,廣發(fā)英雄帖,招攬AI優(yōu)秀人才,號召參賽者“洞察用戶在搜索場景的需求,并通過構(gòu)建AI應(yīng)用解決生態(tài)”。

自啟動至今,來自行業(yè)、企業(yè)、高校等領(lǐng)域的參賽者們歷經(jīng)60天的精彩博弈,已完美度過百度搜索創(chuàng)新大賽初賽階段,沖刺之爭已然開啟。而從賽事作品情況來看,已有較多的優(yōu)秀作品脫穎而出,遠超base分,尤其是大賽榜一分數(shù)相當(dāng)突出。

激烈的競爭環(huán)境,你追我趕的競賽氛圍,參賽者們熱情滿滿,斗志昂揚。各大參賽群里每天都在深入討論著遇到的問題以及取得的戰(zhàn)績,查漏補缺,以求最大限度地展現(xiàn)自身的能力。

其中,值得關(guān)注的是,從目前排行榜的數(shù)據(jù)能夠看到,高校團隊數(shù)量遠遠高于企業(yè)和個人開發(fā)者。這也從另一個側(cè)面反映了,高校當(dāng)前對于AI領(lǐng)域的深入重視。而通過比賽結(jié)果也可以發(fā)現(xiàn),來自高校的學(xué)生各方面能力都較為強勁,不單是在理論知識的深度方面,還在于對技術(shù)的實操能力方面。

能力的展示,需要的則是舞臺,百度搜索創(chuàng)新大賽就是這樣的存在。挖掘和培育搜索AI人才,促進業(yè)內(nèi)交流、產(chǎn)教融合,推動產(chǎn)品、算法和技術(shù)應(yīng)用創(chuàng)新。對參賽者們來說,百度搜索創(chuàng)新大賽的舉辦,不僅進一步促進了他們在理論和實操這塊的深入結(jié)合,同時也在助力他們進一步加深對人工智能、檢索技術(shù)的了解。

畢竟,想要在大賽中脫穎而出,也是需要一番苦心鉆研的。據(jù)某參賽者介紹,他們團隊在此次百度搜索創(chuàng)新大賽中,基于日常搜索梗圖的需求,進行了用戶調(diào)研和市場分析,結(jié)合AI多模態(tài)處理能力的發(fā)展趨勢,提出了以對話形式模糊搜索梗圖的解決方案,并繪制了網(wǎng)站原型。基于此創(chuàng)新結(jié)果,他們在激烈的初賽中脫穎而出。

“這個成果對我們來說,既是驚喜也是鼓勵?!痹搮①愓弑硎?,“雖然我們的項目尚有完善空間,但這次的成功讓我們意識到,作為學(xué)生,我們也有能力投身于AI技術(shù)的革新之中。在這次比賽中涌現(xiàn)出眾多像我們一樣的高校團隊,顯示出百度對大學(xué)生探索和創(chuàng)新精神的高度認可和鼓勵,也昭示了高校學(xué)生在AI革命中扮演著越來越重要的角色?!?/p>

置身其中的感受

有挑戰(zhàn),但更是機遇

結(jié)合理論實踐,從技術(shù)和應(yīng)用層面出發(fā),來自各個領(lǐng)域的參賽者們在激烈的競爭中早已為自身樹立起更遠大的目標,構(gòu)建起更為明確的發(fā)展規(guī)劃。

一步一腳印,這是他們在親身經(jīng)歷百度搜索創(chuàng)新大賽后的結(jié)果?!皬膮①愺w驗上來說,這場大賽考驗了我們?nèi)轿坏漠a(chǎn)品設(shè)計能力:我們不僅需要理解AI技術(shù)邊界,還需要深入調(diào)研用戶需求、用創(chuàng)新的解決方案加以滿足,并確保這些解決方案能順利運行、在推廣后能吸引一定數(shù)量的線上用戶,從而驗證產(chǎn)品的實用性和市場接受度。”另外一位參賽者坦言,“這不只是一個比賽,更像是一個實踐課,讓我們在真實的環(huán)境中測試我們的想法和產(chǎn)品,從中獲得反饋并學(xué)習(xí)如何改進,為我們未來從事AI行業(yè)積累了寶貴的經(jīng)驗?!?/p>

當(dāng)然,從大賽中獲取的經(jīng)驗只是一部分,在夜以繼日地分析和研究中,參賽者們也真切意識到當(dāng)前生成式AI、大模型應(yīng)用等層面的現(xiàn)狀與問題。

“結(jié)合我們的參賽作品,可以看到生成式技術(shù)能夠在多輪對話中幫助用戶從模糊的印象逐步明確得出搜索目標,不再需要多次猜測搜索關(guān)鍵詞,也能準確找到想搜索的結(jié)果,甚至搜索引擎能夠基于提問和問答上下文提供創(chuàng)造性的內(nèi)容。這使‘搜索’不再是單一的信息檢索和匹配,而是變成了發(fā)現(xiàn)新信息、新知識,甚至新創(chuàng)意的探索之旅?!鄙鲜鰠①愓弑硎?,“但不可否認的是,生成模型技術(shù)本身還處于發(fā)展的早期階段,因此當(dāng)前的算法也都是基于特定場景和任務(wù)所設(shè)計的。比如,目前來看,生成式模型的潛力在于具有高度的適應(yīng)性和創(chuàng)意表達能力,能夠通過微調(diào)在多個垂直領(lǐng)域提供專業(yè)化、流暢的問答體驗和創(chuàng)作輔助。但在技術(shù)層面上,獲取和處理訓(xùn)練模型所需的大量數(shù)據(jù)依舊較為困難,并且模型生成的內(nèi)容可能會涉及版權(quán)、隱私,還有傳達誤導(dǎo)信息的風(fēng)險。”

基于這一現(xiàn)實情況,該參賽者表示,“如何鏈接模型的生成內(nèi)容和專家矯正的、大眾認可的信息,在優(yōu)化搜索體驗的同時保證搜索結(jié)果依舊具有準確性和可靠性,我認為是目前在搜索領(lǐng)域應(yīng)用生成式技術(shù)的主要挑戰(zhàn),也是一種新的機遇。我們?nèi)孕枥^續(xù)加油?!?/p>

事實上,隨著技術(shù)的發(fā)展,一些企業(yè)已經(jīng)在通過自身優(yōu)勢去推動解決當(dāng)前生成式AI應(yīng)用所遇到的一系列問題。比如上述參賽者所提及的問題,NVIDIA英偉達便已有所動作。2007年 NVIDIA英偉達 推出了CUDA通用并行計算編程架構(gòu), 現(xiàn)已成為具備圖形、HPC、AI、數(shù)據(jù)科學(xué)等廣泛計算加速庫的CUDA平臺生態(tài)。 GPU具有比CPU更高的計算能力和更高的內(nèi)存帶寬,使用CUDA可以充分利用這些特性,從而加速計算任務(wù)。

立足市場的堅持

AI大生態(tài)已逐步構(gòu)筑

創(chuàng)新總是伴隨著問題而產(chǎn)生,技術(shù)在進步,科技企業(yè)也在持續(xù)發(fā)力探索。

在LLM(大語言模型)興起之前,NVIDIA英偉達的CUDA平臺已經(jīng)可以很好的在GPU上優(yōu)化搜索體驗的同時保證搜索結(jié)果且依舊具有準確性和可靠性當(dāng)大模型的表現(xiàn)一直受制于GPU的運算能力,硬件提供者和使用者都迫切希望提高推理速度、降低大模型運行成本時,NVIDIA英偉達又再度邁出關(guān)鍵一步,于今年10月19日重磅推出令人矚目的大模型推理優(yōu)化程序TensorRT-LLM。

TensorRT-LLM是一個專門用于編譯和優(yōu)化大語言模型推理的綜合程序庫,不僅整合了所有這些優(yōu)化功能,同時還提供了一個直觀的 Python API 來定義和構(gòu)建新模型。TensorRT-LLM 開源程序庫可加快 NVIDIA GPU 上最新大語言模型的推理性能,是 NVIDIA NeMo 中優(yōu)化大語言模型推理的骨干力量。NeMo Framework 是一個用于構(gòu)建和定制生成式 AI 應(yīng)用并將其部署到生產(chǎn)中的端到端框架,為生成式 AI 的部署提供了完整的容器,如 TensorRT-LLM 和 NVIDIA Triton 等。

目前,TensorRT-LLM開源程序庫已作為 NVIDIA NeMo Framework的一部分,在 /NVIDIA/TensorRT-LLM GitHub 資源庫中免費提供。TensorRT-LLM 現(xiàn)在也可作為測試版本用于原生 Windows 系統(tǒng)。應(yīng)用開發(fā)者和 AI 愛好者現(xiàn)可在本地運行由 NVIDIA RTX 和 NVIDIA GeForce RTX GPU 驅(qū)動的個人電腦和工作站上加速大語言模型。

能夠看到,NVIDIA英偉達一直與市場保持著緊密的聯(lián)系,始終關(guān)注著市場的一切需求與變化,并根據(jù)市場需求進行產(chǎn)品和戰(zhàn)略調(diào)整。不論是CUDA,還是TensorRT-LLM,都是其中較為突出的典型。

全面發(fā)揮自身技術(shù)優(yōu)勢,不斷推動AI加速計算創(chuàng)新和行業(yè)發(fā)展,助力開發(fā)者解決各式算法挑戰(zhàn),便是NVIDIA英偉達一直以來所致力探索的核心。近年來,NVIDIA英偉達已與國內(nèi)外多家領(lǐng)先的大模型企業(yè)與團隊開展密切合作,以加速和優(yōu)化大語言模型推理。

放眼未來,隨著更多對AI充滿熱情的企業(yè)、團隊加入這場科技探索,不斷將知識和創(chuàng)新思維注入技術(shù)發(fā)展之中,挖掘并滿足更多尚未被現(xiàn)有技術(shù)解決的公眾需求,我們勢必將迎來更智能、更便捷的AI未來。

原創(chuàng)文章,作者:陳晨,如若轉(zhuǎn)載,請注明出處:http://2079x.cn/article/596295.html

陳晨陳晨管理團隊

相關(guān)推薦

發(fā)表回復(fù)

登錄后才能評論