GPU之后,NPU再成標配,手機、PC如何承載AI大模型?

摘要:AI產品開發(fā)者需要先行一步,早一些讓用戶體驗自己的產品,和用戶建立連接,培養(yǎng)粘性,從而在競爭中占得先機。

  2024注定是AI行業(yè)熱鬧非凡的一年。雖然剛剛進入3月份,但是關于AI的新聞已經多次占據(jù)了頭條。就在上個月,OpenAI發(fā)布了文字生成視頻的大模型Sora,其逼真的效果直接清空了在這個細分賽道苦苦耕耘的創(chuàng)業(yè)者。幾天后,英偉達市值站上2萬億美元,成為了歷史上最快實現(xiàn)從1萬億到2萬億美元市值的企業(yè)。正所謂“當你發(fā)現(xiàn)金礦,最好的生意不是挖礦而是賣鏟子”,英偉達成為了AI時代“軍備競賽”的最大贏家。

  就在大家感嘆“世界上只有兩種AI,一種叫OpenAI,一種叫其他AI”的時候,沉寂了許久的Anthropic放出王炸,這家由OpenAI前研究副總裁創(chuàng)立的公司,發(fā)布了最新的Claude3模型,各項指標已經全面超越了GPT4。

  AI行業(yè)的風起云涌,也昭示了這個行業(yè)還處在一個初級階段。技術迭代太快,暫時領先的企業(yè)可能在一夜之間就被新技術顛覆。一些眼花繚亂的新技術,雖然已經問世,但遲遲不公開或者沒有部署。比如上文提到的Sora,截至發(fā)文,還沒有正式向公眾開放。

  生成式AI的研發(fā)和本地部署之間存在鴻溝。目前,大眾使用的生成式AI產品往往是部署在云端而在本地訪問(比如ChatGPT網頁),但這無法滿足所有需求,并且會產生一些隱患。

  首先,隨著大模型越來越復雜,云端和本地之間的傳輸在有限帶寬下變得捉襟見肘,比如一架波音787飛機每秒鐘產生5G的數(shù)據(jù),如果上傳到云端、計算、輸出結果再返回,飛機可能已經飛出去幾公里了(按照800公里/小時估算)。如果在飛機上使用AI功能但是在云端部署,這樣的傳輸速度是無法滿足要求的。

  此外,一些用戶敏感數(shù)據(jù)、隱私數(shù)據(jù),是否一定要上云?顯然放在本地比云端更讓用戶放心。

  不論生成式AI多么強大,如何部署到本地始終是一個無法繞開的問題。這是行業(yè)發(fā)展的趨勢,雖然目前面臨一些困難。

  困難在于,如何把“大模型”裝入“小設備”。注意,這里的“大小”是相對而言的。云端計算的背后可能是一個占地幾萬平方米的計算中心,而本地部署卻要讓生成式AI在你的手機上跑起來。手機沒有液氮冷卻,也沒有無窮無盡的電力,該如何部署AI呢?

  異構計算,一種可能的解決方案?

  高通的異構計算AI引擎(以下皆稱作高通AI引擎)為行業(yè)提供了一種可行的解決方案。即通過CPU、GPU、NPU以及高通傳感器中樞和內存子系統(tǒng)的協(xié)作,實現(xiàn)了AI部署和大幅度提升AI體驗的目的。

  1710207019121032.png

圖:專門的工業(yè)設計讓不同計算單元更緊湊 來源:高通

  不同類型的處理器所擅長的工作不同,異構計算的原理就是讓“專業(yè)的人做專業(yè)的事”。CPU擅長順序控制,適用于需要低延時的應用場景,同時,一些較小的傳統(tǒng)模型如卷積神經網絡模型(CNN),或一些特定的大語言模型(LLM),CPU處理起來也能得心應手。而GPU更擅長面向高精度格式的并行處理,比如對畫質要求非常高的視頻、游戲。

  CPU和GPU出鏡率很高,大眾已經相當熟悉,而NPU相對而言更像一種新技術。NPU即神經網絡處理器,專門為實現(xiàn)低功耗、加速AI推理而打造。當我們在持續(xù)使用AI時,需要以低功耗穩(wěn)定輸出高峰值性能,NPU就可以發(fā)揮最大優(yōu)勢。

  舉個例子,當用戶在玩一款重負載的游戲,此時GPU會被完全占用,或者用戶在瀏覽多個網頁,CPU又被完全占用。此時,NPU作為真正的AI專用引擎就會負擔起和AI有關的計算,保證用戶的AI體驗流暢。

  總結起來說就是,CPU和GPU是通用處理器,為靈活性而設計,易于編程,本職工作是負責操作系統(tǒng)、游戲和其他應用。NPU則為AI而生,AI是它的本職工作,通過犧牲部分易編程特性而實現(xiàn)了更高的峰值性能和能效,一路為用戶的AI體驗護航。

  當我們把 CPU、GPU、NPU 以及高通傳感器中樞和內存子系統(tǒng)集成在一起,就是異構計算架構。

  1710207027131493.png

圖:高通AI引擎包括Hexagon NPU、Adreno GPU、高通Oryon或 Kryo CPU、高通傳感器中樞和內存子系統(tǒng) 來源:高通

  高通AI引擎整合了高通 Oryon 或 Kryo CPU、 Adreno GPU 、 Hexagon NPU 以及高通傳感器中樞和內存子系統(tǒng)。Hexagon NPU作為其中的核心組件,經過多年的升級迭代,目前已達到業(yè)界領先的AI處理水平。以手機平臺為例,集成高通 AI 引擎的第三代驍龍 8 支持行業(yè)領先的LPDDR5x內存,頻率高達4.8GHz,使其能夠以非常高速的芯片內存讀取速度運行大型語言模型,如百川、Llama 2等,從而實現(xiàn)非??斓膖oken生成速率,為用戶帶來全新的體驗。

  1710207035151743.png

圖:NPU隨著不斷變化的AI用例和模型持續(xù)演進,實現(xiàn)高性能低功耗 來源:高通

  高通對NPU的研究,并不是近幾年才開始的。如果要追溯Hexagon NPU的起源,要回到2007年,也就是生成式AI走入公眾視野的15年前。高通發(fā)布的首款Hexagon DSP在驍龍平臺上亮相,DSP控制和標量架構成為了高通未來多代NPU的基礎。

  8年后,也就是2015年,驍龍820處理器集成了首個高通AI引擎;

  2018年,高通在驍龍855中為Hexagon NPU增加了張量加速器;

  2019年,高通在驍龍865上擴展了終端側AI用例,包括AI成像、AI視頻、AI語音等功能;

  2020年,Hexagon NPU迎來變革型架構更新。標量、向量、張量加速器融合,這為高通未來的NPU架構奠定了基礎;

  2022年,第二代驍龍8中的Hexagon NPU引入了一系列重大技術提升。微切片技術提升了內存效率,功耗降低繼續(xù)降低并且實現(xiàn)了4.35倍的AI性能提升。

  2023年10月25日,高通正式發(fā)布第三代驍龍8。作為高通技術公司首個專為生成式AI而精心打造的移動平臺,其集成的Hexagon NPU是目前高通面向生成式AI最新、也是最好的設計。

  由于高通為AI開發(fā)者和下游廠商提供的是全套解決方案(這部分內容會在第三部分詳細敘述),并非單獨提供芯片或者某個軟件應用。這意味著在硬件設計上和優(yōu)化上,高通可以通盤考慮,找出目前AI開發(fā)的瓶頸,做有針對性地提升。

  比如,為何要特別在意內存帶寬這個技術點?當我們把視角從芯片上升到AI大模型開發(fā),就會發(fā)現(xiàn)內存帶寬是大語言模型token生成的瓶頸。第三代驍龍8的NPU架構之所以能幫助加速開發(fā)AI大模型,原因之一便在于專門提升了內存帶寬的效率。

  這種效率的提升主要受益于兩項技術的應用。

  第一是微切片推理。通過將神經網絡分割成多個獨立執(zhí)行的微切片,消除了高達10余層的內存占用,此舉最大化利用了Hexagon NPU中的標量、向量和張量加速器并降低功耗。第二是本地4位整數(shù)(INT4)運算。它能將INT4層和神經網絡和張量加速吞吐量提高一倍,同時提升了內存帶寬效率。

  1710207042908590.png

圖:第三代驍龍8的Hexagon NPU以低功耗實現(xiàn)更佳的AI性能

  2月26日,世界移動通信大會(MWC 2024)在巴塞羅那拉開帷幕?;隍旪圶 Elite,高通向全世界展示了全球首個在終端側運行的超過70億參數(shù)的大型多模態(tài)語言模型(LMM)。該模型可接收文本和音頻輸入(如音樂、交通環(huán)境音頻等),并基于音頻內容生成多輪對話。

  所以,在集成了Hexagon NPU的移動終端上,會有怎樣的AI體驗?以及它是如何做到的?高通詳細拆解了一個案例。

  借助移動終端的AI旅行助手,用戶可以直接對模型提出規(guī)劃旅游行程的需求。AI助手可以立刻給到航班行程建議,并且通過語音對話調整輸出結果,最后通過Skyscanner插件創(chuàng)建完整航班日程。

  這種一步到位的體驗是如何實現(xiàn)的?

  第一步,用戶的語音通過自動語音識別(ASR)模型Whisper轉化成文本。該模型有2.4億個參數(shù),主要在高通傳感器中樞上運行;

  第二步,利用Llama 2或百川大語言模型基于文本內容生成文本回復,這一模型在Hexagon NPU上運行;

  第三步,通過在CPU上運行的開源TTS(Text to Speech)模型將文本轉化為語音;

  最后一步,通過調制解調器技術進行網絡連接,使用Skyscanner插件完成訂票操作。

  行業(yè)井噴前夕,開發(fā)者需要搶占先機

  使用不同的工具測試驍龍和高通平臺的AI性能表現(xiàn),可以發(fā)現(xiàn)其得分比同類競品高出幾倍。從魯大師AIMark V4.3基準測試結果來看,第三代驍龍8的總分相較競品B高出5.7倍,而相較競品C高出7.9倍。

  在安兔兔AITuTu基準測試中,第三代驍龍8的總分比競品B高出6.3倍。針對MLCommon MLPerf推理的不同子項,包括圖像分類、語言理解以及超級分辨率等,也進行了詳盡的比較。

  1710207049795939.png

  進一步對比驍龍X Elite與其他X86架構競品,在ResNet-50、DeeplabV3等測試中,驍龍X Elite表現(xiàn)出明顯的領先地位,其基準測試總分分別是X86架構競品A的3.4倍和競品B的8.6倍。因此,在PC端,無論是運行Microsoft Copilot,還是進行文檔摘要、文檔撰寫等生成式AI應用,體驗都十分流暢。

  1710207057195443.png

  領先的AI性能不全是高通AI引擎的功勞,確切的說,高通對AI廠商的賦能是全方位的。

  首先是高通AI引擎。它包括Hexagon NPU、Adreno GPU、高通Oryon CPU(PC平臺)、高通傳感器中樞和內存子系統(tǒng)。專門的工業(yè)設計、不同部件之間良好的協(xié)同,這款異構計算架構為終端側產品提供了低功耗、高能效的開發(fā)平臺。

  基于先進的硬件,高通又推出了AI軟件棧(高通AI Stack)。這款產品的誕生是為了解決AI開發(fā)中的頑疾——同一個功能,針對不同平臺要多次開發(fā),重復勞動。AI Stack支持目前所有的主流AI框架,OEM廠商和開發(fā)者可以在平臺上創(chuàng)建、優(yōu)化和部署AI應用,并且能實現(xiàn)“一次開發(fā),全平臺部署”,大大減少了研發(fā)人員的重復勞動。

  1710207063156616.png

圖:高通AI軟件棧幫助開發(fā)者“一次開發(fā),全平臺部署” 來源:高通

  此外,還有高通在MWC2024上剛剛發(fā)布的AI Hub。AI Hub是一個包含了近80個AI模型的模型庫,其中既有生成式AI模型,也有傳統(tǒng)AI模型,還包括圖像識別或面部識別模型,百川、Stable Diffusion、Whisper等模型。開發(fā)者可以從AI Hub中選取想要使用的模型生成二進制插件,做到AI 開發(fā)的“即插即用”。

  1710207070107739.png

  綜合來說,如果縱向看深度,高通在硬件(AI引擎)、軟件(AI Stack)和素材庫(AI Hub)三個維度全面加速廠商的AI開發(fā)進度。橫向看覆蓋廣度,高通的產品已經覆蓋了幾乎所有的終端側設備(第三代驍龍8支持手機等終端,X Elite賦能AI PC產品)。

  AI應用處于井噴前的醞釀期。

  在教育領域,AI能針對學生的學習能力和進度制定個性化的教學方案;在醫(yī)學領域, AI可以用來發(fā)掘全新的抗生素類型;在養(yǎng)老方面,未來在一些社會老齡化問題比較嚴重的地區(qū),可以利用AI終端收集老年人家中的所有個人數(shù)據(jù),從而幫助預防緊急醫(yī)療事故。

  之所以叫“井噴前”,正是因為還沒有大規(guī)模部署。另一方面,AI應用,作為最容易讓用戶產生粘性的產品之一,具有很強的先發(fā)優(yōu)勢效應。

  AI產品開發(fā)者需要先行一步,早一些讓用戶體驗自己的產品,和用戶建立連接,培養(yǎng)粘性,從而在競爭中占得先機。

  (文章轉載自DeepTech深科技)

原創(chuàng)文章,作者:陳晨,如若轉載,請注明出處:http://2079x.cn/article/636233.html

陳晨陳晨管理團隊

相關推薦

發(fā)表回復

登錄后才能評論