小語言 AI 模型
-
英偉達發(fā)布80億參數(shù)新AI模型:精度、效率高,可在RTX工作站上部署
英偉達攜手 Mistral AI 上月發(fā)布開源 Mistral NeMo 12B 模型,在此基礎上英偉達再次推出更小的 Mistral-NeMo-Minitron 8B 模型,共 80 億個參數(shù),可以在搭載英偉達 RTX 顯卡的工作站上運行。
-
英偉達發(fā)布8B新AI 模型:精度、效率高,可在 RTX 工作站上運行
英偉達于 8 月 21 日發(fā)布博文,發(fā)布了 Mistral-NeMo-Minitron 8B 小語言 AI 模型,具備精度高、計算效率高等優(yōu)點,可在 GPU 加速的數(shù)據(jù)中心、云和工作站上運行模型。