Google 近期推出开放式模型Gemma,NVIDIA 亦宣布与 Google 展开合作,包括关系:在所有 NVIDIA AI 平台上(包括本地端 RTX AI PC、云端、数据中心)针对 Gemma 进行最佳化。同时,NVIDIA 自家Chat With RTX也将很快加入支持 Gemma 的行列。
Gemma是Google在本周稍早推出的开放式模型(open model),分别有多种规模,包括:Gemma 2B和Gemma 7B。NVIDIA与Google双方团队共同合作,广泛用于优化LLM模型推论能力的开源函式库NVIDIA TensorRT-LLM,针对在数据中心或云端环境运行的NVIDIA GPU,以及在搭载NVIDIA RTX GPU的AI PC上,加速Gemma的运行情况。
NVIDIA 在新闻稿中表示,如此迅猛,开发者便能锁定 AI PC 进行开发。此外,还能以云端环境里的 NVIDIA GPU 运行 Gemma 模型,包括在装载 H100 Tensor 核心 GPU 的 Google Cloud A3 以及实体, Google 未来将引入 NVIDIA H200 Tensor Core GPU(该 GPU 拥有 141GB HBM3e 记忆体,每秒执行速度为 4.8 TB)。
企业开发者也可以运用 NVIDIA 的工具生态系统,包括配备 NeMo 框架和 TensorRT-LLM 的 NVIDIA AI Enterprise,来增加 Gemma 并在其生产力应用程序中部署经过优化调整的模型。
与 RTX 聊天即将支持 Gemma
Chat With RTX 是NVIDIA在本月晚些时候推出的个性化聊天AI机器人,可以让用户将数据连接到有RTX支持的PC的大型语言模型,并从自己的文件和内容快速获取定制的个性化资讯,与RTX聊天最大的亮点就是可以在本地执行。
NVIDIA 表示,这个工具也将加入对 Gemma 的支持。
本文来自INSIDE,经授权后发布,本文观点不代表沙鸥科报立场,转载请联系原作者。