Chat With RTX将支持Gemma

Google 近期推出开放式模型Gemma,NVIDIA 亦宣布与 Google 展开合作,包括关系:在所有 NVIDIA AI 平台上(包括本地端 RTX AI PC、云端、数据中心)针对 Gemma 进行最佳化。同时,NVIDIA 自家Chat With RTX也将很快加入支持 Gemma 的行列。

Chat With RTX将支持Gemma

Gemma是Google在本周稍早推出的开放式模型(open model),分别有多种规模,包括:Gemma 2B和Gemma 7B。NVIDIA与Google双方团队共同合作,广泛用于优化LLM模型推论能力的开源函式库NVIDIA TensorRT-LLM,针对在数据中心或云端环境运行的NVIDIA GPU,以及在搭载NVIDIA RTX GPU的AI PC上,加速Gemma的运行情况。

NVIDIA 在新闻稿中表示,如此迅猛,开发者便能锁定 AI PC 进行开发。此外,还能以云端环境里的 NVIDIA GPU 运行 Gemma 模型,包括在装载 H100 Tensor 核心 GPU 的 Google Cloud A3 以及实体, Google 未来将引入 NVIDIA H200 Tensor Core GPU(该 GPU 拥有 141GB HBM3e 记忆体,每秒执行速度为 4.8 TB)。

企业开发者也可以运用 NVIDIA 的工具生态系统,包括配备 NeMo 框架和 TensorRT-LLM 的 NVIDIA AI Enterprise,来增加 Gemma 并在其生产力应用程序中部署经过优化调整的模型。

与 RTX 聊天即将支持 Gemma

Chat With RTX 是NVIDIA在本月晚些时候推出的个性化聊天AI机器人,可以让用户将数据连接到有RTX支持的PC的大型语言模型,并从自己的文件和内容快速获取定制的个性化资讯,与RTX聊天最大的亮点就是可以在本地执行。

NVIDIA 表示,这个工具也将加入对 Gemma 的支持。

本文来自INSIDE,经授权后发布,本文观点不代表沙鸥科报立场,转载请联系原作者。

相关文章

  • 科学家成功研发能自行学习的「人工突触」

    人工智慧(AI)的发展,很大程度上都是基于模仿人类大脑的功能。在资讯科学的领域内,这些AI 系统称为人工神经网路(artificial neural network),利用演算法模拟大脑神经运作,能分析数据,学习识别语言和图像。 …

    2017-05-07
  • LPU:比NVIDIA GPU 更快的AI芯片

    这个「Groq」不是马斯克的「Grok」!AI 晶片公司Groq 称创造了「世界上最快的大型语言模型速度」,在社群上示范的影片因极快的生成速度(1 秒内就生成数百字的回覆)而引发关注和讨论。 Groq 其实并非一款全新AI 模…

    2024-02-22
  • Google发布AI模型Gemini

    2月8日晚间,Google发布了新的AI模型免费版Gemini和收费版的Gemini Advanced,并上线了新的网站和Android移动APP。 Gemini 的前身是Bard,Bard 是 Google AI 开发的大型语言模型 (LLM),于 2023 年 2 月 6 日首次发…

    2024-02-09
  • OpenAI再现黑科技!发布文字生影片AI“Sora”

    OpenAI今天正式发表文字转影片生成式AI「Sora」!就跟DALL-E一样,只要给出文字叙述(或静态图片也可以),Sora可以自动生成1080p动画,各种不同的角色、动作类型和背景细节全方位配件生成! 经过,Sora 可以生成各…

    2024-02-16
  • 即使戴着面具最新的人工智能技术也能识别

    供图:John Powell/REX/Shutterstock 放弃戴帽子和围巾吧!别指望他们!他们欺骗不了任何人!最新的面部识别软件可以看穿你狡猾的伪装,即使你戴着面具也能识别你。 剑桥大学的Amarjot Singh和他的同事们训练了机器…

    2017-09-10
  • AI解开有机合成路径

    继AlphaGo打败世界围棋棋王、攻克堪称全人类最后一座智慧的堡垒后,人工智慧(Artificial Intelligence)的演进未曾停歇。研发人员运用类似的神经网路演算法,在各个专业领域殷勤播种,诸多应用旋即遍地开花——像是…

    2018-06-14