Chat With RTX将支持Gemma

Google 近期推出开放式模型Gemma,NVIDIA 亦宣布与 Google 展开合作,包括关系:在所有 NVIDIA AI 平台上(包括本地端 RTX AI PC、云端、数据中心)针对 Gemma 进行最佳化。同时,NVIDIA 自家Chat With RTX也将很快加入支持 Gemma 的行列。

Chat With RTX将支持Gemma

Gemma是Google在本周稍早推出的开放式模型(open model),分别有多种规模,包括:Gemma 2B和Gemma 7B。NVIDIA与Google双方团队共同合作,广泛用于优化LLM模型推论能力的开源函式库NVIDIA TensorRT-LLM,针对在数据中心或云端环境运行的NVIDIA GPU,以及在搭载NVIDIA RTX GPU的AI PC上,加速Gemma的运行情况。

NVIDIA 在新闻稿中表示,如此迅猛,开发者便能锁定 AI PC 进行开发。此外,还能以云端环境里的 NVIDIA GPU 运行 Gemma 模型,包括在装载 H100 Tensor 核心 GPU 的 Google Cloud A3 以及实体, Google 未来将引入 NVIDIA H200 Tensor Core GPU(该 GPU 拥有 141GB HBM3e 记忆体,每秒执行速度为 4.8 TB)。

企业开发者也可以运用 NVIDIA 的工具生态系统,包括配备 NeMo 框架和 TensorRT-LLM 的 NVIDIA AI Enterprise,来增加 Gemma 并在其生产力应用程序中部署经过优化调整的模型。

与 RTX 聊天即将支持 Gemma

Chat With RTX 是NVIDIA在本月晚些时候推出的个性化聊天AI机器人,可以让用户将数据连接到有RTX支持的PC的大型语言模型,并从自己的文件和内容快速获取定制的个性化资讯,与RTX聊天最大的亮点就是可以在本地执行。

NVIDIA 表示,这个工具也将加入对 Gemma 的支持。

本文来自INSIDE,经授权后发布,本文观点不代表沙鸥科报立场,转载请联系原作者。

相关文章

  • LPU:比NVIDIA GPU 更快的AI芯片

    这个「Groq」不是马斯克的「Grok」!AI 晶片公司Groq 称创造了「世界上最快的大型语言模型速度」,在社群上示范的影片因极快的生成速度(1 秒内就生成数百字的回覆)而引发关注和讨论。 Groq 其实并非一款全新AI 模…

    2024-02-22
  • DianNaoYu:中国提出的国际上首个深度学习指令集

    2016年3月上旬,中国科学院大学岗位教授、中国科学院计算技术研究所研究员陈云霁与陈天石课题组提出的深度学习处理器指令集DianNaoYu,被计算机体系结构领域顶级国际会议ISCA2016(International Symposium on Comp…

    2016-03-12
  • 人工智能助力寻找超级细菌的抗生素

    这也是人类史上第一次在未使用任何预先人为设定下,仅仅使用AI 就发现新抗生素的创举

    2020-02-25
  • Google “延时摄影” 影像

    近日Google Earth利用其海量的卫星影像数据,制作并发布地球在过去32年(1984-2016)的“延时摄影” 影像,每一年选取一张无云覆盖的卫星图像。 其实早在2013年Google即与TIME合作,制作了部分地区1984-2012年代延时…

    2016-12-08 图解世界
  • 在科学出版中如何利用人工智能?

    学术出版领域随着技术进步发生了显著变化。当前围绕生成式人工智能(AI) 或大型语言模型 (LLM) 的讨论尤为热烈。此类工具的功能已远超简单的语法检查或翻译软件,其在出版流程中的介入值得深思。 LLM 是强大的写作辅…

    2024-02-17
  • 即使戴着面具最新的人工智能技术也能识别

    供图:John Powell/REX/Shutterstock 放弃戴帽子和围巾吧!别指望他们!他们欺骗不了任何人!最新的面部识别软件可以看穿你狡猾的伪装,即使你戴着面具也能识别你。 剑桥大学的Amarjot Singh和他的同事们训练了机器…

    2017-09-10