Chat With RTX将支持Gemma

Google 近期推出开放式模型Gemma,NVIDIA 亦宣布与 Google 展开合作,包括关系:在所有 NVIDIA AI 平台上(包括本地端 RTX AI PC、云端、数据中心)针对 Gemma 进行最佳化。同时,NVIDIA 自家Chat With RTX也将很快加入支持 Gemma 的行列。

Chat With RTX将支持Gemma

Gemma是Google在本周稍早推出的开放式模型(open model),分别有多种规模,包括:Gemma 2B和Gemma 7B。NVIDIA与Google双方团队共同合作,广泛用于优化LLM模型推论能力的开源函式库NVIDIA TensorRT-LLM,针对在数据中心或云端环境运行的NVIDIA GPU,以及在搭载NVIDIA RTX GPU的AI PC上,加速Gemma的运行情况。

NVIDIA 在新闻稿中表示,如此迅猛,开发者便能锁定 AI PC 进行开发。此外,还能以云端环境里的 NVIDIA GPU 运行 Gemma 模型,包括在装载 H100 Tensor 核心 GPU 的 Google Cloud A3 以及实体, Google 未来将引入 NVIDIA H200 Tensor Core GPU(该 GPU 拥有 141GB HBM3e 记忆体,每秒执行速度为 4.8 TB)。

企业开发者也可以运用 NVIDIA 的工具生态系统,包括配备 NeMo 框架和 TensorRT-LLM 的 NVIDIA AI Enterprise,来增加 Gemma 并在其生产力应用程序中部署经过优化调整的模型。

与 RTX 聊天即将支持 Gemma

Chat With RTX 是NVIDIA在本月晚些时候推出的个性化聊天AI机器人,可以让用户将数据连接到有RTX支持的PC的大型语言模型,并从自己的文件和内容快速获取定制的个性化资讯,与RTX聊天最大的亮点就是可以在本地执行。

NVIDIA 表示,这个工具也将加入对 Gemma 的支持。

本文来自INSIDE,经授权后发布,本文观点不代表沙鸥科报立场,转载请联系原作者。

相关文章

  • MIT研究人员找到新方法提升聊天机器人性能

    研究人员发现了一种新的方法,能显著提高像ChatGPT一样的大型语言模型的性能。当人工智能与人之间持续对话时,这些模型常常会出现故障,导致性能急剧下降。研究人员发现,这个问题出在语言模型处理过往“记忆”的方式…

    2024-02-18
  • Google发布新一代 AI 模型Gemma

    Google于2月21日,发布了新一代人工智能 (AI) 模型系列 Gemma,旨在为 AI 领域的研究和开发提供更先进、更易于使用的工具。Gemma 提供了两种参数规模的模型:2B 和 7B。 这两个模型都展现出了各自规模内的顶尖性能…

    2024-02-22
  • 人工智能识别死海古卷并非出自一人之手

    大部份的死海古卷(Dead Sea Scrolls)都没有署名,所以无法知道是由哪位抄写员誊写的,而且学者也很难根据字迹的特徵辨认某份手稿是由一位,还是多位抄写员完成。但是,根据《PLOS ONE》期刊最新发表的文章,大以…

    2021-05-05
  • LPU:比NVIDIA GPU 更快的AI芯片

    这个「Groq」不是马斯克的「Grok」!AI 晶片公司Groq 称创造了「世界上最快的大型语言模型速度」,在社群上示范的影片因极快的生成速度(1 秒内就生成数百字的回覆)而引发关注和讨论。 Groq 其实并非一款全新AI 模…

    2024-02-22
  • Chat with RTX:在本地运行自己的AI聊天机器人

    Chat with RTX现已开放免费下载,这是一款技术演示应用,用户可以使用自己的内容来个性化聊天机器人。在NVIDIA GeForce RTX 30系列GPU(或更高性能版本,至少8GB显存)的支持下,Chat with RTX可提供极速的体验。 …

    2024-02-15
  • 在科学出版中如何利用人工智能?

    学术出版领域随着技术进步发生了显著变化。当前围绕生成式人工智能(AI) 或大型语言模型 (LLM) 的讨论尤为热烈。此类工具的功能已远超简单的语法检查或翻译软件,其在出版流程中的介入值得深思。 LLM 是强大的写作辅…

    2024-02-17