Chat With RTX将支持Gemma

Google 近期推出开放式模型Gemma,NVIDIA 亦宣布与 Google 展开合作,包括关系:在所有 NVIDIA AI 平台上(包括本地端 RTX AI PC、云端、数据中心)针对 Gemma 进行最佳化。同时,NVIDIA 自家Chat With RTX也将很快加入支持 Gemma 的行列。

Chat With RTX将支持Gemma

Gemma是Google在本周稍早推出的开放式模型(open model),分别有多种规模,包括:Gemma 2B和Gemma 7B。NVIDIA与Google双方团队共同合作,广泛用于优化LLM模型推论能力的开源函式库NVIDIA TensorRT-LLM,针对在数据中心或云端环境运行的NVIDIA GPU,以及在搭载NVIDIA RTX GPU的AI PC上,加速Gemma的运行情况。

NVIDIA 在新闻稿中表示,如此迅猛,开发者便能锁定 AI PC 进行开发。此外,还能以云端环境里的 NVIDIA GPU 运行 Gemma 模型,包括在装载 H100 Tensor 核心 GPU 的 Google Cloud A3 以及实体, Google 未来将引入 NVIDIA H200 Tensor Core GPU(该 GPU 拥有 141GB HBM3e 记忆体,每秒执行速度为 4.8 TB)。

企业开发者也可以运用 NVIDIA 的工具生态系统,包括配备 NeMo 框架和 TensorRT-LLM 的 NVIDIA AI Enterprise,来增加 Gemma 并在其生产力应用程序中部署经过优化调整的模型。

与 RTX 聊天即将支持 Gemma

Chat With RTX 是NVIDIA在本月晚些时候推出的个性化聊天AI机器人,可以让用户将数据连接到有RTX支持的PC的大型语言模型,并从自己的文件和内容快速获取定制的个性化资讯,与RTX聊天最大的亮点就是可以在本地执行。

NVIDIA 表示,这个工具也将加入对 Gemma 的支持。

本文来自INSIDE,经授权后发布,本文观点不代表沙鸥科报立场,转载请联系原作者。

相关文章

  • AI 决策更具理性 , 但是否更正确呢 ?

    还记得在准备大学入学面试时,老师总会警告:「记得千万不要搞怪!」不要搞怪的意思很简单,将五颜六色的头发染回黑色,或将时下流行的潮T改回西装,总之去回想想阿嬷的乖孙该长怎样,面试那天打扮成那样就对了!如果今天面试官从人类换成无法被窥见喜怒哀乐的 AI ,那又该如何成功达阵呢?

    2020-02-12
  • LPU:比NVIDIA GPU 更快的AI芯片

    这个「Groq」不是马斯克的「Grok」!AI 晶片公司Groq 称创造了「世界上最快的大型语言模型速度」,在社群上示范的影片因极快的生成速度(1 秒内就生成数百字的回覆)而引发关注和讨论。 Groq 其实并非一款全新AI 模…

    2024-02-22
  • 人工智能 监测肺癌,效果堪比专家诊断结果

    人工智能 在深度学习的帮助下,功能变得相当强大,用在影像辨识上效果非常好,医疗方面Google人工智慧巳经在协助病理学家由组织切片显微影像分辨癌症、协助眼科医师为糖尿病患者看眼疾,不过还有许多限制需要突破。研究团队教电脑辨识不同影像的特征模式,像肺结核、癌症、骨折等。

    2020-03-13
  • 人工智能识别死海古卷并非出自一人之手

    大部份的死海古卷(Dead Sea Scrolls)都没有署名,所以无法知道是由哪位抄写员誊写的,而且学者也很难根据字迹的特徵辨认某份手稿是由一位,还是多位抄写员完成。但是,根据《PLOS ONE》期刊最新发表的文章,大以…

    2021-05-05
  • 儿童学习经验对提高人工智能模型学习效率的启示

    AI 能将物体和单词配对的结果,显示了语言中某些部分是可透过少量的经验来学习,不需要某种先天性的能力,团队中的一名心理学家表示这样的结果「动摇了我的世界观」。 生成式AI 的训练资料集是众所皆知的庞大,有时…

    2024-02-08
  • 苹果默默推出自己的动画生成式AI「Keyframer」

    继开源多模态大型语言模型「Ferret」、虚拟分身AI「HUGS」之后,苹果再度一扫掉队AI 的疑虑,默默推出了最新生成式AI 工具「Keyframer」!Keyframer 特别之处是一款融入LLM 功能,可以直接使用自然语言,就能为静态…

    2024-02-15