Chat with RTX:在本地运行自己的AI聊天机器人

Chat with RTX现已开放免费下载,这是一款技术演示应用,用户可以使用自己的内容来个性化聊天机器人。在NVIDIA GeForce RTX 30系列GPU(或更高性能版本,至少8GB显存)的支持下,Chat with RTX可提供极速的体验。

Chat with RTX:在本地运行自己的AI聊天机器人

也就是说,Chat with RTX 无需依赖基于云服务的大型语言模型(LLM),它让用户可以在不向第三方共享数据、甚至无需网络连接的情况下在本地电脑处理敏感数据。

Chat with RTX 结合了检索增强生成 (RAG)、NVIDIA TensorRT-LLM 软件和 NVIDIA RTX 加速技术,将生成式人工智能功能带到由 GeForce 支持的本地 Windows 电脑上。用户可以快速、轻松地将本地PC上的文件作为数据集去链接到开源的大型语言模型(如 Mistral 或 Llama 2),从而支持相关查询,以获得快速、上下文相关的答案。

Chat with RTX:在本地运行自己的AI聊天机器人

Chat with RTX支持多种文件格式,包括 .txt、.pdf、.doc/.docx 和 .xml。只需指定包含这些文件的文件夹,该工具就能在几秒钟内将它们载入到程序库中。

另外,用户还可以添加来自 YouTube 视频和播放列表的信息。将视频链接加入 Chat with RTX 后,用户就可以将这些知识集成到他们的聊天机器人中,用于关联性的问题查询。你可以根据喜爱的网红视频来询问旅行建议,或者根据热门的教育视频快速获取教程和指南。

Chat with RTX:在本地运行自己的AI聊天机器人

除了需要 NVIDIA GeForce RTX 30 系列 (或更高性能版本) GPU 和 最少8GB 显存外,Chat with RTX还需要 Windows 10 或 Windows 11 系统以及最新的 NVIDIA GPU 驱动程序。

然而,根据官方文档,Chat with RTX目前存在着一个安装问题,即当用户选择自定义安装目录时,安装会导致失败。此问题将在后续的版本中得到修复。用户暂时应使用默认安装路径 (“C:\Users\<username>\AppData\Local\NVIDIA\ChatWithRTX”)。

目前,Chat with RTX项目源代码可在 GitHub 上获取。


主要关键点:

现在,您可以利用Chat with RTX 创建一个完全属于您自己的专属知识库,快速分析您提供的大量数据,包括:

  • 研究论文和技术文档: 让科研、工程、医疗等领域的专业人士能随时查询高度专业化的内容。
  • 公司内部资料: 构建可搜索的内部资料库,优化培训流程与企业知识库管理。
  • 个人创作库: 作家、编剧能轻松索引自己的剧本、笔记,甚至聊天记录,获得更流畅的创作体验。

Chat with RTX的优势

  • 确保数据安全: 您的敏感数据始终保留在本地设备上,无需外传至云端,最大程度确保用户信息与知识产权的保密性。
  • 定制化回答: Chat with RTX 不是泛泛地从互联网撷取信息,而是完全基于您提供的数据集生成回应。
  • 离线工作模式: 即使没有网络连接,依然能够使用 Chat with RTX。这在网络不稳定或受限的环境中提供了可靠性。
  • 快速且高效: 由NVIDIA RTX GPU的强大性能驱动,Chat with RTX 能带来近乎实时的搜索、问答体验。

技术细节

Chat with RTX 基于 NVIDIA 的 Megatron-Turing NLG 530B 模型,该模型拥有5300亿个参数,是目前世界上最大的语言模型之一。它采用了检索增强生成(RAG)技术,能够将来自您提供的数据与互联网上的公开信息进行整合,提供更加全面、准确的回答。

系统要求

要使用 Chat with RTX,您需要满足以下系统要求:

  • 操作系统:Windows 11
  • 显示卡:NVIDIA GeForce RTX 30 或 40 系列显卡,至少 8GB 显存
  • 内存:16GB 或更高
  • 存储空间:60GB 或更高
  • 显卡驱动程序版本:535.11 或更高

如何开始

您可以按照以下步骤开始使用 Chat with RTX:

  1. 下载并安装 Chat with RTX 应用
  2. 准备您的数据集。您可以将文本文件、PDF 文件、视频文件等添加到您的数据集
  3. 启动 Chat with RTX 应用,并选择您要使用的数据集
  4. 输入您的问题或指令,Chat with RTX 将会为您提供相应的回答或结果

一些使用技巧

  • 为了获得最佳效果,请尽可能提供更多的数据。
  • 您可以使用自然语言进行提问或指令,例如“告诉我有关中国历史的知识”或“帮我写一首关于爱情的诗”。
  • Chat with RTX 仍在开发中,如果您遇到任何问题或错误,请随时反馈给 NVIDIA。

操作系统要求:
目前,按照官方信息,Chat with RTX 主要安装在 Windows 11 操作系统。

主要原因如下:

  • Windows 11 引入了新的 DirectStorage API,可以显著提高 GPU 对存储资源的访问速度,这对于 Chat with RTX 这种需要大量数据处理的应用来说至关重要。
  • Windows 11 还包含了一些针对 AI 和机器学习的优化,可以提升 Chat with RTX 的性能表现。

如果您想要在 Windows 10 上使用 Chat with RTX,可以尝试以下方法:

  • 安装 Windows 11 预览版:您可以通过微软官网下载 Windows 11 预览版,但需要注意的是预览版可能存在一些不稳定性。
  • 使用虚拟机:您可以安装虚拟机软件,例如 VMware 或 VirtualBox,并在虚拟机中安装 Windows 11 和 Chat with RTX。

但是,请注意这两种方法都存在一些局限性:

  • Windows 11 预览版可能不适合日常使用,并且存在一些兼容性问题。
  • 使用虚拟机可能会降低 Chat with RTX 的性能表现。

因此,如果您想要获得最佳体验,建议您在 Windows 11 正式版发布后再使用 Chat with RTX。

原创文章,如若转载,请注明出处。

相关文章

  • LPU:比NVIDIA GPU 更快的AI芯片

    这个「Groq」不是马斯克的「Grok」!AI 晶片公司Groq 称创造了「世界上最快的大型语言模型速度」,在社群上示范的影片因极快的生成速度(1 秒内就生成数百字的回覆)而引发关注和讨论。 Groq 其实并非一款全新AI 模…

    2024-02-22
  • MIT研究人员找到新方法提升聊天机器人性能

    研究人员发现了一种新的方法,能显著提高像ChatGPT一样的大型语言模型的性能。当人工智能与人之间持续对话时,这些模型常常会出现故障,导致性能急剧下降。研究人员发现,这个问题出在语言模型处理过往“记忆”的方式…

    2024-02-18
  • Google发布新一代 AI 模型Gemma

    Google于2月21日,发布了新一代人工智能 (AI) 模型系列 Gemma,旨在为 AI 领域的研究和开发提供更先进、更易于使用的工具。Gemma 提供了两种参数规模的模型:2B 和 7B。 这两个模型都展现出了各自规模内的顶尖性能…

    2024-02-22
  • 儿童学习经验对提高人工智能模型学习效率的启示

    AI 能将物体和单词配对的结果,显示了语言中某些部分是可透过少量的经验来学习,不需要某种先天性的能力,团队中的一名心理学家表示这样的结果「动摇了我的世界观」。 生成式AI 的训练资料集是众所皆知的庞大,有时…

    2024-02-08
  • Chat With RTX将支持Gemma

    Google 近期推出开放式模型Gemma,NVIDIA 亦宣布与 Google 展开合作,包括关系:在所有 NVIDIA AI 平台上(包括本地端 RTX AI PC、云端、数据中心)针对 Gemma 进行最佳化。同时,NVIDIA 自家Chat With RTX也…

    2024-02-24
  • AI 决策更具理性 , 但是否更正确呢 ?

    还记得在准备大学入学面试时,老师总会警告:「记得千万不要搞怪!」不要搞怪的意思很简单,将五颜六色的头发染回黑色,或将时下流行的潮T改回西装,总之去回想想阿嬷的乖孙该长怎样,面试那天打扮成那样就对了!如果今天面试官从人类换成无法被窥见喜怒哀乐的 AI ,那又该如何成功达阵呢?

    2020-02-12