LPU:比NVIDIA GPU 更快的AI芯片

这个「Groq」不是马斯克的「Grok」!AI 晶片公司Groq 称创造了「世界上最快的大型语言模型速度」,在社群上示范的影片因极快的生成速度(1 秒内就生成数百字的回覆)而引发关注和讨论。

LPU:比NVIDIA GPU 更快的AI芯片

Groq 其实并非一款全新AI 模型,而是一种「LPU 推论引擎」,等同用自家晶片来运行其他开源模型(包括Mixtral 8x7b、Llama 2 70B)的AI 语言介面,如同其他聊天机器人Groq 也能生成创意文字、翻译内容、回覆问题等

根据Artificial Analysis 针对AI host 的评比数据,Groq 可每秒产生约247 个token,而微软Azure 则是每秒产生约18 个,因此如果ChatGPT 是在Groq 上运行生成的速度能大幅提升13 倍。

LPU 是什么?

Groq 是在2016 年由Jonathan Ross 创立而成,他过去研发出Google 第一款TPU,在Groq 他和团队打造出一种新AI 晶片「LPU」(Language Processing Unit),是专门用于AI 推论的晶片,据称速度更胜NVIDIA 的GPU。

根据知名电子报作者Ben Thompson 说明,Groq 晶片采用的是静态随机存取记忆体(SRAM),而不是GPU 上常见的HBM 或电脑常用的DRAM 记忆体,后两者都需要时常刷新,导致资料储存位置有不确定性,反观SRAM 资料可以恒常状态储存,Groq 因此能掌握每份资料的位置,加快运算速度。

Thompson 进一步指出,在Transformer 模型上跑推论相当合适,其运算方式也是采确定性的,像GPT-4 就适合在Groq 编译器上运行。

Groq 的优势在于速度够快,这让AI 对话再向人类沟通靠近一步,Ross 在CNN 的采访中让主持人与Groq 用语音对话,展现其速度是可以在新闻直播中沟通。

要体验Groq 可以上到网站:https://groq.com/,选择想要的AI 模型后即可进行问答。据实测,生成中文的速度也的确与社群上广传的影片一样快速。

不过要注意的是,目前LPU 的应用只限语言模型的推理运作上,如果要用于训练,还是需要GPU。

本文来自INSIDE,经授权后发布,本文观点不代表沙鸥科报立场,转载请联系原作者。

相关文章

  • Google发布AI模型Gemini

    2月8日晚间,Google发布了新的AI模型免费版Gemini和收费版的Gemini Advanced,并上线了新的网站和Android移动APP。 Gemini 的前身是Bard,Bard 是 Google AI 开发的大型语言模型 (LLM),于 2023 年 2 月 6 日首次发…

    2024-02-09
  • 在科学出版中如何利用人工智能?

    学术出版领域随着技术进步发生了显著变化。当前围绕生成式人工智能(AI) 或大型语言模型 (LLM) 的讨论尤为热烈。此类工具的功能已远超简单的语法检查或翻译软件,其在出版流程中的介入值得深思。 LLM 是强大的写作辅…

    2024-02-17
  • 人工智能助力寻找超级细菌的抗生素

    这也是人类史上第一次在未使用任何预先人为设定下,仅仅使用AI 就发现新抗生素的创举

    2020-02-25
  • DianNaoYu:中国提出的国际上首个深度学习指令集

    2016年3月上旬,中国科学院大学岗位教授、中国科学院计算技术研究所研究员陈云霁与陈天石课题组提出的深度学习处理器指令集DianNaoYu,被计算机体系结构领域顶级国际会议ISCA2016(International Symposium on Comp…

    2016-03-12
  • 科学家成功研发能自行学习的「人工突触」

    人工智慧(AI)的发展,很大程度上都是基于模仿人类大脑的功能。在资讯科学的领域内,这些AI 系统称为人工神经网路(artificial neural network),利用演算法模拟大脑神经运作,能分析数据,学习识别语言和图像。 …

    2017-05-07
  • 苹果默默推出自己的动画生成式AI「Keyframer」

    继开源多模态大型语言模型「Ferret」、虚拟分身AI「HUGS」之后,苹果再度一扫掉队AI 的疑虑,默默推出了最新生成式AI 工具「Keyframer」!Keyframer 特别之处是一款融入LLM 功能,可以直接使用自然语言,就能为静态…

    2024-02-15