LPU:比NVIDIA GPU 更快的AI芯片

这个「Groq」不是马斯克的「Grok」!AI 晶片公司Groq 称创造了「世界上最快的大型语言模型速度」,在社群上示范的影片因极快的生成速度(1 秒内就生成数百字的回覆)而引发关注和讨论。

LPU:比NVIDIA GPU 更快的AI芯片

Groq 其实并非一款全新AI 模型,而是一种「LPU 推论引擎」,等同用自家晶片来运行其他开源模型(包括Mixtral 8x7b、Llama 2 70B)的AI 语言介面,如同其他聊天机器人Groq 也能生成创意文字、翻译内容、回覆问题等

根据Artificial Analysis 针对AI host 的评比数据,Groq 可每秒产生约247 个token,而微软Azure 则是每秒产生约18 个,因此如果ChatGPT 是在Groq 上运行生成的速度能大幅提升13 倍。

LPU 是什么?

Groq 是在2016 年由Jonathan Ross 创立而成,他过去研发出Google 第一款TPU,在Groq 他和团队打造出一种新AI 晶片「LPU」(Language Processing Unit),是专门用于AI 推论的晶片,据称速度更胜NVIDIA 的GPU。

根据知名电子报作者Ben Thompson 说明,Groq 晶片采用的是静态随机存取记忆体(SRAM),而不是GPU 上常见的HBM 或电脑常用的DRAM 记忆体,后两者都需要时常刷新,导致资料储存位置有不确定性,反观SRAM 资料可以恒常状态储存,Groq 因此能掌握每份资料的位置,加快运算速度。

Thompson 进一步指出,在Transformer 模型上跑推论相当合适,其运算方式也是采确定性的,像GPT-4 就适合在Groq 编译器上运行。

Groq 的优势在于速度够快,这让AI 对话再向人类沟通靠近一步,Ross 在CNN 的采访中让主持人与Groq 用语音对话,展现其速度是可以在新闻直播中沟通。

要体验Groq 可以上到网站:https://groq.com/,选择想要的AI 模型后即可进行问答。据实测,生成中文的速度也的确与社群上广传的影片一样快速。

不过要注意的是,目前LPU 的应用只限语言模型的推理运作上,如果要用于训练,还是需要GPU。

本文来自INSIDE,经授权后发布,本文观点不代表沙鸥科报立场,转载请联系原作者。

相关文章

  • 人工智能助力自然灾害防御

    在当前人工智能的新时代中,基础模型作为一个重要的技术进步,为解决自然灾害领域的各种问题提供了新的可能性。过去几十年来,随着气候变化的不断加剧,自然灾害风险减轻领域的任务变得越来越复杂,需要及时准确地…

    2024-02-07
  • 2023年度中国科学十大进展

    2月29日,国家自然科学基金委员会发布2023年度”中国科学十大进展“,分别为:人工智能大模型为精准天气预报带来新突破、揭示人类基因组暗物质驱动衰老的机制、发现大脑“有形”生物钟的存在及其节律调控机制、农作物耐…

    2024-03-01 世烩
  • 图灵测试是人工智能的标准吗?

    图灵测试是人工智能的标准吗? 王培(美国天普大学计算机与信息科学系) 随着人工智能成为热门话题,“图灵”(Alan M. Turing,1912.6.23~1954.6.7)这个名字也逐渐广为人知。一个常见的说法是把他提出的“图灵测试”…

    2016-05-24
  • 人工智能识别死海古卷并非出自一人之手

    大部份的死海古卷(Dead Sea Scrolls)都没有署名,所以无法知道是由哪位抄写员誊写的,而且学者也很难根据字迹的特徵辨认某份手稿是由一位,还是多位抄写员完成。但是,根据《PLOS ONE》期刊最新发表的文章,大以…

    2021-05-05
  • Google “延时摄影” 影像

    近日Google Earth利用其海量的卫星影像数据,制作并发布地球在过去32年(1984-2016)的“延时摄影” 影像,每一年选取一张无云覆盖的卫星图像。 其实早在2013年Google即与TIME合作,制作了部分地区1984-2012年代延时…

    2016-12-08 图解世界
  • Google发布新一代 AI 模型Gemma

    Google于2月21日,发布了新一代人工智能 (AI) 模型系列 Gemma,旨在为 AI 领域的研究和开发提供更先进、更易于使用的工具。Gemma 提供了两种参数规模的模型:2B 和 7B。 这两个模型都展现出了各自规模内的顶尖性能…

    2024-02-22