加入收藏 | 设为首页 | 会员中心 | 我要投稿 汽车网 (https://www.0577qiche.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 运营中心 > 产品 > 正文

英伟达发布ChatGPT专用GPU

发布时间:2023-03-22 13:01:45 所属栏目:产品 来源:
导读:图形芯片巨头英伟达(Nvidia)召开2023年GTC大会,其创始人CEO黄仁勋穿着标志性皮夹克发表主题演讲,介绍了英伟达在人工智能(AI)领域的多款产品,包括为大型语言模型设计的新款GPU(图形处理器)、针对AI(人工智能
图形芯片巨头英伟达(Nvidia)召开2023年GTC大会,其创始人CEO黄仁勋穿着标志性皮夹克发表主题演讲,介绍了英伟达在人工智能(AI)领域的多款产品,包括为大型语言模型设计的新款GPU(图形处理器)、针对AI(人工智能)视频的芯片L4,以及AI超级计算服务DGX Cloud等。

在演讲中,黄仁勋多次重复道,AI的iPhone时刻已经到来,并表示“生成式AI将重塑几乎所有行业”。

OpenAI推出基于大型语言模型(LLM)的聊天机器人ChatGPT,这一技术随即引发各界媒体的关注,随后国外的微软、谷歌等高新技术科技公司在人工智能AI领域如火如荼地展开角逐。

在演讲中,黄仁勋也着重介绍了英伟达在这一领域的布局,透露道针对算力需求巨大的大型语言模型(LLM),英伟达推出新款GPU——NVIDIA H100 NVL。

H100基于英伟达的Hopper架构,采用Transformer引擎。其具有94GB内存,并配备了双GPU NVLINK的PCIE H100 GPU,能处理含1750亿参数的GPT-3。

与用于处理ChatGPT的HGX A100相比,搭载四对H100和双NVLINK的标准服务器的处理速度最高可达10倍。黄仁勋称,它能将语言模型的处理成本降低一个数量级。

“加速计算并非易事。”随着Transformer的出现,GPT-3动用323 ZettaFLOPS的算力,是AlexNet的100万倍。

此外,针对AI视频英伟达还推出了芯片L4,在视频解码和转码、视频内容审核、视频通话等功能上进行优化。英伟达称,相比传统的CPU,L4能够提供高出120倍的AI视频性能,同时能效提高99%。

在芯片制造工艺方面,英伟达还宣布推出计算光刻库cuLitho,并与ASML、台积电等巨头展开合作。据介绍,cuLitho可将计算机光刻加速40倍以上,使2nm及更先进芯片的生产成为可能。

据介绍,每个DGX Cloud实例具有八个H100或A100 80GB Tensor Core GPU,每个节点共有640GB GPU内存。采用 NVIDIA网络智能打造的高性能低延迟架构,确保协作系统能够跨越多个节点展开工作负载,同时允许多个节点充当巨大的 GPU以满足高级人工智能训练的要求。

黄仁勋便向OpenAI交付了第一台NVIDIA DGX超级计算机。黄仁勋透露,目前DGX已经被企业广泛用于优化数据和处理 AI,《财富》100强企业中有一半安装了DGX。黄仁勋称,DGX是超级计算机是现代AI工厂。

对于英伟达带来的产品,这些产品比竞争对手领先很多年。”该分析师认为,英伟达在 AI软件领域取得的领先地位,不但具有里程碑式的重要意义,而且在加速发展。”

(编辑:汽车网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章