首页 热点资讯 正文

ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?(gtc 英伟达)

今天百科互动给各位分享ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?的知识,其中也会对gtc 英伟达进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!本文目录: 1、百度文心一言是什么?你对文心一言有什么期待?

今天百科互动给各位分享ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?的知识,其中也会对gtc 英伟达进行解释,如果能碰巧解决你现在面临的问题,别忘了关注本站,现在开始吧!

本文目录:

百度文心一言是什么?你对文心一言有什么期待?

百度文心一言是每日更新的一句古诗词,旨在激发读者的思考,增强文人文魂。我期待文心一言能够带给我更多美好的文学体验,更深刻的文化意境,以及更多有趣的历史故事。

进入3月中旬,全球科技巨头再次竞相亮相大语言模型赛道。

一周之内,开发出ChatGPT的美国初创公司OpenAI,对OpenAI投入巨资的科技巨头微软,以及中国互联网龙头企业百度,相继发布了在大语言模型(LLM)领域的最新动态。这也再次引发了全球对该领域的关注。

当地时间3月14日,OpenAI公布了其大型语言模型的最新版本——GPT-4,它比GPT-3.5的问答质量和技术都有明显提升。

3月16日下午,百度开启新一代大语言模型、生成式AI产品文心一言测试,从而成为第一家加入该赛道竞争的中国企业。

在发布会现场,百度创始人、董事长兼首席执行官李彦宏通过问答的形式,展示了文心一言在文学创作、商业文案创作、数理推算、中文理解、多模态生成等五个使用场景。几个小时后,微软宣布,将把GPT-4接入Office全家桶,新名为“Microsoft 365 Copilot”。

正如财经E法在2月17日发布的文章(OpenAI独家回应|ChatGPT为何不向所有中国用户开放注册?)所述,中国内地和中国香港的手机号均无法注册ChatGPT账号。此外,虽然OpenAI的应用程序编程接口(API)已向161个国家和地区开放,但不包括中国内地和中国香港。

一方面,业界普遍关注,在AIGC(生成式人工智能)势不可挡的科技浪潮中,谁将成为下一个弄潮儿?另一方面,在中美科技竞合的敏感期,各方亦颇为关注百度迈出的第一步带来的涟漪,以及中国企业该如何应对。

01“真的ready了吗?”

3月16日,李彦宏身着白衬衫和运动鞋演讲。开场就直面疑问,“最近一段时间,很多朋友问我,为什么是今天,你们真的ready了吗”?

李彦宏的回答是,虽然百度已投入AI研究十多年,为发布文心一言做了充分准备,但“不能说完全ready了”,因为文心一言对标ChatGPT、甚至是GPT-4,门槛很高,还“有很多不完美的地方”。但他强调“一旦有了真实的人类反馈,文心一言的进步速度会非常快”。

李彦宏解释,之所以选择当天发布,是因为市场有需求:客户和合作伙伴都希望能早一点用上最新最先进的大语言模型。

如何理解李彦宏所言的“对标GPT-4的门槛很高”?

当地时间3月14日,OpenAI公布了其大型语言模型的最新版本——GPT-4。值得注意的是,GPT-4是大型的多模态模型,即能够接受图像和文本类型的输入。而GPT-3.5只能接受文本输入。

在演示视频中,OpenAI总裁兼联合创始人格雷格·布罗克曼(Greg Brockman)用笔和纸画了一幅网站草图,并将图片输入GPT-4。仅1到2秒后,GPT-4就生成了网页代码,制作出了与草图高度相似的网站。根据OpenAI发布的实验数据, GPT-4模型相较前一代GPT-3.5已取得了巨大的进步,在许多专业测试中表现出超过绝大多数人类的水平。

浙江大学国际联合商学院数字经济与金融创新研究中心联席主任盘和林认为,文心一言未来还有待全面开放来获得用户检验。无论是通过B端API还是直接向C端用户开放,用户体验口碑都是硬道理。当前ChatGPT没对中国用户开放,在国内市场,百度将获得先发优势。

对OpenAI和百度的产品均做过测评的艾媒咨询CEO兼首席分析师张毅表示,GPT系列大模型,包括GPT-4与文心一言本质上都是同一类产品,只是它们各自的数据覆盖范畴和数据模型的积累长短不一。从短期看,OpenAI的产品准备时间相对更加充足,智能程度暂时领先一些。但是对文心一言而言,能在这么短的时间内训练出这样的一个产品,也是非常了不起的。

同时,张毅也对百度做出更好产品更有信心,他的理由是,从人工智能、大数据、大模型的人才储备来看,中国会更有优势。

中央财经大学数字经济融合创新发展中心主任陈端则认为,与海外竞争对手相比,百度最大的优势是立足本土,构建了语言和文化层面理解的护城河。

作为中国公司研发的大语言模型产品,文心一言的中文理解能力备受关注。重要原因是,此前很多评论人士认为,ChatGPT的中文问答能力不如英文问答能力强。

李彦宏表示,作为扎根于中国市场的大语言模型,文心一言具备中文领域最先进的自然语言处理能力。在现场展示中,文心一言正确解释了成语“洛阳纸贵”的含义、“洛阳纸贵”对应的经济学理论,还用“洛阳纸贵”创作了一首藏头诗。

李彦宏称,文心一言的训练数据包括:万亿级网页数据,数十亿的搜索数据和图片数据,百亿级的语音日均调用数据,以及5500亿事实的知识图谱等,这让百度在中文语言的处理上能够独一无二。

受访专家也指出,由于汉语的特殊性,中国企业在研发大模型时面临的难度更大,但若突破了,也会在提供本土服务时,具备更大的优势。

法国里昂商学院人工智能与商业分析教授丁文璿日前对媒体指出,语言对话模型训练,需要让机器对文字产生理解,英语比中文稍微容易一些。丁文璿解释,中国人工智能技术所处理的中文语言,大多都是象形词,而英文是解释性的,相较而言词语也并非特别丰富。

此外,上海交通大学约翰·霍普克罗夫特计算机科学中心助理教授林洲汉认为,未来大语言模型大概率会往多模态、交互式的方向发展,进一步将视觉、语音、强化学习等领域的技术综合进来。李彦宏也表示:“多模态是生成式AI一个明确的发展趋势。未来,随着百度多模态统一大模型的能力增强,文心一言的多模态生成能力也会不断提升。”

在多模态生成方面,李彦宏展示了文心一言生成文本、图片、音频和视频的能力。文心一言在现场用四川话朗读了一段内容,并根据文本生成了一段视频。但李彦宏透露,文心一言的视频生成成本较高,现阶段还未对所有用户开放,未来会逐步接入。

李彦宏称,文心一言的训练数据包括:万亿级网页数据,数十亿的搜索数据和图片数据,百亿级的语音日均调用数据,以及5500亿事实的知识图谱等,这让百度在中文语言的处理上能够独一无二。

受访专家也指出,由于汉语的特殊性,中国企业在研发大模型时面临的难度更大,但若突破了,也会在提供本土服务时,具备更大的优势。

法国里昂商学院人工智能与商业分析教授丁文璿日前对媒体指出,语言对话模型训练,需要让机器对文字产生理解,英语比中文稍微容易一些。丁文璿解释,中国人工智能技术所处理的中文语言,大多都是象形词,而英文是解释性的,相较而言词语也并非特别丰富。

此外,上海交通大学约翰·霍普克罗夫特计算机科学中心助理教授林洲汉认为,未来大语言模型大概率会往多模态、交互式的方向发展,进一步将视觉、语音、强化学习等领域的技术综合进来。李彦宏也表示:“多模态是生成式AI一个明确的发展趋势。未来,随着百度多模态统一大模型的能力增强,文心一言的多模态生成能力也会不断提升。”

在多模态生成方面,李彦宏展示了文心一言生成文本、图片、音频和视频的能力。文心一言在现场用四川话朗读了一段内容,并根据文本生成了一段视频。但李彦宏透露,文心一言的视频生成成本较高,现阶段还未对所有用户开放,未来会逐步接入。

发布会前后,百度的股价经历了大落大起。3月16日,港股百度盘中股价跌幅一度扩大超10%,报120.1港元。截至收盘,百度股价跌幅为6.36%,报125.1港元。但百度股价在美股势头强劲,当日百度美股开盘低开高走,振幅超7%。截至收盘,报138.16美元,涨幅为3.8%。3月17日,百度港股表现强势,盘中一度大涨超15%。截至当日收盘,百度港股涨幅为13.67%,报142.2港元。

文心一言宣布开启邀请测试一小时内,排队申请文心一言企业版API调用服务测试的企业用户已达3万多家,申请产品测试网页多次被挤爆,百度智能云官网流量飙升百倍。

文心一言的市场热度持续飙升,资本市场也给予了价值重估。张毅认为,这也代表了公众对大语言模型/生成式AI “既期待,又担忧,然后是希望”的心情。

02谁都不能错过的科技革命

事实上,“真的ready了吗?”并不仅针对百度,也是伴随此轮“ChatGPT”热潮以来,公众普遍的疑问。

李彦宏观察到,从2021年开始,人工智能技术开始从“判别式”向“生成式”转变。

创新工场董事长兼CEO李开复3月14日在一场趋势分享会上表示,AI 2.0时代的第一个现象级应用,就是以GPT-4为代表的AIGC,又称生成式AI(Generative AI)。李开复表示,AI2.0 是绝对不能错过的一次革命,它将会是一个巨大的平台性机会,这个机会将比移动互联网大十倍。他还表示,AI 2.0也是中国在AI领域的第一次平台角逐机会。

受访专家普遍认为,此前全世界的AI企业都遇到了一个极大的问题:即使技术储备十分丰富,AI应用并没有给它们带来丰厚的收益。造成这一问题的原因在于,AI产品的应用主要集中在B端(企业用户)和G端(政府用户),AI产品在进入企业或机构时往往流程复杂,这在某种程度上会限制AI产品在市场上的快速扩张。

因此,张毅认为,AIGC的产品应用方向在C端更有可能产生巨大的商业机会。他分析说,在美国市场,此前C端市场被谷歌、亚马逊、Meta等企业抢占,让微软压力非常大,更需要一款产品来扳回一局。在中国市场,百度的优势和谷歌一样,都有强大的搜索引擎对数据的抓取能力,以及储存、整理、分析能力的基础。中国本身拥有十几亿人口的巨大市场,百度完全可以做得很优秀。

“百度和微软、谷歌本质上是两个不同市场的竞争,所以我相信文心一言以及系列产品也一定会跑出来。”张毅说。

李彦宏坚称,文心一言不是“中美科技对抗的工具”。但他也承认,ChatGPT 的成功,加快了百度推出该产品的进度。

百度CTO王海峰表示,人类进入AI时代,IT技术的技术栈可以分为四层:芯片层、框架层、模型层和应用层。百度是全球为数不多、在这四层进行全栈布局的人工智能公司,在各个层面都有领先业界的自研技术。例如,高端芯片昆仑芯、飞桨深度学习框架、文心预训练大模型以及搜索、智能云、自动驾驶、小度等应用。王海峰认为,百度全栈布局的优势在于,可以在技术栈的四层架构中,实现端到端优化,大幅提升效率。

文心一言与ChatGPT一样,都使用了SFT(模型微调)、RLHF(从人类反馈中进行强化学习)以及Prompt(提示)作为底层技术。此外,文心一言还采用了知识增强、检索增强和对话增强技术。王海峰表示,这三项是百度已有技术优势的再创新。

陈端认为,在当前技术创新的集成性越来越高的当下,全栈式布局的单一公司在内部技术研发统筹能力和后期商业化进行中的协同能力上具有比较优势。

信心很重要,但差距无法忽视。

在本月初的两会期间,中国科技部部长王志刚在回应ChatGPT相关的问题时,用足球打比方,指出中国还有很多工作要做。“踢足球都是盘带、射门,但是要做到梅西(足坛巨星利昂内尔·梅西)那么好也不容易。”

王志刚指出,中国在这方面也作了很多布局,在该领域的研究也进行了很多年,并且有一些

成果,“但目前要达到像 OpenAI 的效果可能还要拭目以待”他补充道。

王志刚说,ChatGPT出来以后,引起了大家的关注。实际从技术本身源头来讲,它叫做NLP、NLU,也就是自然语言处理和自然语言理解。ChatGPT之所以引起关注,在于它作为一个大模型,有效结合了大数据、大算力、强算法,计算方法有进步。同样一种原理,做得有区别。比如大家都能做出发动机,但质量是有不同的。

然而,无论是ChatGPT还是文心一言,其背后的大语言模型是核心竞争力。北京大学王选计算机研究所研究员赵东岩告诉财经E法,国内大模型在数据、训练方法和费用投入方面和OpenAI还有一定差距。

一位科技系统人士则对财经E法指出,客观而言,中美目前在该领域的基础研究成果差距较大。这些基础研究成果包含自然语言处理(NLP)、数据库、GPU产品,“美国切断GPU芯片(的供应),(中国的)算力就跟不上”。

大型算力的核心在于高性能GPU芯片。北京航空航天大学软件学院助理教授周号益告诉财经E法,在GPU芯片等计算硬件上,中国与国际的差距在十年左右,硬件水平会严重制约大语言模型以及科学计算类模型的发展。

周号益认为,在技术和模型上,中国的科技公司与OpenAI并没有代差,差距仅在五年以内,在一些较小的技术领域差距只有2-3年。在数据采集方面,以GPT-3大模型为例,其训练的语料中中文只占5%,中国科技企业对中文语料的积累具有一定优势,因此极有可能在中文领域实现突破。

03巨头下一步:构建生态

对于以ChatGPT为代表的大语言模型赛道如何实现盈利,是各方公认的难题(ChatGPT爆火的冷思考:盈利难题与治理挑战)。

开发出ChatGPT的OpenAI仍是一家亏损中的创业公司。而2023年1月,投资银行摩根士丹利(Morgan Stanley)的一份分析报告称,ChatGPT的一次回复成本大约是谷歌搜索查询平均成本的6倍-28倍。

但腾讯研究院高级研究员曹建峰和经纬创投前副总裁庄明浩都认为,ChatGPT能带来多少盈利,并不是OpenAI关注的重点,重点是基于它的模型能长出什么样的服务和应用,从而构建起一个生态系统。“ChatGPT的发展需要一个产业生态,比如它和微软相关应用的融合就是很好的思路。”曹建峰说。

当地时间3月15日,微软副总裁兼消费者首席营销官余瑟夫·梅迪发文表示,新版必应搜索引擎已经在 GPT-4 上运行。另据OpenAI披露,GPT-4是在微软Azure AI 超级计算机上进行训练的,并将基于Azure 的AI基础架构向世界各地的用户提供 GPT-4服务。

谷歌则宣布开放其大语言模型PaLM的API接口,并推出面向开发者的工具MakerSuite。通过PaLM API 接口,开发者们可以将PaLM用于各种应用程序的开发。MakerSuite则可以让开发者快速对自己的想法进行原型设计,并且随着时间的推移,该工具将具有用于快速工程、合成数据生成和自定义模型调整的功能。

微软迅速跟进。当地时间3月16日,微软宣布将把GPT-4接入Office全家桶。新功能名为“Microsoft 365 Copilot”。

李彦宏则在发布会上表示,文心一言定位于人工智能基座型的赋能平台,将助力金融、能源、媒体、政务等千行百业的智能化变革。

根据文心一言的邀请测试方案,3月16日起,首批用户可通过邀请测试码,在文心一言官网体验产品,后续将陆续开放给更多用户。此外,百度智能云即将面向企业客户开放文心一言API接口调用服务。该服务于3月16日起开放预约。

截至3月18日早11点,排队申请百度智能云文心一言企业版API调用服务器测试的企业用户增加到9万家,百度收到关于文心一言合作的咨询 6588条。

陈端认为,这一轮的竞争,不仅是商业主体的竞争,实际上也是关乎下一轮国家数字竞争力的竞争。所以,百度的当务之急不完全是技术层面的研发,也需要引领更多初创型企业、生态合作伙伴加盟生态阵营。

在陈端看来,中国在构建生态系统上具有优势。陈端指出,中国的移动互联网经过多年发展,应用层生态化的配套创新已经非常成熟。应用层的很多中小微创业团队,在过去配合移动互联生态做了大量的局部、垂类场景端的创新,把过去的这种模式以及底层基础设施从移动互联迁移到大模型领域依然适用。

04中小企业还有机会吗?

面对大语言模型的浪潮,中国企业该如何抓住机遇,避免风险?

在中国,布局ChatGPT的企业有两种类型:第一种是传统的互联网大公司,第二种是一些初创企业。

陈端认为,目前市场上的初创公司已经错过了布局大模型的初始创业阶段。陈端分析说,

重新打造生成式AI企业,跟时机、底层的生态支撑度,还有创始人自身的阅历、经验、视野、个人IP的自然调动能力都是息息相关的。此外,大模型在前期的投入,不管是算力还是其他的成本,以及时间窗口都很重要。

陈端表示,目前,百度有能力把自己的其他的产品与文心一言协同,就像微软把Office与GPT-4协同推出Copilot,而“创业者单纯去拼大模型却没有配套生态,这是很成问题的”。

张毅也认为,对于能够有资金、实力支撑的企业来讲,单独构建大模型产品可能会更受资本和创业者的青睐。但对于中小企业来讲,依托文心一言的开放平台去嫁接自己在细分领域的应用,也是一个不错的选择。

因为要做出大语言模型,需要长时间,以及巨额资金的投入。

OpenAI成功的背后,是微软多年来的巨额投入。美国时间2023年1月23日,微软宣布将对OpenAI进行为期数年、价值数以十亿计美元的投资。在2019年和2021年,微软曾向OpenAI两次投资。2019年的投资为10亿美元,而2021年的投资未公开金额。

AI公司“彩云科技”的创始人袁行远在接受36氪采访时指出,要想跑通一次100亿以上参数量的模型,至少要做到“千卡/月”这个级别,即:用1000张GPU卡,然后训练一个月。即使不用最先进的英伟达A100,按照一张GPU五万元的均价计算,1000张GPU意味着单月5000万的算力成本,这还没算上算法工程师的工资。

“无论是哪家公司,都不可能靠突击几个月就能做出这样的大语言模型。”李彦宏在发布会上表示,深度学习、自然语言处理,需要多年的坚持和积累,没法速成。大模型训练堪称暴力美学,需要有大算力、大数据和大模型,每一次训练任务都耗资巨大。

百度提供的数据显示,百度近十年累计研发投入超过 1000 亿元。2022 年百度核心研发费用 214.16 亿元,占百度核心收入比例达到 22.4%。但百度并未透露大模型研发在核心研发费用中的占比。

李彦宏在发布会上表示,百度对文心一言的定位,是一个通用的赋能平台,金融、能源、媒体、政务等千行百业,都可以基于这个平台来实现智能化变革,实现效率提升,创造巨大的商业价值。李彦宏认为,大模型时代将产生三大产业机会,分别为新型云计算公司、进行行业模型精调的公司和基于大模型底座进行应用开发的公司,即应用服务提供商。

李彦宏断言,对于大部分创业者和企业来说,真正的机会并不是从头开始做ChatGPT和文心一言这样的基础大模型,这很不现实,也不经济。基于通用大语言模型抢先开发重要的应用服务,这可能才是真正的机会。目前,基于文本生成、图像生成、音频生成、视频生成、数字人、3D等场景,已经涌现出很多创业明星公司,可能就是未来的新巨头。

“大模型、生成式AI最终的产品形态还不得而知,所以这条路注定是长跑,需要整个科技界在资本、研发、模式创新上密切、持续地跟跑。”张毅说。

李开复认为,AI2.0会最先应用在能容错的领域,而毫无疑问最大的应用领域现在是内容创造。每个领域都可以把原有的App重写一次,创造出更赚钱的商业模式,最终AI2.0的生成能力会把成本降的几乎到0。

ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?(gtc 英伟达)  第1张

英伟达秀全球最大GPU,黄仁勋从烤箱里拿出的产品果然「爆了」

SegmentFault 思否报道丨公众号:SegmentFault

是他,还是那个男人,那个熟悉的皮夹克。

5 月 14 日 晚,黄仁勋在厨房召开了英伟达 GTC 2020 线上发布会。由于新冠病毒疫情影响,英伟达原计划的现场活动被迫取消,定于 3 月 24 日通过媒体发布的新闻稿也未见踪影。千呼万唤中,黄仁勋终于在烤箱前和大家见面了。

本届 GTC 从预热开始就不走寻常路,黄仁勋在大会前一天晒出了自己从烤箱里拿出了 全新的安培(Ampere)架构 GPU NVIDIA A100 。

令人颇感意外的是,虽然无法举办线下活动,英伟达竟然连线上直播都懒得办,直接播放了黄仁勋在自家厨房里录制的视频完成了新品发布。果然是手里有「硬货」就不在乎形式了。

英伟达的首款安培架构 GPU 可以算「史上最强」了,基于 7nm 工艺制程,拥有 540 亿晶体管,面积为826mm²,与 Volta 架构相比性能提升了 20 倍 ,既可以做训练也可以做推理。

NVIDIA A100 具有 TF32的第三代 Tensor Core 核心,能在不更改任何代码的情况下将 FP32 精度下的 AI 性能提高 20倍,达到19.5万亿次/秒 。

多实例 GPU-MG 可将单个 A100 GPU 分割为 7 个独立的 GPU,根据任务不同提供不同的计算力,实现最佳利用率和投资回报率的最大化。

NVIDIA A100 新的效率技术利用了AI数学固有的稀疏性,优化之后性能提升了一倍。

英伟达将 NVIDIA A100 的特性总结为以下 5 点:

黄仁勋说:“Ampere架构的突破性设计为英伟达第八代GPU提供了迄今为止最大的性能飞跃, 集 AI 训练和推理于一身,并且其性能相比于前代产品提升了高达 20 倍 。这是有史以来首次,可以在一个平台上实现对横向扩展以及纵向扩展的负载的加速。A100 将在提高吞吐量的同时,降低数据中心的成本。”

NVIDIA A100 是第一个基于 NVIDIA 安培架构的 GPU,提供了在 NVIDIA 八代 GPU 里最大的性能提升,它还可用于数据分析,科学计算和云图形,并已全面投产并交付给全球客户。

全球 18 家领先的服务提供商和系统构建商正在将 NVIDIA A100 整合到他们的服务和产品中,其中包括阿里云、AWS、百度云、思科、Dell Technologies、Google Cloud、HPE、Microsoft Azure和甲骨文。

黄仁勋还介绍了基于 NVIDIA A100 的第三代 AI 系统 DGX-A100 AI。DGX-A100 AI 是世界上第一台单节点 AI 算力达到 5 PFLOPS 的服务器 ,每台 DGX A100 可以分割为多达 56 个独立运行的实例,还集合了 8 个 NVIDIA A100 GPU,每个 GPU 均支持 12 路 NVLink 互连总线。

据了解,与其他高端 CPU 服务器相比,DGXA100 的 AI 计算性能高 150 倍、内存带宽高 40 倍、IO 带宽高 40 倍。

黄仁勋说:“AI已经被应用到云计算、 汽车 、零售、医疗等众多领域,AI算法也正变得越来越复杂和多样。ResNet模型的算力需求从2016年到现在已经增加了3000倍,我们需要更好的解决方案。”

如此强大的 DGX-A100 AI 售价自然也不便宜,标价 19.9 万美元,约合人民币 141 万元。

此外,黄仁勋还提到了英伟达新一代 DGXSuper POD 集群,由 140 台DGXA100系统组成,AI算力达 700 Petaflops,相当于数千台服务器的性能 。

据了解,首批 DGXSuper POD 将部署在美国能源部阿贡国家实验室,用于新冠病毒疫情相关的研究。

除了以上两款重磅产品,黄仁勋还宣布推出了 NVIDIA Merlin,这是一个用于构建下一代推荐系统的端到端框架,该系统正迅速成为更加个性化互联网的引擎。Merlin将创建一个 100 TB 数据集推荐系统所需的时间从四天减少到 20 分钟。

英伟达此次还推出了众多 AI 领域相关产品,包括 以太网智能网卡 Mellanox ConnectX-6 Lx SmartNIC、EGX 边缘 AI 平台和一系列软件更新扩展。

1.以太网智能网卡 Mellanox ConnectX-6 Lx SmartNIC

ConnectX-6 Lx 是业界首个为 25Gb/s 优化的安全智能网卡,可提供两个 25Gb/s 端口或一个 50Gb/s 端口。

2.EGX 边缘 AI 平台

EGX Edge AI 平台是首款基于 NVIDIA 安培架构的边缘 AI 产品,可接收高达 200Gbps 的数据,并将其直接发送到 GPU 内存进行 AI 或 5G 信号处理。

3.Spark 3.0

英伟达还宣布在 Spark 3.0 上支持 NVIDIA GPU 加速,基于 RAPIDS 的 Spark 3.0,打破了提取,转换和加载数据的性能基准。它已经帮助 Adobe Intelligent Services 将计算成本降低了90%。

4.NVIDIA Jarvis

黄仁勋在发布会中详细介绍了 NVIDIA Jarvis,这是一个新的端到端平台,可以充分发挥英伟达 AI 平台的强大功能,创建实时多模态对话式 AI。

5.Misty 交互 AI

现场演示中,一个名为 Misty 的 AI系统展示了实时理解并回答一系列有关天气的复杂问题的交互过程。

自动驾驶方面,英伟达也将安培架构嵌入了新的 NVIDIA DRIVE 平台。据了解,小马智行、法拉第未来等自动驾驶企业已宣布采用 NVIDIA DRIVE AGX 计算平台。

英伟达的 NVIDIA Isaac 软件定义的机器人平台还将用于宝马集团工厂。英伟达机器人技术全球生态系统涵盖配送、零售、自主移动机器人、农业、服务业、物流、制造和医疗保健各个行业。

英伟达这场时隔 3 年的发布会可谓诚意满满,首次推出的安培架构给足了惊喜,性能提升 20 倍的 NVIDIA A100 GPU 可谓性能飞跃。

虽然发布会并不是现场直播,但依旧爆点十足。一台就比千台强的 DGX-A100 AI 也印证了黄仁勋那就经典名言“买的越多,赚的越多”。英伟达的 AI 解决方案已经覆盖了各行各业,强大的 AI 生态正在形成。

中国工程院院士倪光南曾表示:「芯片设计门槛极高,只有极少数企业能够承受中高端芯片研发成本,这也制约了芯片领域创新。」

英伟达在本届 GTC 上推出的安培架构和基于此的一系列 AI 平台无一部显示了一个 AI 芯片巨头的实力,又一次树立了性能标杆。

根据 Gartner 的预测数据 ,未来 5 年内全球人工智能芯片市场规模将呈飙升趋势 ,自 2018 年的 42.7 亿美元 ,升高至 343 亿美元 ,增长已超过 7 倍,可见 AI 芯片市场有较大增长空间。

尽管与西方发达国家相比,中国的 AI 芯片研发还存在一定差距,但过去两年中,中国 AI 芯片初创企业已获得了数亿美元的资金。华为等公司也开发了令人印象深刻的芯片设计。

但芯片开发极具复杂性,中国人才的短缺以及缺乏多家全球销售排名前 15 位的中国半导体公司的情况表明,中国仍需要取得重大进展,才能在半导体领域与美国匹敌。

英伟达CPU问世:ARM架构,对比x86实现十倍性能提升

机器之心报道

机器之心编辑部

「只需一张 GeForce 显卡,每个学生都可以拥有一台超级计算机,这正是 Alex Krizhevsky、Ilya 和 Hinton 当年训练 AI 模型 AlexNet 的方式。通过搭载在超级计算机中的 GPU,我们现在能让科学家们在 youxian 的一生之中追逐无尽的科学事业,」英伟达创始人兼首席执行官黄仁勋说道。

4 月 12 日晚,英伟达 GTC 2021 大会在线上开始了。或许是因为长期远程办公不用出门,人们惊讶地看到在自家厨房讲 Keynote 的黄老板居然留了一头摇滚范的长发:

如果你只是对他的黑色皮衣印象深刻,先对比一下 2019、2020 和 2021 的 GTC,老黄气质越来越摇滚。如此气质,黄仁勋今天推出的新产品肯定将会与众不同。

「这是世界第一款为 terabyte 级别计算设计的 CPU,」在 GTC 大会上,黄仁勋祭出了英伟达的首款中央处理器 Grace,其面向超大型 AI 模型的和高性能计算。

英伟达也要做 CPU 了

Grace 使用相对能耗较低的 Arm 核心,但它又可以为训练超大 AI 模型的系统提供 10 倍左右的性能提升。英伟达表示,它是超过一万名工程人员历经几年的研发成果,旨在满足当前世界最先进应用程序的计算需求,其具备的计算性能和吞吐速率是以往任何架构所无法比拟的。

「结合 GPU 和 DPU,Grace 为我们提供了第三种基础计算能力,并具备重新定义数据中心架构,推进 AI 前进的能力,」黄仁勋说道。

Grace 的名字来自于计算机科学家、世界最早一批的程序员,也是最早的女性程序员之一的格蕾丝 · 赫柏(Grace Hopper)。她创造了现代第一个编译器 A-0 系统,以及第一个高级商用计算机程序语言「COBOL」。计算机术语「Debug」(调试)便是她在受到从电脑中驱除蛾子的启发而开始使用的,于是她也被冠以「Debug 之母」的称号。

英伟达的 Grace 芯片利用 Arm 架构的灵活性,是专为加速计算而设计的 CPU 和服务器架构,可用于训练具有超过 1 万亿参数的下一代深度学习预训练模型。在与英伟达的 GPU 结合使用时,整套系统可以提供相比当今基于 x86 CPU 的最新 NVIDIA DGX 快 10 倍的性能。

目前英伟达自家的 DGX,使用的是 AMD 7 纳米制程的 Rome 架构 CPU。

据介绍,Grace 采用了更为先进的 5nm 制程,在内部通信能力上,它使用了英伟达第四代 NVIDIA NVLink,在 CPU 和 GPU 之间提供高达 900 GB/s 的双向带宽,相比之前的产品提升了八倍。Grace 还是第一个通过错误校正代码(ECC)等机制利用 LPDDR5x 内存系统提供服务器级可靠性的 CPU,同时提供 2 倍的内存带宽和高达 10 倍的能源效率。在架构上,它使用下一代 Arm Neoverse 内核,以高能效的设计提供高性能。

基于这款 CPU 和仍未发布的下一代 GPU,瑞士国家超级计算中心、苏黎世联邦理工大学将构建一台名为「阿尔卑斯」的超级计算机,算力 20Exaflops(目前全球第一超算「富岳」的算力约为 0.537Exaflops),将实现两天训练一次 GPT-3 模型的能力,比目前基于英伟达 GPU 打造的 Selene 超级计算机快 7 倍。

美国能源部下属的洛斯阿拉莫斯国家实验室也将在 2023 年推出一台基于 Grace 的超级计算机。

GPU+CPU+DPU,三管齐下

「简单说来,目前市场上每年交付的 3000 万台数据中心服务器中,有 1/3 用于运行软件定义的数据中心堆栈,其负载的增长速度远远快于摩尔定律。除非我们找到加速的办法,否则用于运行应用的算力将会越来越少,」黄仁勋说道。「新时代的计算机需要新的芯片、新的系统架构、新的网络、新的软件和工具。」

除了造 CPU 的大新闻以外,英伟达还在一个半小时的 Keynote 里陆续发布了大量重要软硬件产品,覆盖了 AI、 汽车 、机器人、5G、实时图形、云端协作和数据中心等领域的最新进展。英伟达的技术,为我们描绘出了一幅令人神往的未来愿景。

黄仁勋表示,英伟达全新的数据中心路线图已包括 CPU、GPU 和 DPU 三类芯片,而 Grace 和 BlueField 是其中必不可少的关键组成部分。投身 Arm 架构的 CPU,并不意味着英伟达会放弃原有的 x86、Power 等架构,黄仁勋将英伟达重新定义为「三芯片」公司,覆盖 CPU、GPU 和 DPU。

对于未来的发展节奏,黄仁勋表示:「我们的发展将覆盖三个产品线——CPU、GPU 和 DPU,以每两年一次更新的节奏进行,第一年更新 x86,第二年就更新 Arm。」

最后是自动驾驶。「对于 汽车 而言,更高的算力意味着更加智能化,开发者们也能让产品更快迭代。TOPS 就是新的马力,」黄仁勋说道。

英伟达将于 2022 年投产的 NVIDIA 自动驾驶 汽车 计算系统级芯片——NVIDIA DRIVE Orin,旨在成为覆盖自动驾驶和智能车机的 汽车 中央电脑。搭载 Orin 的量产车现在还没法买到,但英伟达已经在为下一代,超过 L5 驾驶能力的计算系统作出计划了。

Atlan 是这家公司为 汽车 行业设计的下一代 SoC,其将采用 Grace 下一代 CPU 和下一代安培架构 GPU,同时也集成数据处理单元 (DPU)。如此一来,Atlan 可以达到每秒超过 1000 万亿次(TOPS)运算次数。如果一切顺利的话,2025 年新生产的车型将会搭载 Atlan 芯片。

与此同时,英伟达还展示了 Hyperion 8 自动驾驶 汽车 平台,业内算力最强的自动驾驶 汽车 模板——搭载了 3 套 Orin 中心计算机。

不知这些更强的芯片和系统,能否应付未来几年里人们对于算力无穷无尽的需求。在 GTC 2021 上,英伟达对于深度学习模型的指数增长图又更新了。「三年间,大规模预训练模型的参数量增加了 3000 倍。我们估计在 2023 年会出现 100 万亿参数的模型。」黄仁勋说道。

英伟达今天发布的一系列产品,让这家公司在几乎所有行业和领域都能为你提供最强大的机器学习算力。在黄仁勋的 Keynote 发表时,这家公司的股票一度突破了 600 美元大关。

「20 年前,这一切都只是科幻小说的情节;10 年前,它们只是梦想;今天,我们正在实现这些愿景。

英伟达每年在 GTC 大会上发布的新产品,已经成为了行业发展的风向。不知在 Grace 推出之后,未来我们的服务器和电脑是否会快速进入 Arm 时代。

英伟达公布车圈最新动向:加大与比亚迪合作、助力联想入局

NVIDIA:汽车赛道迎来“新”朋友。

“我们正处在AIChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?的‘iPhone’时刻”。

北京时间3月22日,GTC 2022大会期间,NVIDIA创始人黄仁勋的演讲如约而至。

不同于去年自动驾驶业务“炸场”,今年或许是因为ChatGPT太火ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?了,黄仁勋花了大量篇幅介绍了ChatGPT,以及其背后的AI技术和A100、H100芯片等等。关于汽车领域,只是在谈到Omniverse时有所提及。

不过,在发布会前的预沟通环节,NVIDIA方面已经提前介绍了汽车领域的一些情况。结合此次演讲,我们大致梳理出NVIDIA在智能汽车赛道上的最新进展。

01

宝马使用Omniverse规划全球工厂

近年来,黄仁勋几乎每次演讲必会花大量篇幅介绍Omniverse,此次也不例外。

Omniverse是NVIDIA提出的虚拟世界仿真引擎,根据此前介绍,Omniverse的世界在物理上是精确的,遵循物理学定律,可以在宏大的尺度上运行,可复制,能将设计师与观众, AI与机器人联系到一起。

Δ Omniverse可将驾驶路线重构为3D

正如Tensorflow以及Pytorch是当前AI软件中不可或缺的计算框架,NVIDIA希望将Omniverse打造成为机器人时代的至关重要的一环,迎来AI的下一波浪潮。

在黄仁勋看来,Omniverse不是一种工具,而是一个USD网络和共享数据库,也是一种与各行各业使用的设计工具相连接的基础结构。它可以连接、合成和模拟使用行业领先工具创建的3D资产。

其一大用处是让企业在实际建设工厂、生产产品前,通过数字化模拟“预览”实际的成品。例如此前很火的“黑灯工厂”,就能通过Omniverse进行设计和模拟。

具体应用到汽车领域,可以实现将价值3万亿美元、拥有1400万员工的汽车行业数字化。

Δ Omniverse帮助车企向数字化转型

据介绍,Omniverse已经与多家车企展开了合作:

沃尔沃汽车公司和通用汽车使用Omniverse USD Composer连接和统一其资产工作流,后者还实现将汽车零部件在虚拟环境中组装数字孪生汽车ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?

梅赛德斯-奔驰和捷豹路虎汽车的工程师在Omniverse中使用Driver Sim生成合成数据来训练AI模型,通过虚拟NCAP驾驶测试验证主动安全系统,前者还利用Omniverse为新车型构建、优化和规划组装流水;

Lotus使用Omniverse以虚拟方式组装焊接站;

丰田使用Omniverse构建自己工厂的数字孪生;

Rimac和Lucid Motors使用Omniverse根据真实的设计数据构建数字商店

……

Δ 宝马演示利用Omniverse进行虚拟工厂建设

此外,黄仁勋还特别指出,宝马正在使用Omniverse规划全球近30家工厂的运营。在每座工厂实际开业两年之前,他们会模拟完整建造一间电动汽车工厂,并不断进行调整优化。

演讲期间,黄仁勋还使用视频方式参与了宝马第一家数字工厂揭幕。

02

比亚迪与NVIDIA扩大合作

作为NVIDIA在汽车领域的重要合作者,此次活动中,NVIDIA再次介绍了其与比亚迪的合作进展:扩大双方合作,比亚迪将在下一代王朝系列和海洋系列的多款车型中使用英伟达DRIVE Orin高性能计算平台。

据悉,比亚迪首款采用NVIDIA芯片的产品将装备激光雷达,预计在今年二季度上市。

比亚迪和NVIDIA基于智驾芯片的合作是在GTC 2022大会上官宣的,随后两者即进入“蜜月期”。

今年1月,CES 2023科技展会上,NVIDIA宣布要加速布局智能座舱赛道。作为智能座舱领域率先发力的点,NVIDIA旗下的GeForce NOW云游戏服务计划先走进汽车,首批合作车企即包括比亚迪。

Δ 比亚迪等为首批在车内搭载Geforce NOW的车企

根据NVIDIA方面消息,整个汽车生态系统中有数百家合作伙伴正在NVIDIA DRIVE上开发软件,其中包括新能源汽车制造领域前30家制造商中的大部分车企,以及全球主要的卡车运输和自动驾驶出租车公司。

NVIDIA DRIVE是一个面向自动驾驶汽车开发和部署的端到端的平台,于2015年推出,赋能自动驾驶生态。

英伟达在CES 2015上推出了基于英伟达Maxwell GPU架构的第一代平台:搭载1颗Tegra X1的DRIVE CX,主要面向数字座舱;以及搭载2颗Tegra X1的DRIVE PX,主要面向自动驾驶。

此后几乎是每年英伟达都要更新一至两次Drive 平台,每隔两年发布一款车规级SoC芯片,且不断拉升算力水平。

2020年,Xavier芯片算力为30 TOPS;2022年量产上车的Orin算力跃至254 TOPS。

基于上述芯片量产落地,DRIVE在汽车领域合作伙伴也不断增多。

此次GTC 2022大会期间,不仅比亚迪,NVIDIA还更新了与小马智行、smart等企业合作进展。

其中,小马智行宣布其由NVIDIA DRIVE提供支持的自动驾驶域控制器将部署在北京公司美团和新石器的自动驾驶车辆中进行大规模商用。

Δ Rimac Technology的中央车载计算机

Rimac Group的工程部门Rimac Technology正在开发一种新的中央车辆计算机或R-CVC,它将为ADAS、车载驾驶舱系统、车辆动力学逻辑以及车身和舒适软件堆栈提供动力,NVIDIA DRIVE硬件和软件将用于该平台,以加速开发工作实现。

smart正在与NVIDIA合作开发下一代智能移动解决方案。全新电动产品将基于 NVIDIA DRIVE Orin平台构建,预计将于2024年底开始生产。此外,Smart还将与NVIDIA合作建设专用数据中心,用于开发高阶辅助驾驶和人工智能系统等。

03

One more thing:联想入局

相比比亚迪等“老朋友”,联想在智能汽车环节出现显得有些意外。

根据NVIDIA方面消息,联想宣布成为新的自动驾驶域控制器一级制造商,新一代产品将于2025年开始生产,基于THOR(雷神)芯片打造。

雷神是黄仁勋在2022年GTC秋季大会主题演讲中发布的,这颗SoC芯片内部拥有770亿个晶体管,以此可实现2000 TOPS的AI算力,或者是2000 TFLOPs,战力值拉满。

凭借强大的性能参数,THOR已经不仅局限于“小小的”自动驾驶芯片,而是明确表示:为汽车的中央计算架构而生。

Δ NVIDIA THOR芯片

NVIDIA此前介绍称,Thor是行业首个中央计算单元,支持“舱驾一体”。即,Thor可被配置为多种模式,可以将其2000 TOPS和2000 TFLOPs全部用于自动驾驶工作流;也可以将其配置为将一部分用于驾驶舱AI和信息娱乐,一部分用于辅助驾驶。

按照原计划,THOR于2023年向开发者提供样品,并在2025年大规模量产上车,这与联想新一代自动驾驶域控制器量产落地时间吻合。

实际上,联想迈入汽车赛道并不算突然。

早在去年中旬,联想即发布招聘各类智能汽车相关人才的公告,包括自动驾驶工程总监、车载信息娱乐系统负责人、高级硬/软件经理等诸多智能汽车的关键核心人才,这曾引发联想“造车”的猜想热潮。

尽管联想集团董事长兼CEO杨元庆针对此回应称:“联想还没有造车计划,招聘人员是为了做前瞻性研究。”

但很快联想便自行“打脸”,去年底发布了车计算中长期战略规划与发展愿景表示,将依托算力、技术、供应链及人才优势,重点布局智能座舱、智能驾驶和中央计算平台等领域,推动汽车行业的智能化发展。

Δ 联想展示车计算技术

结合此次与NVIDIA合作消息,联想在汽车领域布局时间表也更加清晰:即2023年左右推出算力32TOPS行泊一体方案;2025年开始向更高算力的中央计算平台。

而NVIDIA方面,从此次大会期间合作情况也可以看出,目前英伟达在汽车圈客户大致还是分为三类:传统车企、造车新势力和自动驾驶公司。其中车企的比重越来越大。

作为早期定位服务L3及以上的智能驾驶的芯片公司,NVIDIA方面在此次大会期间也坦言,完全无人驾驶实现难度非常大,真正面向消费者推出时间远长于预期,因此公司当下将专注于L2及L3级自动驾驶技术。它认为,L2+将是最大的市场,特别是针对主机厂合作伙伴方面。

【本文来自易车号作者赛博汽车,版权归作者所有,任何形式转载请联系作者。内容仅代表作者观点,与易车无关】

ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?的介绍就聊到这里吧,感谢你花时间阅读本站内容,更多关于gtc 英伟达、ChatGPT专用GPU速度提升10倍...英伟达GTC发布会有哪些亮点?的信息别忘了在本站进行查找喔。

海报

本文转载自互联网,如有侵权,联系删除

本文地址:https://baikehd.com/news/30085.html

相关推荐

感谢您的支持