2023-08-24 10:28:12 来源:
算法就绪
要让AI发挥作用,算法、数据和算力是一个也不能少。而要说到生成式AI算法这回事,还要回到大模型的历史,以及它可能的未来走向。
传统的机器学习模型,如逻辑回归、决策树、朴素贝叶斯等,规模较小,只能处理少量的数据。到了深度学习模型,可以包含数百万个参数,处理海量数据。而到了超大规模深度学习模型甚至可以达到百亿级别的参数,需要使用超级计算机进行训练。更为重要的是,大模型不仅是应用训练的数据量更大,还兼具三个特点:规模大,需达到百亿参数级别;涌现性,能够产生预料之外的新能力;通用性,不限于专门问题或者领域。
或者我们可以看一下计算机早期的发展,当时要应用电脑,必备带空调的机房,工作人员还要换拖鞋才能进机房。而到了现在,一台智能手机的运算能力就超过了当时的计算机。更为重要的是,现在的智能手机拥有更多通用性和新能力,它已经实实在在地改变了我们的生活。
因此,大模型未来会成为我们离不开的助手和工具,它还会激发各行各业进一步加快原创,强化对未知、真知和真相的探索,促进人类加强创新。当“双智协同”成为新的业务形态之后,企业的业务、组织架构都会因此而转型。
大模型未来还可能进入模型量子化阶段,产生更复杂的大型神经网络模型,同时大模型的可解释性将会得到增强,这些都使得大模型的跨模态应用将会更加广泛。根据麦肯锡的预测,生成式 AI 每年可为全球经济带来多达 4.4 万亿美元的增长。
但另一方面,大模型也存在一些缺点,比如训练和推理时间较长,因为模型规模较大,造成存储成本较高,还需要更高的计算能力。归纳起来就一句话,大模型在算力和训练数据方面,出问题了。这个时候,就需要引入算力就绪和数据就绪。
算力就绪
有消息表明,包括戴尔科技、慧与和联想,将于年底前推出搭载 NVIDIA L40S 的服务器,以加速推进企业级 AI 的发展。NVIDIA近年来在增加AI算力方面下足了功夫,现在NVIDIA AI 就绪型服务器的推出,将为企业大幅提升生成式 AI 性能。
NVIDIA AI 就绪型服务器将采用 NVIDIA L40S GPU、NVIDIA BlueField-3 DPU 和 NVIDIA AI Enterprise 软件,使企业能够微调生成式 AI 基础模型并部署生成式 AI 应用,更为重要的是,这些服务器还提供由 NVIDIA 加速的基础设施和软件,以支持 VMware Private AI Foundation with NVIDIA。
当前,全球头部AI模型训练算力需求已经达到了每3-4个月翻一番,即平均每年算力增长幅度达到惊人的10倍。这也意味着在目前大模型发展如火如荼的态势下,训练算力需求有望扩张到原来的10到100倍。在这方面,NVIDIA L40S确实带来了好消息。
ChatGPT成功的背后是上万颗NVIDIA A100,而相较于 NVIDIA A100 GPU,NVIDIA L40S 可将智能聊天机器人、助手、搜索和摘要等生成式 AI 应用中的生成式 AI 推理性能提高 1.2倍。
性能提升还不止于此,通过集成NVIDIA BlueField DPU,可加速、卸载和隔离巨大计算工作负载,其中包含虚拟化、网络、存储、安全,以及其他云原生 AI 服务,以进一步提高速度。数据传输速度同样重要,NVIDIA ConnectX-7 智能网卡能提供先进的硬件卸载和超低延迟,可为数据密集型生成式 AI 工作负载提供同类领先的可扩展性能。
这样,距离算力就绪又近了一大步。
数据就绪
当前,越来越多的用户将数据的存储和处理都放在云间,因此AI与云计算因为数据的关系而结合得越发紧密。VMware 首席执行官 Raghu Raghuram 表示:“生成式 AI 与多云可谓珠联璧合。客户的数据无处不在,遍布其数据中心、边缘、云等多处。我们将与 NVIDIA 一同助力企业放心地在数据附近运行生成式 AI 工作负载,并解决其在企业数据隐私、安全和控制方面的问题。”
事实上,通过VMware Private AI Foundation with NVIDIA,算力就绪和数据就绪已经结合了起来。该平台计划提供的各种集成式 AI 工具,将帮助企业经济高效地运行使用其私有数据训练而成的成熟模型。这一建立在 VMware Cloud Foundation 和 NVIDIA AI Enterprise 软件上的平台预计将在隐私、选择、性能、成本、存储、网络、部署时间和数据中心规模等方面帮助用户确立优势。
该平台将采用的 NVIDIA NeMo 是 NVIDIA AI Enterprise(NVIDIA AI 平台的操作系统)中包含的端到端云原生框架,可助力企业在几乎任何地点构建、自定义和部署生成式 AI 模型。NeMo 集自定义框架、护栏工具包、数据整理工具和预训练模型于一身,使企业能够以一种简单、经济且快速的方式来采用生成式 AI。
为将生成式 AI 部署到生产中,NeMo 使用 TensorRT for Large Language Models(TRT-LLM),以加速并优化 NVIDIA GPU 上最新 LLM 的推理性能。通过 NeMo,VMware Private AI Foundation with NVIDIA 将使企业能够导入自己的数据,并在 VMware 混合云基础架构上构建和运行自定义生成式 AI 模型。
当大模型训练因为越来越多的巨头公司参与而在一日千里进步之后,云计算作为AI的底座,将算力就绪和数据就绪结合在一起,必然会因为算法、数据和算力的就绪,而让生成式AI的应用进入到一个新的阶段。NVIDIA 创始人兼首席执行官黄仁勋对此表示:“世界各地的企业都在竞相将生成式 AI 整合到自身业务中。通过与 VMware 扩大合作,我们将能够为金融服务、医疗、制造等领域的数十万家客户提供其所需的全栈式软件和计算,使其能够使用基于自身数据定制的应用,充分挖掘生成式 AI 的潜力。”
免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。