2024-07-08 14:59:27 来源:
Scaling Law仍处于陡峭区间,万亿参数是基本出发点
近年来,GPT系列模型的演进,客观上验证了Scaling Law的有效性。模型参数量决定模型能力的上限。从模型效果看,参数量增大确实带来了性能上的飞跃。虽然业内围绕“Scaling Law还能走多远”尚未形成共识,但阶跃星辰认为,参数量接下来再提高一个数量级是依然成立的。Scaling Law 目前依然奏效,模型性能仍然在随着参数量、数据量和计算量的增加呈幂次方增长。在此发展过程中,万亿参数量已经成为一个基本的入门门槛。
正是基于这样的认知,阶跃星辰很早便启动了万亿参数模型的训练。从千亿到万亿,模型的参数规模提升了一个量级,难度也提升了十倍以上。为此,阶跃星辰加大资源投入,尤其在系统和算法上积极探索,最终走通了万亿参数 MoE 大模型训练的道路。在 WAIC 2024 上,阶跃星辰发布了全新的 Step-2 万亿参数语言大模型正式版。根据从逻辑推理、世界知识、数学和编程等多个维度进行的权威测试,Step-2 模型能力都已全面接近国际主流模型,在部分测试集甚至实现了超越。
多模态是构建世界模型的基础能力,将走向理解与生成的统一
在不断攀登Scaling Law的同时,阶跃星辰也强调,多模态是构建世界模型的基础能力,是通向AGI的必经之路。从算法角度看,世界模型的演进会分为三个阶段:
第一阶段是模拟物理世界;
第二阶段是通过具身智能和物理世界交互,主动探索物理世界;
第三阶段是通过发展系统能力,发现新的物理规律,归纳物理世界。
从模拟世界,到探索世界,再到归纳世界,多模态是贯穿这三个阶段的基本能力。目前,全球科技巨头正在积极探索并布局多模融合的路径,多模态大模型研发的脚步正越走越快。然而,多模态领域目前存在的问题是,视觉的理解模型和生成模型是分开发展的。其造成的结果就是理解模型的理解能力强而生成能力弱,或者生成模型的生成能力强而理解能力弱。因此,多模态大模型接下来面临的一项关键挑战,就是能否将理解和生成统一在一个模型里。
目前,阶跃星辰正在朝着这个方向努力,并取得了一些阶段性的进展。在 WAIC 2024上,新升级的Step-1.5V千亿参数多模态大模型性能大幅提升,具备更出色的视频理解能力;新发布的Step-1X图像生成大模型,则是阶跃星辰首次推出多模态生成大模型。
在演讲的最后,姜大昕总结到,从千亿参数到万亿参数,从文本到多模,从多模理解到多模生成,标志着阶跃星辰在短时间内连续攀登上大模型的多个台阶,打造了行业领先的通用大模型矩阵。未来,基于强大的模型能力,阶跃星辰期待与众多领域的行业头部企业深度合作,共同探索积累大模型场景落地的经验,并为合作伙伴提供更多的价值。
免责声明:本网站(http://www.ciotimes.com/)内容主要来自原创、合作媒体供稿和第三方投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
本网站刊载的所有内容(包括但不仅限文字、图片、LOGO、音频、视频、软件、程序等)版权归原作者所有。任何单位或个人认为本网站中的内容可能涉嫌侵犯其知识产权或存在不实内容时,请及时通知本站,予以删除。