Google发布Gemini1.5,OpenAl发布视频模型Sora,AGI是否真的来了北京时间2月15日晚间到2月16日凌晨,Google与OpenA!连续发出了大招,其中Google发布了Gemini 1.5模型供开发者测试OpenAl发布了视频生成模型Sora。
主要亮点如下:
1、Google方面:Gemini1.5模型最大支持一百万上下文,1.5的Pro模型达到1.0的Ultra模型的能力,更强的推理能力,更强的多模态理解能力和编程能力。这其中最重要的亮点是百万级别的上下文长度,这意味着Gemini1.5模型已经具备了写出高质量深度研究报告或者论文的潜力。
2、OoenA!方面:虽然新发布的文生视频模型Sora还处于内部测试阶段,但是最大的模型已经能够生成最长1分钟的视频,最高清晰度是1080p,也就是短边长1080像素。从发布的视频素材看,模型具备极强的对象一致性,三维世界一致性,以及初步的对物理世界的理解能力。
这两个模型迅速刷屏,尤其是OpenAl的Sora模型因为生成视频的效果更直观,所以引起了更多关注。我们对此简单点评如下:1这两个模型的发布,意味着过去一年A!发展的加速度从未下降,反而是上升的;2.当前模型研发的主要方向就是AG!,生成式AI是为训练AGI服务的,但是这两个模型的发布不意味着AG!很快就会出现,我们维持乐观预期下至少需要五年时间的判断;3.以大语言模型为基础的多模态能力打开了通向AG!的可能性,目前比较公认的方向就是需要更大规模的模型和更多的数据,对大算力集群和数据的需求还看不到天花板。
ARM股价一周内翻倍,再次强调AI时代,ARM架构对X86的取代趋势ARM在发布财报后的一周内,股价翻倍。最超预期的地方在于:AI对于ARM架构的需求拉动。无论是预训练还是推理,ARM指令集数量虽然相比X86仍有差距,但是基本已经能够满足A!的需求,而ARM架构带来的芯片设计、功耗、CPU与GPU数据传输效率、模型端到端部署的便捷性等方面的提升则是巨大的。苹果英伟达高通甚至AMD等公司的不断努力,不断推进ARM对X86的取代进程。
3.奥特曼(OpenAICEO)融资7万亿美金,AI算力需求难言顶

OpenAI的CEO奧特曼最近正在融资7万亿美金用于A1芯片研发和生产,引发了市场关于算力需求的热议。市场也有了不少测算,如果按照3万美金一片计算,7万亿美金可以购买大约2.3亿片英伟达的H100,数十倍于英伟达一年的产能。我们认为:1.7万亿美金的数字虽然比较夸张,但是如果考虑未来五年或者AGI的算力需求的话,相对还是合理的。综合目前各方面情况看,AGI研发,对模型规模和数据需求巨大,单集群至少需要一百倍以上的算力提升,两三年的周期内,算力需求可能看不到天花板:2.2023年的百模大战军备竞赛,在某种程度上给0penA1、Google、Meta这些巨头带来了极大的危机感,此轮军备竞赛由巨头发起,技术层面的原因是AGI研发的真实需求,商业层面原因是大幅提高竞争门槛,将未来的潜在竞争对手挡在门外;3.英伟达非常配合,新的路线图从两年的产品周期缩短为一年,进一步拉动算力需求。
4.数据将是模型进一步发展的重中之重

除了算力之外,下一步模型研发对于数据的需求也是至少几个数量级的提升:一方面,模型进入到多模态时代后,训练用的图像.视频等数据量远大于语言文字,另一方面,无论是图像视频生成还是理解,高清晰度意味着要求更高的图像细节,视频帧率等,这些都带来几倍甚至数十倍的数据量需求。之前有两种较为流行的观点,一是大模型已经把数据训练完了,另一个是生成的数据不可以作为训练用。在只考虑语言文字数据的前提下,这两种观点都有一定道理,但是多模态之后,这两个观点都被打破了,一是互联网上图像视频的数据量远远多于文字,二是多模态之后,很多研究表明用算法生成的图像视频数据是可以用来训练的。目前训练中数据的最大瓶颈是高质量的图像视频数据,例如2K以“分辨率的图像和视频,逻辑性更强更接近人类物理世界表达的视频数据。以及三维空间数据等。结论是:如果算力门槛的几十亿甚至上百亿美金是有形的,那么巨头手中握有的海量高质量数据则是无形的,更将成为决定以后模型竞争成败的关键。

五、总体结论:

1、利好算力板块。

2、利好手握数据资源的平台公司。

3、模型能力增强后,相关行业落地速度大幅加快。