聚焦多模态:ChatGPT时刻未到,2025大模型“变慢”了吗
聚焦多模态:ChatGPT时刻未到,2025大模型“变慢”了吗
聚焦多模态:ChatGPT时刻未到,2025大模型“变慢”了吗以(yǐ)ChatGPT为代表(dàibiǎo)的语言类大模型重塑内容生成方式时(shí),多模态模型还在等待它的“iPhone时刻”。近日召开的2025智源大会上,智源研究院(以下简称“智源”)正式发布了包括原生多模态世界模型Emu3等“悟界”大模型系列(xìliè),Emu3实现了文本、图像、视频的任何组合理解与生成,通过单一模型就(jiù)可以(kěyǐ)捕捉世界的规律。
AI发展之快(zhīkuài),每年都有新话题,2024年,价格战是大模型(móxíng)(móxíng)的关键词,2025感到风向变了,大模型应用百花齐放,反而有种大模型发展“变慢”了的体感。
事实上,市场(shìchǎng)上新旧(xīnjiù)产品同台竞技,呈现出立体、多维度的思考,多模态(mótài)大模型更是如此。按照当前技术成熟度评估(pínggū),视频生成等核心能力仍处于(chǔyú)GPT-2到GPT-3的过渡阶段,与产业预期存在显著差距。多模态模型将经历更长的技术沉淀期,这也意味着更大的想象力空间。
大模型爆发至今,很多时候无外乎是选对了方向,又懂得流量密码,一个现象级产品就横空出世(héngkōngchūshì)了。事实上,这种选择需要(xūyào)前期(qiánqī)足够多的思考、实践和勇气。
严格来说,Emu3是智源2024年10月发布的多模态(mótài)模型,目前智源已在训练下一个版本(bǎnběn)。基于Emu3,智源还官宣了全球(quánqiú)首个脑科学多模态通用基础模型见微Brainμ。
“当前多模态(mótài)大模型的学习路径,尤其是多模态理解模型,通常是先将语言模型训练到很强的程度(chéngdù),再学习其他模态信息。”智源研究院院长王仲远向北京商报(shāngbào)记者解释,“这就如同先达到博士学位水平(shuǐpíng),再去接触其他知识,在这个过程中,模型的能力可能会出现下降(xiàjiàng),从博士水平降到大学甚至高中水平。”
显然人类的学习路线不是这样的,从出生就开始听声音、跟物品和(hé)图像交互,反而文字是在幼儿园或小学(xiǎoxué)才开始接触的。
Emu3所谓的原生多模态大模型的原生正是如此,“是指在模型训练(xùnliàn)初始(chūshǐ)阶段,就将文字、图像、声音乃至脑信号等各种模态数据都纳入其中(qízhōng)进行训练。随着模态种类(zhǒnglèi)不断增加(zēngjiā),如何从繁杂的模态数据中筛选出最有效的信息,成为亟待突破的技术难题”,据王仲远介绍,这与企业选择的技术路线存在差异。
“技术方案不够收敛”也是Sand.ai创始人(chuàngshǐrén)兼CEO曹越(cáoyuè)提到的多模态模型发展的第一个挑战。
视频(shìpín)生成处在GPT-2-GPT-3阶段
以曹越在微软(wēiruǎn)研究院、智源研究院又(yòu)创立Sand.ai的经历,他认为过去有(yǒu)两个技术进展最(zuì)令人印象深刻,“一个是ChatGPT,或者说(huòzhěshuō)预训练的规模化,另一个是GPT-o2和DeepSeek R2这种类型的技术,本质上是Test-time scaling(测试时缩放)”。
在他所在的(de)视频生成领域,“Sora的出现,让大家意识到视频生成的质量可以这么高,但从技术方向看,DiT训练方案有很大(hěndà)问题(wèntí),核心问题就是(jiùshì)不够可拓展(tuòzhǎn)”,曹越以大语言模型举例对比(duìbǐ),“有点像2018年的BERT。当时核心痛点是,当训到10B大小时,要再更大时就不会有进步(jìnbù)了。BERT一开始(kāishǐ)有很好的生成效果,但是ChatGPT后来者居上,因为ChatGPT可以训1000B。这意味着在技术方案方面还有很大的技术空间,生成效果上也有很大的提升空间”。
智象未来(wèilái)创始人兼CEO梅涛更加直接,“目前视频生成处于GPT-2到GPT-3的(de)阶段”。
梅涛把视频生成问题总结为三点,叙事性、稳定性、可控性。“要保证视频做5分钟和1小时是完整的故事,IP要有一致性。稳定性现在做得还可以”,谈到可控性,他拿自己在北京电影学院上过的一门课“镜头的语言”举例(jǔlì),“导演的要求非常(fēicháng)(fēicháng)高,第几秒出现(chūxiàn)什么镜头、人物出现什么表情要求非常高,今天(jīntiān)的大模型(móxíng)还没有做到这一点,我们还在等待ChatGPT时刻的到来”。
其实,不管是大语言模型还是多模态模型,数据的(de)存量和增量、成本等一系列(yīxìliè)问题,都会限制(xiànzhì)发展,但在智谱AI CEO张鹏看来,这都是表面现象,“还有一个最瓶颈、最麻烦的地方就是商业应用”。
他进一步说,“传统的CV(计算机视觉)模型的落地应用比较成熟,大模型在视觉理解能力(nénglì)得到提升,或者(huòzhě)泛化能力更强以后,可以迅速替代和(hé)填补原来传统的视觉模型应用领域(yìngyònglǐngyù)的空白需求(xūqiú),无非就是成本收益比的问题。只要有市场有需求,基础研发人员就可以把成本压下来,形成规模化应用以后,达到商业化应用的临界点”。
对于视频生成来说,张鹏认为,“基于视觉生成,这两个事情还没有完全统一起来。这使得我们(wǒmen)要同时兼顾两件事。目前(mùqián)这两件事在技术角度上,没有太好的办法融合到一起,带来(dàilái)的根本约束更大”。
梅涛创立的智象未来关注怎样将多模态模型进行应用,帮助客户和用户发挥(fāhuī)创造力,提升生产力(shēngchǎnlì)。从2023年到2025年,他(tā)对多模态模型应用每年都有新观察。
“2023年(nián)模型就是产品,我们(wǒmen)做的是模型的服务,也就是PaaS(平台即服务),到了2024年可以卖工具,工具就是SaaS(软件即服务),我们希望(xīwàng)做每个人都(dōu)能使用的工具,后来发现工具的使用门槛比较高,特别是做影视(yǐngshì)级专业内容的需求。2025年我们再往上升级,客户不用关心我们是怎么做的,我们希望直接把结果交给用户,帮用户做增长、跟(gēn)用户分佣。”梅涛说。
根据中研普华产业研究院的数据,2024年全球多模态(mótài)AI市场规模(guīmó)达到24亿美元,年均复合增长率超过(chāoguò)28%。预计到2025年,全球多模态大模型(móxíng)市场规模将(jiāng)达到1280亿美元,2023—2025年复合增长率高达62.3%。虽有诸多挑战,多模态大模型的未来仍是一片星辰大海。

以(yǐ)ChatGPT为代表(dàibiǎo)的语言类大模型重塑内容生成方式时(shí),多模态模型还在等待它的“iPhone时刻”。近日召开的2025智源大会上,智源研究院(以下简称“智源”)正式发布了包括原生多模态世界模型Emu3等“悟界”大模型系列(xìliè),Emu3实现了文本、图像、视频的任何组合理解与生成,通过单一模型就(jiù)可以(kěyǐ)捕捉世界的规律。
AI发展之快(zhīkuài),每年都有新话题,2024年,价格战是大模型(móxíng)(móxíng)的关键词,2025感到风向变了,大模型应用百花齐放,反而有种大模型发展“变慢”了的体感。
事实上,市场(shìchǎng)上新旧(xīnjiù)产品同台竞技,呈现出立体、多维度的思考,多模态(mótài)大模型更是如此。按照当前技术成熟度评估(pínggū),视频生成等核心能力仍处于(chǔyú)GPT-2到GPT-3的过渡阶段,与产业预期存在显著差距。多模态模型将经历更长的技术沉淀期,这也意味着更大的想象力空间。

大模型爆发至今,很多时候无外乎是选对了方向,又懂得流量密码,一个现象级产品就横空出世(héngkōngchūshì)了。事实上,这种选择需要(xūyào)前期(qiánqī)足够多的思考、实践和勇气。
严格来说,Emu3是智源2024年10月发布的多模态(mótài)模型,目前智源已在训练下一个版本(bǎnběn)。基于Emu3,智源还官宣了全球(quánqiú)首个脑科学多模态通用基础模型见微Brainμ。
“当前多模态(mótài)大模型的学习路径,尤其是多模态理解模型,通常是先将语言模型训练到很强的程度(chéngdù),再学习其他模态信息。”智源研究院院长王仲远向北京商报(shāngbào)记者解释,“这就如同先达到博士学位水平(shuǐpíng),再去接触其他知识,在这个过程中,模型的能力可能会出现下降(xiàjiàng),从博士水平降到大学甚至高中水平。”
显然人类的学习路线不是这样的,从出生就开始听声音、跟物品和(hé)图像交互,反而文字是在幼儿园或小学(xiǎoxué)才开始接触的。
Emu3所谓的原生多模态大模型的原生正是如此,“是指在模型训练(xùnliàn)初始(chūshǐ)阶段,就将文字、图像、声音乃至脑信号等各种模态数据都纳入其中(qízhōng)进行训练。随着模态种类(zhǒnglèi)不断增加(zēngjiā),如何从繁杂的模态数据中筛选出最有效的信息,成为亟待突破的技术难题”,据王仲远介绍,这与企业选择的技术路线存在差异。
“技术方案不够收敛”也是Sand.ai创始人(chuàngshǐrén)兼CEO曹越(cáoyuè)提到的多模态模型发展的第一个挑战。
视频(shìpín)生成处在GPT-2-GPT-3阶段
以曹越在微软(wēiruǎn)研究院、智源研究院又(yòu)创立Sand.ai的经历,他认为过去有(yǒu)两个技术进展最(zuì)令人印象深刻,“一个是ChatGPT,或者说(huòzhěshuō)预训练的规模化,另一个是GPT-o2和DeepSeek R2这种类型的技术,本质上是Test-time scaling(测试时缩放)”。
在他所在的(de)视频生成领域,“Sora的出现,让大家意识到视频生成的质量可以这么高,但从技术方向看,DiT训练方案有很大(hěndà)问题(wèntí),核心问题就是(jiùshì)不够可拓展(tuòzhǎn)”,曹越以大语言模型举例对比(duìbǐ),“有点像2018年的BERT。当时核心痛点是,当训到10B大小时,要再更大时就不会有进步(jìnbù)了。BERT一开始(kāishǐ)有很好的生成效果,但是ChatGPT后来者居上,因为ChatGPT可以训1000B。这意味着在技术方案方面还有很大的技术空间,生成效果上也有很大的提升空间”。
智象未来(wèilái)创始人兼CEO梅涛更加直接,“目前视频生成处于GPT-2到GPT-3的(de)阶段”。
梅涛把视频生成问题总结为三点,叙事性、稳定性、可控性。“要保证视频做5分钟和1小时是完整的故事,IP要有一致性。稳定性现在做得还可以”,谈到可控性,他拿自己在北京电影学院上过的一门课“镜头的语言”举例(jǔlì),“导演的要求非常(fēicháng)(fēicháng)高,第几秒出现(chūxiàn)什么镜头、人物出现什么表情要求非常高,今天(jīntiān)的大模型(móxíng)还没有做到这一点,我们还在等待ChatGPT时刻的到来”。
其实,不管是大语言模型还是多模态模型,数据的(de)存量和增量、成本等一系列(yīxìliè)问题,都会限制(xiànzhì)发展,但在智谱AI CEO张鹏看来,这都是表面现象,“还有一个最瓶颈、最麻烦的地方就是商业应用”。
他进一步说,“传统的CV(计算机视觉)模型的落地应用比较成熟,大模型在视觉理解能力(nénglì)得到提升,或者(huòzhě)泛化能力更强以后,可以迅速替代和(hé)填补原来传统的视觉模型应用领域(yìngyònglǐngyù)的空白需求(xūqiú),无非就是成本收益比的问题。只要有市场有需求,基础研发人员就可以把成本压下来,形成规模化应用以后,达到商业化应用的临界点”。
对于视频生成来说,张鹏认为,“基于视觉生成,这两个事情还没有完全统一起来。这使得我们(wǒmen)要同时兼顾两件事。目前(mùqián)这两件事在技术角度上,没有太好的办法融合到一起,带来(dàilái)的根本约束更大”。
梅涛创立的智象未来关注怎样将多模态模型进行应用,帮助客户和用户发挥(fāhuī)创造力,提升生产力(shēngchǎnlì)。从2023年到2025年,他(tā)对多模态模型应用每年都有新观察。
“2023年(nián)模型就是产品,我们(wǒmen)做的是模型的服务,也就是PaaS(平台即服务),到了2024年可以卖工具,工具就是SaaS(软件即服务),我们希望(xīwàng)做每个人都(dōu)能使用的工具,后来发现工具的使用门槛比较高,特别是做影视(yǐngshì)级专业内容的需求。2025年我们再往上升级,客户不用关心我们是怎么做的,我们希望直接把结果交给用户,帮用户做增长、跟(gēn)用户分佣。”梅涛说。
根据中研普华产业研究院的数据,2024年全球多模态(mótài)AI市场规模(guīmó)达到24亿美元,年均复合增长率超过(chāoguò)28%。预计到2025年,全球多模态大模型(móxíng)市场规模将(jiāng)达到1280亿美元,2023—2025年复合增长率高达62.3%。虽有诸多挑战,多模态大模型的未来仍是一片星辰大海。

相关推荐
评论列表
暂无评论,快抢沙发吧~
你 发表评论:
欢迎