首页
产品服务
模型广场
Token工厂
算力市场算力商情行业资讯
注册

对话胡正荣:万物皆AI,AI皆入口,视听皆接入,影视级视频大模型2028—2030年出现

发布日期:2026-04-01 来源:澎湃新闻网作者:澎湃新闻网

“点状试水”,尚未形成颠覆性的冲击波,2026年进入全面普及、全面接入阶段

「视听头条」:您如何评价2025年视听行业AIGC应用的整体发展态势?

胡正荣:我个人的判断是:2025年,视听行业 AIGC应用整体还处在一个 “点状试水” 的阶段。

为什么说是点状试水?因为从整体来看,整个行业确实已经普遍意识到 AIGC 对内容生产带来的深刻影响。

不管是社交媒体、各类 MCN 机构、互联网平台,还是我们广电系统的各级电台、电视台,去年都已经开始主动布局、积极尝试。

很多电视台在晚会、节目制作中已经大量运用AIGC 技术,社交平台和新媒体机构也在广泛落地应用。

但也要看到,这些应用仍然是“点状分布、局部探索”,AIGC 还没有在全行业形成系统性、颠覆性的冲击波。

在我看来,2025年真正的亮点,其实是开始用起来了—— 比如在宣传片、短视频、推广类内容,以及一些创意性内容上,大家都在尝试 AIGC 技术。

但同时也暴露出两个明显痛点:第一,应用不够广泛,还只是局部试点;第二,应用不够深入,大多停留在表面工具层。

「视听头条」:2026年,视听行业在AIGC领域呈现出哪些发展态势?

胡正荣:我个人认为,技术平权这件事,现在来看既是平权,同时也在拉大鸿沟,而且这个鸿沟甚至可能越来越严重。

先说说平权这一面。AI 带来的技术平权,核心就是大幅降低了专业视听创作的门槛。过去门槛极高、需要专业团队才能完成的内容生产,现在借助 AIGC,普通人、个人创作者、中小 MCN 机构,都可以大步进入专业视听领域。

这种平权,直接带来了行业结构的本质变化:不再只有大电视台、大影视公司才能生产专业视频,现在一家小企业、甚至一两个人,就可以完成高质量的视听内容生产。

但在我看来,在享受技术平权的同时,我们更要清醒地看到:技术鸿沟也在同步拉大,甚至在某种意义上,新的门槛反而更高了。

我们现在已经能明显感受到:真正把 AIGC 用得最广泛、最娴熟、最深入的,往往还是少数人。最能用好 AI 的,往往是AI 原住民,也就是年轻一代。

而传统的专业影视、视听机构 —— 比如电视台、电影公司、大型制片公司,还有资深导演、创作者们,反而因为 AI 技术迭代太快,被挡在了门外。

他们还习惯工业时代的规模化、流程化生产,还没有真正适应、完全接入 AI 时代的技术体系。

所以我认为,真正更值得我们关注的,恰恰是这条不断拉大的技术鸿沟。这也提醒我们行业内的人,必须尽快跨越这条鸿沟、缩小差距,真正进入 AI 时代。

AI 原住民有着得天独厚的先天优势,而AI 移民—— 也就是传统从业者,面临的困境只会越来越突出。

从单向生成到双向理解,影视级视频大模型大概率会在 2028—2030年出现

「视听头条」:相较于同类 AI 视频生成模型及前代产品,Seedance 2.0 的核心进步体现在哪些方面?具体解决了 AI 视频生成行业长期存在的哪些痛点难题?

胡正荣:我的看法是这样:Seedance 2.0的推出,标志着 AI 生成式模型在两大核心能力上实现了显著突破。

第一,是视觉理解能力大幅提升;第二,是视觉建构能力明显增强。

这和过去的AIGC产品完全不一样。以往我们见到的很多AI视频工具,大多只能做一镜到底、简单画面,场景转换非常局限,整体表现力偏弱。

而Seedance 2.0在理解画面、构建复杂场景上,已经上了一个大台阶。

像Seedance 2.0这样的产品,其实已经把人工智能大模型,从单纯单向生成,开始向双向理解型模型进化。

也正因为如此,它在视觉理解能力和视觉建构能力上,才有了刚才说到的大幅提升。这主要体现在几个方面:

比如Seedance 2.0生成的内容,在镜头景别变化、运镜流线、场景切换上,都已经做到非常丝滑、流畅。这在以往的AI视频工具里是很难看到的。

而且它生成出来的效果,非常接近人类专业创作的质感——比如远景、中景、近景、特写这些不同景别的自然切换,还有运镜的流畅度、节奏感,都已经具备了专业创作的质感。

由此也带来了另一大优势:正是因为Seedance 2.0的视觉理解力、视觉建构力上来了,它在视听内容创作与生成能力上,也得到了前所未有的提高。

能力上去了,创作成本自然就降下来了。过去想要做出这种场景变化复杂、景别切换丰富、运镜要求高的视频,哪怕只是短视频,成本都很高。

随着这项技术不断成熟、模型理解能力持续提升,整体的人力成本、技术成本、时间成本,都会大幅下降。

从这一点也能看出,AI 视频生成行业长期存在的痛点和难点,恰恰就在于:过去的模型,对视频本身的理解能力是不足的。

很多产品还停留在把文字直接转成机器能生成的画面,在视觉理解、视觉建构上,远没有达到现在这样的高度。

所以我们目前看到的很多AI生成视频,在画面颗粒度、情感表达颗粒度、叙事有效性等方面,和专业创作相比,仍然存在比较明显的差距。

「视听头条」:业内有观点认为,影视级水准的视频生成模型预计要到2027—2028年才能落地,结合当前 Seedance 2.0 的技术突破,您认为影视级 AI视频生成模型最快可能在什么时候实现?核心判断依据是什么?

胡正荣:但我个人的判断不太一样,我觉得2027—2028年这个时间点,可能还是偏乐观了一些。

我个人更倾向于:真正达到专业级、影视级的视频大模型,大概率会在2028—2030年之间出现。

因为到那个阶段,模型就不再是简单的单向生成、文字转视频的工具,而是同时具备理解能力+生成能力的双向模型。

我们都知道,大模型发展其实有两条路径:一条是单向生成,另一条是双向理解。

我做出这个判断,主要基于两方面:一是技术涌现的水平、速度与能力,二是产业落地的成本核算。

第一,从今年包括 Seedance2.0 在内的技术突破来看,虽然已经出现了非常明显的技术涌现,但短期内,还没有完全彻底解决用 AI 模型实现高标准、高要求的专业级创作这一核心问题。

这项能力的成熟,我个人判断至少还需要两到三年的迭代周期。

也正是基于这一点,我才认为大概在2028—2030这个阶段,行业才会迎来真正的快速升级和成熟。

第二,因为真正的影视级视频大模型,既要达到极高的内容水准,又要能实现规模化、普及化应用,还需要满足一系列关键条件:

  • 算力支撑。目前的算力水平,还不足以支撑大规模、高效率的影视级视频生成。
  • 硬件条件。包括芯片、底层硬件、软件处理能力,都还需要持续升级。
  • 也是最关键的 ——人才。既需要顶尖的技术人才,也需要懂内容、懂创作、懂影视语言的专业人才,深度参与模型精调、内容打磨。

这些条件,都需要时间逐步成熟、逐步完善,而这些,也正是影视级视频大模型真正落地前,需要跨越的现实障碍。

万物皆AI,AI皆入口,视听皆接入,“养龙虾”让我们看到大模型个性化、个人化、行业化、垂直化落地的可行性和价值

「视听头条」:AI 领域一直存在“行业+AI”与“AI+行业 ”的模式之争,结合视听行业的特性,您认为二者应如何界定?

胡正荣:我个人更倾向于“AI+行业”的模式。

我们都知道,物联网、5G 时代的核心是 “万物互联”,到了今天的智能时代,核心已不再是万物互联,而是AI赋能万物。

AI 具备广域感知、分布式计算能力,加上双向交互技术,能够渗透到各行各业实现深度应用。所以我更倾向于AI+行业的路径,视听行业也不例外。

特别是近两年,尤其是今年,“AI+行业”的趋势已经非常明显,AI 正在垂直渗透、深度落地。

最近大家关注的 “AI 养龙虾” 等案例充分说明:大模型实现个性化、行业化、垂直化落地,完全可行且极具价值。

所以我明确主张“AI+行业”这条路径。

具体到视听领域,我同样主张走“AI+视听”路线 —— 不是把AI 当作简单的工具外挂,而是用AI 思维、AI 技术、AI 应用,从底层引领和驱动整个视听行业的变革与升级。这也符合 AI 发展的大趋势。

按照黄仁勋的观点,AI 发展分为四个阶段:感知型 AI(Perception AI)、生成式 AI(Generative AI)、智能体 AI(Agentic AI)、物理 AI(Physical AI)。

我非常认同这个判断。当下 AI 已正式进入智能体时代,核心正是走向垂直化、个体化、个性化、行业化。

下一阶段,在实现 “AI 赋能万物” 之后,将来到Physical AI,我更愿意把它理解为实体 AI——让 AI 真正落地到物理世界、实体场景,实现全场景、全实体的智能化。

按这个规律判断,AI的下一步就是实体 AI,也就意味着万物皆 AI。万物皆 AI,随之而来的就是万物皆入口。未来手机、电视、汽车、耳机乃至饰品等各类物理介质、物理节点,都会成为智能入口。

基于此,我有一个核心逻辑判断,总结为三句话:万物皆 AI,AI 皆入口,视听皆接入。

这里的 “接”,就是全面接入、无缝连接。

说白了,未来人与互联网的关系,不再需要像现在这样拿手机、点开屏幕、打开 APP、手动交互,完全可以通过语音、视觉、眼神,甚至虹膜、脑机信号直接指挥、直接接入互联网世界。

所以从这个趋势来看,视听行业的未来,一定是“AI+视听”、“AI+行业”的发展路径。

胡正荣

中国社会科学院新闻与传播研究所党委副书记、所长,中国社会科学院大学新闻传播学院院长胡正荣

本文转载自澎湃新闻网, 作者:澎湃新闻网, 原文标题:《 对话胡正荣:万物皆AI,AI皆入口,视听皆接入,影视级视频大模型2028—2030年出现 》, 原文链接: https://m.thepaper.cn/newsDetail_forward_32866279。 本平台仅做分享和推荐,不涉及任何商业用途。文章版权归原作者所有。如涉及作品内容、版权和其它问题,请与我们联系,我们将在第一时间删除内容!
本文相关推荐
暂无相关推荐
点击立即订阅