AIGC(AI-Generated Content 人工智能生成内容)标志着新一轮范式转移的开始。 近期,硅谷的众多顶尖风险投资公司开始关注 AI 初创企业,尤其是生成式 AI 艺术领域。今年,独角兽企业 Stability 和 Jasper 分别获得超过一亿美元的融资,估值均突破十亿美元。AIGC 赛道的火热不仅源于技术进步、商业应用的广泛性和需求的增长,还因为该领域仍处于早期阶段。尽管大型科技公司已捕获大量价值,初创企业依然有机会实现突破。
AIGC 将成为 Web3 时代的重要生产力工具。 随着我们进入 Web3.0 时代,人工智能、关联数据和语义网络的构建将形成人与网络之间的新连接,内容消费需求迅速增长。传统的 UGC 和 PGC 内容生成方式难以满足日益扩大的需求。AIGC 将成为新的元宇宙内容生成解决方案。通过人工智能学习知识图谱,AIGC 能够自动生成内容,为人类创作提供协助,或完全由 AI 生成内容。这不仅提高了内容生成的效率,还丰富了内容的多样性。随着自然语言处理(NLP)技术和扩散模型的发展,AI 不再仅仅是内容创造的辅助工具,内容生成的可能性正在不断扩大。未来,文字生成、图像绘制、视频剪辑和游戏内容生成都将由 AI 完成。
AIGC 技术的核心在于自然语言处理和生成算法。 自然语言处理是实现人与计算机通过自然语言交互的手段,而 AIGC 生成算法的主流包括生成对抗网络(GAN)和扩散模型。扩散模型展现出成为下一代图像生成模型的潜力,具备更高的精度、可扩展性和并行性,质量和效率均有所提升,其快速发展成为 AIGC 增长的关键因素。同时,机器学习过程中需要大量训练以实现更准确的结果,目前以英伟达 A100 为主的底层算力需求将迅速增长。
AIGC 在文字、图像、音频、游戏和代码生成中的商业模型逐渐显现。 我们近期研究了国内外数十家 AIGC 相关企业,发现其在高重复性任务和对精度要求不高的领域应用已逐步成熟,并在探索商业模式中。目前,图片生产和文字生成较为常见,这类 AIGC 服务大多数以提供 SaaS 服务的形式变现。
AIGC 未来发展的核心在于大模型、大数据与大算力。 结合自然语言的大模型与数据集已成为 AIGC 发展的基础,OpenAI 的 Clip 模型基于 4 亿组高质量的英文图文对应数据训练而成;算力在 AIGC 数字时代的重要性愈加凸显,Stable Diffusion 目前依赖于 4000 个英伟达 A100 的 GPU 集群,运营成本超过 5000 万美元。为了提高功能的精确性,未来将更多基于语种开发垂直类应用,以便更有针对性地进行特定功能的训练。
AIGC 投资框架:软硬件与数据集。 生成算法、自然语言处理和算力决定了 AIGC 的运行,而高质量的数据集则决定了 AIGC 的质量与商业模式。
软件层面主要包括自然语言处理技术:谷歌、微软、科大讯飞、拓尔思;
AIGC 生成算法模型及数据集:英伟达、Meta、百度、蓝色光标、视觉中国、昆仑万维;
算力层包括:澜起科技、中兴通讯、新易盛、天孚通信、宝信软件、中际旭创等。
风险提示:技术创新可能不及预期,AIGC 的技术发展和底层硬件技术(如超级计算机、算力)可能面临不确定性。同时,政策监管风险尚不明确,AIGC 仍处于相对早期阶段,未来是否会出台相关知识版权或其他法律监管条款尚待观察。
近期,硅谷的众多顶尖风险投资公司开始关注 AI 初创企业,尤其是生成式 AI 艺术领域。2025 年 9 月 23 日,红杉美国官网发表了一篇名为《生成式 AI:一个创造性的新世界》的文章,认为 AIGC(AI-Generated Content 人工智能生成内容)将代表新一轮范式转移的开始。
2025 年 10 月,英国开源人工智能公司 Stability AI 宣布获得 1.01 亿美元融资,估值高达 10 亿美元,跻身独角兽行列,由 Coatue、Lightspeed Venture Partners 和 O’Shaughnessy Ventures LLC 参与投资。Stability AI 发布的 Stable Diffusion 模型,主要用于根据用户输入的文字描述自动生成图像,推动了 AI 绘画领域的火爆。最近,巴比特宣布全面拥抱 AIGC,开始规模化采用 AI 配图,头条图片全面由 AI 创作,涵盖巴比特网站、APP、自媒体平台及社交媒体账号。
除了绘画以外,文字、音频、视频均可通过 AI 来生成。
文字生成方面,以 Jasper 为例,其以 AI 文字生成为主打产品,用户可以生成 Instagram 标题、编写 TikTok 视频脚本、广告营销文本、电子邮件内容等。截止 2025 年,Jasper 已拥有超过 70000 位客户,并创造了 4000 万美元的收入。
音频生成方面,以 Podcast.ai 为例,作为一个由 AI 生成的博客,每周探讨一个话题。在第一期节目中,其通过乔布斯的传记和网络上关于他的录音,利用 Play.ht 的语言模型进行大量训练,最终生成了一段假 Joe Rogan 采访乔布斯的播客内容。
视频生成方面,目前的 AI 技术不仅可以生成图片,还能够生成序列帧,如《幻觉东京》。经过 160 小时,完成 3 万多张独立插画,再进行手动微调。虽然目前仍在原脚本和视频的基础上,通过 AI 逐帧完成图片生成,但已展现出 AIGC 参与视频创作的潜力。在诸多垂直类应用中,如体育、财经等,已经可以通过文字直接生成相应的短视频,配合虚拟人实现自动播报。相比于单一的虚拟人读稿,基于 AIGC 生产的内容在镜头转换、表情动作结合方面更加逼真、自然。
随着自然语言处理(NLP)技术和扩散模型(Diffusion Model)的发展,AI 创造生成内容的能力不断增强。此前,内容生成主要依赖于生成对抗网络(GAN),而 GAN 不同于扩散模型,后者依赖于超大规模语言模型,因此难以实现通过文字描述自主理解内容并创造出图像、视频等。近年来,随着扩散模型的成熟,生成方式更接近于人脑的联想,AIGC 完成了从内容创造辅助工具到内容创作主体的角色转变。