人工智能生成内容

来自牛奶河Wiki
跳到导航 跳到搜索

AIGC(Artificial Intelligence Generative Content),人工智能生成内容,让 AI 自己创作各种各样的内容,比如图片、视频、音乐、文字等。

GAN

AIGC 领域使用最多的算法模型名为对抗生成网络 GAN(Generative adversarial networks),顾名思义就是让 AI 内部的两个程序互相对比,从而生成最接近人类心目中的正确形象。由于程序互相对比的标准是现成的样本,因此生成的内容实质上是对现有内容无限逼近的模仿,无法真正突破。

Diffusion

GAN 的缺点被最终被 Diffusion 扩散化模型克服,它是近年以来陆续涌现的包括 Stable Diffusion 开源模型在内的诸多 AIGC 图片生成模型的技术核心。

Diffusion 扩散化模型的原理类似给照片去噪点,通过学习给一张图片去噪的过程来理解有意义的图像是如何生成,因此 Diffusion 模型生成的图片相比 GAN 模型精度更高,更符合人类视觉和审美逻辑,同时随着样本数量和深度学习时长的累积,Diffusion 模型展现出对艺术表达风格较好的模仿能力。

从引起广泛关注的 Disco Diffusion ,再到 DALL-E2、MidJourney 等模型都是基于 Diffusion 模型,而 Stable Diffusion 是其中最受欢迎的。

虽然目前 AIGC 主流模型基于 Diffusion,但 GAN 作为生成模型的前辈,依然在很多领域大放异彩。

Generative Pre-trained Transformer

  1. Google gemini
  2. ChatGPT3.5 - You
  3. 文心一言

参考

  1. AIGC爆火的背后——对抗生成网络GAN浅析
  2. 人工智能生成内容(AIGC)白皮书(2022年)