通俗讲解AI绘图的基本原理

xiexie

<p class="ql-block">作者:Pink河马</p><p class="ql-block">这里先科普一下AI生成图像的原理。基于扩散算法的Stable Diffusion目前是主流的民间AI生成图像算法,因此本文将会以该软件及其算法为例。</p> <p class="ql-block">就不用太学术性的话去描述了,通俗来说,就是将一张图像逐步加入随机的噪点,直到把图像完全变成一张噪点图,然后再把这张噪点图通过随机增加像素点的方式,还原成一张普通的图像。去噪网络在其中会记录噪点的随机值,并通过“调整预测”的方式去判断如何“增加像素”才能更符合原本训练素材的“样式”,是一个去噪的过程。如果想看更学术性的研究可以自行上网查阅。</p><p class="ql-block">所以从上述训练和生成的原理可见,扩散模型在训练和生成时,并不是单纯模仿数据集内某一图像的,如材质、构图、色彩等某个具体内容,更不是所谓的“从数据库中获取图像进行拼接”,而是通过分析某个元素在这些图像中的共性,从噪点图通过逐步去噪、调整,来生成出符合这种共性的图像结果。</p><p class="ql-block">绝大部分人类学习绘画的过程均是从临摹开始,在掌握了光影、线条、构图、结构、比例等等,通过不断练习和调整,再逐渐创作出带有自己风格的作品,而Stable Diffusion为代表的扩散算法模型AI程序的训练和生成,恰恰复制了这个过程,而区别在于,人类学习的对象是通过眼睛观察到的自然规律以及他人作品,AI学习的对象是训练者提供的图像内容。</p><p class="ql-block">第二点就是网上有很多人发帖称,通过AI获得的作品和一些画师的风格很像,有些作品类型几乎就是“复制粘贴”。这就是我想说的,在正常情况下其生成的作品通常不会侵犯训练集中某个特定作品的权利。但如果使用特定内容LoRA模型、低重绘度“图生图”方式等,导致与训练集原图或特定内容过于相似的情况,这也是国内某些平台出现的现象,用条例把人们的创作变成了平台的免费红利,这波确实太过了,则需要单独讨论。</p><p class="ql-block">现阶段,AI其实就跟PS等等软件一样,一个工具罢了,目前各大厂均有落地案例,各高校也在研发AICG课程,能做出什么样的创作还是得看操作他的人,最后比拼的还是审美和创意。</p>