最近,一段 AI修图的演示视频在国内外网络爆火,甚至让众多网友表示:逼死ps!这是怎么回事呢? 也许看了下面一段视频的你会和小优发出一样的感叹。 是的,你没看错, 只需要拖动图像上任何你想改变的位置点,你就可以对图像进行变形,从而实现对动物、人物、风景、汽车等的表情、姿势、动作、形状和布局的改变,而且毫无违和感,仿佛是你又重新拍摄了一组照片。
最近,一段 AI修图的演示视频在国内外网络爆火,甚至让众多网友表示:逼死ps!这是怎么回事呢?
也许看了下面一段视频的你会和小优发出一样的感叹。
改变小狗的姿态, 竖起狗子的耳朵、又或是转个头:
甚至让小狗下蹲,让马儿跑起来……
而我们所说的让大象转个身也都能实现,甚至还能让大象摆各种姿势:
当然,不仅局限于动物,还 可以调整形状、位置、尺寸、角度…甚至可以调整人的细微表情;使用范围也很广,能处理人类、动物、汽车、风景等不同类型的图片。
这种方法就是目前爆火的研究技术 “DragGAN” , GAN 是生成对抗网络(Generative Adversarial Networks)的缩写 ,而这项技术被称为DragGAN。是由来自马克斯?普朗克计算机科学研究所、麻省理工学院计算机科学与人工智能实验室和谷歌的研究者们(其中包括两位华人研究员), 研究的一种控制 GAN 的新方法,能够让用户以交互的方式「拖动」图像的任何点精确到达目标点 。
DragGAN 类似于Photoshop中的扭曲变形工具,但更加强大 ,似乎有手就行。因为 它不是“挤压像素”,而是“重新生成物体”,甚至可以旋转三维图像 。这种工具的潜力在于,从文本生成图像的人工智能并不总是能输出你想要的结果,所以你可以在生成图像之后再进行编辑,而不必重新生成一个新的图像。
DragGAN目前还是一篇研究论文,但它已经引起了很多人的关注:
除此之外,在论文中提到的“单卡几秒钟修图”的效果,主要还是基于256×256分辨率图像。至于模型是否能扩展到256×256以外图像,生成的效果又是如何,都还是未知数。
有网友表示“至少高分辨率图像从生成时间来看,肯定还要更长”。
对此你怎么看呢?欢迎在评论区一起探讨一下吧!