DragGAN:AI时代下设计师的新伙伴?
文章介绍了一款新的AI设计工具——DragGAN,它可以帮助设计师精准控制图像,通过设置起始点和目标点,改变图像内人或物的角度及位置布局。文章详细讲解了DragGAN的交互方式和功能边界,并指出这款工具可以极大提高设计师的工作效率,未来的设计工具将会更加易用,美的创作力、想象力和感受力也将指引着设计的方向。
1、极易理解的交互方式
尽管没有安装使用过DragGAN,仅通过发布的用例视频便可以清晰的了解到其使用方式。即通过设置起始点和目标点,开启运算,起始点便会不断向目标点运动,同时动态修改图像,改变图像内人或物的角度及位置布局。操作方式简单易懂。下面通过一些实际操作来了解一下DragGAN的交互形式。
·模型包
DragGAN的离线包里有很多模型,在recent这个部分可以选择模型,每个模型都是一个图片库,在seed中可以筛选该模型中的图片资源。每个模型包中的图像是同一类别的,且体量庞大的。
· 拖拽生成
点击Add point可以开始增加点,默认两个点为一组,点击起始,再次点击结束,可多点操控,确定好图像中调整的位置之后,点击start便开始运行,运算过程中随着运算步数(Steps)的不断增加,直到两个点完全重合,默认运算完全结束,当然也随时也可停止(stop),并删除(Reset point)之前已经结束动作的交互点。
· 蒙版
这样的调整一般针对于整个画面,想针对指定区域进行调控,就要使用到蒙版工具(Mask),点击Flexible area,可以通过一个画笔圈出想要调整的位置,Fixed area可以调出“橡皮”去擦除那些不想要的蒙版区域,Reset mask可以删掉全部的蒙版内容。蒙版工具使得对图像的的控制更加精准。
· 输出图片
在调整完图像之后,可以点击Save image,调整后的图像会存储在整合包的【capture_out】文件夹内。以往我们在做图像合成的时候,需要筛选那些有着合适的角度,合适的透视关系的图片,再去调整,现在可以看到的是,DragGAN在不久的将来,可以极大的提高我们的工作效率,让设计师,成为魔法师。
2、现阶段的功能边界
了解了DragGAN的基本操作以后,可能我们最困惑的一个点就是,我只能用离线包里面的图片吗?我自己的图片是不是可以通过DragGAN调整并且保存。那么下面具体了解一下DragGAN目前的功能边界是什么,当下能够支持我们去做哪些事情。
· 用户上传图像
现阶段DragGAN仅支持用户上传带有人物面部的图像,且加载的时间会比较长,大概需要一分钟的时间,并且会自动处理图像,仅截取人物面部。但是可预见的是,未来会支持用户上传多种类型的图片,目前仅针对离线包内图像的相关功能,未来都会开放,支持用户自由定义上传图像。
· 离线包预置图像
在离线的模型中,用户可以自由选择图像,在人物或动物的模型包中可以调整其表情及面部或身体朝向、动作等。在物体模型包中可以改变其物体的形态,调整部分结构的大小比例,和传统的耗费时间的图像合成相比,效率更高,效果更真,同时能够保证画面的物理逻辑。
3、新的工作链路
当前比较热门的AI设计工具Midjourney及Stable Diffusion,为设计师设计提效带来了很大的便利,AI魔法的奥秘在于对图像的可控性,DragGAN让我们清楚的看到了她对于图像精准控制的能力,当前能够看到的,并且付诸使用的便可以使用前者生成图像,再由DragGAN进行精准控制,应用到实际的业务当中去。
DragGAN学习成本低,操作简单,为使用者带来了非常大的便利,未来是充满想象力的,可以预见,未来的设计工具,其使用难度会大大降低,是否会使用设计工具不会再成为所谓的门槛,对于美的创作力、想象力和感受力并驾齐驱,将会指引着设计的方向。
来源:58UXD(ID:i58UXD)
赞助商链接版权:除非注明,本站文章均为原创文章,转载请联系我们授权,否则禁止转载。
杰克逊mv黑或白