设计师能利用AI做什么?
前阵子在京东做了一场分享,分享的标题是《设计师能利用AI做什么?》。今天把分享内容分享给大家。
如果说大部分设计师的产出都和图形有关,例如图片编辑、插画、交互稿、视觉稿、那么AI能不能完成以上内容呢?我先举些例子:
2016年日本的早稻田大学公开了一项自动描线的技术,这项技术能够自动识别图像并确定图像的具体轮廓,然后完成描线的工作。即便是衣物线条很复杂的草稿也可以完美地转化成线稿。这项技术在后面的介绍中有一款免费产品可以体验到。
我还记得2016年图片编辑软件Prisma风靡了全世界,那么,去年一款名叫FastPhotoStyle的工具更为惊艳。FastPhotoStyle是英伟达发布的一款开源图片风格转换工具,它能把照片变为各种艺术风格。只要给出风格照片和目标照片,那么FastPhotoStyle就能将风格照片上的风格特点迁移到目标照片上,图上的效果简直是以假乱真。
去年,有一个名叫Crypko的区块链游戏震撼了整个二次元圈,这游戏的玩法跟以前流行的“以太猫”类似,就是利用GAN,生成式对抗网络将两张不同风格的插画融合成一张新的插画作品。用户可以通过租赁或者购买的方式获取插画后,然后和自己的插画进行融合,生成新的插画。质量好的插画具备较高的收藏和观赏价值,例如上图中的插画租赁价为7以太币,2018年10月一个以太币约为1000元人民币。
由AI创作的油画作品《埃德蒙·贝拉米画像》在世界著名艺术品拍卖行上拍出了43.25万美元的价格。该作者还创造了整个贝拉米家族,以下是埃德蒙·贝拉米的曾祖父和曾祖母。 好了,看了这么多案例,现在的AI究竟是什么?其实,以前也有各种AI技术,它们更多是基于统计学去实现的,它们通过算法获来预判事件或者取事件的准确率。现在的AI在本质上和前者没有什么区别,其实都是一种预测能力。 简单点说,以前的AI是主要是分类、聚类、回归、决策树等等统计方法,例如垃圾邮件处理、文章自动分类都是用了以上的方法。现在的AI更多是一种名叫深度学习的方法。我们可以认为深度学习是一个黑盒子,只要我们输入数据,它就能在一个多层的神经网络里自动训练,找到相关特征后形成模型,然后再将结果输出出来。 既然我们把深度神经网络当做黑盒子,那么我们就不要在意黑盒子里的是什么,只要我们寻找准确率高的深度学习模型就好了。现在有哪些现成的AI资源可供我们使用呢?
对很多没有绘画经验的人来说,绘画是非常困难的,更困难的是为绘画选择和谐的色彩,即使是相似的颜色,其中的差异也会对绘画结果产生巨大的影响。在漫画线稿上色 AI这个领域,PaintsChainer几乎可以算是标杆。PaintsChainer操作非常简单,用户选好线稿上传,自行选择颜色并涂在相应区域,PaintsChainer会根据图像和提示的颜色实时自动为新图像上色。PaintsChainer还有自动提取草图里线稿的功能,大家可以尝试一下。
BigJPG是一个很神奇的免费网站,它能将图片清晰度放到2-16倍。左侧这小图是我在网上随便找的图片,分辨率只有200*254像素,放大4倍后就是第二张图的效果,非常模糊。使用了BigJPG后整体的线条变得非常清晰,它的线条甚至比原图还清晰。整张插画可以直接使用。
相信大家都听过这个笑话,我们如何画一匹马呢?首先我们画两个圆,再画几笔,在脸上画几笔,再画上鬃毛和尾巴就完成一幅栩栩如生的作品了。在以前,这可能是一个笑话,但现在,这肯定是一件很正常的事情。
这8张图如果是由一名设计师来画,大概要画多久?有谁能给个答案?如果是我,我是不会去画的,说实话估计我一个月也画不出来,因为我没什么耐心长时间画一幅画,而且对光线处理等完全不熟悉。大家有没有发现这几张图里有几张图是类似的?大家可以观看一下,其实5和6以及4和8的布局是一样的,那么它们是怎么生成的呢?
以上这个是英伟达最新的发明:GauGan,它能通过几笔就能自动生成一张“风景照片”。这个就是我今天花了 20秒画的图,它十几秒内给我生成了右侧这张图片。如果以后没有风景素材,不妨可以考虑一下这个网站。
以上这个是借鉴了小米官网的案例,6种天空滤镜内置于你的相册滤镜中,一键换天。
人物照片是我们常用素材之一,肖像权和版权成为我们最烦恼的问题之一。 generated.photos也是一款免费产品,它号称通过AI技术自动生成10万张肖像照片。这个网站拥有不同种族、年龄、皮肤、性别、眼睛、心情等数据,可以通过排列组合的形式创造出10万张肖像照片,这些照片里的人物在现实生活中都是不存在的,所以不存在肖像权问题。 除了通过AI解决素材的问题,我们还能如何了解更多AI相关的实践?
Google在AI上做了很多贡献,例如开源了深度学习框架TensorFlow、研发了基于深度学习的芯片TPU等等。Experiments with Google这个网站收集了36个AI案例,这些案例包含了各行各业对AI的探索,包括Android、Web VR、AR、艺术、声音等方面。大家感兴趣可以上网看一下相关内容。
在这里我要强烈推荐Runway ML这个产品。简单介绍一下Runway ML相关背景。Runway ML最早只是纽约大学Tisch艺术学院一位名叫Cristal Valenzuela的学生的论文项目,结果这个项目得到人工智能艺术界的热情反馈,Valenzuela决定创业并在今年1月份把Runway ML测试版实现了出来。
Runway ML是一款收费产品,你只需要下载安装注册就可以直接使用,里面的模型包含了图片生成、动作捕捉、自然语言处理、物体识别和图片处理等类型,如果使用的模型需要在云端GPU上运行,那么每分钟只需要消耗5美分,但每一个新注册账号都拥有10美元也就是200分钟的免费时间来玩转整个Runway ML。
以上是我随便找的图片,在Runway ML上可以通过简单的步骤就能把它识别出来。
还有这个把黑白照片还原彩色,在Runway上都是非常简单的。以下我来简单演示一下: 1.打开软件 2.选择模型
3.选择输入内容 4.选择输出内容 5.点击开始 等待几秒钟,好的,上色完成了,是不是超级简单!
听了这次分享,相信大家应该觉得人工智能离我们设计师并不是很遥远。虽然我们可以不懂它的原理,但这不妨碍我们去使用它。今天分享的到此结束,谢谢大家。
** 相关阅读 ** ** ** 深度学习能用于界面设计吗? 下一个人机交互的突破口在哪?
投影仪改变生活,让你的生活充满科技感