一组神秘的 ” 虚拟老婆 ” 照片,最近在国内外社交媒体上传疯了。
怎么回事?
试着用手机扫一下,就能发现其中的玄机——
原来这些看起来颇为自然的照片,都是藏了二维码的图像。它们不仅能被手机相机识别,跳转的网站还都是有效的:
最关键的是,这些照片并非手动绘制,而是用Stable Diffusion生成的,背后再一次加持了神奇的ControlNet魔法。
生成的二维码图像风格,也远非只有二次元虚拟人像这一种,一起来看看 ~
8 种图像风格任意可选
除了上述的二次元插(lao)画(po)风格以外,作者们还展示了另外 8 种二维码图像的生成效果。
这是立体风格的二维码图像,看起来就像一张真正的城市照片一般:
有网友感叹,简直可以在物理世界中构造一个真的二维码城市了:
甚至它只能在特定的地点、特定的日子、特定的时间被扫出来,有寻宝游戏内味了。
这类立体作品不仅细节可控(如更多的草木植被),还可以改变风格,生成更具机械感的科幻二维码图像:3D 城市看得不过瘾,还有 2D抽象风格的作品,数据都藏在小房子里了:除此之外,二维码还能被融入中国传统纹样风格中,或是被巧妙放置在瓷器或壁画一类的装饰物里:更具艺术性的水墨风格也能 hold 住,无缝衔接画作笔迹:又或是这种水彩风格的画作:日式的浮世绘风格也没问题:还能嵌进PCB 风格图像里,以后电路板要找售后,直接扫码就行(doge):显然,除了二维码图像可控,模型就连插画风格都能很好地控制。
这背后究竟是依靠什么技术实现的?
LoRA 和 ControlNet 齐出动
要想实现这种图像风格 + 二维码可控的效果,需要 Stable Diffusion 结合LoRA和ControlNet一起实现。
其中,LoRA 负责控制整体的图像风格,ControlNet 则负责确保二维码 ” 放进 ” 了图像中。
LoRA全称 Low-Rank Adaptation of Large Language Models,能很好地实现少样本学习,从而对 Stable Diffusion 的图像风格生成进行更精准的控制。
换而言之,最少只需要几十张同种风格的图片,就能训练一个 LoRA,用来调教 Stable Diffusion 生成的效果。
目前,比较有特色的如中国传统风格和浮世绘风格的图像,作者们都已经在Civitai和Hugging Face等平台上开源了对应的 LoRA 模型。
训练这样一个浮世绘风格的 LoRA 模型,并不需要很多照片,像这个模型就只用了46 幅葛饰北斋《富岳三十六景(追加十景)》的浮世绘。风格变化更加多样的,如生成不同中国传统纹样的图片,也只需要近百张图片训练:就可以得到能画出不同纹样的 LoRA 模型:QR Code ControlNet则是作者们新训练的一个二维码图像生成专用 ControlNet 模型,目前还在不断优化中。
作者们尝试了不同的 Stable Diffusion Checkpoint、LoRA 和 QR Code ControlNet 的组合,生成了上面这些二维码图像的效果。
值得一提的是,结合最近的 PS 新出的Generative Fill功能,这些二维码还能被很好地嵌进一大块 AI 生成图像中:
有网友调侃,未来就连广告也会变得更好看了。作者介绍
制作这个二维码生成项目的作者一共有四位,分别来自中国传媒大学和北京航空航天大学。
其中,倪豪和陈柏宇是中国传媒大学大四本科生,王照涵是中国传媒大学一年级研究生,陈智勇是北京航空航天大学大四本科生。
在这次的 AI 二维码图像生成项目前,倪豪和陈智勇就已经做出过一个参数化二维码生成器,不过主要采用的还是图形学方面的技术。
据倪豪介绍,他们之前的研究方向主要集中在图形学和交互艺术上,随着这段时间 AIGC 爆火,团队也对这方面的技术产生了兴趣。
这段时间里,他们开发了不少不同风格的 LoRA 模型,以及可控制光影的 ControNet 等,目前模型也都已经放在 Civitai 上。
团队表示,目前这个二维码图像生成模型还在持续优化中,后续如果有更多的进展更新,也会同步到这个网站上。
可以码住期待一波了 ~
团队已开发的 AI 模型:
https://aigc.ioclab.com/index.html
参考链接:
[ 1 ] 更多二维码效果展示:https://mp.weixin.qq.com/s/i4WR5ULH1ZZYl8Watf3EPw
[ 2 ] https://www.reddit.com/r/StableDiffusion/comments/141hg9x/controlnet_for_qr_code/
[ 3 ] https://twitter.com/dahbiahmed/status/1665778398084431872
暂无评论内容