“假如有人能帮我试穿衣服就好了。”
基于这样的消费心声,多款AI虚拟试衣产品相继上线。
据“头号AI玩家”不完备统计,目前AI虚拟试衣干系工具至少有十余个,既有具备谷歌研究院大厂背景的“TryOnDiffusion”,也有海内独立团队出品的“OOTDiffusion”,还有相符电商平台利用需求的“淘宝试衣”、美图设计室推出的“AI模特试衣”等。

近期,我们测评了多款不同AI虚拟试衣产品,并和干系项目卖力人聊了聊,考试测验理解AI虚拟试衣领域存在哪些机遇与寻衅。
只需1张照片,就能试穿自由?虚拟试衣,正成为AI玩家们争相布局的热门地带。
从去年至今,谷歌、阿里、亚马逊几大头部电商平台相继推出虚拟试衣模型,分别为Tryon Diffusion、Outfit Anything、Diffuse to Choose。目前,这几款模型虽开放了demo试用,但并未技能开源。
此外,一些独立团队也有所动作。今年4月,小i机器人AIGC团队上线了一款名为OOTDiffusion的虚拟试衣模型,不仅供应试用demo,更将github项目开源(
https://github.com/levihsu/OOTDiffusion)。
目前大部分AI虚拟试衣技能都是基于扩散模型进行研发的,在这样的背景之下,基本只需三步,AI就能帮你试穿任何一件衣服。
以OOTDiffusion为例,第一步,上传试穿者的照片,只管即便担保正面,且没有遮挡身体,身穿衣服最好轻薄贴身;
第二步,上传想要试穿的衣服,商品白底平铺图效果更佳,能够更好展现试衣效果;
第三步,点击“Run”并等待几秒钟,即可见证换装时候。
https://huggingface.co/spaces/levihsu/OOTDiffusion
OOTDiffusion页面供应了半身和全身的服装试穿,包括上衣、裤子、裙子等类型,可以展现出不同的照片姿势和试穿效果。
OOTDiffusion项目卖力人徐余浩见告我们,该项目基于Stable Diffusion,在两个开源数据集VITON-HD (half-body) 和Dress Code (full-body)上进行了演习。
在他看来,扩散模型的上风在于能够将服装的细节、纹理、图案、笔墨与试穿者本人进行更自然的贴合,比较此前虚拟试穿产品的直接“套图”,OOTDiffusion的试穿效果更加可控。
除了上传试穿者和服装的照片,还有AI虚拟试衣产品增加了更多维度的数据。
以淘宝试衣为例,用户可以填写体重、身高、身型、肤色干系数据,从而天生数字人形象进行试穿。同样,淘宝试衣支持利用自己的照片天生试衣分身,哀求也是正面全身或半身照,只管即便不穿宽大衣物,以及不要遮挡身体。
同款连衣裙不同分身的试穿效果
据“头号AI玩家”不雅观察,目前大多数AI虚拟试衣产品只需上传一张照片即可,但在效果展现上可能存在不足帖服、服装穿模、姿态扭曲等问题。
因此,部分AI虚拟试衣产品会主动哀求用户上传多张照片,天生更为全面的数字形象,从而获取更自然的试衣效果。
以阿里妈妈推出的“Lookie”为例,用户上传一张正面照片+12张以上半身照片,可在十几分钟内天生数字形象。
Lookie还供应他乡风情、摇滚辣妹、知识分子风等多种试穿风格,其数字“分身”可在1分钟内完成各种试穿任务。
不过,通过创建数字分身来试穿的效果更靠近于“换脸”,可能看不出服装是否合身,以是可以选择身材附近的模特图进行天生。
AI试衣技能已达商用水平,一张商品图只需2毛作为AIGC图片编辑领域的一个垂直运用,虚拟试衣从去年开始已有不少研究进展。
谷歌联合华盛顿大学在2023年6月发布了“TryOnDiffusion”项目(https://tryondiffusion.github.io/),提出了一种基于扩散模型的架构,统一了两个UNet,可以输入两张图片进行合成,让图中的人物改换不同的衣饰,并在保留衣饰细节的情形下适应人体的姿势和形状变革。
技能比拟,从左到右依次是:输入,TryOnGAN,SDAFN,HR-VITON,TryOnDiffusion
不过这个模型仅能实现上身服装的试穿,演习和测试数据集大多是干净统一的背景,全身试穿效果和更繁芜的背景下的表现还有待研究。
“当时这个方向还很不成熟,只能换一些大略的衣服比如纯色的,轻微繁芜一点的版型天生的效果就很差。”OOTDiffusion团队先容道。
虚拟试衣紧张面临两个寻衅,一是天生的图像要足够真实自然,就像真实上身的效果;二是提高可控性,要尽可能保留服装的细节特色。
之前的算法可能是通过比拟衣服和模特的身材形状的差异,直接对衣服进行变形,然后贴到模特身上,这种“贴图”的方法会显得比较假。而现在有了扩散模型,AI可以学习衣服的形状、颜色和花纹笔墨等特色,然后和模特的特色进行领悟,天生更自然的效果。
亚马逊发布的“Diffuse to Choose”(https://diffuse2choose.github.io/) 模型通过在扩散模型的潜在特色图中直接融入参考图像的细粒度特色,并结合感知丢失来进一步保留参考物品的细节。它能让用户在任意场景中虚拟试穿服装或放置其他电商产品,实现较为真实的光影。
Diffuse to Choose支持不同的衣服组合,没有限定
海内方面,2023年12月,阿里巴巴旗下的智能打算研究院发布了一项虚拟试衣技能“Outfit Anyone”,通过双流条件扩散模型战胜了高保真和细节同等性结果的问题,能得到更逼真的服装变形效果。
不仅是真人,动画角色也支持一键试衣,与***模型Animate Anyone结合,还能实现任何角色的服装改换和动态***天生。
但Outfit Anyone并未对外开放代码,用户可在魔塔社区中试用。(https://modelscope.cn/studios/DAMOXR/OutfitAnyone/summary)
OOTDiffusion团队提出的试穿领悟过程也有效提高了虚拟试穿的真实性和可控性,目前干系的AI试衣产品已在开拓阶段。之后团队还会连续探索办理用图片辅导图片修正和编辑、人物换脸等问题,让AIGC技能更好地运用到实际场景中。
徐余浩认为,与大厂比较,小团队可能在技能研发上能领先一步,但如果将虚拟试衣作为一个独立的产品来运营,其商业前景可能不如已拥有弘大用户规模的的电商平台。
据“头号AI玩家”不雅观察,面向C端用户的AI试衣产品紧张来自于大厂。比如淘宝在App内置的试衣功能,可以与商品推举、用户购物车等版块联动,AI试衣体验更流畅、穿搭选择更丰富。在技能上,淘宝也可以及时运用阿里最新推出的虚拟试衣方法。
阿里团队在今年3月发布了“Wear-Any-Way”,不仅支持试穿衣服,还能根据须要改变衣服的样式,比如卷起袖子,打开/拖动外套等。
拖动操作试穿效果:https://mengtingchen.github.io/wear-any-way-page/
虽然这项技能目前还未上线运用,但对消费者来说可以改进购物体验,对商家来说也有望进一步降落广告营销本钱。
除了上文提到的面向消费者的AI试衣产品,从市场需求来看,面向电商商家的B端产品对AI初创公司来说是更有商业前景的选择。
很多跨境电商卖家提到请模特拍照又贵又耗时,而利用AI工具出图恰好知足了降本增效的需求。
比如阿里国际旗下的AI图像设计工具Pic Copilot近期上线了虚拟试衣功能,据先容,出一张商品图的均匀本钱被掌握在0.2-0.3元公民币以内,同时还有四十多位已授权模特,覆盖各个肤色和年事段,卖家在商用时无需担心侵权问题。
从虚拟的***秀到真人一键试穿,从早期通过3D人体建模开拓的虚拟试衣软件,到如今天生式AI技能在电商行业开启运用,随着技能的不断进步和市场的逐渐成熟,可以预见AI将在我们的消费生活中扮演更加主要的角色。