要点:
谷歌开发了一个虚拟试衣间,允许用户足不出户试穿衣服,使用人工智能和生成人工智能模型。谷歌的新AI模型使用扩散来创建穿着服装的人的逼真图像,从而实现女性上衣的虚拟试穿。
科技正以前所未有的速度和规模发展,引发多个领域的变革,塑造了新的商业模式,甚至重塑了全新社会结构。我们一起,从科技创新中洞察社会转型和升级的机遇。
狂呼科技研究所聚焦科技创新对当今世界的影响,以独特、前瞻的科技视角,洞察科技时代下涌现的“创新革命”。
狂呼,以最具突破性的技术塑造我们的未来,为大众捕捉科技商业先机,探索当今人类社会面临的重大挑战。
联系我们// 相关文章
你有没有想过不用踏进商店就能试穿衣服?最近谷歌通过其最新的AI Try On使这个梦想成为现实:虚拟试衣间,不用再猜测这条裙子穿在你身上会怎样,或者那些牛仔裤是否合身。 现在,您可以在舒适的家中看到自己穿着想要购买的衣服。
这项技术已经酝酿多年,许多初创公司都试图破解这技术但最后谷歌成功了。谷歌引入了一种新颖的方法,使用一种称为扩散的技术,其中将人的照片和所需服装的照片组合在一起,以创建穿着衣服的人的逼真表现。
在过去的一年里,谷歌咨询了18个品牌,从中型直接面向消费者的品牌到全球品牌,以帮助宣传这一功能;它发现高度准确的体验和以人体模型为特色是最重要的两点。谷歌还增加了图像识别功能,以帮助人们找到更多类似的产品。在线合身问题与在线购物一样古老,而且往往是高额退货的罪魁祸首,这一直困扰着零售商。据美国零售联合会估计,到2022年,美国消费者将退回所有网上购物的20%以上。据报导,2020年, 退回的库存估计产生了58亿磅垃圾填埋场废物,退回运输排放了1600万吨二氧化碳。
还有消费者方面,根据2023年谷歌和益普索对美国在线购物者的调查:42%的在线购物者认为他们在电子商务中看到的模特图片并不代表他们,59%的人对他们在网上购买的商品感到不满意,因为它看起来与他们预期的不同。
十多年来,科技初创公司一直与品牌合作,试图解决这些挑战。他们经常求助于AI,它可以根据文本或图像提示生成逼真的图像。早在2017年, 亚马逊就收购了制作虚拟试穿3D模型的Body Labs。 2019年,Meta开发了使用AI分析服装图像并进行调整以使其更时尚的技术。 Zeekit也使用人体模型的照片来显示在线合身性, 于2021年被沃尔玛收购。去年,Farfetch收购了增强现实试穿公司Wannaby(该公司刚刚推出了Maison Valentino成衣试点项目)。包括Khaite在内的品牌合作,使购物者能够按照自己的形象构建和定制化身,然后查看衣服的数字双胞胎如何适合该化身。
谷歌新的搜索虚拟试穿功能让在线购物者有机会选择与自己体型相似的模特,然后在购买前看看一件衣服穿在那个模特身上会是什么样子。该功能由TryOnDiffusion实现,这是一种生成式人工智能,谷歌研究人员训练它能够分析一件衣服的图像,然后预测它在一组不同的真实模型上的外观,尺寸从XXS到4XL,在各种姿势。
您可以直接在"谷歌购物"选择您感兴趣的项目,借助AI的力量,您会立即看到自己穿着它。 这就像拥有自己的个人虚拟衣橱!
过去,谷歌已经给我们留下了深刻的印象口红虚拟试穿功能. 现在,他们通过处理服装将其提升到一个新的水平。 他们的购物AI研究人员开发了一种生成式AI模型,可以在具有不同体型和尺寸的真实模特身上赋予服装以生命。 该模特注重衣服悬垂、折叠、紧贴、拉伸甚至皱纹等复杂细节,从而呈现出令人难以置信的逼真形象。
这AI背后的魔力<br>新的人工智能模型在于扩散。谷歌的方法不是像以前的模型那样依赖文本提示,而是使用两张图片:一张是衣服,另一张是人。 这些图像被送入神经网络通过称为“交叉注意力”的过程彼此共享信息。 结果是穿着所选服装的人的逼真图像。
为了训练这个人工智能模型,谷歌利用了其购物图表中的大量数据,其中包括有关产品、卖家、品牌、评论和库存的信息。 通过使用穿着不同姿势的人的成对图像,该模型学会了将衣服的形状与人相匹配,从而使其能够从各个角度生成逼真的图像。
从今天开始Anthropologie、LOFT、H&M和Everlane等多个品牌的女装上衣都可以进行虚拟试穿。 而这仅仅是个开始。 Google计划进一步改进该工具,使其更加精确,并扩大其可用性以包括更多您喜爱的品牌。一起告别传统试衣间的麻烦,迎接虚拟试衣间的便利。 借助Google的最新创新,您可以放心选购衣服,确切地知道它们穿在您身上会是什么样子。