要點:
谷歌開發了一個虛擬試衣間,允許用戶足不出戶試穿衣服,使用人工智能和生成人工智能模型。谷歌的新AI模型使用擴散來創建穿着服裝的人的逼真圖像,從而實現女性上衣的虛擬試穿。
科技正以前所未有的速度和規模發展,引發多個領域的變革,塑造了新的商業模式,甚至重塑了全新社會結構。我們一起,從科技創新中洞察社會轉型和升級的機遇。
狂呼科技研究所聚焦科技創新對當今世界的影響,以獨特、前瞻的科技視角,洞察科技時代下涌現的“創新革命”。
狂呼,以最具突破性的技朮塑造我們的未來,為大眾捕捉科技商業先機,探索當今人類社會面臨的重大挑戰。
聯系我們 // 相關文章
你有沒有想過不用踏進商店就能試穿衣服?最近谷歌通過其最新的AI Try On使這個夢想成為現實:虛擬試衣間,不用再猜測這條裙子穿在你身上會怎樣,或者那些牛仔褲是否合身。 現在,您可以在舒適的家中看到自己穿着想要購買的衣服。
這項技朮已經醞釀多年,許多初創公司都試圖破解這技朮但最後谷歌成功了。 谷歌引入了一種新穎的方法,使用一種稱為擴散的技朮,其中將人的照片和所需服裝的照片組合在一起,以創建穿着衣服的人的逼真表現。
在過去的一年裡,谷歌諮詢了18個品牌,從中型直接面向消費者的品牌到全球品牌,以幫助宣傳這一功能;它發現高度準確的體驗和以人體模型為特色是最重要的兩點。谷歌還增加了圖像識別功能,以幫助人們找到更多類似的產品。在線合身問題與在線購物一樣古老,而且往往是高額退貨的罪魁禍首,這一直困擾著零售商。據美國零售聯合會估計,到2022年,美國消費者 將退回所有網上購物的20%以上。據報導,2020年, 退回的庫存估計產生了58億磅垃圾填埋場廢物,退回運輸排放了1600萬噸二氧化碳。
還有消費者方面,根據2023年谷歌和益普索對美國在線購物者的調查:42%的在線購物者認為他們在電子商務中看到的模特圖片並不代表他們,59%的人對他們在網上購買的商品感到不滿意,因為它看起來與他們預期的不同。
十多年來,科技初創公司一直與品牌合作,試圖解決這些挑戰。他們經常求助於 AI,它可以根據文本或圖像提示生成逼真的圖像。早在2017年, 亞馬遜就收購了製作虛擬試穿3D模型的Body Labs。2019年,Meta開發了使用AI分析服裝圖像並進行調整以使其更時尚的技術 。Zeekit也使用人體模型的照片來顯示在線合身性, 於2021年被沃爾瑪收購。去年,Farfetch收購了增強現實試穿公司 Wannaby(該公司 剛剛推出了 Maison Valentino成衣試點項目)。包括Khaite在內的品牌合作,使購物者能夠按照自己的形象構建和定制化身,然後查看衣服的數字雙胞胎如何適合該化身。
谷歌新的搜索虛擬試穿功能讓在線購物者有機會選擇與自己體型相似的模特,然後在購買前看看一件衣服穿在那個模特身上會是什麼樣子。該功能由TryOnDiffusion實現,這是一種生成式人工智能,谷歌研究人員訓練它能夠分析一件衣服的圖像,然後預測它在一組不同的真實模型上的外觀,尺寸從XXS到4XL,在各種姿勢。
您可以直接在"谷歌購物"選擇您感興趣的項目,借助AI的力量,您會立即看到自己穿着它。 這就像擁有自己的個人虛擬衣櫥!
過去,谷歌已經給我們留下了深刻的印象口紅虛擬試穿功能. 現在,他們通過處理服裝將其提升到一個新的水平。 他們的購物AI研究人員開發了一種生成式AI模型,可以在具有不同體型和尺寸的真實模特身上賦予服裝以生命。 該模特注重衣服懸垂、折疊、緊貼、拉伸甚至皺紋等復雜細節,從而呈現出令人難以置信的逼真形象。
這AI背后的魔力
新的人工智能模型在於擴散。谷歌的方法不是像以前的模型那樣依賴文本提示,而是使用兩張圖片:一張是衣服,另一張是人。 這些圖像被送入神經網絡通過稱為“交叉注意力”的過程彼此共享信息。 結果是穿着所選服裝的人的逼真圖像。
為了訓練這個人工智能模型,谷歌利用了其購物圖表中的大量數據,其中包括有關產品、賣家、品牌、評論和庫存的信息。 通過使用穿着不同姿勢的人的成對圖像,該模型學會了將衣服的形狀與人相匹配,從而使其能夠從各個角度生成逼真的圖像。
從今天開始Anthropologie、LOFT、H&M和Everlane等多個品牌的女裝上衣都可以進行虛擬試穿。 而這僅僅是個開始。 Google計划進一步改進該工具,使其更加精確,并擴大其可用性以包括更多您喜愛的品牌。一起告別傳統試衣間的麻煩,迎接虛擬試衣間的便利。 借助Google的最新創新,您可以放心選購衣服,確切地知道它們穿在您身上會是什么樣子。