现在,用户仅凭一张自拍,就能在数秒内获得个性化的全身数字形象,并试穿想要的服装——谷歌周四宣布,其AI虚拟试穿功能迎来一次重要更新。此前用户需上传完整的全身照片才能使用该功能,而现在,基于名为Nano Banana的Gemini2.5Flash图像模型,系统可以从单张自拍中智能推测出用户的全身轮廓,生成逼真的虚拟试穿效果。
新功能允许用户输入日常穿着尺码,AI将以此生成多张不同姿态的试穿图片,用户可从中选择最满意的一张,并将其设为默认展示形象。如果用户更倾向于使用真实照片,依然可选择上传全身图片,或直接从平台提供的多种虚拟模特形象中挑选——这些模特覆盖不同体型、肤色与身型,以适应多元化的试穿需求。
此次升级已于今日在美国正式上线。自去年7月首次推出以来,谷歌的虚拟试穿功能已集成在Google搜索、Google购物和Google图片中,用户只需点击商品旁的“试穿”按钮,即可预览服装上身效果。新增的自拍生成全身形象能力,大幅降低了功能使用门槛,让虚拟试衣从“需要准备”变为“随手可用”。
这并非谷歌在AI试衣领域的唯一动作。该公司还专门运营一款名为Doppl的独立应用,专注于AI驱动的穿搭可视化。本周,Doppl刚刚上线“可购物发现流”——一个由AI生成的短视频推荐界面,根据用户风格偏好推送搭配建议。视频中展示的几乎所有商品都可直接跳转购买,并链向真实商家。
尽管AI生成内容在审美和真实性上仍存争议,但谷歌显然看好这种形式在传播效率上的潜力:短视频、个性化推荐、即时试穿——这套组合拳精准复刻了TikTok和Instagram等平台用户已熟悉的交互逻辑。在电商与生成式AI深度融合的趋势中,谷歌正试图用一张自拍,悄然重塑人们“看衣购物”的未来。
© 版权声明
文章版权归作者所有,未经允许请勿转载。