为电商插上虚拟穿戴的翅膀,英梅吉从网购眼镜的用户体验做起

2015年01月06日 公司 评论关闭 阅读 603 views 次

服饰类的网购体验很大程度上取决于消费者有没有买到适合自己的衣物。没错,是“适合”,而不仅仅只是“好看”。很多人会遇到size不对的问题,但更麻烦的其实是上身效果的差异。一件衣服在模特身上特别好看和穿自己身上的具体效果完全是两回事。

很多人注意到了这种网购的坑爹问题,2000年初便提出了虚拟试衣的概念。但这项技术受限于计算机性能等因素一直没能做起来,近几年由于整体环境的成熟,国外陆续产生了一些研究和应用,比如法国total immersion推出的trylive clothing虚拟试衣系统。英梅吉则是国内的一家创业公司,他们目前专注于眼镜的虚拟试戴技术。

做眼镜在线虚拟试戴通常有这么几种解决方案:一种是以ditto电商和glasses应用为代表的试戴技术,通过2d序列图片的方式模拟试戴效果。用户事先按要求来回转动头部录制视频并上传就能在线虚拟试戴。但这套方案使用起来比较繁琐,用户体验还不够好;另外一种则是实时虚拟穿戴,用户打开摄像头,系统自动在画面上加载3d眼镜,眼镜会跟着用户头部一起转动。

英梅吉属于后者,他们具体的试戴效果又如何?看个视频直观感受一下吧。

视频地址

英梅吉的CEO 朱郁丛告诉[知乎则也],这种实时虚拟穿戴的解决方案涉及多个技术领域(单目摄像头深度信息计算,面部特征高速精准识别、动作与表情捕获、3d实时渲染引擎、人脸识别,计算机视觉),要实现比较好的用户体验,就需要在同步移动效率,3D效果,佩戴准确度方面下功夫,技术难度相对较大。

我在现场通过移动端试用了一下这款虚拟试戴方案,说一说我的个人感受吧。当我左右转动头部的时候,画面上的3D眼镜同步的效果表现很不错,不会出现延迟,3D眼镜的画质也很逼真。但是如果前后俯仰的角度过大,系统就无法识别人脸,眼镜会“消失”。另外,光线的强弱也会有影响,逆光的时候识别效果要来得差一些。当然,这些问题可能更多来自于人脸识别技术本身的局限性。

朱郁丛告诉[知乎则也],眼镜主要是英梅吉的一个行业切入口。他们目前打算先做一个能够在线实时试戴的垂直眼镜电商,用户可以选择离自己最近的门店,预约上门验光配镜等服务。而之所以选择眼镜,是因为这个行业的规模在600亿左右,门店数量大概有6万家,是一种标准化的产品,可量化追踪服务质量,并且品牌较弱,无成规模的眼镜电商。

朱郁丛说“这是进可攻退可守的一步棋”。如果眼镜行业成功了,就向市场证明了这项技术的价值,进一步的可以向其他服饰品类扩展;如果市场拓展出现问题,做眼镜垂直电商也是一个不错的小而美的生意。听起来,眼镜似乎只是抛砖引玉,珠宝首饰、衣服项链等服饰都是他们未来想要cover的领域。

英梅吉对于未来的设想,是希望通过向全球电商输出实时虚拟穿戴技术SDK,建立全球性的服饰电商分销渠道。市面上一些虚拟试衣间项目通常需要借助kinect等外设摄像头完成,对用户来说门槛太高,并且没办法做到移动端或web端的使用。英梅吉则希望消费者打开普通摄像头,就能实现虚拟穿戴——他们想做的是提供跨平台的实时虚拟穿戴技术SDK技术厂商。而对于目前正在进行的眼镜虚拟试戴项目,朱郁丛告诉[知乎则也],他们已经完成了iOS、Android、Web、PC等各版本sdk的封装。

关于未来想要扩展的服饰领域,朱郁丛称衣服的虚拟试穿主要有两个问题需要解决,一个是骨骼系统,一个是面料系统。骨骼系统目前相对比较成熟,面料系统则比较有挑战性,衣服不同的面料和材质,在身上会有不同的垂感,系统需要据此模拟出不同的穿戴效果,以达到逼真的上身效果。不过朱郁丛对自己的核心技术团队非常有信心,他称团队拥有十几年计算机视觉的开发背景,在图像识别,人脸识别,动作手势识别,3D引擎等方面都拥有自主知识产权。从眼镜到服饰,开发一套完整的虚拟试衣项目,他表示,在核心技术上并没有太大的问题。英梅吉此前完成了天使轮融资,目前他们正在寻求A轮融资,希望借此扩展团队规模。

新版[知乎则也]iOS 客户端正式上线。该有的都有了,你想要看创业资讯,你想要分享,想看视频,想来活动现场,下载[知乎则也]iOS客户端,即氪触达。点击链接下载:http://t.cn/RZhjmNi

(更多互联网科技,请关注【知乎则也】

Copyright © 知乎则也 保留所有权利.   优品汇 Ality主题 京ICP备14046166号

用户登录

分享到: