dress_plus

相信大多数人都有过这样的体验:在追剧时,感叹某某明星的衣服好看,于是便在各大购物网站里翻个底朝天,最后却无功而返。在人工智能快速发展的今天,衣+创始人张默就希望用计算机视觉引擎解决人们这一痛点。

张默曾在华为、微软、IBM从事研发工作,并于2014年从新加坡回国,创立了衣+,致力于研发人工智能视觉搜索引擎在商业中的应用。衣+主打柔性物体(如衣服等)识别,张默表示其准确度约90%。据介绍,在图像识别中,柔性物体相比刚性物体更容易变形,变量的维度也更大,所以技术壁垒也更高。在技术上,她们采用的是从上往下的打法。

而目前,衣+主要面向的是B端市场,在业务层面上主营边看边买搜索引擎系统、精准场景化营销以及提供技术服务三大块。张默认为,视频网站需要广告,而广告主需要流量,图像识别恰好可以连接两端,将视频流量导流至电商和广告主中。

而这些业务主要是通过边看边买引擎、图像识别智能分析引擎和人脸识别分析引擎来实现的,利用计算机视觉技术来识别和分析视频或图像中的物体,以标注、打点、搜索同款等方式投放广告。盈利则主要通过提供软件技术许可和广告分账两大渠道实现。

图片来源于衣+官网
图片来源于衣+官网

简单来说,边看边买就是在视频中出现可购买的产品时,系统能自动检测到物品,进行追踪,识别该产品和类似匹配产品,在视频相应位置打点,用户只要点击目标商品,就能给出相应购买位置。并且在衣+App上,用户也可通过手机拍照上传,搜索到服装同款信息。

而在精准场景化营销方面,其主要是通过检测物体推断画面场景,投放广告,建立品牌和场景之间的联系。比如面包主要会出现在早餐和面包店场景中,系统就会自动识别出此类场景,以AR特效或者动漫贴图等方式出现面包的广告。在问及这与内容植入广告有什么差异的时候,张默告诉动点科技,首先它的交互形式可以多样,其次也不用改变版权内容,轻易上架、下架。

marketing

当然,在计算机视觉识别技术中算法是引擎,数据是燃料,两者缺一不可。值得一提的是,在今年五月,衣+团队提出了三值神经网络,这项技术将模型压缩了16倍,精度几乎保持不变。识别系统可放到本地设备中运行,对内存、计算能力和耗电的要求大幅降低,运算速度快5倍。

而在大数据积累这块,据张默介绍,目前衣+的合作伙伴有有30多家,包括优酷、360、新浪微博、阿里云、华为等,已接入淘宝、天猫的2亿SKU(库存量单位),并获得优土等平台的内容和流量导入。系统能识别10000类物品、400种场景,单物体识别一项的精度甚至超过人眼。在于这些用户合作的同时,也是一种数据的反馈。我们想做的是IoT时代里的Google,在完成商业闭环的时候,形成数据反馈的量的积累。

另外,衣+未来在逐步拓宽识别的应用物品和场景的同时,也会慢慢与VR、 AR、无人机、机器人和直播等入口结合。据悉,衣+的团队主要来自于CMU、新加坡国大、清华、北大、中科院、上海交大等国内外名校,成员在BAT、谷歌、360、Intel、微软等公司从业多年。该公司于去年9月份完成了A轮融资,具体金额未做透露。