当前位置:主页 > 查看内容

闲鱼内容视频化展示方案(超全面)

发布时间:2021-07-27 00:00| 位朋友查看

简介:1. 背景 移动互联网是随着移动通信技术的迭代和发展的,每一次迭代都会给人们生活带来巨大的改变。 1G网络,让人们用上了手机; 2G网络,让人们能够通过手机上网; 3G网络,促使移动互联网飞速发展; 4G网络,直播和短视频出现爆发式增长。 短视频的出现不仅……
1. 背景

移动互联网是随着移动通信技术的迭代和发展的,每一次迭代都会给人们生活带来巨大的改变。
1G网络,让人们用上了手机;
2G网络,让人们能够通过手机上网;
3G网络,促使移动互联网飞速发展;
4G网络,直播和短视频出现爆发式增长。


短视频的出现不仅是内容展示形式的变化,创作者通过剪辑和特效使内容更丰富、生动,给受众提供了更优质的用户体验。


闲鱼是C2C场景,普通用户发布视频宝贝比例不高。如何内容视频化,提升浏览体验,闲鱼给出了解决方案

2. 闲鱼不是短视频

将图片合成短视频,是我们最先想到的方案。思考后,发现其中存在一些问题:

引导用户视频合成,会影响发布成功率

弱引导,起不到作用,达不到预期。强引导,会打断发布链路,影响发布成功率。
闲鱼之所以能够成为行业的No.1,是因为闲鱼有一个庞大的商品池,新发商品数量是闲鱼生态的基石。闲鱼一直提倡轻发布,小白用户可以在闲鱼上轻松发布商品。我们的目标是:把简单留给用户,把复杂交给自己。

云端异步生成视频

用户商品发布成功后,在云端生成视频,然后给用户推一个Push消息,询问用户是否应用该视频。问题是,用户可能收不到Push消息,可能不采用生成的视频,白白浪费了服务资源。

存量商品问题

因为无法解决存量商品问题,是我不采用合成视频的主要原因。闲鱼的新发商品对比整个商品池,占比毕竟很小。只处理新发商品,无法解决大量商品的问题。


图片合成视频有如上诸多问题。我们给出的方案是“基于动效模板的图片动态展示方案”。

3. Chaplin项目

电影是从无声电影开始的,无声电影以 Charlie Chaplin(查理·卓别林)最为代表。他不但推动了电影历史的发展,更代表了一个时代。希望通过Chaplin项目推动闲鱼整体内容视频化的发展。


Chaplin项目,启发源于视频编辑器。在视频编辑阶段,可以通过各种特效使内容更丰富、生动。我们将素材与特效进行分离,最终将整个编辑过程抽象成模板。展示时,再将不同的素材与模板进行合并,实现视频播放的效果。

演示GIF

视频:

http://wantu-xm4-xianyu-video-hz.oss-cn-hangzhou.aliyuncs.com/aus/xianyu_post/1188921868/3_1626333212.571707

设计

Chaplin项目业务落地方案:

模板创作

模板编辑器主要参考通用视频编辑器,为设计师提供一个可视化的创作工具。特效库是可扩展的,酷炫特效主要是开发同学通过编写OpenGL Shader实现的。因为OpenGL是标准库,所以可以实现编辑器和客户端的一致性。


资源管理平台主要依托于集团的纵横平台(素材管理中心),实现音乐库、特效库、模板库的管理。其中,模板支持特征打标和播放控制。因为模板是要下发到客户端的,所以必须有完整的线上发布流程,线上要与预发隔离。

客户端

模板获取是增量同步的,需要实现本地模板库管理,以及Shader和素材资源管理。


模板推荐引擎基于业务场景,通过对商品和内容的理解,以及对图片主体和色域的分析,实现对用户的个性化推荐。并且通过疲劳度和曝光量配置,实现模板打散展示。


动态展示(播放),首现需要将素材与模板进行合成,合成后的播放源是基于时间线的非线性播放序列。播放过程是按时间线实时合成和渲染的。视觉的合成,双端都是基于OpenGL。iOS的音频合成是基于AVMutableAudioMix(AVFoundation);Android没有音频合成过程,是混音播放。

循环模板

在业务落地的过程中,播放素材的个数是不确定的,所以设计了循环模板。

循环模板的收益还是比较明显的:
(1)大大减少了模板文件个数,一样的视觉不需要设计多个模板;
(2)大大降低了模板文件大小,使模板文件下载更快。

设计之初,有2套循环模板方案:
(1)素材与模板合成时处理;
(2)让播放器支持循环配置。
考虑到子模块独立、纯粹性,降低模块耦合度,所以抽象了素材与模板的合成模块。

循环模板的设计是为了解决业务中的不确定性,所以设计上不但要考虑协议的扩展性,还需要对不确定性进行抽象:

播放协议

以图片开始;以图片结尾;两个图片之间必须有转场节点,转场时间可以为零。

循环模板的头尾设计

必须以图片节点开始;可以是图片结尾;可以是转场结尾。

循环部分与非循环部分的定义

所有节点支持once(只执行一次),第二次执行将跳过该节点;跳过节点后,如果出现相邻同类型节点,将再次跳过节点。


播放线程

整个播放过程还是比较复杂的,事件和数据会在不同线程之间传递。本来也不想搞这么多线程,可是如果不异步处理就会出现堵塞和卡顿问题。


播放控制操作队列

播放器是强依赖状态机的,锁操作会有卡顿(Stop操作会释放线程等其它资源),所以选择了异步操作队列。

GL渲染线程

因为是多轨播放,所以需要实时渲染合成,合成后再上屏。

资源加载线程

资源加载是I/O操作,会比较耗时(特别是字体和大的图片)。图片是先通过资源加载线程加载到内存的,然后在GL渲染线程把图片转成纹理,再渲染。

UI刷新线程

当前设置的刷新率是30FPS,也就是所有加载合成操作要在30ms内完成,否则会出现卡顿的现象。

多轨播放

多轨播放(也叫非线性播放),需要将多轨的内容实时合成并渲染上屏。
PS:加载资源或者合成慢了就会出现播放卡顿,所以做了资源预加载,纹理预处理等操作。

模板协议

OpenGL 顶点坐标范围是[-1.0,1.0],纹理坐标范围是[0.0,1.0]。为了开发方便做了坐标统一,协议中所有坐标范围均是[0.0,1.0],会在底层做转换。

所有特效均是云端实现。遵循shader节点协议,包括:vertexURL、fragmentURL、uniforms。其中
举例:

素材(图片)
{
 "name":"放大",
 "type":"image",
 "duration":2.0,
 "shader":{
 "vertexURL":"https://xianyu-chaplin-bucket.oss-cn-beijing.aliyuncs.com/ShaderV2/ImageEffect_Move2_V2/ImageEffect_Move2_V2.vert",
 "fragmentURL":"https://xianyu-chaplin-bucket.oss-cn-beijing.aliyuncs.com/ShaderV2/ImageEffect_Move2_V2/ImageEffect_Move2_V2.frag",
 "uniforms":{
 "u_FirstScaleBegin":1.00,
 "u_FirstScaleRange":0.04,
 "u_FirstMoveBeginX":0.00,
 "u_FirstMoveRangeX":0.00,
 "u_FirstMoveBeginY":0.00,
 "u_FirstMoveRangeY":0.00
}


转场
{
 "name":"溶解",
 "type":"transition",
 "duration":0.5,
 "shader":{
 "vertexURL":"https://xianyu-chaplin-bucket.oss-cn-beijing.aliyuncs.com/ShaderV2/TransitionEffect_Mix2_V2/TransitionEffect_Mix2_V2.vert",
 "fragmentURL":"https://xianyu-chaplin-bucket.oss-cn-beijing.aliyuncs.com/ShaderV2/TransitionEffect_Mix2_V2/TransitionEffect_Mix2_V2.frag",
 "uniforms":{
 "u_FirstScaleBegin":1.04,
 "u_FirstScaleRange":0.01,
 "u_SecondScaleBegin":1.00,
 "u_SecondScaleRange":0.01,
 "u_FirstMoveBeginX":0.00,
 "u_FirstMoveRangeX":0.00,
 "u_FirstMoveBeginY":0.00,
 "u_FirstMoveRangeY":0.00,
 "u_SecondMoveBeginX":0.00,
 "u_SecondMoveRangeX":0.00,
 "u_SecondMoveBeginY":0.00,
 "u_SecondMoveRangeY":0.00
}


贴纸
"tracks":[
 "type":"ShaderTrack",
 "list":[
 "type":"PopImage",
 "position":0,
 "duration":3600,
 "data":{
 "shader":{
 "vertexURL":"https://xianyu-chaplin-bucket.oss-cn-beijing.aliyuncs.com/ShaderV3/PopImage/PopImageV3.vert",
 "fragmentURL":"https://xianyu-chaplin-bucket.oss-cn-beijing.aliyuncs.com/ShaderV3/PopImage/PopImageV3.frag",
 "vertexCoordinatesName":"a_Position",
 "vertexCoordinatesValue":{
 "x":0,
 "y":0,
 "width":1,
 "height":1,
 "rect":{
 "top":"8dp",
 "right":"8dp",
 "width":"60dp",
 "height":"24dp"
 "images":[
 "textureCoordinatesName":"a_FirstTexCoord",
 "textureCoordinatesValue":{
 "x":0,
 "y":0,
 "width":1,
 "height":1
 "textureName":"u_FirstTexture",
 "imageURL":"https://gw.alicdn.com/tfs/TB1QOt3nIVl614jSZKPXXaGjpXa-120-48.png"
 "uniforms":{
 "u_MoveX":0,
 "u_MoveY":0,
 "u_VertexScaleBegin":1,
 "u_VertexScaleRange":0
 ]


总结与展望

随着短视频的流行,如何推动内容视频化,闲鱼给出了新的解决方案。本文也说明了为什么不采用图片合成视频的原因。具体介绍了如何通过动效模板实现图片内容的播放展示,打破了图片合成视频的局限性。

虽然方案已经上线运行,但还有些想法没有实现。

智能创建模板

单一的模板会让用户产生疲劳,所以模板生产要有持续性。当前模板生产依赖设计师创作、开发写特效,成本较高。业界也有一些智能创作方案,后面会考虑如何结合。

智能识别与特效的结合

实时识别主体区域,并针对主体区域做特效处理。比如当前有一个逐渐放大的转场特效,理想应该是以主体区域为中心放大,而不是图片中心点放大。当前素材是顺序播放的,可以加入智能排序。

场景扩展

当前方案还主要应用在展示场景,后面会考虑应用到UGC生产场景。

















本文转自网络,原文链接:https://developer.aliyun.com/article/785838
本站部分内容转载于网络,版权归原作者所有,转载之目的在于传播更多优秀技术内容,如有侵权请联系QQ/微信:153890879删除,谢谢!

推荐图文


随机推荐