动态
「视联网」是一种怎样的屏幕经济? 2020-07-15

科技推动媒介变革,如果我们从媒介迭代引发人们需求形式改变出发。在万物互联的趋势之下,硬件环境发悄然改变,人们要通过新的渠道和形式来满足媒介迭代所带来的新需求。另外,在5G商用进程的加速和AI应用的普及,视频在特定情况下替代其他互联网媒介去串联人、设备、信息等,并逐渐形成以视频为主要信息介质和内容载体的互联网形态,可以将其称之为“视联网”以视频为内容介质,那么在当下的硬件基础下可以快速实现的屏幕生态主要包括手机屏生态和智能电视大屏生态(OTT)。

首先来看两大市场的硬件存量,CNNC第44次统计报告数据显示:当前我国网民使用手机上网的比例高达99.1%,约8,47亿人,短视频用户规模达6.48亿,整体视频用户约为7.59亿,占网民整体的88.8%。智能大屏方面,能电视家庭渗透率已达36%,日活家庭规模逐步增长,截止2019年上半年日活近亿户,并保持日均300分钟高度使用黏性。智能电视收看OTT点播和OTT信源的总体日活达9403万台。截至2019年H1智能电视家庭超2亿户,IPTV规模近3亿户。两种硬件支持下,所带来的视联网服务是截然不同的。

短期来看,视联网的发展目标是夯实视联网的产业基础设施,支撑起更多的视联网服务,使视联网产业真正成型。主要包含三个方面,一是底层人工智能引擎的进一步升级;二是视联网操作系统的建设与完善;三是构建产业生态配套服务体系。分别去看三个发展方向,分别代表着AI技术、操作系统、用户端及开发者三个主要方向。

AI技术的发展则可以为视频识别提供极大帮助。通过AI算法可以实现计算机自动识别视频中的海量信息,以计算机超过人类数万倍的速度去标识出视频中的可用信息,甚至做出人难以理解却准确的识别判断。当下,AI技术已经在安防、金融、智能驾驶和视频广告投放等垂直领域中有了充分的应用,基于视频识别的部分需求得到了一定满足。尽管现有的技术还难以全面解析视频中的所有信息,但其发展前景使视频内容完全识别成为了可能。至于视频互动技术,相较于技术研发,视频互动更为重要的是互动生态的建立。视频内容的生产、传播者和互联网服务提供商需要认可视频观看者的互联网需求,打开数据链路,实现互联网生态在视频层的对接。这需要的是有效的商务推广、龙头带动效应和不断的体验优化。

操作系统的颠覆需要太多的智能化硬件的支持普及,但当先我们可以将其理解为视频中的小程序桌面。即通过多样的视频内小程序链接丰富的互联网服务,将视频识别的技术能力转化为给视频观众带来服务的功能模块,在生态集聚中实现产业价值的最大化。视频小程序生态是建立视频识别能力之上的。如何最大化利用既有的视频识别能力,链接尽可能多且好的互联网服务、为视频观众提供最为便利性的服务,是视频小程序生态建设的核心问题。

对于用户端而言,是回归屏幕使用体验。例如,针对视频中的团队聚餐事件,可以分为提出聚餐、进入餐厅、点菜、吃的热火朝天和结账等五个场景。通过数据分析和常识判断,吃的热火朝天的场景最能引起人们对吃的情感共鸣,这时候就可以集中资源让计算机学会识别“吃的热火朝天”场景,进而在此类场景中大规模自动化地推送与吃相关的应用服务,比如外卖广告。

其背后的技术支持是同过解析视频内容中蕴含的人物、物体、动作、地标等信息,寻找到与广告品牌内涵相一致的视频场景,进而实现广告品牌价值与视频内容场景相互匹配。这种模式下,可以创造出视频场景广告这一全新的广告形式,大幅提高广告曝光的接受度和回报率。

对于视联网来说,视频识别能力的进步是视联网发展的核心主线。,需要视频识别能力变得更快、更准、维度更多。尤其是在维度层面,视频识别不仅是对单个元素,例如人脸、物体、商标等的识别,更需要对多元素组合而成的场景、连贯发展的事件等进行识别,以保证人的相关需求都能得到响应。从当前的技术条件来看,视频识别能力的进步主要取决于数据积累和算法迭代两个方面。其中,算法迭代往往是可遇而不可求的,当前人工智能算法的突破也是建立在数十年理论研究和天才的灵光一闪之上。

与之相比,利用当前深度学习算法实现视频识别能力的提升是可预期和可实现的。其中的关键在于数据积累引起的识别能力从量变到质变。深度学习算法的特点在于可以通过不断的数据积累,让计算机对于已标注的单元识别能力越来越精准。与此同时,更多的数据又有助于写出更优化的算法,提高计算机对于视频的识别速度。

一个良好的开发生态的建立还需要便利的开发环境,包括开发语言的难易程度、功能模块的完善程度、应用更新的便利程度等。在这样的背景下,「极链科技」联合「山水创投」面向全国发起了“视联网创业大赛”,旨在挖掘和培育视联网产业领域内的创新人才和创业作品,提供视联网带来的风口创业红利,共建视联网经济体与产业生态。