近年来,网络短视频行业迅速发展。报告显示,2017年我国网络短视频用户规模超2.4亿,预计2018年用户规模将达3.53亿。然而,短视频平台在发展过程中,低俗恶搞、涉黄涉毒、违法违规等现象亦层出不穷。这样的乱象与相关平台过度依赖算法推荐和分发机制有着直接的关系。
所谓算法推荐,主要是根据用户以往的浏览记录,通过特定数学算法,分析推测出用户的喜好,并以此为依据,进一步推送同类内容。算法作为一种技术,同过去人工编辑选用信息方式相比,确实可以提高内容分发的有效性和针对性,适当使用原本无可厚非。但是,将智能化算法和分发机制作为“致胜法宝”乃至牟利工具,同时又缺乏必要的内容审核把关,就难免会出现大量问题。过度依赖算法,容易产生片面追求流量而不关注信息内容本身是否合法合规的问题。据报道,面对未成年人的怀孕视频,相关平台不仅不及时拦截,反而推波助澜,只求博眼球、抢流量,从而使得低俗违规内容经由所谓“全网推送”而成为热门话题。
过度依赖算法,容易诱使用户观看有害信息。在日常生活中,我们常常会遇到,只是点开了一次视频,哪怕并非感兴趣,而只是手滑打开,相关平台就很可能会不厌其烦地自动推荐更多此类视频。
过度依赖算法,容易产生“信息茧房”现象。用户在所谓个性化信息服务名义下,可能不再依靠自己对信息的判断、鉴别来寻找内容,从而视野逐渐限制在自己最初喜好的范围内,信息环境不断窄化,困在“茧房”里不能自拔。同时,平台则习惯于根据用户喜好生产和推荐重复信息,内容同质化问题日益严重。由此,出现了内容生产和推送的恶性循环。
算法不是万能的。百度曾因竞价排名算法问题而广受诟病,淘宝亦因算法问题而出现刷单漏洞……类似教训历历在目。更严重的是,过度依赖算法甚至以“算法中立”为挡箭牌,对内容缺乏必要的审核,导致违规内容甚嚣尘上,本质上是放弃主体责任的违法违规行为。
互联网不是法外之地,“开饭店的需对端出来的饭菜负责,做平台的亦应对推送的信息负责”。相关事件曝光后,“快手”发公告表示要升级人工智能识别系统以加强核查,但这恐怕还是不够的。相关短视频平台应以此为警示,全面反思和整改内部流程。
同时,应深刻认识到,技术只是工具,可以运用但不能依赖,更不能以此为挡箭牌。要进一步履行好主体责任,严格实行“前台自愿、后台实名”要求,强化人工审核,采取内容分级、严格过滤不良内容等措施,构建起规范、有效的内容审核机制。如此,网络空间才会有良好生态,网络短视频行业才能有序发展。