男性和女性的评论区不一样?算法连这也不放过
前两天,一个老生常谈的话题引爆了互联网,连续两天上了微博热搜。它叫“ 信息茧房 ”。不少人之前就听过这词,也了解过它,但这次大家反应这么大,是因为这是他们第一次,如此直观地面对信息茧房。
事情是这样的。
有网友发现,在一个内容关于情侣吵架的视频下方,不同账号看到的评论区是不一样的。
他的账号看到的评论区,靠前的评论都出自于男性网友,立场也都是从男性出发;女朋友账号看到的评论区,则恰恰相反。
左男右女 ▼
在这条微博下面,有很多网友质疑,这无形中会不会影响我们判断。
第二天,有位博主看到这视频后,决定做个测试。
她注册了一个新抖音号,关注了一笑倾城,不断给老年人视频点赞,在网络世界里乔装成中老年人。
如此操作一个小时后,她发现自己进入了一个新世界。
在线PK的不再是年轻的主播,而是几位毛发稀疏、头顶锃亮的大爷;线上连麦的网友,也是差不多岁数的阿姨。
在一个大爷品茶的视频下方,排在前列的评论,都来自于真实的中老年人。
但当博主切回自己的账号,找到这条品茶视频时,评论区的第一条却是一个从未见过的评论。
这意味着,不一样的年龄看到的评论区也不一样。
事情发酵后,立马引来了众多网友的质疑。除了转发和评论,他们还纷纷跑到原视频评论区下,做起了测试。
有人问,能看到他评论的网友,是男是女;
有人贴出自己的评论区截图,让其他人看看是否一样;
还有不少人联想到之前的经历,认定“算法确实在定制评论区 ”。
比如一位四川IP的网友说,每次刷到第一条评论都是吃个四川人。
也有一堆人表示难怪每次刷评论,发现别人都在虚空对线,合着评论区就不是一个版本呗。
甚至还有更“ 阴谋论 ”的说法,认为这是短视频平台通过算法,故意挑起男女对立。
其实在听说这事后,差评君也拿了三个同事(1男2女 )的手机做了测试。
但我们发现,在原视频下方,除了个别评论的顺序稍有不同,评论区整体来说是一样的。
为了排除同IP的情况,我也找了几十公里开外的朋友测试,情况也是如此。
可能我们来迟了,或者还在灰度?
后来我也另外翻看了几个博主,分别是美女主播、男科大夫、彩礼话题的律师。
这些主题相对容易引起性别对立,我想看看他们的评论区是否有网友说的“ 性别定制 ”。
结果在最后一位律师的评论区,我们才遇到靠前评论差别较大的情况,至于其他两位,完全一致。
基于此和以往经验,我不能说短视频平台的评论排序是在故意推动什么,但我可以说:
它绝非是完全按照热度 & 时间的维度排序。
以往我们打开一些社交平台的评论区,会看到这样两个选项:热度 & 时间。
但是在短视频平台,用户却没有选择评论排序的权利。
比如抖音上热度低的评论有时会在热度高的前面;
类似情况也出现在快手。
我们是没法判断短视频评论区是否接入了算法,但,要是连评论排序都不给用户自主选择的权利,这无疑也会加重信息茧房,进而带偏大家的三观。
首先要弄清楚的是,“ 信息茧房 ”不是算法时代的产物,它源自于桑斯坦 2006 年的书《 信息乌托邦 》,讲的是一个现象:
公众只会注意自己选择的东西和使自己愉悦的领域,久而久之,会将自身桎梏于像蚕茧一般的 “ 茧房 ” 中。
而算法的出现,会加剧“ 信息茧房 ”形成。
因为我们不断被投喂自己喜欢看的,想要看的东西。信息输入一旦单一化,我们看事情的维度也会变得单一,思维就会狭隘。
德国电影学家SiegfriedKracauer写过一本书《 电影的本性 》,当中讲到一个故事。
有导演拍了部城市小短片,放给从没接触电影的非洲土著居民观看。
影片里展示的是灯红酒绿,高楼大厦,结果看完后观众对这些毫无反应,只热烈讨论短片中短暂出现的一只鸡。
导演自己都不知道短片里会有一只鸡,后来发现在某1秒镜头的角落晃过一只鸡。
为啥土著人关注到了鸡?因为他们只认识鸡,所以鸡成了主角,不认识的高楼大厦变成了背景。
后来电影学中就有这么一句话:你是否看见了一只鸡。
意思是每个人在阅读一部作品时,我们看到的,只是我们眼中的那只鸡,它取决于我们所接收过的信息。
就好比让大伙儿说一部自己最喜欢的电影,你也许会选《 奥本海默 》,你的朋友可能会选《 芭比 》,你的表舅可能选《 战狼 》。
但不管是谁选,他的答案一定局限在“ 他所看过的电影 ”。
决定答案的,是经历,是认知,是输入进脑里的信息。一旦算法让你接收到的信息变得单一,你看待和分析事情就会变得片面。
片面是其一,其二,变得极端。
因为我们只能听到自己认同的看法,在不断重复不断加深后,我们思维就会固化,排除异己,最终出现回音室效应,观点在脑子里放大,膨胀,变得极端。
在网络上我们经常会看到,持不同意见的人吵得不可开交。
因为在他们目光所及的世界里,他们都觉得自己是正确的,是大多数,和自己不一样的人简直不可理喻。
但真实复杂,包罗万象的世界,事情并不是非黑即白的。
不知道大家有没有同感,即使是在评论按热度排序的年代,很多帖子里,也经常出现整个楼层的三观被高赞评论带偏的情况,持相反意见的人排在很后面才能被看到。
因为人都有从众心理,相对于宣扬自己的判断,人们更倾向于不孤立自己。自己的想法,有时还要看到风向才能确定。
那如果评论区再干脆不按热度排序,交由算法统治了,又会是什么样子呢?
这会导致有共同的标签( 性别、爱好 )的人,被拉在同一个群体评论区,会导致一些本该被你扫到一眼的相反意见完全消失。
人们更容易趋于一致,也更容易极端化,和别的群体会更割裂。
你可以想象一下,如果男女真的分开上网,双方完全听不见对方的想法,性别对立是会减小还是大大加深呢?
当然,以上种种,对于大部分人来说,不过只是一种隐忧。
真正信息茧房的形成,条件比较苛刻。
清华大学和中国传媒大学两位学者曾发表一篇文章,提到“ 信息茧房 ”是个似是而非的概念,没有有力的研究能证实它的存在,造成“ 信息茧房 ”的环境很难出现。
诸如2019年第3季度,抖音用户数6.06亿,快手用户数4.14亿,这些用户重合率达到36.4% ,这意味着人们一般不大可能处在一个能形成信息茧房的“单一信息环境 ”里。
毕竟,我们平时接受信息的方式有很多,各种社交媒体平台、朋友圈等等,这些都可以帮助我们去认知世界。
真正值得担心的,则是一部分被忽略的群体,比如:中老年人。
他们往往处在低频、单线程的社交环境中,他们认识互联网世界的方式,除了微信可能只有某个短视频平台。对于他们来说,长期只获取自己“ 应该 ”获取的信息,真的没问题吗?
不过,即便信息茧房形成条件苛刻,也并不妨碍大家关注和警惕它。
今日头条是最早一批用算法机制的新闻App,推出仅四年,日活超6000 万,用户平均使用时长76分钟。
这就是个性化推荐的魔力,吸引用户,留存用户。
在当时,我们并没有觉得这件事有啥不对劲,只觉得很新鲜,甚至有点沉迷。
之后这些年,越来越多App接入算法系统。从以“ 关注体系 ”为生的微博,到以专业战报起家的懂球帝,再到以传统论坛获得网友们喜爱的虎扑,纷纷改版。
无数App宁可抛弃自己的传统和基因,也一定要壮士断腕般地投身算法。
虽然用户一开始有些不适应,但日活和数据却呈现出两个字:真香。
久而久之,用户也觉得可以接受,不过是内容变多变杂了嘛。
直到这次事件曝光后,大家才开始觉得不对劲了。
因为,它终于触碰了观众的蛋糕。
众所周知,视频制作者和评论区发言者的话语权是不对等的。视频中输出观点的影响力,评论区则需要一万个持相同观点的人才可以相提并论。
大家害怕算法剥夺自己聚起来发生的权利。
况且,算法没有给你推荐的内容,你还可以搜索到。
但算法没有给你推荐的评论,你很难再精准定位到它们。
它们沉底在几千几万条的评论区,甚至可能被完全隐藏,在你的互联网里销声匿迹。
我明白,算法是当前信息过载的时代,简化人们接受信息的必然产物,也是很多平台为了拉长用户留存时间,早晚都会使用的技术手段。
但算法值得大家警惕,它像一个暗自入侵的机器人,从给你投喂视频,到在潜移默化中影响甚至塑造我们的人格。
其实它无非就是一个数学模型,是可以调整和优化的,是能避免我们处在过于单一的信息环境中,只不过决定权在于它们背后的大脑罢了。
早之前,江湖上就流传着一个段子:
互联网的作用,原本是让井底之蛙开一开眼界,认识一下井口以外的世界,可实际情况是成千上万只井底之蛙通过互联网互相认识,互相认同和肯定,并经过长久的交流之后达成共识:世界确实只有井口这么大。
诙谐的背后,是沉重的事实。
但如今看来,算法似乎让它变得,更沉重了。
踩一下[0]
顶一下[0]