互联网活动家 Eli Pariser 在 TED 上做过一次演讲,叫做《Beware online \”filter bubbles\”》。

他表达了一些观点,我加上自己的诠释,跟大家分享下。

1.
互联网带来了极大的自由和民主,信息流动更加顺畅。但这种流动正在发生潜移默化的变化,而且变化是不可见的、隐形的。

比如作为自由派的 Eli,平时喜欢在 Facebook 上浏览政治新闻,也会看很多保守派的信息。有一天,他发现那些保守派的消息突然都消失不见了。因为 Facebook 认为相比这些,他会更喜欢自由派的信息。这种个性化的推送实际上是删掉了那些信息。

Google 也会根据不同人去呈现不同的搜索结果。即使退出账号,Google 也能通过 57 种属性来判断你的情况(所在位置、电脑和浏览器的类别等),给出个性化的结果页面。

更多互联网公司甚至传统媒体都在做个性化定制。这样的结果就是,互联网展示给我们的信息,将都是我们喜欢看的,而不是我们应该看的

2.
这样造成的结果就是,我们每个人都给自己制造了一个「过滤器泡沫(filter bubbles)」:

<img src="https://pic3.zhimg.com/10bb20974681cdbb9581ced300b56ad2_b.png" data-rawwidth="851" data-rawheight="485" class="origin_image zh-lightbox-thumb" width="851" data-original="https://pic3.zhimg.com/10bb20974681cdbb9581ced300b56ad2_r.png">
蓝色的是我们自己感兴趣的泡沫,边界就是我们的过滤器。比较可怕的是:过滤器并非是我们自己定义的我们意识不到自己在过滤器中;我们并不知道外界有什么

3.
我们每个人对信息的冲动,往往分为两种。Eli 举的例子是,我们都想看《罗生门》,这是部经典电影,但我们更忍不住看很多遍《神探飞机头》这样的爆米花电影。在阅读信息上,我们也倾向于先看那些刺激的、有趣的,再看没那么好玩的但重要的。但是,个性化的算法只以我们点击的情况作为判断,它是分辨不出差别的。

就像我们自己是可以判断哪些事情是「重要紧急的」「不重要紧急的」「重要不紧急的」,但算法可能只能判断紧急这个维度。也好像我们懂得做一个营养均衡、又不会影响食欲的食谱,但个性化算**只给我们特别喜欢的垃圾食品(信息)。

以上。可以看 Eli Pariser 的 TED 演讲,或者读一下他的书《The Filter Bubble 》。

目前的个性化推荐,自然是会给我们形成这样的过滤器,但只要我们有所警惕,并且能够掌握主动,依然还是可以避免跟意见相左的人完全隔离的。有两件事可以做:

1. 算法设计师们做的个性化算法不仅仅考虑「喜欢程度」一项,也要考虑「重要程度」、「内容丰富程度」等等。

2. 在个性化定制上,给我们一些选择权和控制权。比如可以主动关注关键词、分类和用户。或者,能够有地方让我们看到删掉 / 隐藏掉的那些信息。

当然啦,对于那些并不关心意见相左的人的发言的,这些都不重要。在任何一个时代,他们这类人都只会跟同意自己的人交流,只活在自己的世界里。

声明:本站所有文章,如无特殊说明或标注,均为本站原创发布。任何个人或组织,在未征得本站同意时,禁止复制、盗用、采集、发布本站内容到任何网站、书籍等各类媒体平台。如若本站内容侵犯了原著者的合法权益,可联系我们进行处理。