央视网消息: 随着信息技术的飞速发展,信息算法推荐在给用户带来个性化内容推送便利的同时,也引发了“信息茧房”现象,简单来说就是用户因长期接触同质化信息,导致视野受限、认知固化。为应对这一问题,中央网信办持续加强信息推荐算法治理,各大平台也积极响应,采取多种措施助力用户突破“信息茧房”束缚。那么,哪些人群最容易被困在“信息茧房”中?又该如何“破茧”?来看总台记者的报道。
算法如贴心“小秘书”提供个性化内容
在这个信息爆炸的时代,算法就像个贴心的“小秘书”,天天变着法儿地给我们推荐喜欢的内容。早上一睁眼,打开手机,全是自己爱看的搞笑视频、明星八卦;晚上躺在床上,刷到的还是那些老一套。感觉就像被算法关进了一个透明的“茧房”里,里面全是自己喜欢的东西,可时间一长,问题就来了。外面的世界啥样都不知道了。
算法存在“滥用”现象 推荐内容同类化
其实,算法也具有两面性。一面注重用户的喜好,提供个性化内容,可以给用户带来更好服务体验。但另一面,也存在“滥用”现象,也有“失控”的风险。
“90后”管同宇是一名高校老师,在日常使用手机的过程中,他发现,每个人都貌似可以通过手机接收来自天南海北的信息,但同时每个人看到的内容都仿佛是被安排好了一般,看到的世界也显得越来越窄。
高校老师 管同宇: 刷手机的时候能够感觉到确实存在这样的“茧房”,越看越窄,就是大数据算法会根据你这个人的性格看人下菜碟,感觉刷到最后都是同类型的,想跳出来都难。
网民吴先生说,这种信息茧房如果个人没有好的辨别、甄别能力,很容易陷入其中无法自拔。
网民 吴先生: 如果你自己没有一点辨别能力的话,你就会永远只看得到它认为你想看的东西。所以这样长期以来的话,就有些东西可能就是单向的灌输了,你可能并不一定知道真相到底什么样子。
不同群体受“信息茧房”影响存在差异
此外,这种被信息包围的体验,更折射出数字时代的信息获取困境。马女士进一步观察到,不同群体受“信息茧房”的影响存在显著差异。
市民 马女士:我觉得一些老年人可能会更容易陷入“信息茧房”。他们可能不太熟悉互联网的各种操作,对信息的筛选能力相对弱一些。比如我父亲,他平时就喜欢看一些养生类的信息,手机上推送的也基本都是这些,他就很少会去主动接触其他类型的内容。
“信息茧房”不利于网络舆论生态健康发展
在复旦大学新闻学院副教授翁之颢看来,“信息茧房”的存在是不利于我们的网络舆论生态健康发展的。
复旦大学新闻学院副教授 翁之颢: 比如对个人而言,你如果反复的去接触同质化的信息,其实思考问题的视角会变得非常的单一,方式也会非常的固化,对于一个个体来说,它是并不利于去全面客观地了解社会很多问题的本质的;从群体来看,大量的网民都把自己困在“信息茧房”当中,其实阻碍了互联网上信息的流动和交换,也导致我们看到今天有很多网络的现象,尤其是负面问题是因为“茧房”而存在的。比如,我们社会的偏见和刻板印象会在不断的加深。在有些特殊情况下,谣言的破坏力也会变强。另外由于“茧房”存在,我们网民群体也更加容易极端化,出现一些对抗性的行动,甚至从线上波及到线下。
专家分析:大数据时代 如何突破“信息茧房”围剿
一段时间以来,中央网信办持续加强信息推荐算法治理。针对网民反映强烈的算法推荐加热低俗信息、加剧“信息茧房”、加重观点极化等问题风险,督促指导重点平台针对性优化信息推荐算法功能,调整信息推荐算法规则。
那么,面对不断加重的“信息茧房”现象,社会和个人如何有效突围?建立清朗的网络环境?来听听工信部信息通信经济专家委员会委员刘兴亮的解读。
工信部信息通信经济专家委员会委员 刘兴亮: 如何治理“信息茧房”,我有几个建议。第一是完善监管体系与立法保障。首先是专项行动与法规建设,比如中央网信办联合多部门开展的“清朗·网络平台算法典型问题治理”的专项行动,重点整治算法滥用导致的“信息茧房”问题。其次是技术监管与评估机制,建立专门的算法监管机构,联合科研机构的研发智能监测技术,对算法行为实施分析并干预风险内容。
第二是推动算法透明化与多样性。现在一些平台都通过开设算法说明网站,发布算法破解系列,向用户公示推荐机制与干预机制。引入多元数据源和算法模型,降低同质化推送比例。
第三是用户赋权与功能创新。多家平台已经推出一键破解内容偏好调节功能,帮助用户主动拓展兴趣标签,完善人工与AI协同审核机制。
个人规避“信息茧房”有这么几个方法。第一是主动管理算法推荐,在平台设置中可以关闭默认开启的个性化内容推荐这样的一些功能,避免同质信息的重复出现。
第二是提升媒介素养与信息辨别能力,用户需要主动接触多元观点,避免依赖单一信源。对争议信息优先通过官方媒体或专业机构核实,避免被情绪化内容误导。
第三可以善于利用平台工具打破舒适圈,现在很多平台都允许用户自主增删兴趣标签,可以灵活调整推荐内容的范围,还可以使用“茧房评估”等工具,可视化近期浏览的一些偏好,针对性扩展你的信息边界。