首页 >> 社科关注 >> 本网原创
我们应当建立什么样的算法伦理
2021年11月30日 08:23 来源:中国社会科学网-中国社会科学报 作者:马立明 字号
2021年11月30日 08:23
来源:中国社会科学网-中国社会科学报 作者:马立明
关键词:算法伦理;群体;信息茧房;媒体

内容摘要:

关键词:算法伦理;群体;信息茧房;媒体

作者简介:

  所谓的算法推荐技术,是指应用生成合成类、个性化推送类、排序精选类、检索过滤类、调度决策类等算法技术向用户提供信息内容。算法推送的最大特点就是投其所好,针对不同的用户,投送他们爱看的内容,让人“一看就停不下来”,大大增加了用户对App的依赖。

  算法推送会不会导致“信息茧房”?学界对此目前还存在一定的争论。但是从常识来看,算法推送确实在改变着我们接受信息的方式。单一类信息长时间的不停轰炸,有可能让受众的认知产生偏差。尤其是青少年,受单一类型信息的持续影响,很容易“坐井观天”,看问题的角度也会失去客观性。有学者提出,长时间的算法推送,有可能导致信息偏食的情况。我们都知道,人是通过某些直接经验和间接经验来认识世界的。对涉世未深的青年而言,直接经验是非常有限的,来自于外界的间接经验十分重要。在信息发达的网络时代,别人讲什么、怎么讲,很大程度上会影响受众的认知。某些智能媒体平台通过对用户的了解,准确投放相对应的信息,包括特定的内容、特定的观点、特定的体裁。用户遇到的资讯不是“应该知道的”,而是“喜欢的”。如此一来,有的用户受到了平台的蛊惑,增加了对平台的忠诚度,也会被塑造得更加偏执。

  偏执用户,是算法推送塑造出来的一个群体。近年来,我们发现,在世界范围内的很多国家,互联网发展日趋“极化”,多个群体互相抱团,并会与其他群体产生一定矛盾冲突。在公共议题上,民众产生共识的机会似乎越来越小,分歧似乎越来越大,和解的希望变得渺茫。之所以出现这种“极化”现象,智能媒体的算法推送恐怕难辞其咎。由于用户在网络世界中被算法“宠坏”,他们分别活在不同的“信息茧房”里,因此看待事物的角度截然不同。由于缺乏不同视角的认知,这导致了他们的偏执。不同的偏执用户之间,又会出现观念上的争拗,从而形成“网络极化”现象。在当下,随着全球化的加深,产生网络治理困境的原因之一,很有可能来自于用户的日常惯习。

  算法是新生事物,在一定程度上会对我们的生活带来冲击和影响。对于算法,我们不能简单地全面否定,而是要对它适度加以限制。因此,算法伦理的研究就变得很有必要。算法需要在伦理的框架中发挥作用,加强其正面意义,限制其负面影响。在这一领域,我们可以讨论的议题有很多。比如,算法的使用是否需要经过有关部门的审批,算法的公式是不是一旦确定就不再调整,用户能不能取消算法的限制,什么样的内容应该得到算法的重点推送,等等。如果人工智能的“小聪明”可以用在更加积极的方面,比如弘扬主旋律、正能量,那对于我们的媒体格局建设将大有裨益。它能充分地发挥“涵化”作用,令算法推送的正面效果得到发挥。因此,建立正面导向的算法伦理就非常具有时代意义。

  总的说来,算法只是一种工具,可以用于传播正能量,也可能产生负面的影响。因此,完善算法伦理的相关制度建设,督促企业对算法进行有效管理势在必行。平台不能只是简单地“投其所好”诱导用户,不能让它成为人性弱点的主宰。同时,我们还应该积极地理解算法、驾驭算法,使它成为社会治理的重要组成部分。

 

  (作者单位:暨南大学新闻与传播学院)

作者简介

姓名:马立明 工作单位:

转载请注明来源:中国社会科学网 (责编:何迪雅)
内容页广告位-中国与世界.jpg

回到频道首页
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们
中国社会科学院概况|中国社会科学杂志社简介|关于我们|法律顾问|广告服务|网站声明|联系我们