当前位置:首页 > 运营 > 正文

算法技术存在的伦理问题(专家热议算法善用用社会伦理引导技术发展)

算法技术存在的伦理问题(专家热议算法善用用社会伦理引导技术发展)  第1张

资料图。图片来源:Unsplash

新京报讯(记者 肖隆平) 6月18日,清华大学新闻与传播学院智媒研究中心、新京智库联合举办了“算法善用 智能人文:智能信息的多学科融汇”线上论坛。来自清华大学新闻与传播学院、北京师范大学新闻传播学院、复旦大学新闻学院、中国人民大学哲学院、中国传媒大学新闻传播学院和深圳大学传播学院的专家学者,就算法技术对价值创造、社会发展的积极意义展开讨论。

“风口浪尖”的算法,开拓了人的认知、心理和思维路径

近年来,“算法”一词以前所未有的频率出现在公众视野之中,一些与算法相关的事件引发我国乃至全球的关注和热议,算法成为处于“风口浪尖”的焦点议题。然而,从数学学术讨论到计算机编程语言,算法都不能算是一个新概念。

北京师范大学新闻传播学院前院长、长江学者喻国明介绍,“算法”之所以突然火热,是因为信息传播技术的快速发展使得“算法化”的数字经济和信息传播新社会正在生成。算法作为数字经济的基础,它正在从“幕后”走向“前台”。

清华大学新闻与传播学院副教授、智媒研究中心副主任蒋俏蕾认为,算法技术可能不仅作为一种工具能够极大提升和改变过往的媒介效果影响的深度和广度,同时也会开拓人的认知、心理和思维路径。

比如,有研究记忆的学者发现,使用了智能媒介后,人的记忆方式从原来的记忆特定信息的内容,转变成为记忆获取信息的路径,也就是如何找到这些信息。即,人们不再去精准地记取信息的具体内容,而是记忆在什么地方可以找到该信息内容。一旦需要就通过搜索引擎检索该信息的具体内容,算法便捷了信息获取的通道。

直面伦理困境,提升算法透明度

算法在给人类生活带来便捷的同时,也暴露了一些技术与人类、科技与人文之间的矛盾,包括价值观的矛盾、伦理的困境等。

复旦大学新闻学院执行院长、长江学者张涛甫表示,当前最大的矛盾似乎是被技术放大了。最大的矛盾是什么呢?我们认知的有限性与信息海量繁衍过剩、超载之间的矛盾。技术化时代下,人的认知能力没有成倍提升,但所拥有的信息数量却指数级增加。

那么,“如此海量的信息,如何在有限时间找到我需要的内容?靠主体自身没有办法解决,必须通过技术,算法为我们提供了解决方案”,张涛甫说。

与此同时,“信息茧房”的担忧接踵而至。美国学者凯斯·桑斯坦(Cass R. Sunstein)在政治语境下提出的“信息茧房”概念。在我国,该概念存在被误读和滥用的情况。例如,有观点认为持续的算法推荐,会让用户长期处于个人兴趣打造的同类信息场中,形成“茧房”,拒斥其他合理性的观点侵入。

那么,“信息茧房”真的存在吗?

清华大学新闻与传播学院常务副院长、教授陈昌凤认为,如果人生活在只有算法推送的同质信息的纯粹环境中,只获得一类信息,才有可能形成“茧房”。但实际上,我们所处时代的信息环境是多元、丰富的,无法避免观点不一致的内容,当前多元的信息环境是“信息茧房”形成的悖论。

算法技术存在的伦理问题(专家热议算法善用用社会伦理引导技术发展)  第2张

资料图。图片来源:Unsplash

“信息茧房”只是一种担忧。陈昌凤介绍,信息聚合类平台可以通过优化算法的技术模型,加强信息多样性。这为个体获取更丰富的信息提供了条件,也激发了用户的主观能动性,成为“积极的受众”,可见,媒介素养教育也是消解“茧房”误解的一种方式。

蒋俏蕾表示认可,当算法的透明度提升,让更广泛的使用者参与其中,自然会降低对算法的担忧。

善用算法,以社会伦理引导技术发展

过往历史文化语境中,没有将算法技术的伦理纳入思考范畴。蒋俏蕾提出,以人作为主体的社会中,法律层面的规制和道德观念的期待已经有了充分和成熟的探讨,但以算法为主体的传播伦理和媒介伦理,需要重新审视:如何在既有的法律规范和现有的道德观念中,去适应和接受它。

中国人民大学哲学院副院长、教授张霄介绍,我们对算法的使用应该是有限度的,因为由算法搭建的人工智能其实是有限智能,不是人类智能。同时,算法只是工具,不能把责任全部推卸给算法。

由算法建构的有限智能体,不应该承担任何道德责任,因为在伦理层面,它没有自主、自律、自控和自我意识,并不是道德主体。张霄认为,对算法的设计和操作过程当中的价值观念进行全程的评估和伦理审查,这有助于思考算法在设计、操作运用过程中可能涉及到的伦理问题,以及由这些伦理问题可能产生的一些道德后果,进而让大众事先具备一定的敏感性。

张涛甫表示,现在是技术走在前面,人在中间,规制在后面。因此,需要加强对算法等技术的规制,只有机制生成,才会对大众的行为起到指导作用。

此前,欧盟出台的《可信任人工智能伦理指南》提出了善用算法原则,未来的智能算法,是要懂道德的算法。在算法开发过程中,采用合作型的“算法善用开发机制”,即让利益相关者都参与到算法的开发中,从而形成利益相关者参与决策的算法治理模式。

深圳大学传播学院院长、教授巢乃鹏认为,多利益者共同参与的算法,对于算法而言能够在一定程度上将所谓算法“黑箱”等伦理问题予以有效治理。

用户的数字素养培育,是解决算法担忧的一种途径。用户了解了技术本身的运作逻辑后,可以从认识论上去破除“黑箱”,深圳大学传播学院特聘教授、媒体融合与国际传播研究中心执行主任常江提到,“哪怕有些东西永远无法透明化,但却能够认识到其中“黑”的逻辑是什么”。

中国传媒大学新闻传播学院副教授仇筠茜强调,找到理解智能生态中的边界物,规划和预判其背后的技术逻辑和伦理逻辑,有助打开“黑箱”,让技术更好的服务于人。

“我们不用忧心忡忡,简单粗暴地把算法打到谷底,把原罪都归责于它”,陈昌凤表示,技术帮助大众置身于充分的信息、多面向的选择之中,去追求自己的喜好、获得更多的交流,要用积极的心态使用新技术,让它服务于人类。

以算法信息服务社会群体,是科技向善的应有之义,如今日头条启动“头条寻人”,抖音发起“向日葵计划”保障未成年人良性上网,互联网等平台也紧随其后,将算法技术与社会发展相结合,服务大众。

“我们需要把善意的倡导和理性的批判落实到算法有效的开发中去,用社会诉求推动科技创新,这才是算法善用的终极目标”,巢乃鹏表示。

记者:肖隆平 编辑:张笑缘 校对:李立军

取消
扫码支持 支付码