贵州快三

人工智能时代的政府治理困境

来源:中国社会科学网-中国社会科学报  2019-05-29  浏览数:
  

机器算法作为政府数字化治理的工具,使人类面临技术统治的风险。这一风险主要体现为算法技术的反向适应性:机器算法并不积极回应人类的指导,反而要求人类适应现代技术系统。

 

 

人工智能时代,技术的昌明进步使得政府治理的工具和手段逐渐多样化和智能化。特别是在机器算法广泛应用的今天,技术革新影响并改变着政府治理的方式。然而,政府将算法技术作为治理工具,容易片面追求技术效率,而忽视公民福祉、社会公平等价值理念。数据算法强化了政府的工具理性,增强了政府监控社会的能力。但是,如何驯服人工智能时代的“赛维坦”,是政府治理不可回避的难题。

 

技术与政治关系之辨

 

关于技术对政治变革影响的研究,在国外已经逐渐发展为一门显学,即科学技术关系学。匈牙利著名哲学家卢卡奇指出,科学技术发展越好,它离人本身就越远,极易发展为片面的、统治人的工具。马尔库塞认为,技术发展本应成为解放人性的力量,但在资本主义社会,科学技术已经沦为一种新的控制方式。在马尔库塞看来,技术转变为控制社会的方式意味着技术的异化。技术手段占用公民的自由和劳动时间,造成公民单面且简化的思维方式。哈贝马斯更进一步指出“科学技术即意识形态”,并对技术的异化进行了批判。哈贝马斯认为技术体现的不是中性的价值,而是承载着政治价值。技术的发展容易使政治陷入技术专家治国的怪圈。在现代社会,科学技术逐渐上升为制度框架,并对政治产生深刻影响。

 

科技发展与政治秩序的重构也密切相关。从根本上讲,技术本身含有异化的可能和倾向。段伟文就认为,科技有控制政治的危险。他指出人工智能在处理决策问题方面,可以经由精确的数据和算法确定最优的解决方案。这就弱化了参与的主体性,进而影响政府决策的合法性来源。人工智能很可能成为负有决策责任的新型“国家机器”。在这种情况下,不仅会弱化民众民主协商的政治意义,甚至会极大损害现代民主理念。因此,周濂提出用政治限定科技来解决技术发展的困境。具体而言,政府部门需要对技术的发展加以界定,以更好地利用技术进步来造福人类。周濂认为,用政治“锁死”科技,不仅是为了捍卫人类的尊严,更是为了引领社会朝向更有利的方向发展。

 

技术自主性与治理失灵

 

机器算法作为政府数字化治理的工具,使人类面临技术统治的风险。这一风险主要体现为算法技术的反向适应性:机器算法并不积极回应人类的指导,反而要求人类适应现代技术系统。技术具有自主性,而人却丧失自由。人类将服从算法的规范,适应算法技术的运行环境,进而造成政府治理的失灵。具体而言,这种治理失灵主要体现在三个方面。

 

第一,算法黑箱与政府决策失误。一方面,算法黑箱降低政府决策的合法性。算法能够被看到和理解的,只有输入和输出两个环节,其信息处理过程是一个无从知晓的“隐层”。算法黑箱的存在,使人工智能在政治领域的行为缺乏有效的解释力。将政府的最终决策权转移给“没有感情”的算法,这种决策不仅可能因“大数据傲慢”而出现重大失误,更违背了政治民主的理念。政治是人的艺术,政府决策往往没有绝对的对与错,“对错”背后的依据通常是关于决策的解释能否被大部分人接受。政治理论大师孟德斯鸠认为,只有在基本共识下,慎思明辨才可能发生,而当前的人工智能恰恰缺乏这个能力。另一方面,算法黑箱降低政府决策的有效性。福山在其新作《身份》中指出,社交媒体和互联网促成了一些自给自足的社区,它们不是被物理壁垒,而是被共同的身份隔离开来。算法让人们更容易听到志同道合的论断,却也造就了良好的自我感觉,从而难以吸收反对者的声音。这就是美国学者桑斯坦所谓的“信息茧房”:人们只关注自己感兴趣的,却对外面的世界越来越缺乏了解。“茧房”桎梏下的人们加强了内部认同,使得孤立群体的意见形成了一股碾压一切的力量,政府治理可能走向被群体力量反噬的结局。此外,“茧房”下的人们也缺乏公共意识,难以形成共同的视角,从而造成政府决策的偏差。

 

第二,算法监测与政府伦理失范。作为一种人类组织,政府决策的最终裁量权应该交由人类。但在人工智能时代,社会被快速数据化,伦理问题随之显现。机器算法由于掌握了大量个人信息,可通过对个体赋值以作为决策的依据。此外,逐渐普及的智能设备也成为个人数据的全面记录者。当机器算法监测到足够多的数据,是否会使人类社会滑向全面性的“数字独裁”,进而形成无处不在的歧视?政府伦理失范的另一表现是对公民隐私的侵犯。机器算法的准确度取决于信息的完整性,而人们出于对便捷和高效的追求,往往牺牲自己的隐私,从而不断陷入边沁所谓的“环形监狱”,即看不到监视者,但确知自己是被监控的。在算法时代,个人将失去对个人信息的完整控制权。算法通过将个人的记忆向外延伸并永久存储,从而加大被人调用的风险。

 

第三,算法偏见与政府权力失位。算法可能加大权力极化,甚至成为极端主义的温床。民众在数字信息领域的贫富差距不断加大,进而演变为政治上的新霸权。诚如托夫勒在《权力的转移》中所言,人工智能时代削弱了国家的政治聚合力和国家中心意识,最终导致少数技术超人和企业精英操纵全球经济和政治,普通人不仅成为失业者,还会成为失权者。掌握海量数据的人工智能公司极可能成为超国家组织,进而对政府权威提出挑战。机器算法依赖于大数据,但大数据并非客观中立。大数据可以精确分析出个体倾向,并把不同个体归入不同群体之中。算法推荐给我们的信息愈具有针对性,就愈能够引导我们的行动和决定,而我们却逐渐失去自我。这是因为算法根据个人数据,通过有针对性的信息筛选,形成所谓的“过滤泡泡”。这种过滤方法会对人产生诱导效应,并使人们陷入自我满足的封闭幻想。这一“回音机制”也会刺激人们的消费冲动,并以此作为推动消费的燃料。现在的电商平台正是运用这一“消费逻辑”来增加销量,而政府在方面的监管尚处于缺位状态。

 

驯服“赛维坦”

 

社会上形形色色的价值、感想和思维方式是上层建筑的重要组成部分,而技术作为物质条件的重要基础创造并发展了这一切。当下,技术的发展倒逼政府治理创新。这要求政府部门转变治理理念,主动根据技术变革的需求推动治理方式重塑,以充分发挥技术在治理变革中应有的作用。

 

需要警惕的是,机器算法可能超越技术的价值而成为一种崭新的权力形态。若继续放任算法对政府治理的僭越,就会带来政府治理的失灵,最后结果将是政府责任的终幕。霍布斯用巨兽的形象描述一个具有极大威慑力的“利维坦”。但他对待“利维坦”的态度是积极的,主张通过政治手段,将所有人置于一个想象共同体的价值网络,以结束“人人自危”的自然状态。随着科技的突飞猛进,以前温文尔雅、带领人们走向光明的“赛先生”,逐渐成了力量极其庞大却又找不到方向的巨型怪兽——“赛维坦”。

 

为了避免机器算法这一“赛维坦”成为指向政府的达摩克利斯之剑,我们应将对技术的控制权牢牢掌握在手中,并充分做好应急预案。通过搭建一个针对算法决策的“熔断”机制,筑起一道防范机器为恶的防火墙,将风险降至最低。如此,才是驯服“赛维坦”的善治之道。

 

作者 吕俊延 华东政法大学政治学研究院

 

原文链接:

 

 

 

 

 

 

 


新作推介
  • 近日,由我院文化研究所杨艳伶博士参与撰写的《西北文化资源大典》一书由民族出版社出版发行,该书是兰州大学“2013中央高校基本……
  • 近日,我院文学艺术研究所李巍副研究员的专著《中国隐逸文化论》一书由贵州快三人民出版社出版。 隐逸文化作为中国传……
  • 近日,由我院文化研究所杨艳伶博士与兰州大学彭岚嘉教授合著、Iskandar Ergashov翻译的《中国古丝绸之路第二卷》(俄文版)……
  • 我院文学艺术研究所研究员孙立新与西安市鄠邑区档案局副研究馆员宋丽萍合著的《鄠邑方言》新近由三秦出版社出版。这是孙立新……