季卫东 季卫东:算法黑箱化与人工智能立法( 三 )


社会系统变化的三个基本特征:由于物联网的发展和人工智能的广泛应用,不同的人工智能系统之间有着密切的联系和互动,这就导致了智能网络化的趋势。人工智能系统有不同的目标,这可能会导致冲突,它们的交互可能会导致意想不到的后果。最初,人工智能被认为可以做出预测。然而,当人工智能网络化并能深入学习时,往往会出现不可预测、无法解释的问题。
在某些场合,人工智能越发达,越复杂,越精确,人们很难确切地解释它是如何实现的。这叫做算法黑盒。从人工智能治理的角度来看,我们当然希望算法是透明的、可解释的,但实际上算法的原理和机制很难解释清楚,因果关系也无法验证。这使得问责原则难以实施。因此,黑箱算法是我们应该关注的社会制度实质性变化的第二个方面。深度学习使人工智能超越了人类预设的计划和程序,能够自行诱导新的行为模式,并按照这样的模式进行操作。
在这里,自然会引发对人工智能发展的担忧,即失控。也就是说,人工智能系统的观察、学习、思考、判断和行动的能力提高之后,就有可能产生自我意识和独立性,机器就变成了自主的,从而人类无法有效地控制人工智能。机器人可能会反抗并伤害人类。以上三种社会制度的变化都会影响制度安排,对法律制度提出严峻挑战。
从很多方面来看,代码似乎取代了法律:在人工智能时代,技术规范往往意义重大。有时,法典可能会使法律中已有的权利无法按规定实施,需要变更。守则的框架可能会对原有的法律制度安排做出一些改变。在某些场合,事实优先,使得法律与现实脱节的问题凸显出来。
当人工智能越来越渗透到社会中,算法本身就决定了很多事物的运行模式。有句话叫算法独裁,意思是人工智能的算法、软件、代码框架主宰一切。在这种情况下,法律制度确实面临严峻挑战。包括区块链在内,都是通过网络共识的方式来管理密码资产的,这与过去设想的法律支配是不同的。
经济社会的全面数字化迫使法律采取对策:目前,在中国和其他国家,人工智能的应用系统发展非常迅速,数字经济似乎处于野蛮生长阶段。但如果过早进行法律规制,采取强制性措施管理大数据产业和人工智能发展,就有可能压制科技和数字经济。
另一方面,人们也有很深的担忧,因为人工智能的胜利很可能将人类社会锁定在一条特定的道路上,这将使其在未来无法撤退,或者说撤退的代价太大。因此,应及时思考和探讨物联网、大数据和人工智能的治理和制度设计,并采取相应的对策。
其中最重要的应对方式之一,就是强调人工智能发展中伦理、原则、政策、法律的综合治理。如果采取片面的法律规制措施,可能会限制人工智能技术和相关数字经济的发展,所以我们认为目前软法比硬法更重要。我认为,只有这样,才能更好地满足保护人工智能发展,并对其进行适当限制,防止野蛮生长的社会需求。上海交通大学人工智能治理与法律研究中心专注于计算材料、算法和计算能力中伦理与法理的关系,试图构建相应的知识图谱,推动人工智能时代的制度创新。国内法学学者和相关行业非常关注这方面的进展。
近日,上海商汤智能产业研究院和北京迪法恩科技有限公司来洽谈在人工智能治理和数据法律方面的合作。此外,人工智能技术在法律应用过程中也得到广泛应用,尤其是在司法领域,包括电子法院、智能司法、基于大数据的文件自动生成等。人工智能作为法律决策辅助系统的尝试各国都在积极行动。人工智能在法律决策中的直接应用较为复杂,涉及诸多技术和价值障碍,尚处于起步阶段,仍在探索中。

推荐阅读