首页  > 文学副刊

人类有毁灭自己的权利吗?

2020-11-19 08:57:00 来源:法治日报·法治周末

原题:人类有毁灭自己的权利吗?

    人工智能与法律之间的辩证互动


就人工智能而言,如果我们要保持并促进人工智能的平稳发展,至少需要在法律和法律制度中找到人工智能的位置

视觉中国

於兴中

由于稳定神经网络和云计算基础架构技术、模糊系统技术、熵管理、群体智能、进化计算等技术的发展,人工智能技术得到了快速发展。如今,人们可以找到适用于各种行业的人工智能。它们也在我们的日常生活中得到了应用,例如医疗保健、零售、银行、制造、风险管理、建筑网站、语音搜索、定制服务、自动校对等。

人工智能以前所未有的方式对人们的工作、生活、教育、社交互动等各个方面产生了全面影响,甚至影响到人对自己的理解和重新定义。人工智能已成为通用的营销术语,尽管通常它并没有实质性的意义。

在我看来,法律对于人工智能的发展必不可少,人工智能在工业和日常生活的应用和研究中应占有重要地位。法律既可以促进也可以规范人工智能的发展。促进与监管之间的适当平衡乃是实现“科技向善”理想的关键。

人工智能的理想主义

由于人工智能在我们生活中无处不在,人们对它便产生了理想主义的想象。这些想象表现在不同的表达趋势上,比如,通用人工智能(AGI)、人工情能(AEI)、超级人工超智能(ASI)等。按照人工智能理想主义的逻辑,通用人工智能的发展将导致超级人工智能的出现。最终,这一发展将达到雷·库兹韦尔所设想的奇点。

这位发明家和未来主义者相信,具有人的水平的人工智能将在2029年实现。有人回应库兹韦尔关于奇点的见解,认为社会的奇点也会到来,届时我们目前的政治和社会系统将停止运转并被新的超级智能系统所取代。

然而,我们知道,AGIAEIASI是人们正在想象而没有发生的事情。尽管如此,人工智能理想主义将很快导致所谓的技术乌托邦主义。技术乌托邦主义是基于人类能力的一种简化主义的观点,其关注的仅仅是人的智性。人工智能正是人类智性的产物。

关于机器人是否可以像人一样思考的争论,经常集中在“机器人是否可以具有意识”这一问题上。而我认为,这里涉及的不仅仅是意识。众所周知,人类不仅具有智性,同时也具有心性和灵性。

反对人性简化主义的观点

简而言之,人性包括理性、情感和信念三个层次(或三个维度)。这三个层次可以称为智性、心性和灵性。人们不仅具有智能,而且具有情能和灵能。

通常,有经验的人进行决策主要依靠逻辑和经验,但不能忽略的是内心和精神的影响。有时,后两者的作用可能更为关键。如果人工智能要超越人类,那么它必须具有情感和精神,光靠智能是远远不够的。

智性的存在体现在理性、可计算性、规律性、功利主义和经验上。人工智能的概念涵盖逻辑推理、可计算性、规律性、功利主义和经验,毫无疑问是人类智性的体现。

人的心性是感觉、情感和欲望的发源地,属于与智性完全不同的领域。截至目前,尚无任何报道声称机器人可能有感觉和情感。即使是克隆人,也可能只是结构性存在,即它可以作为身体存在,但不能复制一个人的历史、生活内容及其爱好。而机器人执行此操作的可能性更低。

灵性则是一个难以捉摸的维度,很难把握。但是我们每个人都有灵性,只是程度有所不同。灵性包括恐惧、敬拜、生活取向、神秘、神圣和普遍的爱。

人的心性、智性和灵性是相辅相成、相互平衡的。正如宗教在现代政治制度的安排中受到理性的约束一样,人工智能的发展也应受到心性和灵性的限制。如果不是这样,好莱坞科幻大片中超智能存在占领世界的预测可能就会成为现实。

人工智能现实主义

技术是一把双刃剑,人工智能亦然。

美国太空探索技术公司(SpaceX)的创始人、特斯拉汽车公司首席执行官埃隆·马斯克曾将人工智能称为“我们最大的生存威胁”,担心发展它可能等同于“召唤恶魔”。

理论物理学家斯蒂芬·霍金是黑洞物理学的开创者,他认为人工智能可能既是奇迹,也是灾难,称人工智能为“人类历史上最大的事件”,但也有可能是“最后的事件,除非我们学会如何规避风险”。

人工智能理想主义可能导致人工智能炒作和人工智能乌托邦主义。当前,围绕人工智能、算法、大数据、互联网、物联网、万物互联和区块链等新技术的炒作正大行其道。特别是人工智能和区块链这两个领域里最为热闹。

面对发展的渴望和不必要的炒作,谨慎的做法是采取现实的态度,在将人工智能视为机会的同时,防止有关人工智能的不实或错误信息,从而认识到人工智能的有益潜力并根据需要对其进行规制。

法律在人工智能发展中的作用

基于以上理解,法律对人工智能的作用是什么?我认为,人工智能与法律之间存在着辩证互动的关系。

正义女神既执掌天秤又挥舞宝剑。法律既有保护的功能又能够施以惩罚。法律可以开启、促进和保护人工智能开发并保障权利。它还可以强加责任、义务或将非法活动定为犯罪。

就人工智能而言,如果我们要保持并促进人工智能的平稳发展,至少需要在法律和法律制度中找到人工智能的位置。例如,授予某些人工智能实体合法权利。同时,法律还应该对人工智能实体施加义务和责任,甚至禁止在特定方向上进行人工智能的研究。

例如,即使人工智能有潜力发展成为可以统治人类的超级智能系统,我们的法律,乃至道德伦理,应该允许这种行为发生吗?换句话说,人类有毁灭自己的权利吗?

18世纪意大利思想家乔凡尼·巴蒂斯塔·维科指出,历史上曾经有过神的时代、英雄的时代和人的时代。与此相适应产生了三种不同类型的法律:神学指导下的法律、英雄时代的法律和自然人性指导下的法律。

今天,我们已经进入了机器时代。机器时代召唤与之兼容的法律以及与其相匹配的法律认识论和法律方法论。机器时代的法可以称为人—物关系法、科学自然法或艺术与科学的混合方法。

无论其名称是什么,该法律调整的主要目的都是人与自己的工具之间的关系,包括自动的或手动的工具以及类人的工具。而这种关系并不是财产关系。一如前述三种法律的发展,机器时代的法律以现有法律为基础,而不是完全没有传统支持的新型法律。

人工智能在法律发展中的作用

现在来看人工智能在法律发展中的作用。算法、智能合约、预测分析都构成了一种挑战现有法律理论和实践的新的法律方法。法律人工智能现在已应用于许多法律领域,比如,预测编码在电子发现中的应用,区块链在证据保存中的应用以及算法决策在审判中的应用。

法律不再仅仅被定义为社会科学知识的一个分支,而更是科学的分支。基于人工智能的数字存在和网络存在而产生的新兴权利,正在挑战传统的权利制度。法律技术、法律人工智能和法律推理模型(尤其是可辩驳的法律推理)等已准备就绪,可以用机器和软件代替部分人工律师。而由此引起的法律研究范式的转变,对法律教育产生了重大影响。

伦理的作用

如果我们要制定有关人工智能的法律,就必须制定反映人类道德的法律。因此,我认为道德在所有这一切中也起着关键作用。

社会伦理、职业伦理、生物学研究伦理、机器人伦理、人工智能伦理等都与法律有关。道德原则将作为立法和执法的指导,可以被视为人工智能开发人员的内部约束,也可能成为人工智能开发人员的设计参数。

如果我们想在保护自己的同时开启、促进和保护人工智能的发展,所有这些都必须得到解决。如果要制定通用的人工智能法律,该法律至少应阐明鼓励和限制的目的、指导原则、范围和内容。至少在精神上,它应该反映出人类掌握其创作成果并充分尊重科学和技术规律的能力。

(作者系康奈尔大学法学院the Anthony W. and Lulu C. Wang 讲席教授。本文系作者在2020世界人工智能大会上的演讲,有删节)

责编:王硕

——法治周末
联系我们 诚聘英才 广告征订 本站公告 法律声明 报纸订阅
本社运营代理:北京慧海联文化传媒有限公司
本社(网)常年法律顾问 北京佳创律师事务所律师 黄海光 联系方式 13522015000 邮箱 bjhhg@126.com
版权所有 Copyrights ? 2014-2020 www.legalweekly.cn ALL RIGHTS Reserved 《法治周末》

京ICP备10019071号-1