刚柔兼济:人工智能网络社会治理之道

  • 日期:07-16
  • 点击:(1279)

兴发娱乐官网1

RVof8jYJ3GNCkG

作者:纪卫东

资料来源:社会科学期刊(shehuikexuebao)

人工智能在中国和世界上发展迅速。显然,人类社会正处于第四次工业革命的转折点。

今天,我们通过自动控制(傻瓜相机),初级人工智能(家庭扫描机器人)和计算机学习(游戏程序)进入人工智能社会的第四阶段,可以从大数据中提取。特征量(alpha元素)的深度学习阶段。这一阶段最重要的特征之一是人工智能网络,不同系统的互连以及交互中的共同演化。

人工智能和互联网相互联系,形成一个数据驱动的社会。在这里,数据具有经济价值,甚至可以发挥货币的作用。在这个过程中,我们可以看到通过物联网收集大数据与通过人工智能分析大数据之间存在关联,使我们的各种工业活动和生活能够产生极高的效率,提供前所未有的发展空间。这是我们今天所面临的变化,这种变化也渗透到法律社会中。

注意控制过程中的软方法,保持灵活的空间

目前的人工智能热是由计算机数据处理系统的深入学习引起的。由于深度学习,算法及其组合的变化必然会超出人工智能开发人员的初始期望,甚至超出人们的控制范围。可以看出,人工智能带来了巨大的风险,同时给我们带来了极大的便利。当人工智能相互连接形成网络时,很容易在深度学习的媒介影响下自动改变组合和不明原因的结果,这必然导致人工智能判断的黑拳,甚至形成网络混乱。在这个时候,我们会发现人工智能会使社会变得不透明,安全会受到影响甚至失控和无序。

对于不同级别的人工智能开发,当它们由于网络而彼此连接时,它们的不同目的之间将存在竞争甚至冲突。这将给开发者,用户和社会带来各种伤害。从这个意义上讲,如何管理和评估人工智能发展中的风险已经成为人工智能网络社会治理和系统设计的核心问题。

RVof8jv7siGic8

首先,让我们谈谈人工智能网络化社会治理的思想,目标和基本方法。实际上,人工智能网络有助于社会共生和包容,并在提高效率和整体福利方面发挥重要作用。但是,在这个过程中,我们还需要关注中国忽视的价值是否能够实现和维持。例如,是否可以防止诸如个人尊严,自律和自治等社会目标。重要的是如何在功利主义和个人权利之间取得适当的平衡。

在这种情况下,如果采用强制性规范手段进行监管,人工智能新兴产业很可能无法及时有效地发展。但如果不加制止,人工智能网络社会的风险将会增加。这是一个老问题,并且是“一管死了,一管被释放,混乱”的新表现。从这个意义上说,如何在控制和控制过程中注意软法,保持弹性空间是非常重要的。

RVof8kH2fDH0bF

不要急于立法,而是建立适当的原则,道德标准和政策,特别是严格的立法和灵活的道德行为规范相结合,以实现灵活性和灵活性。这是我们考虑对人工智能产业进行适当监督和人工智能网络社会有效管理的主要方式。

人工智能的发展必须坚持人文主义的立场

关于人工智能发展的指标和道德标准,近年来,特别是2016年以后,各国一直在进行认真和深入的讨论。当我们回顾各国人类情报发展的原则和道德规范时,我们可以找到一些基本的共识。

RVof8kYEfuxYbp

首先是国际准则,标准和规范,要求所有国家和公司采取合作态度,而不是相互态度。合作与协调的目的主要是确保互联互通。结合这一要求,我们可以看出,中国司法服务中智能系统开发的规范非常不统一,导致了重复建设,浪费资源和一些目标冲突。

因此,有必要尽快建立统一的国家标准,并尽可能参照国际标准和规范进行设计,使数据形式和处理方法尽可能标准化。所有这一切都可以看出,我们需要有统一的顶层设计,统一的指标体系,才能使人工智能的发展更加有序,提高资源整合和利用的效率,充分实现互联的目标。

RVof8koMmITcw

另一方面,人工智能技术必须是中立和透明的。每个人都知道法律领域有一个非常重要的要求,特别是在决策和司法以及执法方面。这是问责制。问责制的关键是履行解释义务,解释的关键是论证和解释。如果算法无法解释,则无法履行解释义务,也没有问责制。无法追究责任的法律人工智能会产生严重后果和连锁反应。

因此,人工智能发展中的一个重要问题实际上是防止算法的黑匣子引起法律问责机制的变化。为此,我们必须强调算法的可解释性,减少甚至防止黑箱现象,并确保人工智能的法律程序也可以负责。当然,我们还必须达到可控性要求,以防止人工智能在失去控制的情况下伤害人类社会。

RVof8wW8yfCIQE

另外,在推动人工智能发展的同时,必须坚持以人为本和以人为本。特别是对于无人驾驶汽车,飞机等的发展,我们必须优先保护人们的安全。人工智能网络社会的特征是数据标准,因此建立大数据处理规范系统尤为重要。充分注意数据安全的安全性以及大数据中的隐私保护。这些是我们从现在开始应该注意的问题。我们应该制定必要的原则,规则,标准和政策,以防止问题发生。人工智能行业运行速度太快,盲目发展,野蛮增长,并且还会抛弃灵魂,引起遗憾。

应尽早研究相关的主要法律问题

到目前为止,法律世界中人工智能的发展也非常迅速,特别是在中国。

人工智能涉及的法律问题包括:人工智能产品的归属,例如软件为自动合成或自动绘画所产生的作品的版权所有权。垄断地承认这些产品的权利也存在问题。

此外,归因于人工智能产品的行为责任也是一个重要问题,包括损害他人的声誉,包括自动发生车祸的责任。此外,还提供了人工智能学习的数据,既有版权问题也有隐私问题,以及如何处理自由与公平竞争之间的关系。必须承认,现行法律制度在保护人工智能方面存在明显缺陷。例如,保护软件程序,保护算法,到目前为止在法律体系中还不够,我们需要进行深入的讨论。

RVof8wtEitJM97

特别值得注意的是,中国现在在法律服务业和司法机构中广泛使用人工智能。事实上,仍有许多法律问题需要讨论。作为合法企业的人工智能是否违反了“法官法”和“律师法”的规定?如果人工智能具有法人资格,则没有相关活动的法官资格和律师资格。这些问题非常有趣,必须尽早做出适当的安排,否则会引起法律制度内部的矛盾和缺陷。

大数据和人工智能时代司法权力的变化

特别是在司法领域使用人工智能,一些问题仍然相当复杂,我们需要认真考虑,从长远的计划。我们都知道,审理案件和作出判决的主题只能是法官。然而,当人工智能在审判过程中被广泛使用时,法官必须使用大数据处理系统进行审判和判断,并有意识地和无意识地倾向于接受自动生成的判决文件,从而导致审判主体2元素化,或者判断主体的等级现象。

虽然我们现在打算强调司法技术装置的人工智能只是一个辅助系统,但在客观现实中,越来越多的计算机算法控制试验。在处理案件和司法问责制度的最后期限的压力下,法官也倾向于使用大数据和人工智能案件处理系统来规避和推卸责任,这将不可避免地加剧审判的事态。特别是对于大数据处理,可以使现有系统偏差值固定或甚至放大。这些都是我们在讨论法律人工智能时应特别注意的问题。

RVof8x8B7AIMBA

总而言之,在司法领域使用人工智能时,我们必须提前计划并确定相关产品或数据处理系统未来发展的标准和指南。人工智能算法确实有助于纠正法官的个人偏见,特别是在中国滥用司法自由裁量权甚至司法腐败的情况下。这样的功能非常重要和积极。但我们也必须看到算法无法纠正所有法官所具有的系统偏差。如何解决这个问题是一个非常大的问题。此外,算法透明度存在深刻的矛盾。如果算法资源关闭,将导致司法黑匣子和内部人员滥用算法的优势。但是,如果打开此资源,则可以推广司法游戏和外部算法。操作。

RVof8xOYUEymW

更重要的是,法律的判断往往涉及具体情况,例外,规范创新,法律和审判所遇到的日常场景往往非常尴尬。人们可以通过直觉做出判断,但通过人为的判断通常很难做出明智的判断。在这种情况下,处理尴尬中的问题需要基于价值判断的决策。然而,人工智能开发中最困难的部分是价值判断。在法律领域,价值判断几乎是不可避免的。如何处理价值差异也是人工智能发展的一个非常重要的问题。这不仅需要解决自然语言的语义处理,还必须考虑法律推理的特殊形式,即哈特文本的开放结构,同时考虑到决心的核心与模糊边缘的共存。

RVof8xh3pjSazq

从这个意义上说,我们应该看到人工智能是一个非常重要的决策辅助系统,特别是在司法领域。但我们也希望看到它的局限性。特别是在这个阶段,中国的各个地方和行业正在分开发展,这有点像蜜蜂。这样的免费试用肯定有利于该行业的发展,但一些潜在的问题很快就会揭晓。为此,我特别强调这里的标准化任务。我建议有关各方及时澄清与人工智能相关的法律发展相关的原则,政策和规范,并建立行业的道德标准和指导方针。此外,加强这方面的互联互通也是我们现在面临的一个重要问题。

该文最初发表于第1664期“社会科学期刊”第3版。

图片来自网络。

文本中的内容仅代表作者的观点,并不代表平台的位置。