当前位置: 主页 > 法律法规

人工智能与算法治理研究

时间:2022-10-13 17:29|来源:网络[特别声明:人工智能之窗的图文来源于网络,如有侵权,请联系我们删除。]

网络模型下的分层化学习以及自我符号化的信息压缩器,从输入的数据中自动抽出数据的更高级特 征量。也就是说,人工智能从此开始真正介入本来只能由人类智能决定的领域。如果从图像数据到观 测数据、行动数据以及语言数据都可以进行深度学习,那就可以解决环境认识、行动预测以及知识获 得瓶颈等问题,势必在很多领域引起科技和产业革命的连锁反应。 深度学习的网络结构以及各种人工智能之间互相联网,形成了所谓“智网社会”,向国家治理和

法律秩序提出了新的课题和挑战。〔12〕人工智能的网络化的确可以为人类带来巨大的便利和效益,但 同时也势必造成巨大的、缺乏清晰边界的风险社会。与过去的信息通信技术不同,人工智能通过深度 学习而导致变化的结果很可能是人工智能开发者自己也无法预测和控制的。人工智能网络化势必引 起自动的组合变更,实现自我生成式的成长和变异乃至人工智能判断的黑箱化,形成非常复杂的情 况和网络混沌。在这里,存在人工智能不透明化的风险、安全性风险、失控的风险等。另外,各种人工

智能网络相互间的目的竞争或冲突也会引起复杂的连锁反应,很可能在某种情形下造成利用者或者 第三者的权利或利益受到损害,或者危及社会秩序和法律制度的框架。在这里存在事故的风险、智慧 型犯罪的风险、个人信息和隐私被泄露和滥用的风险、人为操纵选举结果的风险等。为此,必须加强

风险甄别和风险沟通。〔13〕

如何对这类风险进行评价和管控成为人工智能网络化社会的治理以及制度设计的核心问题。众 所周知,智网社会的最大特征是通过互联网实现的越境性,无论效益还是风险都会突破国家和专业

领域的既有樊篱进行传递和呈指数级扩散。因此,对人工智能网络化的相关问题进行讨论、采取对策


不得不具备国际视野和全球视野,应该注重在互联互通的状况里寻求人类社会的最大公约数和基本

共识。另外,由于相关的技术创新和市场培育还处于初级阶段,特别需要积极鼓励试验和竞争,为了

防止压抑研究者和企业的能动性,对人工智能开发的规制也应该富于弹性,给试行错误及其纠正留 下充分的空间。在这样的条件设定下,如何使规制的举措产生实际效力、具有可持续性就自然而然成 为另一个需要强调的因素。总之,人工智能网络化社会的治理切忌“一刀切”的生硬强制手段,更适合

采取多视角的、综合性的、社群指向的“软法”方式。只有这样,人工智能在中国的发展才能跳出“一管 就死、一放就乱”的传统陷阱。 二、人工智能网络社会治理的基本原则和方法 国务院印发的2017年《新一代人工智能发展规划》在保障措施这一节里强调了人工智能发展的

制度安排、开放包容的国际化环境以及社会基础等基本理念。鉴于人工智能的技术属性与社会属性 高度交叉融合的特殊情形,关于制度安排,规划要求加强人工智能相关法律、伦理和社会问题研究,

建立保障人工智能健康发展的法律法规和伦理道德框架。开展与人工智能应用相关的民事与刑事责 任确认、个人尊严和隐私以及产权保护、信息安全利用等法律问题研究,建立追溯和问责制度,明确

人工智能法律主体以及相关权利、义务和责任等。通过法律规范和伦理规范的并用来实现社会交往

的共享和互信。在立法方面,重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究

制定相关安全管理法规,为新技术的快速应用奠定法律基础。

由于人工智能是影响深远的颠覆性技术,国务院规划还重视围绕人工智能开展行为科学和伦理 等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架。


ICP证:粤ICP备17121702号-21 Copyright © 2002-2023 人工智能之窗 版权所有 网站地图

特别声明:人工智能之窗的图文来源于网络,如有侵权,请联系我们删除。 联系我们