随着科学技术地不断发展,人类迎来了人工智能第三次浪潮。自此,人类与人工智能的关系日益密切,人工智能伦理体系规划问题也成了国内外普遍关注的焦点。虽然人工智能伦理体系已有其基础架构,该架构规定了伦理体系的主要部门以及它们之间的相互关系。但是仍然存在四个急需解决的问题:运行机制问题、场景落地问题、风险预测判别问题和重大社会问题综合创新的动力机制问题,这些问题超越了人工智能伦理准则的范围,却是一种完整、有效的人工智能伦理体系所必须解答的。文章将为您详细介绍人工智能伦理体系规划:基础架构和4个关键问题。
一、人工智能伦理体系基础架构
人工智能创新生态包含3个主要环节,即“社会需求”“研究”与“应用”,它们形成一个循环演进的闭环,即需求推动研究,成熟的研究成果经过商业化途径实现实际应用,而实际应用又可引发新的需求。这是人工智能伦理体系基础架构。
二、人工智能伦理体系4个关键问题
1、人工智能伦理体系的运作机制问题。任何伦理准则都不可能自我执行,都必须借助于伦理体系中的一系列相互配合的运作机制才能得到落实。所以必须开展人工智能伦理体系的讨论,尤其是运作机制的讨论。
2、人工智能伦理准则的场景落地问题。已经提出的人工智能伦理准则,大部分属于反映普世价值的原则。当把这些准则应用于具体的实际场景,就需要细化为可操作的具体规定,否则必然停留在口号的层面上无法落地。
3、人工智能伦理风险的预测判别问题。人工智能伦理准则只是一些原则,并不包含人工智能的“违禁物清单”,比如“安全原则”不可能具体指出哪些人工智能技术是不安全的,“公平性原则”不可能具体指出哪些人工智能技术是不公平的。同时,人工智能处于不断发展之中,不可能一劳永逸地列出完整的“违禁物清单”。所以,只能在人工智能伦理体系中建立某种常态化机制,该机制能够预测、判别任何一项人工智能技术有什么风险、风险多大、是否应该禁用等等。
4、重大社会问题综合创新的动力机制问题。人工智能推动社会进步和经济发展的一面却没有受到足够重视,这已成为人工智能伦理体系建设的最大短板。因此,有必要在商业化机制之外,增加一种新型的综合创新机制,即借助于人工智能技术的伦理性创新。
欲知详情,请查看附件!