陈小平:人工智能伦理全景动态观

网友投稿 2019-05-25 16:56

2019全球人工智能技术大会5月25日和26日在南京召开。会上,中国科大计算机学院教授、机器人实验室主任陈小平发表演讲,此为演讲全文。陈小平是中科大女神机器人“佳佳之父”。

https://cdn.china-scratch.com/timg/190527/1A6352134-0.jpg

"佳佳之父"陈小平

人工智能作为一个学科,至今经历了60多年的高速发展,取得了大量技术成果,在一些领域得到了有效应用,为经济和社会发展带来越来越多的新进展和新机遇。社会各界对人工智能的期待也越来越大,一些世界主要国家已将人工智能列为国家战略。

不过,与任何成熟学科相比,人工智能的历史还非常短,在发展中还存在着大量未知与挑战,很多基本问题包括人工智能理论基础,目前仍处于探索阶段。由于上述两方面的原因,人工智能受到了普遍和强烈的关注,引起大量讨论。其中,人工智能的伦理挑战成为当前国内外关注的一个焦点,一些组织和机构开展了相关议题的研讨,欧盟委员会人工智能高级专家组还发布了“可信赖人工智能”伦理准则。

中国人工智能学会对AI伦理问题高度重视,2018年年中组建人工智能伦理专委会,启动了人工智能伦理问题的研究。专委会设置了多个AI伦理课题,并组织了一系列开放的和内部的专题研讨。

本文不代表任何组织或机构,仅谈一谈个人对人工智能和人工智能伦理的若干初步思考。

人工智能伦理现状及其“两面性”

随着人工智能的快速发展,社会上出现了比较普遍的担忧情绪。根据中国人工智能伦理专委会的观察,主要有三种担忧。下面针对这三种担忧,分别讨论目前的实际情况和未来的可能情况到底如何。

风险1:技术失控。很多人担心人工智能技术会变得越来越强大,以至于将来有一天,机器会统治人类。首先要指出,近年来社会上出现了一些对人工智能的夸大宣传,很容易引起大众的误会和误解。可是这些夸大宣传并不是人工智能专家说的,也没有得到人工智能专家的认同。根据国内外人工智能界的普遍估计,所谓“人工智能统治人类”,在短期内是不可能的,也没有确切依据表明,人工智能发展下去,将来一定会出现这种情况。很多人工智能专家已经向大众做出了这样的说明,却没有得到充分的重视和理解。相反,由于受到某些报道甚至科幻作品的影响,部分大众对某些假想性推测信以为真,由此而产生对人工智能技术失控可能性的过度担忧。

那么,从长期的观点看,有没有充分的证据表明,将来人工智能一定不会出现技术失控?这种证据也是没有的。因此,这种风险是需要人类去面对的。在这种不确定的情况下,最重要的,是如何对技术失控风险的存在性和严重性进行判断。是依靠对这种风险的客观性、系统性的科学研究,还是凭借主观猜测?答案是不言自明的。因此,尽快展开对人工智能长期风险的科学研究,对于消除或缓解大众担忧,以及保证人工智能健康发展,都是必要的。无根据地对目前非现实存在的伦理风险过度恐慌,必然导致对人工智能发展的实际阻碍。目前,这种现象已经出现了不好的苗头,这就是人工智能伦理现状的第一种两面性表现。

风险2:技术误用。担心某些人工智能技术由于不成熟、不够人性化或缺乏足够的伦理约束等原因,给使用者带来直接的危害,比如数据隐私问题、安全性问题和公平性问题等等。首先需要澄清的是,从整体上说,国内外人工智能研究始终坚持将基础研究与实际应用严格区分的传统,在将一项技术投入实际应用之前,通常都会对其进行充分的测试,只有达到了一定的实用性标准,才会实际投入使用。很多技术成果没有得到普遍推广,正是因为在测试中没有得到充分可靠的验证,或者没有达到预期的性能指标。但同时我们也必须看到,目前科技界、产业界和监管部门对人工智能、数字技术等高新技术伦理问题的认识还处于初期阶段,认识不到位,相应的规范和治理体系也不健全。由于种种原因,在数据隐私、数据误用、决策公平性等方面,确实发生了一些实际的技术伦理问题,产生了不好的社会效果和影响,这是现存技术风险的主要来源,其严重性被普遍低估了。这种情况值得引起高度重视。

对于第二种担忧中的技术伦理问题,有必要强调指出,为了化解和避免这些风险,需要用更高的标准,包括制定和建立伦理规范、法规行规、技术和产品标准,进一步发展和完善人工智能及相关技术的科研体系和产业体系。在历史上,一个新产业在创立之初出现各种问题是常见的,而这些问题的消除只能通过科技和产业的进一步发展。如果因为存在问题就延缓产业发展进程,只能延缓问题的解决。这是人工智能伦理现状“两面性”的第二种表现。

风险3:应用失控。担心人工智能在某些行业中的普遍应用可能带来严重的负面社会后果,比如导致很多人失业,又无法短期内重新就业。对于这种担心,我们以工业生产为例加以说明。我们首先要看到,现存的一些劳动密集型产业已经在一些地区比较普遍地出现了“用工难”的现象,成为一大批企业不得不面对的难题。但是,这种现象并不是由于人工智能、机器人等新技术的应用引起的,而是由于大量岗位的工作性质已经变成了简单操作的机械性重复,这种作业是不符合人性的,换句话说,是存在伦理问题的。因此,一个必然的趋势是,愿意承担这种工作的人将越来越少。也就是说,不是因为人工智能、机器人技术应用引起生产少人化,恰恰相反,正是因为产业少人化(用工难)的现实挑战,才导致不得不用人工智能、机器人技术加以应对。因此,人工智能、机器人技术的产业应用是一个必然趋势。可是,如果人工智能、机器人技术的普遍应用导致大批工人失业,而且无法解决再就业问题,就可能引起应用失控。这是第三种两面性表现。

过去几十年里,高技术产业在国际上发生了大规模转移,而且继续发生着转移。转移的主要原因可能是经济学里的“比较优势理论”的作用。可是,这种转移绝不是简单“迁厂址”那么简单,在转移的同时伴随着生产效率的快速提升,也就是上面提到的工人工作性质的改变,即从有一定技能的操作逐步变成越来越机械的重复性操作。因此,我们既要看到产业转移,又要看到生产效率升级,还应看到生产国平均工资的提高。在这些因素的共同作用下,必然出此案“用工难”与“工作岗位减少”的双重矛盾,这是一个不断加深的过程,并在全球蔓延。

长期的重大社会需求和挑战

技术的根本价值在于提升人类的福祉。而人类福祉的一个集中体现是社会重大问题的解决。与人工智能相关的重大社会问题至少包括以下这些,在世界各国都有不同程度的表现:

- 气候变暖和环境污染。这是一个全球性问题,人工智能技术完全有可能为解决这个问题提供帮助。

- 产业少人化。由经济运行规律引起,高新技术被作为提升经济效益的手段而引进,同时也会加剧少人化。

- 老龄化。根据中国民政部等机构发布的信息,中国有2.5亿个家庭需要家政服务,而现有家政服务人员不到1700万。根据中国老龄办2016年调查,中国失能和半失能老人总数已达4000万。

- 社会资源分布不均衡性。在中国,教育、医疗等社会资源总体不足、分布不均,成为中国亟需解决的重大社会问题。

- 城镇化问题。快速的城镇化带来了一系列“人-文化-生态”的问题,表现为空巢老人、空巢儿童、空巢青年……。

总之,人类社会正面临着一系列前所未有的挑战,包括一些看似无解的两难局面:一方面,人类将不得不应用人工智能技术以解决人类面临的一系列重大难题;另一方面,人们担心人工智能技术应用可能给人类的未来带来更加严重的社会问题,甚至引起无法收拾的后果。采取减低发展速度的对策,是不可能彻底解决问题的。我们需要的是全球视野下的组合创新,包括科技创新、产业创新和政策创新等等。

人工智能伦理的使命与机制架构

从当今世界的发展需求和技术伦理现状出发,未来有三种可能:

第一种,消极地延缓人工智能等新技术的应用,限制创新的力度、幅度和进度,现存和新生的社会问题和伦理问题不断累积,最终导向积重难返的残局。

第二种,冒失地推进人工智能等新技术的应用,加重和加速引爆社会伦理问题,造成难以收拾的困局。

第三种,积极稳妥地推进人工智能及相关的技术和非技术创新,解决现存和新生的社会问题和伦理问题,走向一个更加美好的未来世界。

人工智能伦理建设的愿景,必须面对第三种可能。因此,人工智能伦理的基本使命是:为人工智能增进人类福祉与万物和谐共存提供伦理支撑。具体地说,这个使命包含双重含义:第一,督促人工智能做好事,促使人工智能做更多更大的好事;第二,防止人工智能做坏事,严控技术风险,保障安全底线。

从这个使命出发,提出人工智能伦理的全景动态观,其主要内容如图1所示:

https://cdn.china-scratch.com/timg/190527/1A63B264-1.jpg

首先,“需求”、“研究”与“应用”形成一个循环演进的闭环,即需求推动研究,成熟的研究成果经过商业化实现实际应用,而实际应用又可能引发新的需求。相应地,人工智能伦理通过三个层次发挥作用:最高层为人工智能伦理的基本使命,可能保持长期不变,从而相对稳定地指导人工智能研究、人工智能伦理体系建设以及伦理准则的制定、改进和完善。

这些准则落实到一个一个具体的应用中,就细化为强制性的、可操作的实施细则。一组细则可以包括产品标准(企业标准)、技术标准(团体标准/国家标准/国际标准)、行规、法规、产业政策等(通常产品标准的指标不得低于技术标准的规定)。每一个应用都由一组对应的细则加以约束,不同的应用可以有不同的细则。例如,完全无人驾驶的应用场景,与无人驾驶和有人驾驶混合的应用场景,所面临的技术风险和伦理风险是非常不同的,所以它们需要非常不同的管理办法。

在人工智能伦理体系中,“研究”必须进一步划分为两个相对独立的部门:一个是常规的“科技研究”,另一个是新设立的“伦理研究”,前者需符合伦理准则,而后者则针对人工智能的三种技术风险,为相应伦理准则的制定、改进和完善提供科学依据。例如,是否存在某些人工智能技术或品质,由于其巨大的、无法化解的危害,应该被列为研究的禁区?这个问题现在缺乏正、反两方面的证据。因此,只有进行相关的伦理研究,才能找出这个问题的正确、可靠的答案。这样一种研究是防范人工智能技术失控所必需的,也是人类历史上前所未有的,因为它的目标是“为潜在禁用而研究”;而工程技术学科的传统研究是“为潜在应用而研究”。

“为潜在禁用而研究”并非只能提供否定性结论,也可以发挥肯定性作用。例如,假设一项人工智能技术对于解决某个重大社会问题有显著效果,但不确定其是否存在技术失控的风险,那就需要进行充分的伦理研究。如果研究结果确认,该技术不存在失控风险,并且其他风险在可控范围内,那就为该技术的实际应用亮了绿灯。在此前提下,如果发现现行的管理办法不适合该技术的应用推广,则可以放心地修改现行管理办法,完善相应伦理准则的设置和解释,进而制定出合适的实施细则,从而为应用该人工智能技术解决重大社会问题开辟伦理通道。

面对重大社会问题,人类必须发现和创造大量新机遇,而人工智能在其中必将发挥重大作用。例如,在未来某个时段,完全可能出现大量工作被机器取代、大批工作年龄人口无工可做的情况。这种情况下的社会结构、经济运行机理和社会发展动力,与当下社会是根本不同的。因此,在应对这些的挑战的过程中,人类很可能将进入一个全新的社会文明阶段。为了保证这种社会演化符合人类的根本利益,保证宇宙万物的和谐共存,人工智能伦理局限于防止人工智能“不做坏事”是远远不够的,一定要尽力帮助人工智能做好事,做更多更大的好事。

以上仅仅给出人工智能伦理全景动态观的一个简要说明,大量细节需要进一步研究。

总之,人工智能伦理建设面临一系列挑战,不是将一般伦理学原则、方法和规则具体化到人工智能就可以奏效的。如何建立这样的人工智能伦理体系,需要相关各方紧密合作,进行长期、艰苦的探索。

https://cdn.china-scratch.com/timg/190527/1A63A009-2.jpg

版权声明

本文为”产业头条“原创文章

如需转载请联系授权

并标示来源

https://cdn.china-scratch.com/timg/190527/1A6363V8-3.jpg

据说,关注产业头条,会遇上更好的自己^_^-长按关注-

--end--

声明:本文章由网友投稿作为教育分享用途,如有侵权原作者可通过邮件及时和我们联系删除:freemanzk@qq.com