2017年7月,国务院印发《新一代人工智能发展规划》,对我国未来人工智能工作提出了明确要求。今年政府工作报告提出:“深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。”这是自2017年“人工智能”首次出现在政府工作报告后,连续三年被写入报告。
2017年,李克强总理在政府工作报告中提出:全面实施战略性新兴产业发展规划,加快新材料、新能源、人工智能、集成电路、生物制药、第五代移动通信等技术研发和转化,做大做强产业集群。
2018年,人工智能再次写入政府工作报告:做大做强新兴产业集群,实施大数据发展行动,加强新一代人工智能研发应用,在医疗、养老、教育、文化、体育等多领域推进“互联网+”。
今年的政府工作报告将人工智能升级为“智能+”。3月5日上午,国务院总理李克强作政府工作报告时称,要打造工业互联网平台,拓展“智能+”,为制造业转型升级赋能。
普华永道相关报告显示,在人工智能的拉动下,到2030年,全球 GDP 将实现14%的增量,差不多相当于 15.7 万亿美元。AI+安防、智能交通、智慧农业、智慧医疗、金融科技以及智能制造,已然成为受益于AI红利的典型产业。因此,人工智能被高声量地宣布成为未来发展的竞争焦点。近年来,各国都陆续发布了人工智能战略、政策及相关文件。
2016年,美国白宫接连发布三份人工智能发展报告:10月13日,美国白宫科技政策办公室(OSTP)下属国家科学技术委员会(NSTC)发布了《为人工智能的未来做好准备》和《国家人工智能研究与发展战略计划》两份重要报告,详细描述具体战略和路线图;12月20日,美国白宫发布了《人工智能、自动化与经济报告》,报告中提出“人工智能的时代即将来临,敦促国会议员应该设法让美国经济为此做好准备”。日本在《日本再兴战略 2016》中,明确提出实现第四次产业革命的具体措施,将物联网(IoT)、人工智能(AI)和机器人作为第四次产业革命的核心。
2017年7月20日,国务院印发了《新一代人工智能发展规划》。规划中提到分三步走。第一步,到 2020 年人工智能总体技术和应用与世界先进水平同步,人工智能产业成为新的重要经济增长点,人工智能技术应用成为改善民生的新途径,有力支撑进入创新型国家行列和实现全面建成小康社会的奋斗目标。第二步,到 2025 年人工智能基础理论实现重大突破,部分技术与应用达到世界领先水平,人工智能成为带动我国产业升级和经济转型的主要动力,智能社会建设取得积极进展。第三步,到 2030 年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础。2017年12月,《促进新一代人工智能产业发展三年行动计划(2018-2020 年)》的发布,它作为对7月发布的《新一代人工智能发展规划》的补充,详细规划了人工智能在未来三年的重点发展方向和目标,每个方向的目标都做了非常细致的量化。
同年,加拿大、新加坡、阿联酋、爱沙尼亚、爱尔兰和芬兰等国家分别发布了AI战略或者相关政策文件。
2018年,英国、法国、印度、韩国、丹麦、德国、墨西哥、澳大利亚、意大利、瑞典、奥地利、俄罗斯、新西兰、突尼斯和肯尼亚等国家也发布了各自的AI战略或者相关政策文件。
随着人工智能的全球化发展,人工智能安全问题也超越了国家边界,成为人类必须共同面对的挑战。
挑战一 人工智能伦理研究,法制建设
2018年12月18日,欧盟委员会的人工智能高级别专家组(High-Level Expert Group on AI,简称AI HLEG)正式发布《可信人工智能伦理指南》(Draft Ethics Guidelines for Trustworthy AI)草案。专家组将启动利益相关方磋商机制,收集各方对初稿的意见,以进一步完善初稿内容。计划于2019年3月发布《可信人工智能伦理指南》的正式版文档,并且在2019年5月发布《可信人工智能的政策和投资建议》。草案认为,“可信人工智能”应该包括如下两个要素:
1. 它应该尊重基本权利、规章制度,以及核心原则及价值,以确保“伦理目标”;
2. 它应该基于技术的强健与可靠。因为,即便是出于良好意愿,如果缺乏对科技的把控,无意的伤害也可能会发生。
类似的思考和谈论也发生在欧盟之外。随着技术的发展和应用的普及,机器会像人类一样去思考的行动。那么,如何从底层算法和架构开始,给予“对”与“错”的判断和衡量,在产品设计和业务运营中贯彻人工智能伦理原则?如何确定人工智能产品或者系统的法律主体、权利、义务和责任?又如何以道德伦理、法律法规等对人工智能的演进方向予以指导、制约和保障?
全国人大常委会已将一些与人工智能密切相关的立法项目,如数字安全法、个人信息保护法和修改科学技术进步法等,列入本届五年的立法规划。同时把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证,努力使人工智能创新发展,努力为人工智能的创新发展提供有力的法治保障。
挑战二 人工智能安全标准亟待建设
2017年10月,国际标准化组织ISO/IEC JTC1在俄罗斯召开会议,决定JTC1新成立人工智能的分委员会SC42,负责人工智能标准化工作,SC42将建立基础标准(Foundational Standards)、计算方法(Computational Methods)、可信赖(Trustworthiness)、社会关注(Societal Concerns)4个工作组,并将ISO/IEC JTC1 WG9(大数据工作组)放到人工智能SC42。
在自动驾驶领域,国际和国外标准组织也陆续出台相关标准。2012年欧洲电信标准化协会(ETSI)发布ETSI TS 102941《智能交通系统可信和隐私管理》;2014年美国国家标准技术研究院(NIST)发布《车联网网络攻击防护安全框架》;2016年美国汽车工程师学会(SAE)发布SAE J3061《信息物理汽车系统网络安全指南》。
然而,标准因其涵盖对象广、流程严谨,且需要和相关其他标准形成体系化对应及支撑,不能够及时满足市场需求。另外,机器学习的深度和速度,在某种未知的程度上,恐怕远超于标准可以支撑的范畴。
挑战三 各国人工智能安全重点不同
不同国家的政府,因其发展现状、远景规划的不同,在人工智能安全方面的侧重点也有所不同。这就决定了该国在相关领域的投入、处理问题的优先级都存在差异。例如,美国、中国、英国、法国都表示认可“提高人工智能研发基金”;但中国、英国、法国都明确对数字基础设施提供投资支持,加强网络安全能力建设,支持数字和AI领域道德伦理建设;而这几点,在美国相关文件中并未提及。中国和英国都对中小企业发展予以支持,这一点上,美国和法国没有明确表示。
挑战四 隐私保护更为迫切
人工智能的发展建立在大数据之上。对各种数据的采集、分析、应用,使得人工智能不仅可能掌握个人的身份信息,更能通过生物识别、个人偏好、行为记录等对个人明确识别,甚至比用户自己更加了解自己。这些信息能否得到正确、严格的保护,让人不得不为之担心。
2019年初,国内某人脸识别公司发生大规模数据泄露事件。超过250万人的数据可被获取,680万条记录泄露,其中包括身份证信息,人脸识别图像及捕捉地点等。由于人脸、指纹、虹膜等生物特征不可再生,在人工智能迅猛发展的今天,“隐私保护”和“数据安全”应该被提上更为重要和迫切的议程。
挑战五 人工智能安全人才存在缺口
人工智能安全人才从整体上来看,其需求呈现倍数级增长。
一是随着人工智能赋能传统产业,既了解业务又懂AI安全的人才明显稀缺。对算法的掌控、技术的对接、客户需求的理解、应用模块的稳定和成熟等等,都对人工智能安全人才提出诸多要求;
二是人工智能安全人才发展分化,高端需求强劲,基础层、技术层人才供给不足。与发达国家相比,很多国家人工智能整体发展水平缺少重大原创成果,在基础理论、核心算法以及关键设备、高端芯片、重大产品与系统、基础材料、元器件、软件与接口等方面还存在很大的差距;
三是人工智能应用日益细分,安全类人才成长周期长,人才引入和流动都需要移植适应期;
四是无论是高校、研究院所,还是企业,整体对于人工智能人才的培养资金,与发达国家相比,有着明显不足。
面对诸多挑战,我们将如何应对?2019年3月15日,主题为“人工智能安全”的第九期网络安全创新发展高端论坛将在上海(新锦江大酒店4F白玉兰厅)召开。届时,相关管理部门、科研机构、企业单位等权威专家将展开深入研讨。
扫码报名
声明:本文来自国信安全研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。