随着人工智能(AI)技术的飞速发展,其在各个领域的应用日益广泛,航空领域也不例外。然而,AI在航空系统中的应用带来了新的挑战与机遇。为了确保AI技术在航空领域的安全应用,联邦航空管理局(FAA)于2024年7月发布了《人工智能安全保证路线图》(Roadmap for Artificial Intelligence Safety Assurance),这是一份长达31页的文件,概述了美国航空安全监管机构在航空领域安全整合新型人工智能技术(AI)的方法。根据该策略文件,除了确保人工智能安全之外,FAA还寻求确定人工智能使该行业更加安全的方法。本文将对这一路线图进行深入解读,探讨其背后的原则、目标、行动计划及未来展望。

一、背景与意义

近年来,AI技术的快速发展为航空领域带来了前所未有的创新潜力。从离线应用到过程控制,再到飞机自主飞行,AI技术展现出强大的应用前景。然而,由于AI系统通常通过学习而非传统设计方式实现其性能,这使其在安全保证方面面临巨大挑战。传统航空安全保证技术基于设计者能够全面解释系统设计的每一个方面,但这一方法并不适用于AI系统。因此,如何确保AI在航空中的安全应用成为亟待解决的问题。

在制定人工智能路线图时,FAA咨询了行业官员和其他监管机构,包括欧洲航空安全局(EASA),后者于2020年发布了首份人工智能路线图。2023年5月,EASA发布了经过修订和扩展的《人工智能路线图2.0》,今年该机构又公布了一份概念文件,为打算对人工智能系统进行认证的公司提供了新的指导方针。

FAA在其人工智能路线图版本中,列出了一系列将指导其开发人工智能安全保障方法的核心原则。例如,它建议监管机构利用现有的航空安全要求,并采取循序渐进、以安全为重点的方法来实施人工智能,从降低风险的应用开始,如飞行员辅助系统,以减少工作量和机组人员数量。

该文件还明确了一些必须采取的关键行动,以实现人工智能的安全使用以及利用人工智能增强安全性。这些行动包括与行业和政府机构合作,对FAA员工进行人工智能技术的教育和培训,以及进行持续的研究以评估其安全保障方法的有效性。

EASA和FAA在路线图中的不同之处在于伦理考量。FAA的文件声明“人工智能的伦理使用不在本路线图的范围内”,而EASA在其版本中写道“也应考虑人工智能的责任、伦理、社会和社会维度”。据EASA称,伦理准则对于确保人工智能的可信度以及获得社会对航空领域乃至整个人工智能领域的接受至关重要。

尽管FAA的路线图没有直接提供任何伦理指导,但该文件提到了最近解决这一问题的立法,包括乔·拜登总统于2023年10月发布的第14110号行政命令(“人工智能的安全、有保障和可信赖的开发和使用”)。

FAA的文件指出:“本路线图是在一个更广泛、不断发展的国家框架内制定的,该框架旨在为人工智能的安全、有保障和可信赖的开发和使用建立规范,包括在适当的情况下在整个联邦政府范围内采用和监管人工智能。”

EASA的路线图预计了人工智能采用的各个阶段的时间表,从本十年的飞行员辅助和人机协作开始,到2050年左右全自动驾驶商用客机进入市场。然而,FAA的路线图没有对人工智能的采用速度或任何与人工智能相关的里程碑的时间进行推测。

FAA和EASA都将各自的路线图视为“活文件”,随着人工智能技术的进步,这些机构会定期对其进行更新。

二、指导原则

该路线图提出了一系列指导原则,旨在指导AI技术在航空中的安全保证工作。这些原则包括:

  1. 在航空生态系统中工作:利用现有的航空安全要求、流程和方法引入AI,确保其在结构严谨、风险受控的生态系统中运行。

  2. 聚焦安全保证和安全增强:将AI开发集中于AI的安全保证以及利用AI提高安全性,同时确保考虑伦理因素。

  3. 避免拟人化:将AI视为工具而非人类,避免使用人类中心化的语言,明确AI的角色和局限性。

  4. 区分学习和已学习AI:为学习和已学习的AI实现制定不同的安全保证方法。

  5. 采取渐进式方法:在航空中逐步引入AI,通过实际应用和经验不断改进安全保证方法。

  6. 利用安全连续体:从低风险应用到高风险应用,逐步积累经验,提高安全保证水平。

  7. 利用行业标准:采用行业共识标准,促进全球监管协调,并适应技术变化。

这些原则为AI在航空领域的安全应用提供了明确的方向和框架。

三、目标与行动计划

目标

该路线图的主要目标包括:

  1. 建立指导原则:为航空中的人工智能安全保证建立指导原则。

  2. 制定优先事项和计划:为AI在航空中的安全引入制定优先事项和计划。

这些目标旨在确保AI技术在航空领域的应用既安全又高效。

行动计划

为实现上述目标,路线图提出了五个关键领域的行动计划:

  1. 协作:与行业、政府、国际民航组织(ICAO)以及其他国内外相关利益方建立长期合作关系,共同开发全球统一的AI安全保证方法。

  2. FAA员工准备:增强FAA员工在AI技术设计和集成方面的知识和经验,以便有效监督航空中的AI技术应用。

  3. 确保AI的安全:针对AI的独特挑战,开发和适应特定的安全保证方法,确保应用于飞机的任何AI系统都是安全的。

  4. 利用AI提高安全性:利用AI改进安全生命周期流程,包括监测、系统开发和测试等,以提高航空安全。

  5. 航空安全研究:开展针对性研究,以开发和评估AI系统的安全保证方法,并探索利用AI提高整体航空安全性的途径。

四、现有应用与未来方向

现有应用

AI已经在航空领域的多个环节中得到应用,包括设计、生产、运营、维护和退役阶段。例如,在设计阶段,AI可用于模型生成和数据标注;在生产阶段,AI可用于质量控制和生产线故障检测;在运营阶段,AI可支持飞行操作、培训和场景预测等。这些应用展示了AI在航空领域的广泛潜力和价值。

未来方向

未来,随着AI技术的不断进步和应用经验的积累,AI在航空领域的应用将更加广泛和深入。具体来说,以下方面值得关注:

  1. 渐进式引入:通过从低风险应用到高风险应用的逐步引入,积累经验并不断改进安全保证方法。

  2. 标准制定与协调:参与行业共识标准的制定和推广,促进全球监管协调,确保AI技术在全球范围内的安全应用。

  3. 技术研发与创新:加大对AI技术研发的投入,推动技术创新和突破,解决现有技术瓶颈和挑战。

  4. 跨学科合作:加强与其他领域(如计算机科学、数学、工程学等)的合作与交流,共同推动AI技术在航空领域的发展和应用。

五、挑战与应对

尽管AI在航空领域的应用前景广阔,但仍面临诸多挑战。这些挑战包括:

  1. 技术复杂性:AI系统的复杂性和不确定性给安全保证带来巨大挑战。需要开发新的安全保证方法和技术手段来应对这些挑战。

  2. 伦理与法律问题:AI技术的应用可能引发伦理和法律问题。需要制定相关法规和标准来规范AI技术的使用并确保其符合伦理和法律要求。

  3. 人才短缺:随着AI技术的快速发展和应用领域的不断拓展,对具备跨学科知识和实践经验的专业人才需求日益增加。需要加大对人才培养和引进的投入力度以满足行业需求。

针对这些挑战,该路线图提出了一系列应对措施和建议,旨在通过加强技术研发、制定行业标准和培养专业人才等方式来推动AI技术在航空领域的安全应用和发展。

六、结论与展望

《人工智能安全保证路线图》为AI技术在航空领域的安全应用提供了明确的方向和框架。通过遵循指导原则、制定优先事项和计划以及实施关键行动计划等措施,该路线图旨在确保AI技术在航空领域的安全引入和应用。未来,随着AI技术的不断进步和应用经验的积累以及跨学科合作的加强和深化以及全球监管协调的推进和完善以及专业人才培养和引进力度的加大以及行业标准和法规的制定和完善等努力与进展的实现与推动,AI技术在航空领域的应用将更加广泛和深入,为航空业的可持续发展提供有力支撑。

https://www.faa.gov/aircraft/air_cert/step/roadmap_for_AI_safety_assurance

声明:本文来自清华大学智能法治研究院,版权归作者所有。文章内容仅代表作者独立观点,不代表安全内参立场,转载目的在于传递更多信息。如有侵权,请联系 anquanneican@163.com。