摘要
民用飞机航电系统引入人工智能/机器学习技术会带来可信性、不确定性和可解释性等问题,有必要通过有效的符合性方法向公众与利益攸关方证实智能航电系统的适航安全性。首先,分析了智能航电系统的等级分类和应用现状,阐述了现有指南和标准的适用性;然后,基于对当前研究成果的梳理,总结了智能航电系统认证框架实施流程及其技术细节;最后,给出智能航电系统在全生命周期各个阶段的符合性验证要求及实现方法建议,评估了符合性验证对现有适航体系的影响,为民用飞机智能航电系统的设计与认证提供了参考依据。
随着大数据时代的到来和计算机性能的飞跃式发展,人工智能/机器学习(Artificial Intelli-gence/Machine Learning,简称AI/ML)技术在诸多领域的应用都进入了爆发式增长的新阶段,是新一轮科技革命和产业变革的重要驱动力
AI/ML技术快速发展的态势给民用航空领域带来重大机遇的同时也带来了前所未有的挑战。由于智能航电系统缺乏令人信服的可追溯性架构与指导性标准,导致其在民用飞机上的实际应用落地较为困难,无法利用传统方法表明智能航电系统满足适航要求。因此,如何从技术可靠性和可信性等方面向公众与利益攸关方证实AI/ML技术的适航安全性,是民用航空工业从自动化发展体系向智能化发展体系过渡需要解决的关键问题,也是采用智能航电系统的民用飞机进入市场的重要前提。
为此,本文在分析智能航电系统的等级分类和应用现状的基础上,阐述现有指南和标准的适用性,总结智能航电系统认证框架的实施流程、技术细节及其研究进展,给出智能航电系统在全生命周期各阶段的适航符合性验证要求及实现方法建议。
人工智能之父J.McCarthy对AI的定义是:“制造智能机器的科学与工程,特别是智能计算机程序

图1 人工智能、机器学习和深度学习的关系
Fig.1 Relationship of AI, ML and DL
航电系统是现代民用飞机的关键组成部分,主要功能是在飞机运行时完成信息采集、任务管理和导航引导等基本飞行过程,为飞行机组提供人机接口,确保飞行机组的态势感知和飞机系统管控能力,使得飞行机组能够及时、有效的管理和控制飞机安全、可靠地按照预定航迹飞
对智能航电系统的定义包含两方面:一是基于人工智能技术提升飞机任务能力的航电系统;二是对人工智能技术应用友好且支持动态学习进化的航电系统。智能航电系统的分层映射关系如

图2 智能航电系统的分层映射关系
Fig.2 Hierarchical mapping relationship of AI-based avionics system
智能航电系统的概念与综合模块化航电系统(Integrated Modular Avionics,简称IMA)的概念并不冲突,综合式架构组成资源层为智能航电系统提供了发挥的基础。
中国商用飞机有限责任公司于2020年“十四五”规划中提出了“有人监督模式下的大型客机自主飞行技术研究”技术指南,对短期、中期、长期3个阶段的研究方向予以指
智能飞行阶 | 研究方向描述 | 自主等级 | 系统功能分配方 |
---|---|---|---|
辅助智能飞行阶段 (2020—2025年) | 增强飞机综合感知能力,实现全飞行场景的机组决策辅助,改善机组操作负荷,实现全飞行阶段的自动驾驶 | 1A级 对人的辅助 | 信息获取和分析的自动化支持 |
增强智能飞行阶段 (2025—2035年) | 基于实时空地信息交互,具备完善的飞机全势态感知能力,实现在机组监督下的自主运行,实现单一飞行员驾驶 |
1B级 对人的协助 | 在决策和行动选择方面对飞行员的认知协助 |
2级 人机协作 | 飞行员能够密切监督分配给AI系统的功能,具备干预人工智能系统决策和/或运行的能力 | ||
3A级 部分自主 | 飞行员具备监督AI系统运行的能力,当需要确保运行安全时,能够超越AI系统的权威进行决策 | ||
完全智能飞行阶段 (2035—2050年) | 基于空天地一体的信息融合平台,实现对复杂飞行情景的完整理解,实现满足人类弹性需求的全自主飞行 |
3B级 完全自主 | 飞行员不具备干预AI系统决策和/或运行的 能力 |
早在1993年,美国联邦航空管理局(Federal Aviation Administration,简称FAA)飞行安全研究处的L.H.Harrison

(a) 智能飞控系统飞行测

(b) Alpha空战格斗比

(c) 基于图像识别的自主起

(d) 波音公司忠诚僚机首

(e) 黑鹰直升机自主飞

(f) TP500运输机首
图3 典型智能航电系统应用
Fig.3 Typical AI-based avionics system applications
伴随着相关研究持续开展,越来越多的航电系统有望具备先验知识储备、学习、认知和自适应等能
领域 | 子领域 | 学习类型 | 自主等级 | 失效状态类型 | 认证要求 | 认证经验 |
---|---|---|---|---|---|---|
飞行自动化 | 完全自主飞行 | 在线 | 3B | 灾难性的 | 强制 | 无经验 |
感知与规避 | 离线 | 3A/B | 灾难性的 | 强制 | 无经验 | |
视觉导航 | 离线 | 3A/B | 灾难性的 | 强制 | 有部分经验 | |
部分任务自动化 | 离线 | 3A | 灾难性的 | 强制 | 有部分经验 | |
自适应飞行员辅助 | 在线 | 1A/B | 无安全影响 | 推荐 | N/A | |
基于规则的飞行员辅助 | 离线 | 1A | 无安全影响 | 推荐 | N/A | |
飞行控制 | 自适应控制器 | 在线 | 3B | 灾难性的 | 强制 | 无经验 |
高效控制器 | 离线 | 3B | 灾难性的 | 强制 | 有部分经验 | |
自然语言处理 | 自主处理空管呼叫 | 离线 | 3A/B | 灾难性的 | 强制 | 无经验 |
协助处理空管呼叫 | 离线 | 3A | 轻微的 | 强制 | 无经验 | |
驾驶舱语音控制 | 离线 | 2 | 重大的 | 强制 | 有部分经验 | |
高级语音建议 | 离线 | 1A | 轻微的 | 推荐 | N/A | |
客舱语音控制 | 离线 | 1A | 无安全影响 | 不要求 | N/A | |
网络安保 | 异常检测 | 在线 | 1A/B | 无安全影响 | 不要求 | N/A |
自主对抗措施 | 在线 | 2-3A/B | 无安全影响 | 强制 | 无经验 | |
故障预测 | 在线学习预测 | 在线 | 1B | 无安全影响 | 不要求 | 无经验 |
预训练预测 | 离线 | 1B | 无安全影响 | 不要求 | N/A |
以往,以ARP4754A、ARP4761及DO-178C等为代表的研制过程指南对提高机载产品的质量起到很好的引导作用。这些指南旨在通过对研制过程的控制尽早发现并剔除设计错误,为获取航电系统的安全性需求以及判断软、硬件的适航符合性提供了重要准则,并被公认为行业最优的实践方
SAE ARP4754
RTCA DO-178
RTCA DO-200
ISO/PAS 2144
2014年,时任FAA飞机计算机软件首席科学与技术顾问的Mike Dewalt提出了“技术独立保证方法”(Technology Independent Assurance Method,简称TIAM
①设计意图:就所需的系统行为而言,定义的预期功能是正确和完整的;
②正确性:在可预见的使用条件下,就其定义的预期功能而言,系统实现是正确的;
③无害性:超出系统预期行为之外的实现不会产生不可接受的安全影响。
可以看出,总体属性的思想适用于解决智能航电系统认证过程中面临的一系列问题,但目前的研究成果过于抽象,总体属性还无法作为完整且可操作的符合性验证方法。如果可以在实践中进一步细化,总体属性将会是智能航电系统可以考虑的认证框架。
与FAA的“总体属性”不同,2019年EASA提出了“抽象层”的概
综上所述,FAA和EASA已经为航电系统引入AI/ML提供了开放性的解决方案,但仍需要在现有适航体系的基础上,进一步更新和补充标准化认证框

图4 智能航电系统认证框架
Fig.4 Certification framework for AI-based avionics system
在AI的应用潜力得到广泛认可的同时,大量研究也指出“可信”是AI赋能行业应用的必要前提。AI/ML技术在安全关键系统中的错误预测已经产生了人们无法承受的后果,例如优步自动驾驶汽车未能及时识别路上行人而致其死亡,IBM Watson医疗中心对癌症患者给出的错误诊断等案例。在这样的背景下,针对AI/ML系统的可信度分析在学术界被广泛讨论,已成为备受关注的研究热
可信度分析从宏观方向上指导AI/ML系统向着可信的方向发展,主要关注两个原则:一是功能性原则,要求AI/ML系统在技术和功能上可信,即要求AI模型具有较高的准确率、泛化性等,这是AI/ML系统应用的共识前提;二是伦理性原则,即AI决策在保证系统性能准确的前提下,应符合人类社会的道德伦理准则和法律法规,才能得到人类的信
为了尽可能扩大人工智能的收益并降低其风险,全球已经制定了近100项可信AI伦理准则来应对人工智能的信任危机。具有代表性的可信AI伦理准则如
关键词原则 | 可信AI伦理准则 | |||||
---|---|---|---|---|---|---|
① | ② | ③ | ④ | ⑤ | ⑥ | |
安全与隐私 | √ | √ | √ | √ | √ | √ |
可问责性 | √ | √ | √ | √ | √ | √ |
可解释性 | √ | √ | √ | √ | √ | √ |
公平与偏见 | √ | √ | √ | √ | √ | |
鲁棒性 | √ | √ | √ | √ | ||
自主性 | √ | √ | √ | |||
可追溯性 | √ | √ | √ | √ |
注: ①2017 生命未来研究所《阿西洛马人工智能准则
在民用航空领域,EASA已经基于《可信人工智能的伦理准则》明确了智能航电系统全生命周期内的三个重要可信支柱,即合法性、遵守伦理原则和技术鲁棒
对智能航电系统的可信度分析将产生功能性与非功能性系统需求以及应实现和验证的组织需求。智能航电系统的认证框架应从可信度分析出发,通过后续的安全性评估、安全风险缓解和认证/批准活动对可信AI伦理准则的关注要素给出具体实施方法。
民用飞机系统安全性评估是在整机及机载系统研制过程中确定定性和定量的安全性目标,并采用相应的分析与评估技术来证明已达到安全性目标的方
根据D.Amodei
对于智能航电系统,至少需要与传统航电系统保持相同的安全性水平,引入AI/ML技术不应对人员和财产造成更高的风险。系统设计阶段的智能航电系统安全性评估流程如

图5 AI/ML系统的安全性评估流
Fig.5 Safety assessment process for AI/ML syste
ConOps是AI/ML系统的运行概念,详细说明了系统应该如何运行,重点放在运行设计域(Operational Design Domain,简称ODD)的构建以及特定运行限制和假设的捕获上。一个ODD是符合一个或一组场景描述的参数集合,明确了系统正常运行的条件及约束,AI/ML系统只允许在其ODD中运
随着航电系统复杂程度和智能化的不断提高,设计一个完全具备鲁棒性和可解释性的智能航电系统是不切实际的,现有方法不能保证AI/ML组件在系统的整个生命周期中不会发生失效或故障。为了保持系统尽可能运行在预期的范围内,可以采用安全风险缓解(Safety Risk Mitigation,简称SRM)将剩余安全风险降低到可接受的水平。
运行时保证(Runtime Assurance,简称RTA)是一种典型的SRM技术,其主要思想是用监控模块和控制模块包围不安全的AI/ML组件。监控模块对系统复杂功能的输入输出和内部状态变量进行检测,以此判断系统是否在正常功能域内运行。若系统在运行时检测到异常,RTA切换器将会进行重新配置,用备用功能代替异常的复杂功能,以保证影响飞行安全的功能正常运

图6 典型运行时保证架
Fig.6 Typical runtime assurance architectur
2020年,J.D.Schierman
智能航电系统的认证/批准活动是作为可能适用的符合性方法提出的,覆盖智能航电系统生命周期的一个或多个阶段。认证/批准活动的深度可以根据智能航电系统采用的系统架构、人工智能技术的复杂度和分配的研制保证等级灵活调整,各项活动的研究进展分述如下。
1) 学习保证
在当前的监管框架下,系统、设备和部件的安全风险主要通过基于需求的研制保证过程来控制。但智能航电系统研制过程的最大挑战是确保采样数据集的训练能够在未知运行数据上以足够的性能进行泛化,因此需要将保证的重点转移到对数据的正确性、完整性、代表性以及学习过程的验证层面。虽然近年来有部分研究定义了面向AI/ML系统开发的生命周期过程,但大多数都不具备足够的细节以支持航空领域的认证/批准活

图7 EASA提出的W型学习保证流
Fig.7 The W-shaped learning assurance process proposed by EAS
美国航空航天飞行器系统研究所(Aerospace Vehicle Systems Institute,简称AVSI)也于2020年提出了一个考虑ML系统认证的开发流程,与W流程相比有一定的相似之处,但也有一些差异值得注意:①两个流程对数据集的命名规则不同;②ML系统开发流程中对范式选择和范式验证的关注并未在W型学习保证流程中体现;③尽管ML系统开发流程的重点是数据集的管理,但并未明确提及W型学习保证流程中针对独立数据的验证活

图8 WG-114/G-34工作组提出的ML系统开发生命周
Fig.8 ML system development lifecycle proposed by WG-114/G-34 working grou
2) 可解释性分析
2016年,美国国防高级研究计划局在其可解释人工智能研究计划中首次较为完整和明确地阐述了关于AI可解释性的概念,即一整套能够产生更多可解释模型,能够维持高水平学习性能,能够使用户理解、信任和有效管理AI的机器学习技
对智能航电系统的认证需要可解释性分析的支持,这不仅能增加系统研制人员对AI/ML模型决策的理解与信任,也能帮助诊断出影响模型性能的因素,加以改进,进一步提升模型性
在学术领域,对AI/ML可解释性的研究也逐渐增多。2018年,Zhang Y F
3) 形式化方法
形式化方法是一种建立在严格数学模型基础上的用于设计、规范和验证的方法,广泛地应用在软硬件、通信协议、嵌入式控制系统等方
目前,AI/ML领域的形式化方法也引起了学术界和工业界的高度关注。2018年,N.Fulton
4) 测 试
在民用航空领域,智能航电系统的错误行为可能会导致无法挽回的严重后果。因此,对智能航电系统进行充分的测试以尽可能地避免错误行为是必要的。虽然传统机载软件测试技术已经日趋成熟,但由于AI/ML技术与传统软件之间存在本质区别,传统软件测试技术无法直接应用于智能航电系统的测试中。对智能航电系统的测试需要把更多的注意力放到AI/ML模型神经元本身的状态以及神经元之间的互动关系上,目标是找出智能航电系统运行时的错误行为并及时改
2018年,Sun Y
5) 许 可
NASA于2015年发布的《自适应系统认证注意事项
①许可将更多的注意力集中在系统的实际性能上,而不是像DO-178C过多地关注于开发过程和提供符合性证据;
②一旦高保真仿真技术发展到足以培训和测试智能航电系统时,通过许可的方法能在很大程度上降低认证新系统或修订系统的成本;
③传统认证的无错误保证使得系统研制人员不会继续测试或验证已通过认证的航电系统,而经过许可认证的智能航电系统会有可靠的性能记录,通过适当的立法能够使系统研制者免除相应法律责任,使得研制人员在系统取得认证后仍然能及时纠正可能存在的缺陷。
2019年,J.Nuñez
局方适航管理的基本原则是以适航规章的形式提出适航技术和管理要求,但不限定表明适航符合性的方法。目前适航管理程序已经对常用的符合性方法进行了分类,随着机载产品从简单到复杂的变化,申请人需根据产品特点选取其中的一种或多种组合的方式来表明符合性,如有更为明确完整的符合性方法定义与说明,亦可作为符合性审定计划的一部
符合性验证要求 | 需考虑的注意事项 |
---|---|
安全性评估 |
应考虑飞行员与AI/ML系统的权限分配、人机交互,并在ODD中描述运行方案 应根据ConOps进行功能危害性评估 应对AI/ML系统架构进行分析,确保其符合安全目标 应生成安全性需求,包括满足安全目标和系统架构的独立性需求 应给AI/ML组件分配合理的研制保证级别 应分析和减轻AI/ML组件暴露于ODD之外的输入数据造成的影响 应建立AI/ML组件失效分类,评估可能的失效模式和相关的检测手段 应在安全性分析过程中考虑AI/ML的概率性质,相关架构缓解措施应向下延伸至应用阶段 |
数据选择和验证 |
考虑到数据驱动学习过程的特殊性,数据质量需求应从正确性、完整性、代表性、公平性、独立性、可追溯性和及时性等方面进行描述 应根据数据和ODD的特征,使用合适的方法实现数据归一化 应定义不同数据集及其数据的配置管理过程和活动 当数据集质量属性可能被改变时应考虑工具鉴定,包括合成的/增强的数据或自动标记 应保护数据集管理环境,以避免训练集中毒和对抗性攻击 |
模型选择、训练 与验证 |
应确保选择合适的网络模型架构,包括模型拓扑、层数和每层节点数等 应描述训练过程中关键要素的选择和验证,包括算法、成本函数、参数以及超参数等 应记录模型训练损失函数和误差度量的训练曲线,还应记录具有验证数据集的模型性能 应定义模型训练阶段的停止标准 应根据分配给AI/ML组件的研制保证等级确定模型解释的详细程度 应确保模型训练过程符合AI/ML系统功能和性能要求的可重复性 应根据测试数据集对训练模型的性能进行评估,并将结果反馈至安全评估过程 对训练模型行为应进行基于需求的验证,建议采用基于需求的测试和鲁棒性测试方法 |
AI/ML系统实现 |
应确定目标环境中的实现模型与在模型选择、训练和验证环境中的执行模型之间的差异 应识别实现过程中模型转换、优化和部署的步骤,并确认不会对模型行为和性能产生影响 传统软件开发的可追溯性和人工验证手段无法支持AI/ML系统实现过程中的意外特性检测,应建立新的替代方法 |
AI/ML系统验证 |
应在捕获模型属性的基础上,使用特定的验证方法(如形式化方法)表明模型实现中的转换没有改变模型属性 传统软件结构的覆盖度量指标不再适用于AI/ML系统测试,应建立新的覆盖性测试指标,例如输入数据空间覆盖率、节点覆盖率等 应根据测试数据集对推理模型的性能进行评估,并将结果反馈至安全评估过程 应对推理模型行为进行基于需求的验证,建议采用基于需求的测试和鲁棒性测试方法 应对推理模型的鲁棒性进行分析,异常范围测试和对抗性测试是实现这一目标的必要手段 |
运行与维护 |
应监控AI/ML组件的输出,通过安全风险缓解措施对AI/ML系统进行钝化恢复 AI/ML系统应具备数据记录能力,应包含足够的信息以检测AI/ML系统预期行为的偏差或重建发生故障前的系统运行情况 应将服役历史数据提供给AI/ML系统制造商,以便对训练、测试和验证数据集进行迭代更新 |
现有的行业标准和指南也可以作为智能航电系统适航符合性的补充方法,以增强申请人及局方对智能机载产品的信心。
在研制智能航电系统时,现行系统及软硬件的研制保证符合性方法不足以处理ML学习过程的特殊性,需要通过2.4节1)中的学习保证流程加以补充。同时,对于AI/ML的可解释性也有必要根据2.4节2)中的认证活动补充新的符合性方法,但1A级的智能航电系统只需要参考人为因素认证指南就可以获得足够的符合性方法,更高级别的AI应用将在后续阶段进一步展开研究。
在航空运营方面,当前的监管框架允许引入AI/ML解决方案,欧盟委员会条例(EU No.965/2012
从权威航空安全机构、科研组织以及领军企业对智能航电系统认证研究的广泛关注和初步应用来看,此领域将会是航空工业在新一轮科技革命和产业变革中需重点攻克的难点问题之一。FAA和EASA已经为航电系统引入AI/ML提供了开放性的解决方案,但仍需要在现有适航体系的基础上,进一步更新和补充标准化认证框架。
后续的工作需要牢牢把握未来航电系统的智能化趋势,探索现有技术应用落地的方式、形态和能力边界等。应积极借鉴和结合汽车及轨道领域的最新研究成果,采取多专业参与、多方法并举的手段支持智能航电系统全生命周期的符合性验证工作,从而提高智能航电系统的可信性和安全性。
参考文献
李文捷. 习近平关于人工智能重要论述研究[D]. 南昌: 江西财经大学, 2021. [百度学术]
LI Wenjie. Research on XI Jinping's important expositions on artificial intelligence[D]. Nanchang: Jiangxi University of Finance and Economics, 2021.(in Chinese) [百度学术]
Office of the Chief Scientist. Autonomous horizons: the way forward[R]. Washington, DC.: United Sates Air Force, 2019. [百度学术]
EASA. Artificial intelligence roadmap 1.0: A human- centric approach to AI in aviation[R]. Cologne: European Union Aviation Safety Agency, 2020. [百度学术]
EASA. Concepts of design assurance for neural networks (CoDANN)[R]. Cologne: European Union Aviation Safety Agency, 2020. [百度学术]
AVSI. Final report AFE 87-machine learning[R]. Texas: Aerospace Vehicle Systems Institute, 2020. [百度学术]
DEEL. White paper machine learning in certified systems[R]. US: Dependable & Explainable Learning, 2021. [百度学术]
SAE. Artificial intelligence in aeronautical systems: statement of concerns: AIR6988[S]. Pittsburgh: Society of Automotive Engineers, 2021. [百度学术]
FORSBERG H, LINDÉN J, HJORTH J, et al. Challenges in using neural networks in safety-critical applications[C]∥ 2020 AIAA/IEEE 39th Digital Avionics Systems Conference (DASC). US: IEEE, 2020: 1-7. [百度学术]
卢新来, 杜子亮, 许赟. 航空人工智能概念与应用发展综述[J]. 航空学报, 2021, 42(4): 251-264. [百度学术]
LU Xinlai, DU Ziliang, XU Yun. Review on basic concept and applications for artificial intelligence in aviation[J]. Acta Aeronautica et Astronautica Sinica, 2021, 42(4): 251-264.(in Chinese) [百度学术]
冯正霖. 以智慧塑造民航业的全新未来[N/OL]. 中国民航报, 2019-05-20(1). [百度学术]
FENG Zhenglin. Shape the new future of civil aviation industry with wisdom[N/OL]. CAAC NEWS, 2019-05-20(1).(in Chinese) [百度学术]
McCARTHY J. What is artificial intelligence[J/OL]. (2007-11-12)[2022-05-30]. URL: http:∥jmc.stanford.edu/articles/whatisai.html. [百度学术]
王国庆. 航空电子系统综合化与综合技术[M]. 上海: 上海交通大学出版社, 2019. [百度学术]
WANG Guoqing. Principles and techniques of avionics system integration[M]. Shanghai: Shanghai Jiao Tong University Press, 2019.(in Chinese) [百度学术]
张菁, 何友, 邓瑛, 等. 战斗机智能航电系统[J]. 航空计算技术, 2018, 48(4): 125-129. [百度学术]
ZHANG Jing, HE You, DENG Ying, et al. Artificial intelligence based avionics system for fighters[J]. Aeronautical Computing Technique, 2018, 48(4): 125-129.(in Chinese) [百度学术]
KLOS L, EDWARDS J, DAVIS J. Artificial intelligence-an implementation approach for advanced avionics[C]∥ 4th Computers in Aerospace Conference. Hartford, CT, USA: AIAA, 1983: 2401. [百度学术]
STENERSON R O. The workstation: integtating AI into avionics engineering environment[J]. Computer, 1986, 19(2): 88-91. [百度学术]
杨志刚, 张炯, 李博, 等. 民用飞机智能飞行技术综述[J]. 航空学报, 2021, 42(4): 265-274. [百度学术]
YANG Zhigang, ZHANG Jiong, LI Bo, et al. Reviews on intelligent technology of civil aircraft[J]. Acta Aeronautica et Astronautica Sinica, 2021, 42(4): 265-274.(in Chinese) [百度学术]
ROBERT P. NASA aeronautics strategic implementation plan[R]. Washington, DC.: NASA Aeronautics Research Mission Directorate, 2020. [百度学术]
YIN J, ZHU Z. Flight autonomy impact to the future avionics architecture[C]∥ 2018 IEEE/AIAA 37th Digital Avionics Systems Conference (DASC). USA: IEEE, 2018: 1-7. [百度学术]
HARRISON L H, SAUNDERS P J, SARACENI P J. Artificial intelligence and expert systems for avionics[C]∥ AIAA/IEEE Digital Avionics Systems Conference. USA: IEEE, 1993: 167-172. [百度学术]
RTCA. Software considerations in airborne systems and equipment certification: DO-178B[S]. Washington, DC.: Radio Technical Commission for Aeronautics, 1992. [百度学术]
NASA. NASA armstrong fact sheet: intelligent flight control system[EB/OL]. (2014-03-01) [2022-05-30]. https:∥www.nasa.gov/centers/armstrong/news/FactSheets/FS-076-DFRC.html. [百度学术]
DARPA. Alpha dogfight trials foreshadow future of human-machine symbiosis[EB/OL]. (2020-08-26) [2022-05-30]. https:∥www.darpa.mil/news-events/2020-08-26. [百度学术]
Airbus. Airbus demonstrates first fully automatic vision-based take-off [EB/OL]. (2020-01-16) [2022-05-30]. https:∥www.airbus.com/en/newsroom/press-releases/2020-01-airbus-demonstrates-first-fully-automatic-vision-based-take-off. [百度学术]
Boeing. Boeing loyal wingman uncrewed aircraft completes first flight[EB/OL]. (2021-03-01) [2022-05-30]. https:∥boeing.mediaroom.com/news-releases-statements?item=130834. [百度学术]
DARPA. Safe, reliable, and uninhabited: first autonomous BLACK HAWK helicopter flight[EB/OL]. (2022-02-08)[2022-05-30]. https:∥www.lockheedmartin.com/en- us/news/features/2022/safe-reliable-and-uninhabited-first-autonomous-black-hawk-flight.html. [百度学术]
中国航空工业集团公司. 国产大型无人运输机TP500首飞成功[EB/OL]. (2022-06-24) [2022-05-30]. https:∥www.avic.com/c/2022-06-24/565096.shtml. [百度学术]
Aviation Industry Corporation of China, Ltd. Successful first flight of domestic large unmanned transport aircraft TP500[EB/OL]. (2022-06-24)[2022-05-30]. https:∥www.avic.com/c/2022-06-24/565096.shtml.(in Chinese) [百度学术]
SCHWEIGER A, ANNIGHOEFER B, REICH M, et al. Classification for avionics capabilities enabled by artificial intelligence[C]∥ 2021 IEEE/AIAA 40th Digital Avionics Systems Conference (DASC). USA: IEEE, 2021: 1-10. [百度学术]
田莉蓉. 适航符合性方法发展综述[J]. 航空计算技术, 2019, 49(5): 121-124. [百度学术]
TIAN Lirong. Evolution of MOC for airworthiness[J]. Aeronautical Computing Technique, 2019, 49(5): 121-124.(in Chinese) [百度学术]
WELD D S, BANSAL G. The challenge of crafting intelligible intelligence[J]. Communications of the ACM, 2019, 62(6): 70-79. [百度学术]
KESKINBORA K H. Medical ethics considerations on artificial intelligence[J]. Journal of Clinical Neuroscience, 2019, 64: 277-282. [百度学术]
CHALLEN R, DENNY J, PITT M, et al. Artificial intelligence, bias and clinical safety[J]. BMJ Quality & Safety, 2019, 28(3): 231-237. [百度学术]
CHEN T, LIU J, XIANG Y, et al. Adversarial attack and defense in reinforcement learning from AI security view[J]. Cybersecurity, 2019, 2(1): 1-22. [百度学术]
SAE. Guidelines for development of civil aircraft and systems: ARP4754A[S]. Society of Automotive Engineers, 2010. [百度学术]
SAE. Guidelines and methods for conducting the safety assessment process on civil airborne systems and equipment: ARP4761[S]. US: Society of Automotive Engineers, 2004. [百度学术]
RTCA. Software considerations in airborne systems and equipment certification: DO-178C[S]. Washington, DC.: Radio Technical Commission for Aeronautics, 2011. [百度学术]
RTCA. Standards for processing aeronautical data: DO-200B[S]. Washington, DC.: Radio Technical Commission for Aeronautics, 2015. [百度学术]
ISO. Road vehicles-safety of the intend-ed functionality: ISO/PAS 21448[S]. Geneva: International Organization for Standardization, 2019. [百度学术]
ISO. Road vehicles-functional safety: ISO 26262[S]. Geneva: International Organization for Standardization, 2011. [百度学术]
DeWALt M, McCORMICK G F. Technology independent assurance method[C]∥ 2014 IEEE/AIAA 33rd Digital Avionics Systems Conference (DASC). US: IEEE, 2014: 1-14. [百度学术]
FAA. Understanding the overarching properties: first steps[R]. Washington, DC.: Federal Aviation Administration, 2018. [百度学术]
NASA. An introduction to constructing and assessing overarching properties related arguments[R]. Washington, DC.: NASA Aeronautics Research Mission Directorate, 2022. [百度学术]
EASA. Task force software (SW) & airborne electronic hardware (AEH) “Abstraction Layer”[EB/OL]. (2022-04-26)[2022-05-30]. https:∥www.youtube.com/watch?v=55n1hCFtigw. [百度学术]
INSAURRALDE C C. Artificial intelligence engineering for aerospace applications[C]∥ 2020 AIAA/IEEE 39th Digital Avionics Systems Conference (DASC). US: IEEE, 2020: 1-7. [百度学术]
YIN J. A conceptual intelligent aircraft system[C]∥ 2019 IEEE/AIAA 38th Digital Avionics Systems Conference (DASC). US: IEEE, 2019: 1-7. [百度学术]
刘文炎, 沈楚云, 王祥丰, 等.可信机器学习的公平性综述[J]. 软件学报, 2021, 32(5): 1404-1426. [百度学术]
LIU Wenyan, SHEN Chuyun, WANG Xiangfeng, et al. Survey on fairness in trustworthy machine learning[J]. Journal of Software, 2021, 32(5): 1404-1426.(in Chinese) [百度学术]
BARTNECK C, LÜTGE C, WAGNER A, et al. An introduction to ethics in robotics and AI[M]. Berlin: Springer Nature, 2021. [百度学术]
MORRIS A T, MADDALON J M, MINER P S. On the moral hazard of autonomy[C]∥ 2020 AIAA/IEEE 39th Digital Avionics Systems Conference (DASC). US: IEEE, 2020: 1-9. [百度学术]
李升. 论人工智能伦理准则的细化与完善[D]. 杭州: 浙江大学, 2020. [百度学术]
LI Sheng. On the refinement and perfection of the ethical codes of artificial intelligence[D]. Hangzhou: Zhejiang University, 2020.(in Chinese) [百度学术]
孔祥维, 王子明, 王明征, 等. 人工智能使能系统的可信决策: 进展与挑战[J]. 管理工程学报, 2022, 36(6): 1-14. [百度学术]
KONG Xiangwei, WANG Ziming, WANG Mingzheng, et al. Trustworthy decision-making in artificial intelligence-enabled systems: progress and challenges[J]. Journal of Industrial Engineering, 2022, 36(6): 1-14.(in Chinese) [百度学术]
FLI. Asilomar AI principle[R]. Boston: Future of Life Institute, 2017. [百度学术]
IEEE. Ethically aligned design[R]. New York: Institute of Electrical and Electronics Engineers, 2017. [百度学术]
AI HLEG. Draft ethics guidelines for trustworthy AI[R]. Brussels: The European Commission, High-Level Expert Group on Artificial Intelligence, 2019. [百度学术]
G20. AI principles[R]. Osaka: G20 Ministerial Statement on Trade and Digital Economy, 2019. [百度学术]
OSTP. Executive order on promoting the use of trust-worthy artificial intelligence in the federal government[R]. Washington, DC.: White House Office of Science and Technology Policy, 2020. [百度学术]
国家新一代人工智能治理专业委员会. 新一代人工智能伦理规范[R]. 北京: 中国科技部, 2021. [百度学术]
National New Generation Artificial Intelligence Governance Professional Committee. Ethical norms of the new generation of artificial intelligence[R]. Beijing: Ministry of Science of Technology, 2021.(in Chinese) [百度学术]
EASA. First usable guidance for level 1 machine learning applications[R]. Cologne: European Union Aviation Safety Agency, 2021. [百度学术]
AI HLEG. The assessment list on trustworthy artificial intelligence[R]. Cologne: European Union Aviation Safety Agency, 2021. [百度学术]
肖女娥, 阎芳, 王鹏. 基于安全论证的民机机载系统安全性评估[J]. 中国安全科学学报, 2019, 29(12): 72-77. [百度学术]
XIAO Nyu’e, YAN Fang, WANG Peng. Safety assessment of civil airborne system based on safety case[J]. China Safety Science Journal, 2019, 29(12): 72-77.(in Chinese) [百度学术]
修忠信. 民用飞机系统安全性设计与评估技术概论[M]. 2版. 上海: 上海交通大学出版社, 2018. [百度学术]
XIU Zhongxin. System safety design & assessment in civil aircraft[M]. 2nd ed. Shanghai: Shanghai Jiao Tong University Press, 2018.(in Chinese) [百度学术]
AMODEI D, OLAH C, STEINHARDT J, et al. Concrete problems in AI safety[EB/OL]. [2022-05-30]. https:∥www.researchgate.net/publication/304226143_Concrete_Problems_in_AI_Safety. [百度学术]
FARIA J M. Non-determinism and failure modes in ma-chine learning[C]∥ 2017 IEEE International Symposium on Software Reliability Engineering Workshops (ISSREW). US: IEEE, 2017: 310-316. [百度学术]
SMITH C, DENNEY E, PAI G. Hazard contribution modes of machine learning components[R]. Oak Ridge, TN, US: Oak Ridge National Lab, 2020. [百度学术]
COFER D. Unintended behavior in learning-enabled systems: detecting the unknown unknowns[C]∥ 2021 IEEE/AIAA 40th Digital Avionics Systems Conference (DASC). US: IEEE, 2021: 1-7. [百度学术]
ZHANG X, TAO J, TAN K, et al. Finding critical scenarios for automated driving systems: a systematic literature review[EB/OL]. [2022-05-30]. https:∥www.xueshufan.com/publication/3207563209. [百度学术]
FULLER J G. Run-time assurance: a rising technology[C]∥ 2020 AIAA/IEEE 39th Digital Avionics Systems Conference (DASC). USA: IEEE, 2020: 1-9. [百度学术]
ASTM. Standard practice for methods to safely bound flight behavior of unmanned aircraft systems containing complex functions: F3269-17[S]. West Conshohocken, PA: American Society of Testing Materials, 2017. [百度学术]
SCHIERMAN J D, DEVORE M D, RICHARDS N D, et al. Runtime assurance for autonomous aerospace systems[J]. Journal of Guidance, Control, and Dynamics, 2020, 43(12): 2205-2217. [百度学术]
COFER D, AMUNDSON I, SATTIGERI R, et al. Run-time assurance for learning-based aircraft taxiing[C]∥ 2020 AIAA/IEEE 39th Digital Avionics Systems Conference (DASC). US: IEEE, 2020: 1-9. [百度学术]
LAZARUS C, LOPEZ J G, KOCHENDERFER M J. Runtime safety assurance using reinforcement learning[C]∥ 2020 AIAA/IEEE 39th Digital Airborne Systems Conference (DASC). US: IEEE, 2020: 1-9. [百度学术]
WHEATMAN B, CHEN J, SOOKOOR T, et al. RADICS: runtime assurance of distributed intelligent control systems[C]∥ 2021 51st Annual IEEE/IFIP International Conference on Dependable Systems and Networks Workshops (DSN-W). US: IEEE, 2021: 182-187. [百度学术]
FAA. Verification of adaptive systems: DOT/FAA/TC-16/4[R]. Washington, DC.: Federal Aviation Administration, 2016. [百度学术]
ANSI. Safety standard for autonomous vehicles: UL 4600[S]. New York: American National Standards Institute, 2020. [百度学术]
Assuring Autonomy International Programme. Guidance on the assurance of machine learning in autonomous systems[R]. New York: AAIP, 2021. [百度学术]
ASAADI E, BELAND S, CHEN A, et al. Assured integration of machine learning-based autonomy on aviation plat-forms[C]∥ 2020 AIAA/IEEE 39th Digital Avionics Sys-tems Conference (DASC). USA: IEEE, 2020: 1-10. [百度学术]
TORENS C, DURAK U, DAUER J C. Guidelines and regulatory framework for machine learning in aviation[C]∥ AIAA Scitech 2022 Forum. [S.l.]: AIAA, 2022: 1132. [百度学术]
GABREAU C, PESQUET-POPESCU B, H F KAAKAI,et al. Artificial intelligence for future skies: on-going standardization activities to build the next certification/approval framework for airborne and ground aeronautic products[EB/OL]. [2022-05-30] https:∥dblp.org/rec/conf/ijcai/GabreauPKL21.html?view=bibtex. [百度学术]
GUNNING D, STEFIK M, CHOI J, et al. XAI-explainable artificial intelligence[J]. Science Robotics, 2019, 4(37): 7120-7128. [百度学术]
SUTTHITHATIP S, PERINPANAYAGAM S, ASLAM S, et al. Explainable AI in aerospace for enhanced system performance[C]∥ 2021 IEEE/AIAA 40th Digital Avionics Systems Conference (DASC). US: IEEE, 2021: 1-7. [百度学术]
ZHANG Y F, ZHANG Y, ZHANG M. SIGIR 2018 workshop on explainable recommendation and search (EARS 2018)[C]∥ The 41st International ACM SIGIR Conference on Research & Development in Information Retrieval. [S.l.: s.n.], 2018: 1411-1413. [百度学术]
LINARDATOS P, PAPASTEFANOPOULOS V, KOTSIANTIS S. Explainable AI: a review of machine learning interpretability methods[J]. Entropy, 2020, 23(1): 18-29. [百度学术]
雷霞, 罗雄麟. 深度学习可解释性研究综述[J]. 计算机应用, 2022, 42(11): 3588-3602. [百度学术]
LEI Xia, LUO Xionglin. Review on interpretability of deep learning[J]. Journal of Computer Applications, 2022, 42(11): 3588-3602.(in Chinese) [百度学术]
刘潇, 刘书洋, 庄韫恺, 等. 强化学习可解释性基础问题探索和方法综述[J]. 软件学报, 2023, 34(5): 2300-2316. [百度学术]
LIU Xiao, LIU Shuyang, ZHUANG Yunkai, et al. Explainable reinforcement learning: basic problems exploration and method survey[J]. Journal of Software, 2023, 34(5): 2300-2316.(in Chinese) [百度学术]
LEROY X. Formal verification of a realistic compiler[J]. Communications of the ACM, 2009, 52(7): 107-115. [百度学术]
RTCA. Formal methods supplement to DO-178C and DO-278A: DO-333[S]. Washington, DC.: Radio Tecnical Commission for Aeronautics, 2011. [百度学术]
刘友林, 郑巍, 谭莉娟, 等. 面向适航标准的机载软件测试验证工具综述[J]. 计算机工程与应用, 2021, 57(11): 1-10. [百度学术]
LIU Youlin, ZHENG Wei, TAN Lijuan, et al. Summary of airborne software testing and verification tools for airworthiness standards[J]. Computer Engineering and Applications, 2021, 57(11): 1-10.(in Chinese) [百度学术]
CCMB. Security assurance requirements (Version 2.3): common criteria for information technology security evaluation(Part 3)[S]. US: Common Criteria Maintenance Board, 2005. [百度学术]
FULTON N, PLATZER A. Safe reinforcement learning via formal methods: toward safe control through proof and learning[C]∥ Proceedings of the AAAI Conference on Artificial Intelligence. [S.l.]: AAAI, 2018: 1-10. [百度学术]
DREOSSI T, FREMONT D J, GHOSH S, et al. Verif AI: a toolkit for the formal design and analysis of artificial intelligence-based systems[C]∥ International Conference on Computer Aided Verification. Berlin: Springer, 2019: 432-442. [百度学术]
URBAN C, MINÉ A. A review of formal methods applied to machine learning[EB/OL]. (2021-03-21)[2022-05-30]. https:∥www.researchgate.net/publication/35067 3876_A_Review_of_Formal_Methods_applied_to_Machine_ Learning. [百度学术]
钱航. 深度神经网络测试覆盖率与对抗样本间的相关性研究[D]. 南京: 南京邮电大学, 2020. [百度学术]
QIAN Hang. Correlation between coverage and adversarial examples for deep neural networks[D]. Nanjing: Nanjing University of Posts and Telecommunications, 2020.(in Chinese) [百度学术]
SUN Y, HUANG X, KROENING D, et al. Testing deep neural networks[EB/OL]. (2018-07-04)[2022-05-30]. https:∥dl.acm.org/doi/pdf/10.1145/3426430.3434071. [百度学术]
PEI K, CAO Y, YANG J, et al. Deepxplore: automated whitebox testing of deep learning systems[J]. Mobile Computing and Communications Review, 2018, 22(3): 36-38. [百度学术]
SUN Y, HUANG X, KROENING D, et al. Deepconcolic: testing and debugging deep neural networks[C]∥ 2019 IEEE/ACM 41st International Conference on Software Engineering: Companion Proceedings (ICSE-Companion). USA: IEEE, 2019: 111-114. [百度学术]
NASA. Verification of adaptive systems: NASA/CR-2015-218702[R]. Washington, DC.: NASA Aeronautics Research Mission Directorate, 2015. [百度学术]
NUÑEZ J, GRANGER G, COLOMER A, et al. Cognitive Computing potential for cockpit operations[R]. USA: Harvis Project, 2019. [百度学术]
REGLI C, ANNIGHOEFER B. Towards certification of adaptive flight automation systems: a performance-based approach to establish trust[C]∥ 2022 IEEE/AIAA 41st Digital Avionics Systems Conference (DASC). [S.l.]: IEEE, 2022: 1-10. [百度学术]
董磊, 刘嘉琛, 赵长啸, 等. 显示触控系统人为因素适航符合性验证技术[J]. 中国安全科学学报, 2021, 31(2): 63-68. [百度学术]
DONG Lei, LIU Jiachen, ZHAO Changxiao, et al. Air-worthiness compliance verification technology of human factors in touch interactive display system[J]. China Safety Science Journal, 2021, 31(2): 63-68.(in Chinese) [百度学术]
中国民用航空局. 航空器型号合格审定程序: AP-21AA-2011-03-R4[S]. 北京: 中国民用航空局适航审定司, 2011. [百度学术]
CAAC. Type certification procedures for aircraft: AP-21AA-2011-03-R4[S]. Beijing: Airworthiness Certification Department of Civil Aviation Administration of China, 2011.(in Chinese) [百度学术]
EC. Air OPS regulation: EU No. 965/2012[S]. Brussels: The European Commission, 2012. [百度学术]