构建可靠AI模型的7大核心技术
稳健与脆弱AI
国际标准化组织将AI稳健性定义为“AI系统在任何情况下保持性能水平的能力”。在稳健模型中,训练错误率、测试错误率和操作错误率几乎相同。当遇到意外数据或在非理想条件下运行时,稳健的AI工具仍能提供准确输出。
例如,飞机识别模型在训练数据集中能识别所有飞机图像,并在测试数据上表现优异,那么该模型应该能在任何数据集中识别飞机图片,即使之前未遇到过这些图像。但如果飞机是粉色的、在黄昏拍摄、缺少机翼或以某个角度观看呢?模型性能是否会下降?在什么情况下模型不再可行?
当环境中的微小变化导致功能和准确性发生巨大变化时,模型就被认为是非弹性或“脆弱”的。脆弱性是软件工程中的已知概念,也适用于AI。最终,所有AI模型都在某种程度上是脆弱的。
开发可靠AI
可靠AI即使在遇到训练数据中未包含的输入(称为分布外输入)时也能按预期执行。这些数据点与训练集不同,可靠AI必须能够检测数据是否为分布外输入。挑战在于,对于某些模型,分布外输入可以被高置信度分类,这意味着AI工具表面可靠实则不然。
以自主配送机器人为例。其导航AI经过优化以找到最直接的路径。训练数据集包含AI识别人行道、道路、人行横道、路缘、行人等所有变量所需的示例数据——除了交叉路径的铁轨。在操作中,机器人识别出路径中的铁轨,虽然是分布外输入,但AI以高置信度计算认为铁轨只是一种新型人行道,于是沿着铁轨加速配送。显然,AI由于分布外输入而偏离了方向。
数据可靠性经验
模型的质量仅取决于用于开发模型的训练和测试数据。如果对数据质量相对于真实世界的代表性没有信心,模型的输出可能无法在操作环境中可靠地提供准确输出。对美国政府问责局而言,数据可靠性取决于:
- 适用性:数据是否提供相关质量的有效测量?
- 完整性:数据集在所有属性上的填充程度如何?
- 准确性:数据是否反映了收集数据集的真实世界?
这些是可信数据和AI的交叉组成部分。数据集需要充分策划,在某些情况下需要标记甚至用合成数据补充,这可以补偿缺失的数据点或填补不能(或不应)用于训练的保护信息。数据还必须清洗潜在偏差,这些偏差会扭曲模型训练并导致不良输出或预测。
构建稳健可靠AI的领先实践
无论模型是受到不熟悉数据的阻碍、恶意行为者的干扰还是准确性的漂移,组织都应在其AI计划中嵌入评估部署风险、跟踪性能是否符合预期规格、评估(如果不能测量)稳健性以及建立流程来修复失败或漂移的模型的能力。由于可靠性源于稳健性,以下活动有助于AI可靠性:
可靠性基准
即使在模型训练进行中,也要确定和定义哪些基准对跟踪和测量可靠性最有价值。基准可能包括AI系统相对于人类性能的表现,这特别合适,因为深度学习模型试图模仿人类认知。
执行数据审计
作为测试的一部分,审查数据可靠性评估、纠正措施和训练中的数据样本。让数据利益相关者(如IT领导者、法律专家、伦理学家)参与探索数据质量和可靠性。AI模型需要反映真实世界的数据集,因此作为数据审计的一部分,调查数据集的平衡性、无偏性、适用性和完整性。
随时间监控可靠性
可靠性在整个AI生命周期中演变。当模型输出或预测与预期不同时,将数据分类用于分析和调查。常用于此类分析的数据类型包括事件发生时间(模型偏离需要多长时间)、退化数据(关于模型如何退化的信息)和复发事件数据(发生多次的错误)。
不确定性估计
洞察力培养信心。为了更深入地了解AI如何运行,有一些工具允许模型在预测或输出旁边报告不确定程度。这朝着信任稳健系统迈进。如果模型报告高度不确定性,这对人类操作员或其他网络AI是有价值的洞察。不确定性估计可以标记漂移模型,突出数据变化,或提供对抗性示例进入数据流的意识。
管理漂移
操作员可以通过比较实时部署中模型的输入和输出与参考集中的输入和输出来评估漂移。相似性在测试和训练数据输入之间进行成对测量,并对输出进行分段。通过密切了解输入和输出相对于参考集的变化,人类操作员能够采取纠正措施(例如重新训练模型)。
持续学习
建立持续学习工作流程,以根据预定义的可接受阈值监控模型性能。这些阈值可能包括系统准确性在面对小扰动时的弹性度量,以及系统及其运行环境的安全约束。作为其中的一部分,维护数据版本控制框架以实现AI模型的可审计性、透明度和可重复性。
持续测试
开发包含可变性(例如系统或训练数据的变化)的测试机制,以评估AI是否足够稳健以按预期运行。检查模型稳健性和准确性的频率应取决于模型的优先级和模型更新的频率。高风险、定期更新的模型最好每天检查(由人类验证输出)。变化较慢、低优先级的模型可以在更长的时间线上检查,在某些情况下使用API进行功能自动评估。这些检查的结果应促使对任何异常、差异和意外结果进行调查和解决。
探索替代方法
鉴于稳健性和泛化性是活跃的研究领域,新的工具、设计和策略将继续出现并推动该领域发展。这些可能是技术方法,组织的数据科学专业人员可以探索新想法如何支持部署的AI以及模型开发。例如,“Lipschitz约束模型”具有有界导数,可以帮助神经网络对对抗性示例更加稳健。最简单的是,它们促进并可以证明输入中的小扰动只会导致输出中的小变化。
更多精彩内容 请关注我的个人公众号 公众号(办公AI智能小助手)或者 我的个人博客 https://blog.qife122.com/
公众号二维码