2025年1月7日,FDA发布了支持人工智能医疗器械的设备软件功能相关草案,即"Artificial Intelligence-Enabled Device Software Functions: Lifecycle Management and Marketing Submission Recommendations"。
该指南为包含人工智能功能的器械软件的上市前提交文件提供建议,涵盖了支持 FDA 审查的文件和信息,还为制造商在全产品生命周期(TPLC)设计、开发具备人工智能功能的器械给出参考建议,体现了对该类器械进行生命周期管理的综合方法。
适用范围
就本指南而言,FDA将符合器械定义的软件功能称为"器械软件功能"。"功能"一词指的是产品的特定用途,它可以是产品预期用途或预期用途的一个子集。
具备人工智能功能的器械是指包含一个或多个具备人工智能功能的器械软件功能(AI-DSFs)的器械。一般而言,当组合产品的器械组成部分包含 AI-DSF 时,本指南中的建议也适用于该组合产品的器械组成部分。
TPLC一般原则
本指南认可 TPLC 方法对管理具备人工智能功能的器械意义重大。一方面,就上市提交文件该包含的资料信息提出建议,助于TPLC期间风险管理;另一方面,提供资源协助器械开发与生命周期管理,保障器械安全有效,还提出关于此类器械设计、开发、部署、维护(包括性能管理)的建议。
如何使用本指南
本指南就应纳入上市提交文件中的文件资料和信息提供建议,以支持FDA对包含AI-DSFs的器械进行审评。指南的一些部分还描述了与全产品生命周期多个步骤相关的信息。以下是本指南各部分与全产品生命周期可能对应的一个示例:
・开发:风险评估、数据管理以及模型描述与开发
・验证:数据管理与验证
・最终器械描述:器械描述、模型描述与开发、用户界面与标签、公开提交摘要
・上市后管理:器械性能监测与网络安全
指南内容框架
本指南描述了人工智能设备上市前提交的内容建议,包括以下部分:
V.Device Description
VI.User Interface and Labeling
VII.Risk Assessment
VIII.Data Management
IX.Model Description and Development
X.Validation
XI.Device Performance Monitoring
XII.Cybersecurity
XIII.Public Submission Summary
针对网络安全
与集成到医疗器械中的任何数字或软件组件一样,人工智能可能会带来网络安全风险,可能受网络安全威胁影响的人工智能风险示例包括但不限于以下方面:
数据投毒:注入不真实或恶意修改的数据,从而使医疗诊断的结果面临风险。
模型窃取:可能使用伪造或篡改的数据来推断模型细节或复制模型。
模型规避:蓄意构造或修改输入样本以欺骗模型,使其做出错误分类。
数据泄露:网络威胁可能利用漏洞来获取模型中敏感的训练或推理数据。
过拟合:网络威胁可能蓄意让模型 "过拟合",使人工智能组件在难以有效适应修改后的患者数据时,容易遭受对抗性攻击。
模型偏差:攻击者可能利用对抗样本利用已知偏差,在训练期间植入后门以便日后触发偏差行为。
性能漂移:网络威胁可能通过改变基础数据分布导致模型性能漂移,从而使模型性能下降。
注:文章来源于网络,如有侵权,请联系删除