聚慕 - 专业医疗器械服务商
设为首页 收藏本页 人事招聘 关于聚慕
400-901-5099
全部商品分类
生成式ai与患者安全(下):给“七大关键群体”的策略书
发布时间:2024-06-04 09:45:06

上一篇文章中,IHI Lucian Leape研究所召集了来自亚马逊、谷歌、微软等大型科技公司以及哈佛医学院、Leapfrog Group 和 Kaiser Permanente的专家组,针对生成式AI在医疗领域的三大用例展开了分析,并就生成式AI对于患者安全的影响展开了全面评估。

*相关阅读:生成式AI与患者安全(上):专家组详解三大应用场景与挑战

那么,如何最大限度地发挥生成式AI 的优势,消除患者安全和质量方面的“慢性问题”,并最大限度地降低技术对患者和患者安全的风险,一些关键群体必须深入思考相应的策略。

本文将详细分析医疗活动中不同群体的角色、责任、他们面临的挑战,以及如何负责任地采用生成式AI。

01患者和患者权益倡导者

患者是医疗保健服务的直接受益者,他们对生成式AI的引入持有重要的发言权。

专家组建议,患者和患者权益倡导者需要确保医疗机构在应用生成式AI时保持透明。在目前的初级阶段,医疗机构必须制定披露和同意的最低标准,以确保患者了解在其医疗过程中使用生成式AI 的情况。患者应有权选择拒绝使用生成式AI,并在拒绝时获得适当的替代方案。患者需要在知情的情况下同意使用其数据。

02临床医生

临床医生是生成式AI应用的直接参与者。他们必须要了解这些新技术,并合理地将它们融入日常医疗实践中。

专家组建议,临床医生应将生成式AI节省下来的时间,部分用来改善患者护理,提高医疗质量和安全性。同时,临床医生需要了解生成式AI的局限性和挑战,倡导持续改进,运用专业知识理解和改善现有的问题,如偏见、数据集代表性不足、缺乏透明度或可解释性等。努力学习新技能,包括基本的生成式AI知识、人工智能与伦理、临床生成式AI工具的模拟练习,以及医疗保健系统实践和政策指导等。

此外,临床医生应将生成式AI工具视为辅助工具,而非替代品,在临床决策中保持最终决策者的角色。小心谨慎,确保对AI工具的使用进行监督,从而实现实际的安全,而不仅仅是表面安全。

03安全与质量专业人员

患者安全和质量专业人员负责监控流程、识别风险和实施最佳实践,以防止差错和减少伤害。他们需要利用生成式AI来加强对患者安全问题的检测和监控,并提高报告的效率。

安全与质量专业人员必须确保,通过这些AI技术所获得的时间能够被用来高效分配安全管理任务,制定有效的战略来减少反复出现的安全风险和危害,而不是仅仅优先考虑降低成本。

在使用人工智能加强事件报告流程之前,应当重新思考患者安全的关键模式,在实际伤害发生之前进行识别和预防。

与其他关键群体进行合作(如患者和临床医生、信息技术和信息学人员、数据科学家和分析师、领导者),以促进安全、高质量的医疗,避免仅仅名义上的参与。

04医疗保健系统

虽然生成式AI有望简化运营和提高医疗水平,但医疗系统的领导者必须把握好相关风险。包括以负责任、合乎道德和公平的方式开发、实施和使用人工智能系统,确保其可信度和准确性,并降低网络安全风险。

医疗系统及其领导者必须确保生成式AI的使用满足现有需求。制定和实施计划时,需考虑可能出现的错误结果和意外后果,并营造重视患者安全、公平和负责任地使用生成式AI的氛围,以提高医疗服务质量。

同时,专家组强调,应用生成式AI的同时,应将时间效率重新分配,以减少临床医生的倦怠感。

此外,需要在教育、培训和保障措施方面进行投资,以培养有效使用生成式AI工具的能力,并确保临床医生和其他人员保持基本的医疗能力。

建立健全的人工智能管理,促进跨学科合作。建立管理、评估和监控程序,指导基因人工智能的使用,并制定明确的隐私、安全(包括网络安全)、数据所有权和管理政策,以及基于AI工具的内部开发指南等,在快速部署的愿望与谨慎的需要之间取得平衡。内部开发的AI工具要能够支持和加强临床医生与患者之间的关系,进行以人为本的设计。

05生成式AI 开发人员

生成式AI的开发者在创新与人类福祉和安全之间必须取得平衡。需要优先考虑透明、可解释的人工智能设计,使患者和临床医生能够理解并信任其输出结果。

与医疗保健专业人员、安全领导者、患者和患者权益倡导者密切合作,收集反馈并不断改进人工智能工具。开发者还必须主动了解和降低患者安全风险,对AI工具进行持续监测,避免偏差。

此外,还需整合先进的数据安全措施,保护敏感的患者数据,直面隐私和数据所有权问题。在产品的整个生命周期中遵循现有的网络安全准则,主动识别数据的潜在风险,随时了解并遵守医疗法规和指导方针,确保人工智能工具符合管理机构制定的安全、隐私和道德标准。

06研究人员

研究人员在建立生成式AI研究基础,以及缩短科研与实践的鸿沟中,扮演着关键角色。他们需要研究如何减轻数据集的偏差问题,提高AI工具的可信度。

以人为本的设计需要进行大量的研究,包括与患者偏好、警报疲劳,以及技术对医患关系的影响等相关的人为因素问题。

此外,另一个关键的研究领域是如何确保人类对AI工具进行有效监督,研究人员可以帮助制定相关策略,以克服生成式AI的潜在风险。

07监管者和决策者

促进负责任的生成式AI采用,监管者和政策制定者起着至关重要的作用。他们需要制定明确的指导方针,制定全面的法规,重点关注患者安全、数据保护和合乎道德地使用技术。与开发者和用户合作,规定生成式AI 系统的透明度,以确保用户了解人工智能是如何做出决策的,并在出现错误或不利结果时建立问责机制。

监管者和决策者还有责任促进人工智能扫盲,提高公众意识。

此外,应当激励那些将安全放在首位的人工智能开发和研究,并促进本地化决策,同时为总体人工智能安全和道德标准提供框架。

结语

面对生成式AI的引入为医疗结果和患者安全带来的挑战,从患者和临床医生,再到开发者和监管者,每一个关联群体都有其独特的角色和责任。为了确保生成式AI能够在保障患者安全的前提下提高医疗质量,所有群体必须共同努力,采取负责任的行动,积极应对挑战。通过透明、合作、持续改进和以人为本的设计,生成式AI有潜力成为医疗领域的重要辅助工具,为患者带来更安全、更高质量的医疗服务。

注:文章来源于网络,如有侵权,请联系删除

为您找货 · 告诉我们您想要找什么商品?我们将尽快给您答复。
* 商品名称:
* 您想了解:
  • 商品资料
  • 货期
  • 价格
  • 安调
  • 其他
* 手机号码:
* 姓名: