2025年09月28日发布 | 61阅读

美国疼痛与神经科学学会(ASPN)指南:AI在脊柱与神经干预治疗中的应用(2025)

美国疼痛与神经科学学会
出处: Journal of Pain Research 2025:18 4211-4235
达人收藏

英文摘要.png

来源:Massey C, Latif U, Deer TR, et al. Guidelines From the American Society of Pain and Neuroscience for Using Artificial Intelligence in Interventional Spine and Nerve Treatment. J Pain Res. 2025;18:4211-4235. Published 2025 Aug 20. doi:10.2147/JPR.S529465

人工智能(AI)正迅速发展且日益普及。过去几年间,该领域已取得重大进展,推动其应用率快速提升。然而,AI相关的出版物数量庞大,人们难以全面及时地了解所有相关研究成果。为此,ASPN(美国疼痛与神经科学学会)制定的AI指南,旨在帮助临床医生理解AI,并将其应用于临床实践;“神经元计划”(Neuron Project)则旨在随着AI领域的动态发展而不断完善。


研究团队组建了一个专家小组,由该小组负责研讨并撰写AI最佳实践指南。主要作者在PubMed上开展文献检索,将疼痛管理与AI领域的关键术语进行交叉引用。在对现有文献进行全面审查后,研究人员将收集到的信息划分为三大类,分别是AI的潜在益处、潜在风险,以及确保潜在益处大于潜在风险的方法。本指南仅涵盖核心内容,这些内容是临床医生在将AI应用于临床实践前必须了解和掌握的。


通过上述检索方法,研究团队共找到超过1.2万篇相关文献,其中许多是综述类文章和临床指南。基于这些文献中的指南构建的框架,不仅帮助作者填补了AI知识空白,还深入探讨了疼痛科临床医生应掌握的AI领域关键要点。在指南撰写过程中,经过全体作者的严格审查与多轮修改,所有作者最终就疼痛管理领域AI应用与实施指南达成共识,且均已认可指南的最终版本。


当前,AI领域正快速发展,随着其向医疗健康领域渗透,行业必须重点防范敏感数据泄露问题,以及AI可能给患者带来的潜在风险。由于AI的适用范围在不断扩大,因此需要一套能随之动态更新的指南,这一指南对最大化AI的益处、规避其应用风险至关重要。本文作为ASPN神经元计划的组成部分,也将随着AI领域的发展持续更新内容。


一、AI在医疗健康领域的潜在益处


AI在诊断与治疗方案制定中的作用


治疗算法与患者筛选

医疗专业人员面临的常见挑战包括两点:一是精准识别能从特定疗法中获益的患者,二是回顾患者病史需耗费大量时间。具体而言,时间限制或对不同影像模态解读的不熟悉,可能导致医疗人员过度依赖放射学报告。而这类报告可能不会提及与慢性疾病状态相关的关键病变,即便这些慢性病已有美国食品药品监督管理局(FDA)批准的治疗方案。此外,行政流程及医保支付方相关规定,还可能导致有益疗法的审批申请无法通过。


AI与机器学习技术通过数据输入实现演进与“学习”。这一过程能让模型更新并优化算法,随着时间推移,其学习结果会更精准、更有效。当作为辅助工具使用时,这些技术可基于数据流中的各类变量,助力实施个性化治疗算法。这些变量包括基因变异、患者病史、相关体格检查结果、影像分析、国际疾病分类(ICD)编码、实验室检查数据及用药方案等。该特性不仅有望实现更合理的患者管理,还能节省临床医生的时间,从而提升患者护理质量。


鉴于这些技术的巨大应用前景,多家企业已着手将机器学习融入医疗决策过程。它们既在开发用于辅助临床医生的工具,也在设计可独立于临床医生运行的算法。


医学影像解读

机器学习在医疗健康领域最具前景的应用之一便是放射科领域。例如,在8000个病例中,机器学习已成功用于检测和预测肺部恶性肿瘤,其表现优于非胸部专科放射科医生。AI算法(尤其是基于深度学习的算法)能够分析复杂的医学影像,识别出人类肉眼无法察觉的模式,并给出精准诊断。这极大提升了医学影像解读的效率与准确性,减轻了临床医生解读各类影像模态的工作负担,同时还有望改善患者预后。当机器学习与电子健康记录(EHRs)及临床决策流程相结合时,可显著优化放射科工作流程。它有望实现剂量估算自动化、提升检查质量控制水平,并加快放射影像及解读报告的周转速度。这将进一步提高效率,同时提升识别相关阳性检查结果的精准度。


随着数字化影像的出现、海量影像数据集的可及性提升,再加上计算机视觉技术的进步,机器学习的性能预计将超越人类的判断准确性。这类算法不会受疲劳影响,而且随着持续的数据输入,模型的准确性还会不断提升。


此外,这类算法在术前及术中规划的医学影像解读中也能发挥特殊作用。例如,在骶髂关节融合手术中,海量数据集可同时分析多个解剖学变量,从而确定同种异体移植物或钛螺钉植入的精准位置。基于治疗成功相关变量,术后影像模型数据集还能进一步优化植入物的定位。


提升治疗公平性

并非所有治疗方案的质量都一致,治疗质量差异可能源于多种因素,比如临床医生经验不足、患者筛选困难、工作流程算法问题,或是隐性偏见。隐性偏见是潜意识层面的成见,难以识别且难以通过标准化手段规避。这类偏见会导致医疗服务可及性、医疗质量及整体健康预后出现差异。


由于机器学习模型本质上是数据驱动的,模型设计过程中可能会融入这些偏见,因此必须仔细检查模型中是否存在偏见。为应对此类问题,算法所用的数据应保持均衡,且需从各类不同人群中获取,以此减少医疗差异,改善患者预后。


预后预测

机器学习应用已被证明能有效利用多种数据类型、医学影像及临床信息进行疾病预测与预后预测。这些先进技术可处理并分析海量数据,识别数据模式并做出精准预测。这种预测能力能对医学领域及临床决策流程产生重要影响。通过分析不同治疗方式的成功率,机器学习应用可帮助医生确定最有效的治疗方案。对于患者而言,尤其是面临多种治疗选择的患者,这些基于证据的数据能为治疗成功率提供合理评估,帮助患者在自身健康问题上做出更明智、更有把握的决策。


追踪最新文献进展

在医学领域快速发展的背景下,新兴疗法的复杂性日益提升,亟需找到能更好地理解每日新增大量证据的方法。数据驱动型治疗方案的激增,使得AI的整合比以往任何时候都更为必要。AI在医疗健康的多个方面都发挥着关键作用,尤其在诊断和治疗建议领域——这些应用主要基于对最新文献的全面回顾。能够处理和解读海量数据的AI工具,可通过学习数据模式并根据反馈调整,为已发表研究提供总结,提供极具价值的服务。


机器学习在处理大量预测变量方面表现突出,其处理的变量数量往往超过观察数据量,并且能以非线性、高交互性的方式整合这些变量。这种能力让我们得以利用以往因数据量过大或过于复杂而无法分析的新型数据。这些系统的学习功能至关重要,通过训练,它们能持续提升诊断精度,并使临床决策建议与最新数据保持一致。


治疗和治疗优化

电刺激治疗个体化

在脊髓电刺激治疗中,临床医生目前需与设备专家协作,调整波形、频率、振幅等参数,以定制刺激电流。这种操作方式本身会导致参数设置存在差异,且缺乏一种能可靠确定各组件最佳刺激设置的机制。随着每年脊髓电刺激植入物数量不断增加,AI/机器学习为改进这一临床实践提供了重要机遇。AI/ML最常见的医疗应用之一是神经网络“学习”(即通过处理包含输入数据和结果数据的案例进行训练。在脊髓电刺激治疗的应用场景中,输入数据可能包括刺激参数、患者数据(年龄、性别、体重指数、合并症、脊柱解剖结构)、诊断结果和疼痛模式;结果数据可能包括疼痛评分、患者报告结局指标(PROMs)等纵向结局数据。最终,通过运用AI/ML,可为每位患者预测并确定最佳刺激传递设置,从而减少当前临床实践中的参数差异问题。


药物治疗个体化

在疼痛管理的药物治疗方面,也存在类似的局限性。不同临床医生对药物的试用和剂量调整方法各不相同,这可能导致治疗进展延迟、医疗系统负担加重、患者出现副作用以及治疗效果不佳等问题。利用AI/ML处理现有数据(输入数据和结果数据),可预测适合每位特定患者的最佳药物及剂量,并计算出副作用、药物滥用和治疗无效的风险。高质量、大规模的数据能助力此类计算算法不断学习和完善,进而改善患者治疗结局。


虚拟现实

虚拟现实(VR)、增强现实(AR)和混合现实(MR)技术在介入性医疗和外科专科领域有着多种应用。其中一个应用方向是用于医学培训。在部分疼痛介入治疗专科培训项目中,学员可能无法充分接触到神经调节技术以及该领域的先进创新手术。而这些虚拟现实相关技术能让学员在虚拟或混合环境中进行操作,练习手术技巧、提升介入治疗能力,进而提高手术准确性、缩短手术时间并降低并发症发生率。这些技术的另一个应用场景是在术中使用。增强现实/混合现实技术可将图像投射到现实场景表面,为手术操作提供更精准的术中导航。研究表明,结合患者术前影像资料,这些技术有助于实现经皮骶髂关节螺钉的精准植入,减少荧光透视的使用和手术时间,并能辅助完成精准的脊柱内固定操作。随着骶髂关节融合/稳定术、棘突间装置植入术和脊柱融合术在疼痛介入治疗领域的应用范围不断扩大,将虚拟现实技术与术中增强现实/混合现实技术相结合,有望进一步改进治疗技术、提升治疗效果并保障患者安全。


并发症识别

利用AI驱动的模型预测和识别并发症,其应用场景正不断增多,且具有巨大潜力。例如,有研究基于3034名患者的数据和35个独特输入变量构建AI模型,用于预测后路脊柱融合术后的手术部位感染,该模型的阳性预测值达到92.6%。另有研究将AI技术应用于预测血管内动脉瘤修复术后并发症,所构建的模型对术后并发症的敏感性高达100%。此类AI应用可轻松拓展至疼痛介入治疗领域:通过利用患者数据和相关输入变量,构建类似的预测模型,用于预测术后感染、电极移位、伤口裂开等并发症及其他重要不良结局。随后,可对高风险患者采取更密切的术后监测措施,避免治疗延误。此外,患者可穿戴设备的不断发展,能为AI模型提供关键输入数据,助力实时识别电极移位、电极断裂或植入式脉冲发生器(IPG)故障等并发症。患者可穿戴设备收集的活动量、步数、心率等数据,可作为AI模型的输入变量。AI/ML能够分析这些输入变量及其他相关变量随时间变化的复杂关系,进而构建实时并发症检测模型。


注射

将AI/ML与荧光透视技术相结合,也为优化注射类介入治疗提供了多种可能。多项研究已强调,这种结合有望减少辐射暴露。例如,有研究在胃肠镜检查中对比了配备AI的荧光透视设备与传统荧光透视设备,结果显示,AI辅助荧光透视设备通过超快速准直技术聚焦于目标区域,显著降低了辐射暴露量。在肿瘤学和病理学领域,通过深度学习分析影像中的疾病关键特征,已实现癌症更精准、更早期的检测。在疼痛介入治疗中,将此类深度学习技术与AI辅助荧光透视系统相结合,具有诸多潜在应用。例如,在注射治疗过程中,可实时检测并确认造影剂在目标治疗区域的扩散情况,同时高灵敏度地识别造影剂的异常扩散(如血管内扩散、鞘内扩散)。通过这种方式,运用AI技术可优化基于荧光透视的治疗效果,提升治疗安全性。


安全性

AI与阿片类药物安全

在阿片类药物管理的安全性方面,大型语言模型(LLMs)能够高效整合并提取海量医学文献、临床指南及患者病历中的信息,为医疗决策提供更有力的支持。通过优化阿片类药物的剂量配置与治疗效果,药物相关风险(包括药物滥用和过量使用)可得到更好的控制,从而为患者提供更安全、更有效的医疗服务。


患者教育是安全使用阿片类药物的关键环节。AI聊天机器人可根据患者的具体需求定制教育内容,这种个性化方式不仅能减少患者术后阿片类药物的使用量,还能提升患者满意度。目前,AI聊天机器人的应用已在改善患者就医体验的同时,最大限度节省了医疗服务提供者的时间。已有多项研究探讨了大型语言模型在术后疼痛管理中的应用,结果显示其在减少阿片类药物相关不良事件方面效果积极,这对未接受过专科培训却需处理术后疼痛的医疗从业者而言尤为实用。此外,这类模型还被应用于阿片类药物滥用的治疗领域,在预测患者治疗依从性方面展现出良好前景。


在阿片类药物使用监测上,可穿戴设备能收集生物特征数据,经AI分析后,借助心脏和呼吸传感器监测阿片类药物的使用、过量使用情况,部分设备还集成了纳洛酮自动注射器设计。尽管相关技术仍处于发展初期,但结合疼痛药物和/或干预措施实时生物反应监测的大型语言模型应用,有望从根本上改变急慢性疼痛场景下阿片类药物的使用安全性。


患者参与

提升工作流程效率

疼痛管理临床医生经常要处理耗时的行政工作,比如电子病历(EMR)文档记录和为计费目的确保编码准确。这些问题不仅降低工作流程效率,还会对医疗机构产生财务影响。整合AI技术为解决这些问题提供了前景良好的方案,能让医生将更多时间投入患者诊疗,同时优化诊疗管理流程。


AI与电子病历的结合,在简化疼痛管理医生工作流程方面潜力巨大。自然语言处理(NLP)算法可通过从临床记录中提取相关信息,实现文档记录自动化,减少手动录入数据的时间。此外,AI驱动的决策支持系统能实时分析患者数据,为医生提供可执行的诊疗建议和个性化治疗方案。通过自动化重复性工作并提供智能决策支持,AI整合能提升工作流程效率,让医生专注于提供高质量的患者诊疗服务。


AI辅助CPT编码提升编码准确性

准确编码对疼痛管理诊疗机构至关重要,它能确保合理的报销额度,并符合监管要求。但CPT编码的复杂性常导致编码错误和不一致,进而造成收入损失和合规风险。AI辅助CPT编码工具借助机器学习算法,分析临床文档记录,并根据已执行的诊疗流程和提供的文档资料,推荐合适的编码。这些工具不仅能提高编码准确性,还能帮助符合计费监管规定,降低被审计和收入损失的风险。


研究

有研究表明,大型语言模型(LLM)可助力临床研究。基于大型语言模型的聊天机器人能辅助初步研究设计,包括概述相关证据、明确研究问题与假设,以及计算有效研究所需的样本量。在临床试验阶段,大型语言模型聊天机器人可协助患者与试验项目的匹配、对自由文本描述进行编码,以及核查知情同意书的签署情况。数据收集完成后,LLM甚至能执行数据统计分析和论文的技术写作工作。但需注意,尽管LLM能为这些研究任务提供答案或解决方案,并不意味着这些答案正确或执行过程恰当。因此目前,聊天机器人无法替代专业的科学培训和实践经验,最多只能作为需要验证的起点。


优化医疗行政管理

疼痛管理临床医生在医疗行政管理中面临独特挑战,包括处理诊疗预先授权、优化日程安排,以及在竞争激烈的市场中有效推广诊疗服务。低效的行政管理流程可能导致诊疗延误、成本增加和患者满意度下降。因此,探索创新策略以优化疼痛管理场景下的医疗行政管理需求日益迫切。


优化诊疗预先授权

在疼痛管理诊疗中,药物、诊疗流程和疗法通常需要预先授权,这不仅增加了行政工作的复杂性,还可能延误患者诊疗。引入电子预先授权(ePA)解决方案并使用AI驱动工具,可简化授权流程、减少文书工作并加快审批速度。通过ePA系统与电子健康记录整合,并利用AI算法预测授权需求,疼痛管理医生能减轻行政负担,让患者更及时地获得诊疗服务。


简化日程安排流程

高效的日程安排对优化疼痛管理诊所的患者流转、缩短等待时间和最大化资源利用率至关重要。使用具备可定制功能、自动预约提醒和实时患者跟踪功能的日程安排软件,能提高日程安排效率和患者满意度。此外,为随访预约提供远程医疗选项,并通过患者门户实现自助预约,可进一步简化日程安排流程,既为患者提供便利和灵活性,也减轻医生的行政工作负担。


制定有效的营销策略

AI在转变疼痛管理诊疗实践的营销策略制定方面潜力巨大,它能实现个性化患者互动、精准推广和服务优化。通过利用AI驱动的洞察,诊疗机构可提升患者满意度、忠诚度和诊疗效果,同时优化资源配置和收入增长。但要成功将AI整合到疼痛管理营销策略中,必须解决数据隐私、算法可解释性和伦理使用等问题。不过,AI带来的机遇仍为数字时代打造更高效、以患者为中心的疼痛管理诊疗机构提供了路径。


新药研发

在基础科学和转化医学领域,大语言模型可通过预测与治疗效益和毒性相关的结构靶点、结合位置、药效学特性、药代动力学特性及剂量,加速药物研发进程。药物研发完成后,医生和患者可借助大语言模型识别药物相互作用,并更快推进临床试验各阶段的进程。目前,已有多家生物医疗公司在产品研发中应用大语言模型技术。


二、AI的潜在风险

幻觉/错误

AI的一个固有风险是在数据处理过程中可能产生幻觉或错误。AI算法,尤其是机器学习模型,在训练和决策过程中高度依赖输入数据。AI输出结果的质量取决于用于训练模型的数据质量和完整性。因此,机器学习算法的性能水平与其接触的数据质量直接相关。这引发了人们对数据偏见、报告不准确和数据不充分等问题的担忧。以IBM的沃森超级计算机为例,它使用AI算法为癌症患者生成治疗建议。然而,用于开发沃森的数据仅基于少数由肿瘤学家参与的假设病例。沃森提出的建议有时存在错误,若付诸实施可能对患者造成伤害。


AI倾向于编造或推断数据来填补现有知识的空白,这被称为数据幻觉。数据幻觉可能导致错误的结论,尤其是在未对准确性进行审核的情况下。AI还存在编造不存在的参考文献的问题。尽管AI生成的内容表述清晰、看似全面,但仔细审查后发现部分结论存在不准确之处。此外,当要求为生成的内容提供参考文献支持时,ChatGPT给出的引用文献并不存在,其PubMed编号对应的是无关论文。AI中的此类幻觉和错误可能传播错误信息和虚假假设,最终损害患者护理质量和科学知识的完整性。


过度依赖AI

围绕AI的另一个重大担忧是对自动化系统的过度依赖,这可能产生深远影响。在医学领域,诊断往往复杂多变,并非非黑即白,通常需要通过演绎推理和临床经验来明确。例如,两位患有相同类型疼痛的患者可能会有截然不同的描述,因为疼痛感知受到包括文化和情感因素在内的多种因素影响。目前尚不清楚AI如何解释这些更为主观的因素。


过度依赖AI还可能削弱医患关系,因为人际互动减少可能使患者感到疏离。调查发现,患者对临床医生同理心的感知以及对医生善意的信任,显著影响其对医患关系的评价。信任、沟通和同理心是医学的基石,在提供富有同情心的、以患者为中心的医疗服务过程中不可或缺。


由于数据的复杂性,有关AI在医学中应用的研究难以监管。此外,随着生成式AI在撰写科学论述方面的日益普及,对所呈现数据进行恰当评估变得比以往任何时候都更加重要。一项利用深度学习改进脊柱椎间孔狭窄诊断的研究因研究范围、数据存在差异以及引用不当而被撤回。


另一个担忧是资源分配不公。技术素养低或社会经济地位低下的弱势群体可能在获取AI驱动的医疗服务时面临障碍。这些创新服务可能不成比例地被特权群体使用,从而加剧健康不平等。


伦理考量

在考虑AI和机器学习系统的故障时,明确责任归属变得至关重要,这也带来了重大的伦理困境。医疗领域AI应用缺乏通用指导原则,引发了诸多道德和伦理争议,促使FDA、英国国家医疗服务体系(NHS)等机构持续开展研究以制定相关标准。然而,对于监管机构和法院而言,为AI和机器学习行为建立监管审批机制及法律框架仍面临挑战。


模型偏差

医疗领域的偏差可从三个维度分析,分别是数据驱动型偏差、算法型偏差和人为偏差。在医疗AI中,这类偏差会固化数据集所蕴含的社会偏见,进而产生负面影响。因此,像女性、少数族裔等历史上代表性不足的患者群体,可能面临误诊风险,这会加剧现有的医疗不平等现象。


未来的工作应优先制定医疗AI标准,在保障患者隐私的前提下,将透明度和数据共享置于核心位置。采用开放科学方法有助于提升医疗AI的公平性,具体包括以下三点:

● 让参与者参与AI算法开发,践行参与式科学理念;

● 推动负责任的数据共享和包容性数据标准,确保数据互通性;

● 促进代码共享,包括可整合代表性不足数据以降低偏差的算法。


数据隐私

AI与医疗结合的一个固有问题是,AI模型需大量敏感数据才能有效分析患者信息、预测治疗结果。医疗推理本身的复杂性以及数据集的内在异质性,决定了构建可靠模型必须依赖大规模数据。而医疗AI面临的挑战不仅在于获取海量数据,更关键的是这些数据具有高度敏感性。AI需要访问敏感的电子病历、影像扫描结果、实验室检测数据及其他个人信息,才能生成诊疗建议。随着AI的应用,健康数据的所有权争议也随之出现:患者本应拥有并掌控自己的数据,但医疗体系和AI系统中的其他相关方往往也主张对这些信息的控制权。


当前的核心关切是,如何在使用AI模型的同时保障数据完整性和患者隐私。事实上,从纸质病历向电子健康记录转型时,隐私问题就已存在。尽管电子健康记录无疑在诸多方面革新了医疗服务,但电子形式的记录使其更容易遭受严重的数据泄露。更值得关注的是,为达到AI模型所需的数据规模,这些本就脆弱的敏感数据可能需要转移到其他存储环境,并在多个机构间进行汇总。对不法分子而言,大规模数据集无疑是极具吸引力的目标。


医疗AI的另一潜在隐患是,数据的获取、分发、使用和解读过程缺乏透明度。“黑箱”现象是AI模型广为人知的弊端——AI无法解释或证明其复杂结论的合理性,这会给患者健康这一本就敏感的领域增添不必要的不确定性。作为临床医生,我们不仅需要知道AI给出的“结果是什么”,更需要了解“为什么这么得出”以及“如何得出”,但这类技术往往难以满足这一需求。此外,对非AI模型而言,足够多的数据在特定AI算法面前可能仍显不足。因此,要全面解释AI模型的决策过程,往往是不可能的。目前,“可解释AI”(Explainable AI)领域的研究正在不断推进,这类技术旨在帮助人类理解并信任AI系统。


最后,尽管各方不断推动加强对AI数据分发的监管,但AI技术的飞速发展至今已超过多数监管机构的应对速度,导致敏感患者数据的分发方式更添一层不确定性。目前仍需大规模全球倡议,助力规范医疗AI系统中患者数据分发相关的法律条款。


医疗数据的局限性

尽管医疗数据正快速增长且获取难度不断降低,但与医疗行业外的海量大数据相比,仍存在规模差距。准确性是大数据分析的核心要求,而当前数据收集环节存在的问题,导致医疗数据应用存在诸多局限性。例如,个人记录中可能存在打字错误或缩写不规范的情况;医疗助理录入的医疗数据可能包含错误或拼写失误,进而改变信息原意。同时,由于文化素养、语言障碍等问题,部分群体在医疗数据中的代表性不足,导致数据集无法全面反映所有患者群体的情况。


医疗大数据的收集还面临诸多经济挑战:小型医疗机构缺乏足够资源实现数据收集系统的现代化;多数医疗组织呈现高度碎片化状态,难以实现统一的数据收集;数据安全和隐私问题也构成阻碍;此外,体制限制、严格的监管要求以及安全顾虑,均制约了数据的汇总与获取。


AI应用的法律挑战

版权侵权。随着AI在医疗领域的快速发展,我们必须了解当前生效的版权法,以保护创作者及其作品权益。关于当AI系统在无人类直接输入的情况下自主生成内容时,谁拥有该内容的版权的问题,在不同司法管辖区,版权归属可能存在差异。部分地区认定AI系统开发者为所有权人,另一些地区则可能将AI系统本身或AI使用者视为所有权人。由于AI模型训练需要大量数据,当开发者使用非自有数据训练大型AI系统时,版权侵权问题便会凸显。


监管缺失

疼痛医学AI应用监管。AI已迅速融入包括疼痛管理在内的多个医学领域,有望在诊断、个性化治疗和患者监测方面实现重大突破。然而,AI开发与应用的速度往往超过了监管框架的跟进能力,导致监管力度有限。这一缺口带来了潜在风险,包括AI算法偏差、隐私问题,以及AI驱动决策对患者诊疗产生的意外影响。


当前疼痛医学领域针对AI的监管机制,主要围绕现有医疗设备法规和医疗数据隐私法展开。FDA已开始制定专门针对医疗AI/ML的框架。FDA的《数字健康创新行动计划》明确了该机构在推动创新的同时保障患者安全的工作方向。其中包括针对基于AI/ML的医疗软件(SaMD)的拟议监管框架,强调AI系统需在保持严格安全与有效性标准的前提下,具备持续学习和适应能力。但目前的监管仍处于碎片化状态,且多为被动应对而非主动预防。AI工具的审批流程并非始终透明,同时缺乏标准化方法来评估AI在实际临床场景中的性能。此外,疼痛医学领域的许多AI应用(如决策支持工具或预测分析平台)并未被严格归类为医疗设备进行监管,可能会脱离监管范围。


未来的监管问题。将AI融入疼痛医学前景广阔,但也面临重大挑战。监管不足、快速扩张以及潜在的意外后果,凸显出迫切需要一套能跟上技术发展步伐的强有力监管框架。医疗界通过主动解决关键问题,既能充分利用AI的优势,又能保障患者安全与医疗公平。其中一大挑战是制定AI开发、验证和部署的全面指南。这包括建立反映实际临床结局的标准化评估指标,以及纳入上市后持续监测机制,长期跟踪AI性能。另一重要监管问题是解决AI算法中的偏差——基于有偏差的数据训练AI,可能会加剧医疗不平等。因此,法规必须要求AI训练数据公开透明,并强制执行偏差缓解与公平性标准。此外,还需建立清晰的问责机制,以应对AI驱动决策引发的不良后果。数据隐私与安全同样至关重要。由于AI系统通常需要大量患者数据,必须执行严格的数据保护法规,以保障敏感信息安全,并维护患者的知情同意权与自主权。


AI虽能显著提高诊断准确性、治疗个性化程度和患者预后,但AI算法中的错误或偏差可能导致误诊或不当治疗建议,进而对患者造成伤害。此外,若创新速度超过监管与监督机制的发展速度,治疗环节的漏洞可能会威胁患者安全与医疗信任。同时,AI的融入可能改变医患关系,患者可能因医疗对技术的依赖度上升、对人工判断的依赖度下降而感到疏离,这会影响患者满意度和治疗依从性。因此,监管机构必须通过实施灵活、迭代的监管流程,适应快速变化的技术环境。这可能包括在监管监督下,允许AI工具在实际场景中进行测试,从而快速识别并缓解风险。


AI的快速扩张

过去几年,AI系统经历了前所未有的增长与扩张,其速度远超大多数监管模式的跟进能力。对立法者和管理机构而言,AI监管与监督仍是一项挑战。AI的动态特性使其既备受青睐,也难以监管。监管框架必须纳入识别和应对潜在后果的机制,确保AI能提升而非降低医疗质量。AI不断演进的特性给FDA等监管机构带来了明显难题。有立法者提议,让大学等公私合作机构参与进来,承担该技术的监管职责。但这一提议存在顾虑:适用于乡村地区大学的AI系统,未必适合城市地区的大学。最终导致的结果是,AI技术持续快速扩张,其发展速度已超过医疗机构中针对其他传统医疗技术的监管方法的更新速度。


三、确保医疗AI应用的潜在益处大于潜在风险

制定伦理准则与监管框架

首要任务是制定清晰的伦理准则与监管框架,以此规范AI技术在医疗领域的研发、部署与使用。这些准则需将患者安全与隐私置于优先地位,同时确保AI驱动的决策流程及应用具备透明度、公平性与问责性。伦理准则还必须涵盖知情同意问题,即患者应知晓自身诊疗过程中使用了AI,并理解其相关影响。


确保可解释性与透明度

AI模型的决策过程及其所用数据必须具备可解释性与透明度,这一点至关重要。这能增强信任,促进人机协作。医生及医疗工作者需了解AI得出结论的具体过程,以确保使用的数据集准确无误。数据存在问题会导致结果偏差,而透明度缺失会阻碍此类问题的识别与防范。数据治理与监控对避免AI应用造成伤害十分关键。保障患者数据的保密性与安全性应作为首要目标,且AI模型必须使用高质量数据,才能切实为医疗专业人员的工作提供助力,而非增加潜在风险。


资源获取与专业能力保障

AI资源的获取应受到严格监控,仅限具备相应医学知识的合格人员使用。AI系统需输入高质量数据,医疗专业人员也应接受充分培训,以掌握AI工具的使用方法。若缺乏必要的专业能力,AI资源的使用及其生成的数据可能会影响医疗领域AI工具的整体可靠性。此外,AI系统应设置防护机制,防止数据偏差导致错误决策。基于有问题的数据给出建议,进而改变患者的诊疗方案,可能会产生不利后果。未来的医学教育应将AI纳入培训项目,并提供持续的专业发展机会。


跨学科协作

跨学科协作是充分发挥AI在医疗领域潜力的关键。通过汇聚医疗专业人员、AI研究人员、伦理学家及政策制定者,既能识别并解决AI在医疗应用中的潜在风险与挑战,又能最大化其益处。此类协作可推动创新、促进知识交流,确保AI技术的研发与部署符合医疗服务的价值与目标。协作努力还能助力制定医疗领域AI应用的标准与最佳实践,确保不同应用场景和机构间的一致性与可靠性。


持续监控与评估

建立AI算法及其实践效果的持续监控体系,对维持人们对AI系统的信心与信任、保护患者免受伤害至关重要。该治理体系通过对AI技术的持续监控与评估,确保其实现改善患者预后与生活质量的目标。监控应包括对AI系统的定期审计,以确保其始终符合伦理标准与监管要求。反馈机制能让医疗专业人员与患者反馈问题、提出改进建议,实时监控系统也可用于及时发现并缓解不良影响。


AI在医疗领域的潜力巨大,它可作为工具助力各类医疗场景。但我们必须确保其按预期发挥作用:无论患者的社会、经济、种族或其他背景存在何种差异,AI都能为人类提供帮助。通过审慎考量伦理准则、透明度、跨学科协作及持续监控,AI必将为医疗健康领域的发展做出重大贡献。


阅读原文


声明:脑医汇旗下神外资讯、神介资讯、脑医咨询、Ai Brain 所发表内容之知识产权为脑医汇及主办方、原作者等相关权利人所有。

投稿邮箱:NAOYIHUI@163.com

未经许可,禁止进行转载、摘编、复制、裁切、录制等。经许可授权使用,亦须注明来源。欢迎转发、分享。

投稿/会议发布,请联系400-888-2526转3。

最新评论
发表你的评论
发表你的评论