论文The Regulation of Clinical Artificial Intelligence主要探讨了临床人工智能(AI)的监管问题,特别是生成型人工智能(GAI)的监管挑战和可能的解决方案。文章由David Blumenthal和Bakul Patel撰写,两位作者分别来自T.H. Chan School of Public Health, Harvard University和Global Digital Health Regulatory Strategy Google LLC。
论文内容概要(ChatGPT 4o生成)如下:
一、主要内容
一)、临床AI的种类
文章将临床AI分为两类:
- Pre-generative AI (PGAI): 包括临床决策支持(CDS)、辅助临床数据解释的软件以及基于机器学习(ML)的AI。
- Generative AI (GAI): 基于大规模语言模型(LLM),如GPT和Gemini,具有多用途和自我进化能力。
二)、现有PGAI的监管
- CDS: 被排除在监管之外,因为它只是自动化传播现有的临床数据和指南。
- 其他PGAI软件: 被FDA视为“软件即医疗设备”(SaMD),需要经过严格的安全性和有效性评估。
- ML软件的监管挑战: 特别是具有自我学习能力的软件,FDA采用了“预定变更控制计划”(PCCP)进行监管,允许软件在特定更新期间锁定。
三)、GAI的监管挑战
- 多用途性和自我进化性: GAI的用途广泛,知识库庞大且不断变化,传统的设备监管方法难以适用。
- 评估透明度问题: GAI训练数据庞大且复杂,模型的计算过程往往无法解释,增加了监管的难度。
四)、可能的GAI监管方法
文章提出了一种将GAI视为“临床智能”的监管方法,类似于对人类临床医生的监管:
- 规定的培训: 针对相关临床信息的培训。
- 考试通过: 类似于专业认证考试。
- 监督使用期: 在临床实践中接受监督和指导。
- 定期更新和再评估: 持续更新GAI的临床信息并重新评估。
- 质量报告和纠正措施: 定期向监管机构报告GAI的质量,并采取必要的纠正措施。
- 公开评估结果: 使公众能够访问这些评估结果。
二、讨论与展望
- PGAI监管的适应性: 现有的监管方法可以通过渐进的政策变更来适应PGAI的发展。
- GAI监管的挑战: GAI的快速发展需要政策制定者、软件开发者、临床医生和公众重新思考技术评估的方法。文章提出的新的监管方法是否可行尚需验证。
- 实现临床GAI的潜力: 尽快开发出有效的监管方法,有助于在保证安全和有效性的前提下,让公众受益于GAI。
三、结论
临床AI的监管是一个复杂的挑战,尤其是对GAI的监管。尽管存在诸多困难,文章认为,通过明智的监管,临床AI的巨大潜力可以得到充分发挥,从而改善患者护理。