当前位置: 首页 > 新闻 > 国际新闻
国际新闻
监管科学为人工智能做好准备了吗?
发布时间: 2025-04-22     来源: 识林

由FDA主办的第14届全球监管科学峰会(GSRS)会议上,有一场值得注意的对话 - 监管科学对人工智能的准备情况。

会议开幕式上,FDA前局长Robert M. Califf 博士强调,AI与监管科学的整合是不可避免的,全球监管机构必须深入了解并开发适应性的监管框架。同时,Califf 博士概述了AI监管的十大核心原则。

Califf博士一直关注AI监管,在担任局长时还曾发表署名FDA的AI监管考量文章

信任对于监管科学中人工智能的应用至关重要

除了举办GSRS会议外,全球监管科学研究联盟 (GCRSR) 的大语言模型(LLM)工作组提出了TREAT原则,涵盖可信性(Trustworthiness)、可复现性(Reproducibility)、可解释性(Explainability)、适用性(Applicability)和透明度(Transparency)。虽然该原则旨在确保LLM可靠且值得信赖,但会议讨论进一步探讨了它是否应作为所有监管决策中AI应用的指导框架。如果是这样,鉴于许多问题尚未解决,且可能阻碍实际落地,业界必须应对哪些挑战和影响?

工作小组和与会者一致认为,信任(Trust)是AI在监管应用中获得认可和整合的最重要因素。然而,对于如何定义值得信赖的AI,以及如何衡量它,尚未达成共识。虽然可复现性、可解释性、适用性和透明度通常被认为是基本属性,但它们的适用性仍是一个有争议的话题。一个关键问题是,AI的独特性是否需要重新思考这些概念的传统定义,尤其是在指导现代人工智能快速发展的监管应用方面。

挑战和注意事项验证以及人的参与

AI虽然提供了众多机遇,但也带来了挑战,需要制定应对策略促进AI在监管工作流程中的整合虽然短期内AI尚无法取代人类专业知识,但利用AI增强决策能力已成为监管应用中日益普遍的实践。唯有通过建设一支训练有素的人才队伍来确保有效监管,才能推动并加速这一范式变革。建议的策略包括开展培训项目和促进跨学科协作,以实现向AI增强型监管框架的平稳过渡。

AI在监管科学中的成功整合取决于克服与数据质量、模型验证、人-AI交互和问责制相关的关键挑战,以确保可靠性、透明度和信任度。就数据质量和可获得性而言,毒理学等领域仍面临数据匮乏的困境。在AI模型验证方面,传统的验证方法可能无法全面评估AI在监管应用中的表现,需要新的方法这方面欧盟成为先行者,读者可参考EMA近期发布的AI临床工具验证报告。在人-AI交互方面,采用AI增强人类专业知识的“副驾驶”方法,可以建立信任并进行有意义的监督,从而平衡问责制和AI的优势。为了实现问责制和责任制,需要建立清晰的框架来界定AI辅助决策的责任,并制定错误处理指南。

未来展望“低垂果实”到“监管沙盒”

在监管环境中引入AI的有效切入点,应优先选择能显著提升效率且风险较低的领域。信息检索与整合这类任务属于“低垂果实”,既能带来明确价值,又能增强机构对AI技术的认知和信心。另一个前景广阔的方向是应用AI模型AI辅助的定量构效关系分析QSAR),来评估化学品和药物的安全性。这类模型已发展成熟,其合理应用也经过广泛讨论,为进一步探索奠定了坚实基础。

为在监管决策中落实这些应用,建立“监管沙盒(regulatory sandboxes”至关重要。这种受控环境可在不同监管场景下测试和完善AI解决方案。此外,开发高质量的参考数据集有助于建立评估AI在不同场景下性能的基准。这些举措将推动AI更稳健、可靠地融入监管流程,为其负责任且高效的应用铺平道路。

全球监管机构间的国际合作对释放AI在监管领域的潜力至关重要,既能应对挑战,也能把握机遇。此类合作有助于能力建设,在整合AI的同时充分利用全球机构的数据资源。重要的是,它能推动各方就技术稳健、实践相关且监管上负责任的AI应用达成共识。此外,建立跨机构的培训项目,旨在使监管专业人员具备监管AI驱动流程所需的技术技能和批判性思维能力。合作可以支持制定规程,以处理AI生成的建议与人类判断之间的分歧,确保决策的可靠性和完整记录。

代理服务