負責任AI三大落地實施策略

▌資安維護與隱私保護

1.國內外資安法規與標準

依據衛生福利部規定,國內醫學中心須遵循《醫療機構資通安全管理指引》、《資通安全管理法》及《個人資料保護法》等相關法規。本院在更新醫療資訊系統時,須符合資安檢核標準,達到「高級」等級,並定期進行維護與資安稽核。此外,本院已通過ISO 27001資訊安全管理系統驗證及ISO 27701隱私資訊管理系統驗證,確保病人資料安全及系統穩健運行。同時,參考國際隱私與資安法規,包括《健康保險可攜性與責任法案》(HIPAA)及《一般資料保護規則》(GDPR),確保系統安全與隱私保護符合全球標準。

2.標準化管理流程確保AI應用安全

本中心相關法規與標準,制定標準化流程涵蓋AI產品申請、審核及持續監測三大核心環節,以確保負責任AI應用的安全性與隱私保護,為醫療團隊及使用者提供更可靠的智慧醫療把關。

 ▌九大透明性原則及可解釋性分析

我們透過九大透明性原則,結合可解釋性分析(Explainability Analysis,確保醫療AI的決策過程可理解、可信賴,並為醫療機構提供清晰的監管框架。

依據九大透明度原則裡的量化指標及可解釋性分析為標準依據,定期監測與管理機制為負責任AI落地管理重要原則,並落實停用或再調校機制,具有明確啟動停用程序權責單位、標準化作業流程、標準下限值等定義與執行方式。

本中心的目標是在新AI產品進入醫院執行時,逐步導入負責任AI管理機制,確保AI決策過程資訊透明,有利於醫療使用團隊可理解,讓AI技術能真正提升醫療效益,而非增加風險。

運用細節與輸出結果
Details and output of the intervention
運用目的
Purpose of the intervention
範圍外使用警示
Cautioned Out-of-Scope Use of the intervention
開發細節及輸入特徵因子
Intervention development details and input features
確保開發公平性
Process used to ensure fairness in development of the intervention
外部驗證
External validation process
模型品質的衡量指標
Quantitative measures of performance
實施和使用的持續維護
Ongoing maintenance of intervention implementation and use
更新和驗證或公平性
Update and continued validation or fairness assessment schedule

▌AI生命週期管理

1.簡介

人工智慧在醫療領域的應用須確保安全性、合規性及持續有效性,因此AI生命週期管理(AI Lifecycle)成為醫院導入AI的重要管理機制。AI技術應用全程均需納入風險評估與監測,以確保模型的穩定性、準確性與透明性。

2.監測標準與應變機制

本院對導入的AI技術採取全生命週期監測機制,透過以下措施確保其安全與穩定性:

  • 監測標準
    • 依據九大透明性原則與可解釋性分析,訂定可量化的監測指標,如模型準確度、偏差率、解釋性評估分數等。
    • 定期(如每年)進行監測,以確保AI系統符合標準。
  • 異常應變機制
    • 若監測指標低於規範下限,負責任AI執行中心即啟動AI停用機制,防止潛在風險擴大。
    • 相關異常將提報至負責任AI臨床落地委員會進行審查,確保決策透明。
  • 修正與重新驗證
    • 停用後,原申請單位須重新驗證並校調AI模型,確保其達到標準要求。
    • 直至監測指標數據回復至合格範圍,才允許恢復AI應用,確保臨床決策輔助的安全性與可靠性。