第八屆臺中醫法論壇暨第三屆彰化醫法論壇手冊

Page 1




人工智慧所面臨之 醫療倫理問題 國立臺灣大學醫學院 蔡甫昌教授


澄 清 醫 護 管 理 雜 誌 CHENG CHING MEDICAL JOURNAL

醫學倫理暨病人安全論壇

人工智慧醫療應用與倫理準則 蔡甫昌、胡嘉輝 國立臺灣大學醫學院 醫學教育暨生醫倫理學科暨研究所

摘要

AI醫療運用概述

本文介紹人工智慧之定義與醫療研發應用之範 疇,探討歐盟及我國科技部所頒佈之人工智慧倫理 指引,期能提供國內AI醫療研發者於進行研究時能 建立清晰的倫理思維,而一般讀者亦可據此來關心 其應用並進行監督。(澄清醫護管理雜誌 2020; 16(2) :4-8)

一、AI之定義

世界醫師會(World Medical Association)認為: 「AI 由大量的電資方法(Computational Methods) 所實現,經由這些方法所架設的系統可以執行與人 類難以區分(Indistinguishable)的智能行為」[3]。 然而,世界醫師會認為就算機器擁有上述能力,

前言

也無法全面取代醫師及醫病關係,提出『擴增智 能』(Augmented Intelligence)的替代概念,以增進

近年來人工智慧(Artificial Intelligence, AI)的

人類智能為前提,扮演輔助人類之角色 [3]。歐盟

研發與應用突飛猛進,且有超越人類之趨勢。例如

人工智慧高級專家小組(High Level Expert Group on

Google DeepMind 所研發的下棋程式屢次擊敗棋王、

Artificial Intelligence, HLEG)則定義:AI 泛指以模

IBM Debater 也在劍橋聯合會(Cambridge Union)辯

仿人類智能為導向的技術,或具備執行類似人類智

論會中,獲得 51.22%聽眾的支持擊敗人類團隊 [1]。

能行為能力的軟體或軟硬體系統。

許多資源也投注在 AI 醫療照護研發與應用,期能

二、AI之醫療運用

提升人類的醫療與健康福祉。

AI 之醫療運用可簡要歸納為以下範疇 [5]:

然 而 AI 的 研 發 及 運 用 將 帶 來 各 種 倫 理、 法

(一)輔助診斷:基於深度學習在圖像辨識的成

律、社會衝擊,例如人們質疑 AI 決策機制的黑箱問

效顯著,又能夠快速處理大量訊息,使得 AI 在醫

題(Black-box Problem)、AI 決策可能反映或激化

療影像診斷廣泛被使用。電子健康記錄(Electronic

人類偏見、AI 造成傷害時責任如何歸屬、AI 將取代

Health Records, EHRs)使得 AI 在即時性臨床診斷上

人類造成失業潮…等。AI 倫理學(AI Ethics)因而

更具潛力。AI 被廣泛認為可以大幅降低醫師在診斷

受到學界與業界之重視,各國政府與國際組織(例

工作上的負擔,並減少醫療錯誤 [5]。

如歐盟及經濟合作暨發展組織 OECD)亦投注資源

(二)健康追蹤及個人化醫療:隨著物聯網(Internet

研究 AI 之倫理法律社會問題,並且建立政策與指

of Things, IoT)技術之普及,智慧式穿戴裝置能即

引 [2]。本文介紹 AI 之定義、AI 醫療研發之類型、

時與健康應用程式及社交平台串聯,使大量健康相

探討歐盟及臺灣之 AI 倫理指引,期能提供國內 AI

關資訊得在醫療場域外被收集。例如精神科運用 AI

醫療研發者於研究進行時能建立清晰的倫理思維。

針對憂鬱症者之情緒開發電子追踪工具,緩解精神 科人力不足之壓力 [5]。將 EHRs、通過 IoT 所收集 的各式病人資訊、家庭史、DNA 等資料進行結合判

通訊作者:蔡甫昌 通訊地址:臺北市中正區仁愛路一段一號 E-mail:fctsai@ntu.edu.tw

.4

讀與研發,乃當前醫療 AI 趨勢,推升個人化醫療。 (三)分流(Triage)及資源分配:AI 可融入繁忙 的臨床工作流程(Clinical Workflow),將醫療資源


澄 清 醫 護 管 理 雜 誌 CHENG CHING MEDICAL JOURNAL

進行有效率而公平的分配。AI 可依據不同參數對

信任的 AI 有三項組成要件(Components)[4]:

病況進行預後預測,包括各種症狀及併發症的發生

1. 合乎法律的 AI(Lawful AI): AI 的運作須合乎所

率、致死率(Mortality)、回診率(Readmission)等,

有適用的歐盟、國家及國際層級的法律與管制條

有助於資源分配之考量 [5]。

例,及各個特定領域(Domain-specific)的條例。

(四)臨床研究及新藥開發:AI 可加速研究效率、

2. 合 乎 倫 理 的 AI(Ethical AI): 法 律 或 許 無 法 及

設計及製造新藥物、預測藥物脫靶效應及毒性等。

時 跟 上 科 技 之 快 速 發 展, 故 AI 須 符 合 倫 理 規

劍橋大學及曼徹斯特大學聯合開發的機器人『伊

範(Ethical Norms)。

芙』(Eve),發現牙膏中可用來製造抗瘧疾藥物

3. 強 健 的 AI(Robust AI): 即 使 AI 能 夠 合 乎

成分而引起藥廠興趣 [5]。

倫 理 地 運 作, 也 不 能 保 證 不 會 帶 來 無 意 的 傷

(五)其他:如照護機器人、長期照護、病房監控

害(Unintentional Harms)。技術上 AI 不僅應避免

的 AI 應用。

可預見的傷害,也應依據脈絡及環境因素來運作。

AI倫理指引

歐 盟 準 則 以「AI 系 統 生 命 週 期(AI System

AI 倫 理 學 屬 於 應 用 倫 理 學 的 領 域, 專 注 於

Life Cycle)」作為 AI 倫理學的主軸,包含 AI 的

研 發(Development)、 部 署(Deployment) 及 運

發展、部署及運用 [4]。歐盟準則的前提是應用於

用(Usage)AI 時所產生的倫理議題;AI 倫理學所

AI 系統生命週期的法律權利與義務都是強制性且

討論對象不只涵蓋技術本身,也探討可能參與之利

必須被遵守的。準則提出四項「倫理原則(Ethical

害關係者(Stakeholders),如公司、研發人員、政

Principles)」及由此導出之七項「倫理要件(Ethical

府機關、公民社會團體、個人等應當扮演的角色及

Requirements)」; 倫 理 要 件 之 下 有「 技 術 性 方

所具備的倫理敏感度 [4]。以下介紹歐盟《可信任

法(Technical Methods)」及「非技術性方法(Non-

AI 倫理準則》(Ethics Guidelines for Trustworthy AI,

Technical Methods)」作為實踐方針,最後有「評估

以下簡稱歐盟準則)[4] 以及我國科技部之《人工

表(Assessment List)」做為檢核之用。

智慧科研發展指引》[6],這些文獻闡述 AI 科研人 員所應遵守之倫理原則。 一、歐盟《可信任AI倫理準則》

(一)背景及基本架構

二、以人為中心進路(Human-Centric Approach)及 四項倫理原則

歐盟準則主張 AI 倫理學必須以人類基本權利 作為論述基礎,依據歐盟憲章(EU Charter)、歐

為 提 升 公 私 部 門 對 AI 的 投 資 及 使 用、 因 應

盟協議(EU Treaties)及國際人權法律,歸納五項

AI 所 帶 來 的 社 經 變 遷 及 確 立 一 個 能 強 化 歐 洲 價

基本權利:(一)尊重人性尊嚴;(二)個體自

值(Europeans Values) 之 倫 理 及 法 律 框 架, 歐 盟

由;(三)尊重民主、正義及法制;(四)平等、

委 員 會(European Commission) 於 2018 年 6 年 成

非歧視性及團結;(五)公民權利 [4]。人性尊嚴

立 High-Level Expert Group on Artificial Intelligence,

乃所有人類都具有之內在價值(Intrinsic Worth),

HLEG(以下簡稱 HLEG)。HLEG 由企業、學術及

不能被其他價值或事物(包括 AI)所減損、妥協

公民團體共計 52 名成員所組成,負責訂定 AI 倫理

或壓制。據此,尊重人性尊嚴意味著將每位人類

指引(AI Ethics Guidelines)及政策與投資建議(Policy

視為道德主體(Moral Subjects)看待,讓人類享有

and Investment Recommendations)。2019 年 4 月 8 日,

基本權利,也尊重人類所獨享、無可剝奪之道德地

HLEG 發布一般性指引(Guidance in General),確立

位(Moral Status)及人性尊嚴 [4]。基於歐盟憲章乃

可信任的 AI (Trustworthy AI)之願景。

具有法律約束力,伸張基本權利的 AI 也具備『合

歐 盟 準 則 認 為, 經 由 民 主、 法 制 及 基 本 權

乎法律 AI』的組成要件。

利(Fundamental Rights)的支持,AI 可在此環境下

以 人 為 中 心 進 路 的 AI 系 統 生 命 週 期 乃 是 合

持續精進及保衛民主文化,使創新及負責任的競

乎 上 述 價 值, 也 重 視 與 人 類 生 態 系 統(Human

爭(Responsible Competitiveness)得以實現 [4]。可

Ecosystem)息息相關的自然環境及其他生物,現 5.

Vol. 16 No.2 Apr. 2020

第十六卷 第二期 二○二○ 四月


澄 清 醫 護 管 理 雜 誌 CHENG CHING MEDICAL JOURNAL

今的人類必須採取永續性進路來保障未來世代的福

(四)可解釋性原則(The Principle of Explicability):

祉 [4]。以人為中心進路的 AI 提出四項倫理原則:

透明性(Transparency)意味著 AI 所具備的能力與

(一)尊重人類自主原則(The Principle of Respect

製造目的必須經過公開的協商;AI 之決策生成機制

for Human Autonomy):在人類與 AI 互動的過程

也要能夠對直接與間接受到 AI 決策所影響的對象

中,人類必須能擁有完全及有效的自主。AI 應該擴

進行解釋。然而「黑箱問題」使這種解釋不會一直

增(Augment)、補充及鼓勵人類之認知、社交及

存在,而應考慮使用其他解釋機制(例如可回溯性、

文化技能;不可脅迫、欺騙、操控人類,或將人類

可稽核性及針對系統所擁有的能力進行公開透明的

從屬於其下。人類及 AI 所能分別從事的任務必須

溝通)。在選擇採納何種解釋機制時,應視脈絡及

遵從『以人為中心進路』—人類必須被賦予有意義

後果之嚴重性而決定。

的選擇(Meaningful Choice)。此原則也要求 AI 之

歐盟準則強調上述四項原則並不存在位階

運作必須要有人類之監督(Human Oversight)。AI

關 係(Hierarchy), 實 際 運 用 時 不 免 會 遭 遇 衝 突

也應該在各種職業環境中支持人類,以創造有意義

或 張 力, 準 則 建 議 三 項 調 和 張 力 的 方 法:(1)

的工作(Meaningful Work)。

通 過 公 開 的 民 主 參 與 機 制, 以 進 行 負 責 任 的 審

(二)預防傷害原則(The Principle of Prevention of

議(Accountable Deliberation);(2)AI 所帶來長

Harm):AI 不可造成及加劇傷害,或執行會危害

遠好處必須超越任何可能帶來的風險;(3)在缺

人 類 的 任 務。 這 表 示 AI 技 術 上 必 須 強 健、 抵 禦

乏倫理上可接受之代價產生時,必須堅守某些特

惡意之使用,以保護人性尊嚴及人類身心之完整

定、絕對的基本權利,如人性尊嚴 [4]。

性。 在 AI 系 統 生 命 週 期 中, 應 注 意 易 受 傷 害 族

三、七項倫理要件及實作方法

群(Vulnerable Persons or Groups)及因資訊或權力

為 實 現 可 信 任 的 AI, 各 個 參 與 AI 系 統 生

不對等所造成的不欲後果。此原則也適用於避免對

命週期的利害關係者(Stakeholders),包括開發

自然環境和所有生物造成傷害。

者(Developers)、部署者(Deployers)、終端使用

(三)公平原則(The Principle of Fairness):公平

者(End-Users)與所有可能被 AI 所直接及間接影

性區分為實質向度(Substantive Dimension)及程序

響的人們,應被賦予不同的倫理要求。歐盟準則按

向度(Procedural Dimension)。前者乃確保對利益

照上述四項倫理原則,進一步歸納七項倫理要件,

與負擔之平等與公正的分配、使個人及群體免於不

不僅制定了 AI 系統應持有之系統層面(Systemic)

公平之偏差、歧視與污名,在手段與目的之間遵守

要求,更著眼將個人(Individual)及社會(Societal)

比例原則(Principle of Proportionality Between Means

的考量亦納入 [4]。這七項倫理要件與倫理原則之

and Ends),謹慎地在競爭之利益與目標間尋求平

對應關係如表一。歐盟準則並不認為只有單一或若

衡。後者要求人們得以對 AI 之決策及其操控者能

干利害關係者需要接受倫理制約,而是盡可能涵蓋

提出有效的異議與糾正;決策負責者應該能夠被識

所有可能的參與者;而每項倫理要件之內涵都與原

別,決策過程必須能夠被解釋。

則相互呼應。

表一 倫理原則與倫理要件之對應關係 倫理原則

倫理要件

1. 尊重人類自主性原則

維繫人性及監督(Human Agency and Oversight)

2. 預防傷害原則

技術強健及安全性(Technical Robustness and Safety) 隱私及數據治理(Privacy and data Governance) 社會及環境福祉(Societal and Environmental Well-Being)

3. 公平原則

多元、非歧視及公平性(Diversity, Non-Discrimination and Fairness) 可問責性(Accountability)

4. 可解釋性原則

.6

透明性(Transparency)


澄 清 醫 護 管 理 雜 誌 CHENG CHING MEDICAL JOURNAL

歐盟準則也提出五項技術性方法及七項非技 術性方法以實踐可信賴的 AI。技術性方法包括:

觀與背景之 AI 社會。 針對實作指引方面,AI 科研人員應施行以下

可信任的 AI 之架設(Architectures for Trustworthy

八項:

AI)、 倫 理 及 法 制 之 設 計(Ethics and rule of law

1. 共榮共利:致力於多元文化、社會包容、環境永

by Design)、解釋方法(Explanation Methods)、

續,及保障人類身心健康、創建全體人民利益、

測試及驗證(Testing and Validation)、設立服務

總體環境躍升之 AI 社會。

品質指標(Quality of Service Indicators)。非技術

2. 公平性與非歧視性:確保 AI 之決策平等尊重所有

性 方 法 包 括: 管 理 規 範(Regulation)、 行 為 守

人之基本人權與人性尊嚴,避免產生偏差與歧視

則(Codes of Conduct)、標準化(Standardisation)、

等風險,並建立外部回饋機制。

認證制度(Certification)、管制架構確立可問責

3. 自主權與控制權:AI 係以輔助人類決策的工具,

性(Accountability via Governance Frameworks)、

並能讓人類能擁有完整且有效的自主、自決與控

教 育 及 認 知 提 升 以 培 育 倫 理 思 維(Education and

制的權利。

Awareness to Foster an Ethical Mind-Set)、利害關 係者之參與及社會對話(Stakeholder Participation

4. 安全性:AI 之安全性應包括但不限於穩健性、網 路與資訊安全、風險控管與監測。

and Social Dialogue)、具多元及包容性之設計團

5. 個人隱私與數據治理:注意個人資料蒐集、處理

隊(Diversity and Inclusive Design Teams)。歐盟準

及利用符合相關法令規範,並針對 AI 系統內部之

則強調,基於 AI 乃在動態的環境中運作,針對應

個人資料架構有適當的管理措施。

滿足何種倫理原則及落實何種倫理要件,需由利

6. 透明性與可追溯性:AI 之運作機制需進行最低限

害關係者們針對 AI 不同之運用及脈絡而提出。當

度的資訊提供與揭露,包括但不限於對於模組、

在考慮應實施何種實作方法時,也必須做出持續

機制、組成、參數及計算等。AI 技術之發展與應

性(Ongoing)的評估及證成,以顯示 AI 的系統設

用須遵循可追溯性要求,對於決策過程中包括但

計、部署及使用上皆能滿足先前訂定之倫理原則及

不限於資料收集、資料標籤以及所使用的演算法

要件 [4]。

進行適當記錄,並建立相關紀錄保存制度,以利

四、臺灣科技部《人工智慧科研發展指引》

本 土 AI 倫 理 指 引 進 展 方 面, 我 國 科 技 部 於 2019 年 9 月發布《人工智慧科研發展指引》[6]。此 文件指出 AI 科研人員必須與其他利害關係者共同 打造符合普世期望、促進人機合作及值得信賴的 AI 環境。為擴增 AI 之益處,並消弭 AI 可能帶來的歧 視、偏見、濫用及排除的風險,此份文件提出三個 AI 所遵從之價值,輔以八項 AI 科研人員所需遵從 的指引 [6]。 AI 科研人員必須與其他利害關係者密切合作 及對話,以冀 AI 科研可滿足三大價值: (一)以人為本:提升人類生活、增進人類福祉、 及尊重人性尊嚴、自由與基本人權。 (二)永續發展:追求經濟成長、社會進步與環境

救濟及事後釐清。 7. 可解釋性:除了致力權衡決策生成之準確性與可 解釋性,並應盡力以文字、視覺、範例進行事後 的說明、展現與解釋。 8. 問責與溝通:問責制度應包括但不限於決策程序 與結果的說明、使用者與受影響者之回饋管道。 由此可見,科技部以普世價值的刻畫為起點, 輔以較明確的實作方向,期望在科研階段時盡量減 少 AI 可能產生的風險;並基於科研人員擁有專業 知識,應扮演各個利害關係者中介之角色,以期將 這些倫理價值實踐於 AI 之研發與應用中,以增益 人類福祉。

結語 AI 之醫療研發及應用已廣泛開展,相關倫理

保護間之利益平衡。

法律社會挑戰亦接踵而至,本文介紹歐盟及臺灣發

(三)多元包容:積極啟動跨領域對話機制,普惠

佈之 AI 倫理指引,期能提供給 AI 研發人員、利害

全民對 AI 的理解與認知,以創建及包容多元價值

關係者、醫療機構、政策制訂者等,於面對相關倫 7.

Vol. 16 No.2 Apr. 2020

第十六卷 第二期 二○二○ 四月


澄 清 醫 護 管 理 雜 誌 CHENG CHING MEDICAL JOURNAL

理議題時可參考依循,進而提升 AI 研發應用之倫 理品質,保障民眾權益與社會福祉。

3. World Medical Association: WMA statement on augmented intelligence in medical care. 2019. Retrieved from http://bit.ly/2uKrC5D 4. High-Level Expert Group on Artificial Intelligence:

參考文獻 1. Moskvitch K: Augmenting humans: IBM’ s project debater AI gives human debating teams a hand at Cambridge. 2019. Retrieved from http://bit.ly/39aF7dT 2. Algorithm Watch: AI ethics guidelines global inventory. 2019. Retrieved from http://bit.ly/3cphq3F

.8

Ethics guidelines for trustworthy AI. 2019. Retrieved from http://bit.ly/3ahkqgv 5. Topol EJ: High-performance medicine: the convergence of human and artificial intelligence. Nature Medicine 2019; 25(1): 44-56. 6. 科 技 部 : 人 工 智 慧 科 研 發 展 指 引 ( 1 0 8 年 9 月 版)。2019。Retrieved from http://bit.ly/39lzUAc


病歷與健康資料研究 應用之倫理與法律 國立臺灣大學醫學院 蔡甫昌教授


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

ੰᐕᆶ଼நၗ਑ࣴ‫ز‬ᔈҔϐউ౛ᆶ‫!ࡓݤ‬ ጾ‫!ܿط‬೅ԇઍ!ങࠀⱓ!ဨᐎۣ! ᄔाǺᔈҔεኧᏵ‫ܭ‬ғ‫ނ‬ᙴᏢϷΓπඵችሦୱϐࣴวǴ٬ளੰᐕϷ଼நၗ਑٬Ҕ‫زࣴܭ‬ϐख़ा‫܄‬ᆶВॿ ቚǶࡌҥੰᐕᆶ଼நၗ਑৤‫ٮ‬ᙴᏢࣴ‫ز‬Ǵ٠ᆶғ‫ނ‬Ϸ୷Ӣၗ਑৤຾ՉՍೱǴԋࣁ୯ሞғᙴࣴ‫ز‬ཥᖿ༈Ǵ ‫زࣴੋ܌ځ‬উ౛ᆶ‫ࡓݤ‬ୢᚒҭ஥ٰཥ‫ࡷޑ‬ᏯǶҁЎ२Ӄឍ଼ܴநၗ਑ϐ‫ۓ‬ကϷᔈ‫ߥڙ‬ៈϐ੝ਸ‫܄‬ǵ௖૸ ੰᐕ‫܌‬Ԗ៾ᘜឦǵ҇౲ჹ଼நၗ਑٬Ҕϐᄊࡋǵᆵ᡼଼ߥၗ਑৤ນ೜ਢǵѐ᛽ձϯᆶ٣ࡕଏр៾ǵୖᆶ ࣴ‫ز‬ϐၰቺက୍ǵനࡕගрჹ‫ך‬୯଼நၗ਑ࣴ‫ز‬ᆶ‫ݯ‬౛ϐЬ஭Ǵයૈග‫ٮ‬҂ٰ࣬ᜢ‫ݤ‬ೕᆶࡹ฼‫ुڋ‬ϐୖ ԵǶ ᜢᗖຒǺੰᐕၗ਑Ǵ଼நၗ਑ࣴ‫ز‬ǴHIPPAǴGDPRǴ଼ߥၗ਑৤ນ೜Ǵୖᆶࣴ‫ز‬က୍ (Ѡ᡼ᙴᏢ Formosan J Med 2020;24:471-89) DOI:10.6320/FJM.202009_24(5).0001

߻!‫!ق‬

傥ẍᶵ⎴⎵娆䧙ᷳ炻ẍᶳẍᶾ䓴慓ⷓ㚫⎘⊿⭋妨 (WMA Declaration of Taipei)ˣ伶⚳‍⹟ᾅ晒⎗㓄⿏

ㅱ䓐䕭㬟⍲‍⹟屯㕁㕤慓⬠冯℔ℙ堃䓇䞼䨞

⍲ 屔 ả 㱽 (Health

Insurance

Portability and

⶚㚱攟怈㬟⎚炻役⸜Ἦ炻䳸⎰⣏㔠㒂⍲Ṣⶍ㘢ㄏ㕤

Accountability Act, HIPAA)ˣ㫸䚇ᶨ凔屯㕁ᾅ嬟夷

䓇䈑慓⬠⍲慓䗪䄏嬟ᷳ䞼䨞炻⶚ㆸ⚳晃嵐⊊炻ḇ㗗

⇯(General Data Protection Regulation, GDPR)⍲ㆹ

ㆹ⚳䥹䞼墄≑慵溆炻忁ἧ⼿䕭㬟⍲‍⹟屯㕁䞼䨞ᷳ

⚳ᾳṢ屯㕁ᾅ嬟⍲慓䗪屯㕁䚠斄夷䭬炻㬠䲵‍⹟屯

慵天⿏冯㖍ᾙ⡆ˤ劍⮯䕭㬟⍲‍⹟屯㕁⹓冯䓇䈑⍲

㕁ᷳ⭂佑ˤ

➢⚈屯㕁⹓忚埴ᷚ忋炻ℵ䳸⎰⎬⺷⎬㧋䘬‍⹟屯㕁 (㬣ṉˣ䗴䕯ˣ喍⑩慓㛸ˣ⨎⸤堃䓇ˣㄊ⿏䕭ˣ䱦

΋.ġġ WMA Ѡч࠹‫ق‬

䤆䕦䕭Ƀ)⍲朆‍⹟䚠斄屯㕁(㇞㓧ˣ屉䦭ˣ㯋῁ˣ

2016 ⸜ᶾ䓴慓ⷓ㚫䫔 67 㫉⣏㚫忂忶ˬ⎘⊿⭋

⓮⊁ˣṌ忂ˣ䵚嶗ˣ怟⽁Ƀ)ὃ慓⬠⍲朆慓⬠䞼䨞炻

妨烉‍⹟屯㕁⹓冯䓇䈑屯㕁⹓ᷳΐ䎮侫慷

枸㛇⮯⎗ⷞἮ䆮䘤⿏䘬䓊↢炻℞怲䓴䪗㬊㕤䞼䨞侭 䘬゛⁷冯∝忈≃ˤ䃞侴ἧ䓐⎗彐嬀ᷳṢ栆屯㕁忚埴

(Declaration of Taipei on Ethical Considerations regarding Health Databases and Biobanks)˭㖐⛐崓䇦

慓⬠䞼䨞炻⎹ἮⰔ㕤䞼䨞ΐ䎮ᷳ䭬䔯炻ᶾ䓴慓ⷓ㚫

彃➢⭋妨䘬⍇⇯ᶳ炻ẍ慓䗪䄏嬟忶䦳⮵䕭Ṣ⎗彐嬀

1964 ⸜ᷳ崓䇦彃➢⭋妨⍲ 2016 ⸜⎘⊿⭋妨⌛≈ẍ

屯㕁⍲䓇䈑㩊橼䘬㍉普ˣ⃚⬀冯ἧ䓐䁢䭬䔯炻憅⮵

㍊妶冯夷䭬炻侴晐叿㔠㒂䥹⬠(data science)䞼䨞柀

‍⹟⍲䓇䈑屯㕁⹓䘬ἧ䓐炻㍸ὃΐ䎮⍇⇯ˤ㟡㒂㬌

➇䘬䘤⯽炻℞㇨㴱䞼䨞ΐ䎮冯㱽⼳⓷柴ṎⷞἮ㕘䘬

⭋妨炻ˬ‍⹟屯妲(health information)˭㊯烉‍⹟䄏

㊹㇘ˤ

嬟㍸ὃ忶䦳ᷕ炻䓙慓ⷓㆾ℞Ṿ慓䗪⛀昲ㆸ⒉㓞普炻 ẍ姀抬慓䗪䄏嬟ね㱩炻᷎⛐⮵䕭Ṣ䘬㊩临䄏嬟ᷕ⋼

଼நၗ਑‫ۓޑ‬က

≑慓ⷓˤˬ‍⹟屯㕁⹓(health database)˭⇯⭂佑䁢

⎬㔯䌣ᷳ㇨媪‍⹟屯㕁⭂佑⣂㚱ᶵ⎴炻ḇ⎗

㓞普ˣ⼁㔜␴⃚⬀‍⹟屯妲䘬䲣䴙[1,2]ˤ

⎘⣏慓⬠昊慓⬠㔁做㙐䓇慓ΐ䎮⬠䥹㙐䞼䨞㇨ˣ⎘⣏慓昊慓⬠䞼䨞悐 ⍿㔯㖍㛇

2020 ⸜ 7 㚰 30 㖍

㍍⍿㖍㛇

2020 ⸜ 8 㚰 7 㖍

忂妲ἄ侭倗䴉嗽烉哉䓓㖴炻⎘⣏慓⬠昊慓⬠㔁做㙐䓇慓ΐ䎮⬠䥹㇨炻⎘⊿ⶪṩッ嶗ᶨ㭝ᶨ嘇ˤ E-mail: fctsai@ntu.edu.tw

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

471


Health Data and Ethical Legal Issue in Research Application

堐ᶨ烉㫸䚇 GDPR 屯㕁栆✳⭂佑 枭䚖 ℏ㵝 ➢⚈屯㕁 ㊯冯⃰⣑怢⁛ㆾ⼴⣑➢⚈䈡⽝䚠斄䘬ᾳṢ屯㕁炻㬌屯㕁⎗㍸ὃᾳṢ䌐䈡ᷳ䓇䎮ㆾ ‍⹟屯妲炻⯌℞㗗㊯⽆ᾳṢ䓇䈑㩊橼↮㜸侴Ἦ䘬(GDPR Article 4(13))ˤ 䓇䈑䈡⽝屯㕁 ㊯德忶䈡⭂㈨埻嗽䎮㇨⼿冯ᾳṢ幓橼ˣ䓇䎮ㆾ埴䁢䈡⽝䚠斄䘬屯㕁炻ᶼ㬌屯㕁⎗ ⃩姙ᾳṢ塓嬀⇍ㆾ䡢娵幓↮炻ἳ⤪Ṣ共⼙⁷ㆾ㊯䲳(GDPR Article 4(14))ˤ 冯‍⹟䚠斄屯㕁 ㊯冯ᾳṢ幓橼ㆾ⽫䎮‍⹟䚠斄䘬屯㕁炻⊭㊔⎗德曚℞‍⹟䉨ン屯妲䘬‍⹟䄏嬟㚵 ⊁屯㕁(GDPR Article 4(15))ˤ ㇨㚱㎕䣢ᾳṢ忶⍣ˣ䎦⛐冯㛒Ἦ䓇⽫䎮‍⹟䉨ンᷳ屯㕁炻⊭⏓ẍᶳ屯妲(Recital 35, GDPR)烉 1. ➢㕤㫸䚇ᾅ晄䕭Ṣ嶐⠫慓䗪㪲䙲㇨吸普ᷳ屯㕁烊 2. ➢㕤‍⹟䚖䘬䓐ẍ嬀⇍ᾳṢ䘬嘇䡤ˣ㧁娴ㆾ䌐䈡㧁嬀烊 3. ⮵幓橼悐ỵㆾ䳬ㆸ忚埴㩊㷔ㆾ㩊㞍㇨埵䓇䘬屯妲炻⊭㊔➢⚈屯㕁冯䓇䈑㩊橼烊 4. ℞Ṿảỽ䌐䩳㕤屯㕁ᷣ橼⢾䘬‍⹟屯妲(朆䓙Ṣ橼ℏ悐埵䓇)炻ἳ⤪䓙慓ⷓˣ℞ Ṿ慓䗪⮰㤕Ṣ⒉ˣ慓昊ˣ慓䗪☐㛸ˣ橼⢾䘬姢㕟㩊㷔⍾⼿炻⊭㊔ᾳṢ䕦䕭ˣ㭀䕦ˣ 伡䕭桐晒ˣ䕭⎚ˣ冐⸲㱣䗪ˣ䓇䎮ㆾ慓⬠䉨ン䫱屯妲ˤ

Β.ġġ ऍ୯ HIPAA ᷣ天夷䭬ᾳṢ慓䗪ᾅ晒屯㕁⎗㓄⿏⍲℞晙䥩 ᾅ嬟炻㇨媪ˬ‍⹟屯妲(health information)˭㊯⊭⏓ ➢⚈屯妲⛐ℏ炻ảỽ德忶⎋柕ㆾẍảỽ⼊⺷㇨ 䘬 ẍᶳ䲨抬烉 1.

䓙ẍᶳ╖ỵ㇨⺢䩳ㆾ㍍㓞烉 烉 ‍⹟䄏嬟㍸ὃ侭 (⤪慓昊)ˣ‍⹟妰䔓ˣ℔ℙ堃䓇ᷣ䭉㨇斄ˣ景 ᷣˣṢ⢥ᾅ晒ˣ⬠㟉ˣㆾ‍⹟䄏嬟Ṍ㎃㇨(health care clearinghouse烊⋼≑‍⹟䄏嬟㍸ὃ侭炻ḳ ⃰㩊㞍℞慓䗪ᾅ晒㟠扟䘬䓛婳㗗⏎㬋䡢冯⎗ ⏎忂忶䘬㚵⊁)烊

2.

➢㕤ẍᶳ䚖䘬烉冯ᾳṢ忶⍣ˣ䎦⛐ㆾ㛒Ἦ䘬

屯㕁ℏ㵝⤪堐ᶨˤ ㆹ⚳䚠斄夷䭬炻㟡㒂 2015 ⸜ 12 㚰 30 㖍ᾖ㬋 ᷳ˪ᾳṢ屯㕁ᾅ嬟㱽˫䫔 2 㡅䫔 1 㫦冯䫔 6 㡅䫔ᶨ 枭炻冒䃞Ṣᷳ䕭㬟ˣ慓䗪ˣ➢⚈ˣ‍⹟㩊㞍䘮Ⱄᾳ Ṣ屯㕁炻ᶼⰔ㕤⍇⇯ᶵ⼿吸普ˣ嗽䎮⍲⇑䓐䘬ˬ䈡 䧖ᾳ屯˭ˤ㚱斄⇵徘⸦栆䈡䧖ᾳ屯ᷳℏ㵝炻⎗⍫侫 堐Ḵˤ 㬌⢾炻㓧⹄➢㕤‍⹟ᾅ晒䚖䘬侴㓞普ᷳᾳṢ‍ ᾅ屯㕁炻㟡㒂⎠㱽⮎⊁夳妋ṎⰔ⍿˪ᾳṢ屯㕁ᾅ嬟 㱽˫ᾅ嬟ᷳ䈡䧖ᾳ屯䭬䔯(慓䗪ㆾ‍⹟㩊㞍屯㕁)(⍫ 㚨檀埴㓧㱽昊 103 ⸜⇌⫿䫔 600 嘇埴㓧⇌㰢)ˤ

଼நၗ਑ϐ੝ਸ‫!܄‬

䓇⽫䎮‍⹟冯䉨ン䚠斄烊䁢㍸ὃᾳṢ‍⹟䄏 嬟烊䁢㍸ὃᾳṢ忶⍣ˣ䎦⛐冯㛒Ἦ‍⹟䄏嬟 ᷳ屣䓐(45 CFR 160.103)ˤ Ο.ġġ ኻ࿉ GDPR

ㆹ⚳˪ᾳṢ屯㕁ᾅ嬟㱽˫㕤 2010 ⸜忚埴ℐ朊 ᾖ㬋炻℞ᷕ䫔 6 㡅⮯䕭㬟ˣ慓䗪ˣ➢⚈ˣ⿏䓇㳣ˣ ‍⹟㩊㞍⍲䉗伒⇵䥹ᷳᾳṢ屯㕁炻↿䁢⍇⇯ᶲᶵ⼿ 吸普ˣ嗽䎮ㆾ⇑䓐ᷳˬ䈡䧖ᾳ屯˭ ˤᷣ天侫慷娚栆屯

憅⮵㫸䚇⠫ℏᾳṢ屯㕁嗽䎮冯㳩忂ᷳℙ忂⿏

㕁庫䁢䈡㬲炻ㆾ℟㓷デ⿏炻⤪ảシ吸普ˣ嗽䎮ㆾ⇑

夷䭬炻慵溆⛐堉⸛⮵ᾳṢ屯㕁㪲⇑ᷳᾅ嬟炻᷎䵕㊩

䓐炻⿸㚫忈ㆸ䣦㚫ᶵ⬱炻ㆾ⮵䔞ḳṢ忈ㆸ暋ẍ⻴墄

屯㕁ᷳ冒䓙㳩忂ˤὅ GDPR 夷䭬炻䈡⭂䧖栆屯㕁

ᷳ   ⭛ ˤ ⍫ 惴 1995 ⸜ 㫸 䚇 屯 㕁 ᾅ 嬟 ㊯ Ẍ

⚈℞檀⹎㓷デ⿏冯㖻ἧᾳṢ➢㛔㪲星㕤桐晒炻ῤ⼿

(95/46/EC)ˣ⽟⚳倗恎ᾳṢ屯㕁ᾅ嬟㱽ˣ⍲⤏⛘⇑倗

⍿⇘䈡⇍ᾅ嬟炻℞ᷕ⊭㊔烉➢⚈屯㕁ˣ䓐ẍ嬀⇍冒

恎ᾳṢ屯㕁ᾅ嬟㱽䫱⢾⚳䩳㱽ἳ炻䘮㚱䚠ầ夷⭂ˤ

䃞Ṣᷳ䓇䈑䈡⽝屯㕁(biometric data)ˣ冯‍⹟䚠斄 屯㕁(data concerning health)䫱庫ⷠ夳㕤慓䗪⟜➇ 䘬屯㕁栆⇍(GDPR Article 9(1)烊Recital 51)ˤ⎬栆

472

㫸䚇㕤 2016 ⸜ 5 㚰 24 㖍忂忶ˣ2018 ⸜ 5 㚰 25 㖍㕥埴ᷳ˪ᶨ凔屯㕁ᾅ嬟夷⇯˫(GDPR)炻⍾ẋ

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

堐Ḵ烉ㆹ⚳ᾳṢ屯㕁ᾅ嬟㱽ᷕˬ䈡䧖ᾳ屯˭⭂佑 枭䚖 ℏ㵝 䕭㬟 ㊯˪慓䗪㱽˫䫔 67 㡅䫔Ḵ枭㇨↿ᷳ⎬㫦屯㕁烉 慓ⷓὅ˪慓ⷓ㱽˫➟埴㤕⊁㇨墥ἄᷳ䕭㬟 ⎬枭㩊㞍ˣ㩊槿⟙⏲屯㕁 ℞Ṿ⎬栆慓ḳṢ⒉➟埴㤕⊁㇨墥ἄᷳ䲨抬 慓䗪屯㕁 1. 䕭㬟 2. 䓙慓ⷓㆾ℞Ṿ慓ḳṢ⒉炻➢㕤㱣䗪ˣ䞗㬋ˣ枸旚Ṣ橼䕦䕭ˣ ⭛ˣ㭀仢䫱慓⬠ᶲᷳ㬋 䔞䎮䓙炻忚埴ᷳ姢⮇⍲㱣䗪䲨抬 3. ➢㕤ẍᶲ姢⮇䳸㝄炻㇨攳䩳䘬嗽㕡ˣ䓐喍ˣ㕥埻ㆾ嗽伖䲨抬 ➢⚈屯㕁 ↉⊭⏓Ṣ橼⍣㯏㟠態㟠愠䇯㭝ᷳ屯㕁ˤ ‍⹟㩊㞍 ⛐朆憅⮵䈡⭂䕦䕭姢㕟ㆾ㱣䗪ᷳ⇵㍸ᶳ炻ẍ慓䗪埴䁢㩊㞍ᾳṢ㇨䓊䓇ᷳ屯㕁ˤ ɈୖԵ‫ݤ‬చǺȠঁΓၗ਑ߥៈ‫ࡼݤ‬Չಒ߾(2016 ԃ 3 Д 2 В)ȡಃ 4 చಃ΋ǵΒǵΟǵϖ໨

1995 ⸜ᷳ屯㕁ᾅ嬟㊯Ẍ炻᷎䵕㊩⮵䈡⭂㓷デ屯㕁

ᾳ屯枰䫎⎰ἳ⢾ḳ䓙炻ℙ㚱 6 㫦ˤẍ‍⹟屯㕁䞼

ㅱḰẍ䈡⇍ᾅ嬟ᷳ夷䭬㧉⺷ˤ㟡㒂 GDPR炻昌⇵徘

䨞侴妨炻⎗ὅˬ䔞ḳṢ⎴シ˭忚埴炻ἳ⤪䚜㍍怨

ᷳ‍⹟屯㕁⢾炻↉㎕曚䧖㕷ㆾṢ䧖ˣ㓧㱣シ夳ˣ⬿

婳䕭Ṣ⍫冯䞼䨞炻婳℞䯥会䞍ね⎴シ㚠炻⎴シἧ

㔁ㆾ⒚⬠ᾉẘˣㆾ冯冒䃞Ṣᷳ⿏䓇㳣ㆾ⿏⁦⎹㚱斄

䓐℞䕭㬟䫱屯㕁忚埴䞼䨞(§6(I)(6))ˤㆾὅˬ℔⊁

ᷳᾳṢ屯㕁炻悥Ⱄ⍇⇯ᶲ䤩㬊嗽䎮ᷳ屯㕁栆✳

㨇斄ㆾ⬠埻䞼䨞㨇㥳➢㕤慓䗪ˣ堃䓇ㆾ䉗伒枸旚

(GDPR Article 9(1))ˤㅱḰẍ䈡⇍ᾅ嬟ᷳ䎮䓙⛐㕤

ᷳ䚖䘬炻䁢䴙妰ㆾ⬠埻䞼䨞侴㚱⽭天炻ᶼ屯㕁䴻

忁栆屯㕁ᶵ℟㚱庫檀ᷳ㓷デ⿏炻㚨ᷣ天㗗℞吸

忶㍸ὃ侭嗽䎮⼴ㆾ䴻吸普侭ὅ℞㎕曚㕡⺷䃉⽆嬀

普ˣ嗽䎮冯⇑䓐䘬忶䦳炻庫⭡㖻⮵ᾳṢᷳ➢㛔㪲(⤪

⇍䈡⭂ᷳ䔞ḳṢˤ˭ἳ⤪‍ᾅ会⮯吸普ᷳ㮹䛦‍

妨婾冒䓙ˣᾉẘ冒䓙ˣ普㚫䳸䣦冒䓙ˣṢ幓冒䓙ˣ

ᾅ屯㕁㍸ὃ䴎℞Ṿ埴㓧㨇斄⺢䩳‍ᾅ屯㕁⹓⌛Ⱄ

晙䥩㪲䫱)忈ㆸ⸚枸ㆾ⚈㬌⍿⇘㬏夾(GDPR Recital

㕤㬌栆(§6(I)(4))ˤ

51)[3]ˤ

㬌⢾炻‍⹟屯㕁⚈㓠斄ᾳṢ慓䗪⍲℔ℙ堃䓇炻

䚖⇵伶⚳᷎䃉⤪ㆹ⚳ㆾ㫸䚇ᷳᶨ凔ᾳṢ屯㕁

ṵ㚱℞Ṿ⼿ἳ⢾吸普ˣ嗽䎮冯⇑䓐ᷳね䉨炻⤪䔞ˬ㱽

䭉䎮夷䭬炻昌⎬ⶆ⎬冒㚱ᾳ屯ᾅ嬟夷䭬⢾炻⛐倗

⼳㚱㖶㔯夷⭂˭炻⊭㊔慓昊ὅ慓䗪䚠斄㱽夷ㅱ墥ἄ

恎Ⰼ䳂㚱憅⮵䈡⭂屯㕁䧖栆䘬ᾅ嬟夷䭬炻ἳ⤪烉

⍲ᾅ⬀䕭㬟炻ㆾ⬠㟉ὅ㱽ㅱ䁢⬠䓇彎䎮‍⹟㩊㞍炻

楽榃Ṣ晙䥩ᾅ嬟㱽(The Drivers Privacy Protection

⍲⮯䳸㝄庱ℍ⬠䓇屯㕁䫱(§6(I)(1))烊⎎⢾炻⤪慓ⷓ

Act) ˣ ⃺ 䪍 䵚 嶗 晙 䥩 ᾅ 嬟 㱽 (Children's Online

➢㕤⁛㝻䕭旚㱣䚖䘬吸普䕭Ṣ屯㕁ẍ忂⟙ᷣ䭉㨇

Privacy Protection Act)ˣ⼙䇯晙䥩ᾅ嬟㱽(Video

斄炻㬌⇯Ⱄ㕤ˬ℔⊁㨇斄➟埴ㆾ朆℔⊁㨇斄Ⰽ埴㱽

Privacy Protection Act)䫱烊ḇ㚱憅⮵䈡⭂悐攨炻⊭

⭂佑⊁ᷳ⽭天䭬⚵˭(§6(I)(2))ˤ

㊔⮵屧㖻ˣ慹圵ˣ暣ᾉˣ㔁做冯‍⹟䄏嬟炻℞ᷕ炻

侴䁢Ὣ忚ᾳṢ屯㕁ᷳἧ䓐炻 ˪ᾳṢ屯㕁ᾅ嬟㱽˫

HIPAA ⇯㗗⮵‍⹟䄏嬟䚠斄⮎橼㇨妪⭂䘬‍⹟屯

憅⮵➢㕤℔ℙ⇑䙲䚖䘬ᶼ㚱⽭天忚埴ᷳ⬠埻䞼

㕁晙䥩ᾅ嬟夷䭬[4,5]ˤ

䨞炻䔞屯㕁䴻嗽䎮ㆾὅ℞㎕曚㕡⺷⶚䃉⽆嬀⇍䔞ḳ

ẍ ᶳ 䯉 ṳ ㆹ ⚳ ˪ ᾳ Ṣ 屯 㕁 ᾅ 嬟 㱽 ˫ˣ 㫸 䚇

Ṣ㗪炻⮯㬌䲵ℍ 䁢⼿ˬ⃵昌⏲䞍佑⊁˭冯⼿䁢ˬ䈡

GDPRˣ冯伶⚳ HIPAA ᷕ斄㕤‍⹟屯㕁ἧ䓐冯䞼

⭂ 䚖 䘬 ⢾ ⇑ 䓐 ˭ ᷳ ḳ 䓙 (§9-2(4) ˣ §16-1(5) ˣ

䨞䘬䈡㬲夷䭬ˤ ΋/ġ‫ך‬୯ȠঁΓၗ਑ߥៈ‫ݤ‬ȡ! ΋/ġ‫ך‬୯ȠঁΓၗ਑ߥៈ‫ݤ‬ȡ! ‍⹟屯㕁Ⱄ㕤ㆹ⚳˪ᾳṢ屯㕁ᾅ嬟㱽˫䫔 6 㡅夷䭬ᷳ䈡䧖ᾳ屯炻劍㫚吸普ˣ嗽䎮冯⇑䓐䈡䧖

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

§20-1(5))ˤ⇵侭ᷳ䩳㱽䎮䓙ᷫ侫慷炻⬠埻㨇㥳忂ⷠ ẍ攻㍍㕡⺷吸普屯㕁炻劍⶚⮯䔞ḳṢ屯㕁⋧⎵嗽 䎮炻ㆾὅ℞㎕曚㕡⺷⶚䃉⽆嬀⇍䔞ḳṢ炻⚈⶚䃉Ὕ ⭛䔞ḳṢ晙䥩桐晒ᷳ䔹ㄖ炻㓭⼿⃵ḳ⇵⏲䞍ᷳ佑

473


Health Data and Ethical Legal Issue in Research Application

⊁ˤ⼴侭⇯㗗➢㕤Ὣ忚屯㕁⎰䎮⇑䓐ᷳ侫慷炻Ữ䁢

⌛“right to be forgotten”)悐↮炻䔞ᾳṢ屯㕁㗗➢㕤

性⃵怕㾓䓐炻㓭Ṏ旸⇞娚⬠埻䞼䨞ṵㅱ➢㕤ˬ℔ℙ

℔䙲䲨抬⬀㨼ˣ䥹⬠ㆾ㬟⎚䞼䨞ˣㆾ䴙妰䚖䘬㇨ἧ

⇑䙲䚖䘬˭ᶼ䁢ˬ㚱⽭天˭ᶳ炻㕡⼿忚埴䈡⭂䚖䘬

䓐炻䫎⎰䫔 89 㡅䫔 1 枭ᷳ天㯪(㚨⮹吸普⍇⇯)炻

⢾⇑䓐 [6]ˤ

ᶼ䴎Ḱ䔞ḳṢ⇒昌㪲炻⮎晃ᶲᶵ⎗傥忼ㆸㆾ⮯♜慵

⛐‍⹟屯㕁䞼䨞⟜➇炻昌䴻䔞ḳṢ⎴シ⢾炻劍 㗗➢㕤ˬ慓䗪ˣ堃䓇ㆾ䉗伒枸旚ᷳ䚖䘬炻䁢䴙妰ㆾ

㎵⭛屯㕁嗽䎮䚖㧁㗪炻Ṏ⎗ἳ⢾審⃵㬌夷⭂(GDPR Article 17(3)(d))ˤ

⬠埻䞼䨞侴㚱⽭天˭㇨忚埴ᷳ吸普ˣ嗽䎮冯⇑䓐炻

䚠⮵㕤ㆹ⚳˪ᾳṢ屯㕁ᾅ嬟㱽˫ᷳˬ⏲䞍佑

ẍ⍲ᷣ⻝ˬ➢㕤℔ℙ⇑䙲䚖䘬忚埴⬠埻䞼䨞炻侴㚱

⊁˭炻GDPR 㗗ẍˬ塓⏲䞍㪲˭(the right to be

⽭天˭ẍ⃵昌⏲䞍佑⊁ㆾ忚埴䈡⭂䚖䘬⢾⇑䓐炻⇯

informed)䧙ᷳ炻᷎㟡㒂㗗⏎䚜㍍⽆屯㕁ᷣ橼⍾⼿侴

䘮⽭枰忼⇘ˬ䓙㍸ὃ侭⮯屯㕁忚埴嗽䎮ㆾ吸普侭炻

㚱ᶵ⎴ᷳ天㯪ˤ⍇⇯ᶲ炻䚜㍍⽆屯㕁ᷣ橼⍾⼿屯

ὅ℞㎕曚㕡⺷忼⇘䃉⽆嬀⇍䔞ḳṢ˭ᷳ屯㕁ᾅ嬟㧁

㕁炻暨天㍸ὃ庫⬴㔜ᷳ⏲䞍屯妲炻ἳ⤪屯㕁䭉䎮侭

㸾ˤ侴㇨媪ˬ䃉⽆嬀⇍䔞ḳṢ˭炻㟡㒂˪ᾳṢ屯㕁

䘬忋专屯妲ˣ屯㕁嗽䎮䚖䘬ˣ嗽䎮ᾳ屯ᷳ⎰㱽⿏➢

ᾅ嬟㱽㕥埴䳘⇯˫䫔 17 㡅炻㊯ᾳṢ屯㕁ẍẋ䡤ˣ

䢶ˣᾳ屯ᾅ⬀㛇攻ˣᾳṢ⎗ᷣ⻝ᷳ㪲⇑䫱(GDPR

⋧⎵ˣ晙啷悐↮屯㕁ㆾ℞Ṿ㕡⺷炻䃉⽆彐嬀娚䈡⭂

Article 13)烊劍㗗攻㍍⽆℞ṾἮ㸸⍾⼿炻⇯⃩姙庫

ᾳṢ侭ˤ㚱斄㬌㧁㸾ᷳ娛ね炻⎗⍫侫㛔㔯䫔Ḽ䭨ˬ⍣

⣂⎗ἳ⢾ᶵ⏲䞍ᷳね䉨炻⊭㊔烉

嬀⇍⊾䚠斄㍊妶˭ ˤ

1.

⣏侴ᶵ䫎㭼ἳ䘬≒≃炻⯌℞㗗⛐ẍ℔䙲䲨抬⬀

Β.ġġ ኻ࿉ GDPR

㨼ˣ䥹⬠ㆾ㬟⎚䞼䨞ˣㆾ䴙妰䚖䘬炻ᶼ䫎⎰㱽

‍⹟屯㕁Ⱄ㕤 GDPR ㇨夷䭬⍇⇯䤩㬊嗽䎮

⭂天ẞ冯ᾅ嬟㍒㕥炻ㆾ㗗忚埴⏲䞍炻⮯⼰⎗傥

(process)䘬䈡䧖ᾳ屯炻⼿ἳ⢾忚埴嗽䎮ᷳḳ䓙㚱⋩

䃉㱽忼ㆸ屯㕁嗽䎮ᷳ䚖㧁炻ㆾ♜慵㎵⭛℞⮎

㫦ˤ昌⍾⼿䔞ḳṢ⎴シẍ⢾(GDPR Article 9(2)(a))炻 GDPR Ṏ姕㚱䥹⬠䚖䘬ᷳ䚠斄㡅㫦炻⌛憅⮵➢㕤℔ ℙ⇑䙲䚠斄䲨抬ᷳ⬀㨼(archiving purposes in the public interest)ˣ䥹⬠ㆾ㬟⎚䞼䨞ˣㆾ䴙妰ᷳ䚖䘬炻 ⛐䚠斄㱽⼳冯℞㇨徥㯪ᷳ䚖䘬䚠䧙(⎰᷶㭼ἳ)ˣ⮲ 慵屯㕁ᾅ嬟䘬㪲⇑ℏ㵝炻᷎㚱㍸ὃ怑䔞⍲℟橼ᷳᾅ 嬟㍒㕥炻䡢ᾅ屯㕁ᷣ橼➢㛔㪲䙲⍿⇘ᾅ晄ᷳ⇵㍸ ᶳ炻Ṏ⼿ἳ⢾⮵䈡䧖ᾳ屯忚埴嗽䎮(GDPR Article 9(2)(j) & 89(1))ˤ ⎴㧋⛘炻䁢Ὣ忚ᾳṢ屯㕁⛐䈡⭂℔䙲ㆾ䞼䨞䚖 䘬ᶳᷳ㳩忂炻GDPR Ṏ偗⭂⛐䫎⎰䈡⭂天ẞ冯ᾅ嬟 ㍒㕥ᷳ⇵㍸ᶳ炻⼿䓙㚫⒉⚳冒妪夷䭬炻⮵ᾳṢ屯㕁 㪲⇑Ḱẍ旸⇞ˤ㟡㒂 GDPR 䫔 89 㡅炻ẍ䥹⬠ㆾ㬟 ⎚䞼䨞ˣㆾ䴙妰䚖䘬嗽䎮ᾳṢ屯㕁㗪炻⼿⯙屯㕁䔞 ḳṢᷳ⍾䓐㪲(right to access)ˣ㚜㬋㪲(right to rectification) ˣ 旸 ⇞ 嗽 䎮 㪲 (right to restriction of processing)ˣ冯㉺䳽㪲(right to object)㚱ἳ⢾夷⭂ˤ 劍㗗➢㕤℔䙲ᷳ䲨抬⬀㨼ᷳἧ䓐炻昌⇵徘⸦枭㪲 ⇑炻Ṏ⼿⮵屯㕁嬲㚜ᷳ忂䞍佑⊁冯屯㕁⎗㓄㪲⇑ (right to data portability) Ḱ ẍ ἳ ⢾ 夷 ⭂ (GDPR Article 89(2)&(3))ˤ侴⛐⇒昌㪲(right to erasure, Ṏ

474

㍸ὃ娚屯妲䴎ᾳṢ㗗ᶵ⎗傥䘬炻ㆾ⮯暨Ẁ↢忶

䎦烊 2.

ὅ㱽ㅱ⍾⼿ㆾ㎕曚娚屯㕁烊

3.

ὅ㱽屈㚱⮰㤕⬰⭮佑⊁ᶼ䭬⚵㵝味娚ᾳṢ屯 㕁(GDPR Article 14(5)(b)(c)(d)) [7]ˤ 䔞ᾳṢ屯㕁㗗➢㕤ˬ℔䙲䲨抬⬀㨼ˣ䥹⬠ㆾ㬟

⎚䞼䨞ˣㆾ䴙妰䚖䘬˭忚埴嗽䎮炻昌ㅱ㍸ὃ怑䔞ᾅ 嬟㍒㕥ẍ䫎⎰ GDPR ⮵䔞ḳṢ㪲䙲ᷳᾅ晄炻娚ᾅ 嬟㍒㕥Ṏㅱ䡢ᾅˬ屯㕁㚨⮹⊾⍇⇯(the principle of data minimisation)˭⼿ẍ塓句⮎ˤ㟡㒂 GDPR 䫔 89 㡅䫔 1 枭炻⛐䫎⎰⇵徘ᾅ嬟⍇⇯ᶳ炻ᾳṢ屯㕁⎗㍉ ⍾ˬ`⎵⊾(pseudonymisation)˭䘬ᾅ嬟㕡㱽烊Ữ劍 ἧ䓐ᶵℵ℟㚱嬀⇍⿏䘬屯㕁炻ḇ⎗忼⇘䚠⎴䚖䘬 (℔䙲䲨抬ˣ䥹⬠ㆾ㬟⎚䞼䨞ˣ䴙妰)㗪炻⇯ㅱ⃒⃰ ẍ㬌㕡㱽忚埴ˤ㟡㒂 GDPR 䘬⭂佑炻㇨媪ˬ`⎵ ⊾˭炻ᷫ㗗⛐ᶵἧ䓐柵⢾屯妲䘬ね㱩ᶳ炻屯㕁㛔幓 ⶚䃉㱽塓嬀⇍↢䈡⭂ᾳṢ炻娚柵⢾屯妲⶚塓↮⇍⬀ 㓦炻᷎㚱䚠ㅱᷳ㈨埻冯䳬䷼㍒㕥炻䡢ᾅ屯㕁䃉㱽塓 嬀⇍炻ḇᶵ℟⎗嬀⇍⿏(GDPR Article 4(5))ˤ Ο.ġġ ऍ୯ HIPAA 冯冢䀋␴㫸䚇䘬夷䭬㕡⺷ᶵ⎴炻伶⚳㗗䈡⇍

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

憅⮵ᾳṢ⎗嬀⇍‍⹟屯妲(individually identifiable

℞ᷕ炻➢㕤䞼䨞䚖䘬㚱ᶱ䧖ね㱩烉(1)䴻䞼䨞

health information)妪䩳倗恎ᷳ晙䥩ᾅ嬟㧁㸾炻Ṏ

ΐ䎮⥼⒉㚫(IRB)ㆾ晙䥩⥼⒉㚫(privacy board)㟠

⌛⇵徘ˬ伶⚳‍⹟ᾅ晒⎗㓄⿏⍲屔ả㱽

Ⅾˤ(2)➢㕤䞼䨞⇵䘬䯴⁁(reviews preparatory to

(HIPAA)˭ 炻ᶼ᷎朆㇨㚱Ṣ悥㚫⍿ HIPAA 夷䭬炻

research)烉╖䲼➢㕤夷∫䞼䨞䘬䚖䘬(ἳ⤪烉㸾⁁䞼

HIPAA ᷳ⍿㵝味⮎橼(covered entities)⽭枰思⽆炻

䨞妰䔓ˣ⺢䩳䞼䨞`姕䫱)炻⛐ᶵ㚫⽆⍿㵝味⮎橼

ἳ⤪⣂㔠䘬慓䗪㨇㥳冯慓嬟Ṣ⒉ˣ悐↮䞼䨞侭ˣ

(ἳ⤪烉慓昊)䪗䦣崘ảỽ屯㕁䘬⇵㍸ᶳ炻ᶼ䁢娚䞼

慓䗪ᾅ晒Ṣ䫱[8]ˤ㟡㒂 HIPAA炻⍿ᾅ嬟䘬‍⹟屯

䨞䚖䘬㇨⽭天䘬㸾⁁ˤ(3)⮵㬣侭䘬䞼䨞(research on

妲(protected health information, PHI)炻⍇⇯ᶲᶵ⼿

decedent's information)烉╖䲼憅⮵㬣侭屯妲䘬䞼

塓ἧ䓐␴㎕曚(use and disclose)(45 CFR 164.502(a))炻

䨞炻㬣侭屯㕁⎗⽆⍿㵝味⮎橼⍾⼿炻ᶼ䁢娚䞼䨞䚖

昌朆䫎⎰⃩姙ḳ䓙ㆾ㚱㱽⼳㖶㔯䘬㎕曚天㯪

䘬㇨⽭天(§164.512(i)(1))ˤ

(§164.502(a)(1)&(2))ˤ⃩姙ḳ䓙㚱ℕ㫦炻⊭㊔烉

䚠庫㕤冢䀋冯㫸䚇ᶨ凔ᾳ屯㱽夷炻伶⚳ HIPAA

1.

ἧ䓐␴㎕曚䴎䔞ḳṢ(§164.502(a)(1)(i))ˤ

㚱憅⮵ˬ⍿ᾅ嬟䘬‍⹟屯妲(PHI)˭ᷳˬ⍣嬀⇍⊾˭ 炻

2.

䁢㱣䗪ˣ䴎Ẁˣ冯➟埴‍⹟䄏嬟ᷳ䚖䘬烉㨇㥳

Ḱẍ℟橼夷䭬ˤ䔞ᾳṢ‍⹟屯妲ẍ䫎⎰ HIPAA ᷳ

3.

4.

5.

⎗冒埴㰢⭂㗗⏎天⍾⼿䔞ḳṢ⎴シ(㚱⍾⼿㗗

㧁㸾忚埴⍣嬀⇍(de-identified)⼴炻ἧ䓐㬌栆屯妲⮯

㚨Ἓ 㱽)炻ᾳṢ⎗⎹㨇㥳㍸↢旸⇞天㯪炻㨇

ᶵℵ⍿ HIPAA 夷䭬炻⊭㊔烉⍣昌 18 ᾳ⃫䳈䘬⬱ℐ

㥳㰺㚱⽭枰思⬰ᷳ佑⊁炻Ữ劍⎴シ℞天㯪炻⇯

㷗 㕡 㱽 (safe harbor method) 冯 ⮰ ⭞ ⮑ 㞍 ℑ 䧖

⍿䲬㜇(§164.502(a)(1)(ii); §164.506)ˤ

(§164.502(d); §164.514(a)&(b))ˤ⮵㕤䴻⍣嬀⇍䘬屯

シ ⢾ 䘬 ἧ 䓐 冯 ㎕ 曚 (incidental uses and

㕁炻⍿㵝味⮎橼劍㫚ᾅ㚱嬀⇍屯㕁䘬㕡㱽炻HIPAA

disclosures)烉ἳ⤪⛐慓䗪⟜➇㚱ᶵ䚠斄䘬Ṣ⢓

Ṏ⮵㬌 ↢夷䭬炻⊭㊔娚嬀⇍屯妲⽭枰ᶵ㗗⽆ᾳṢ

シ⢾倥夳ㆾ䚳夳℞Ṿ䕭Ṣ䘬屯妲炻Ữ枰䫎⎰怑

屯妲埵䓇ˣṎ⌛ᶵ℟㚱啱㬌ℵ嬀⇍ᾳṢ䘬⎗傥⿏炻

䔞䘬ᾅ嬟㧁㸾(§164.502(a)(1)(iii))[9]ˤ

ᶼᶵ⼿➢㕤ảỽ䎮䓙炻℔攳㬌嬀⇍屯妲冯㨇⇞

䴻䔞ḳṢ㚱㓰㌰㪲(authorization)烉昌䤩㬊䘬➢

(§164.514(c))ˤ

⚈屯妲ἧ䓐␴㎕曚⢾炻℞Ṿὅ㱽ㅱ⍾⼿䔞ḳṢ

㬌⢾炻ṳ㕤⍣嬀⇍⊾屯㕁冯 PHI ᷳ攻炻HIPAA

㚱㓰㌰㪲䘬ἧ䓐冯㎕曚炻ἳ⤪䓐㕤埴扟

姕妰㚱⎎ᶨ䧖⎴㧋㭳枰䴻忶㌰㪲䘬審⃵㕡⺷炻Ṏ⌛

(marketing) ㆾ 屑 ⓖ 䚖 䘬 (§164.502(a)(1)(iv);

ˬ㚱旸䘬屯㕁普˭(limited data set)ˤ⍿㵝味⮎橼(ἳ

§164.502(a)(5)(i); §164.508)ˤ

⤪慓昊)冯䞼䨞侭攻䯥㚱⋼嬘炻䓙⍿㵝味⮎橼䪗㍸

䴻䞍ね(informed)ᶼ䴎Ḱ䔞ḳṢ⎴シㆾ㉺䳽ᷳ

ὃ㚱旸䘬屯㕁普(⶚⍣昌 16 ᾳ嬀⇍䡤)炻忚埴䞼䨞ˣ

㨇㚫烉⊭㊔➢㕤䕭㬟⭌(directory)屯㕁⺢伖ˣ

℔堃ˣㆾ⮎㕥‍⹟䄏嬟䚖䘬ᷳἧ䓐(§164.514(e))ˤ

ㆾ㗗㴱⍲ᾳṢ慓䗪屯妲䘬⏲䞍冯忂䞍ˤ㬌䞍ね

ੰ ੰᐕឦ‫܄‬ϷੰΓ៾ճ! ᐕឦ‫܄‬ϷੰΓ៾ճ!

冯⎴シㆾ㉺䳽炻䘮⎗德忶⎋柕⼊⺷䁢ᷳ (§164.502(a)(1)(v); §164.510)ˤ 6.

ᶵ枰㌰㪲ḇᶵ枰䴎Ḱ⎴シㆾ㉺䳽ᷳ㨇㚫烉㬌枭 ⊭⏓Ḯ 12 䧖ね㱩炻⊭㊔➢㕤㱽⼳天㯪ˣ䁢℔ ℙ堃䓇䚖䘬ˣ⍿嗸怢㡬冯⭞㙜⍿⭛侭ᷳ忂⟙ˣ ㍸ ὃ 䴎 㚱 㱽 ⭂ 㪲 旸 䘬 ‍ ⹟ 䚋 䜋 ╖ ỵ (health oversight agency)ˣ⎠㱽冯埴㓧䦳⸷㇨枰ˣ℔ ⊁㨇斄➟埴㱽⭂佑⊁ˣ➢㕤槿⯵冯╒吔䚖䘬ˣ ➢㕤⯵橼☐⭀冯䳬䷼㋸岰䚖䘬ˣ➢㕤䞼䨞䚖 䘬ˣ䁢性⃵♜慵䘬‍⹟⬱ℐ⌙⭛ˣ➢㕤䈡⇍䘬 㓧⹄≇傥(⤪幵昲ˣ⚳⬱ˣ慓䗪㯠临䫱)ˣ䁢ἧ ⊆ⶍ䌚ᾅ晒䎮岈(§164.502(a)(1)(vi); §164.512)ˤ

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

䕭㬟屯㕁䘬㬠Ⱄㆾ㇨㚱㪲炻䁢ᶨ攟ᷭẍἮ⬀⛐ ᷳ婾彗烊夾㇨㍉⍾䩳⟜ᷳᶵ⎴⮯⼙枧℞䭉䎮㧉⺷ˤ 䕭Ṣ⣂㔠㚫娵䁢䕭㬟Ⱄ㕤冒⶙㇨㚱炻Ữ⛐⮎⊁ᶲ炻 䕭㬟ᷫ䓙慓ⷓ⍲慓䗪⛀昲姀抬冯墥ἄˣ䓙慓䗪㨇㥳 ὅ㱽⃚⬀冯ᾅ䭉炻ἧ⼿䕭㬟ᷳ㇨㚱㪲ᶵ㖻↯√ㆾ㖶 䡢䓴⭂烊劍㗗䓙⚳⭞㍸ὃ慓䗪ᾅ‍㚵⊁炻㬌⓷柴㚜 ≈墯暄ˤ ẍ ㍉ 埴 ℔ 慓 ⇞ ⹎ (National Health Service, NHS)䘬劙⚳䁢ἳ炻㚱斄䕭㬟冯℞⃚⬀ṳ岒㇨㚱㪲 䘬嬘柴炻1910 ⸜ẋ㗪ảℏ敋屉㓧⣏冋䘬 Lloyd

475


Health Data and Ethical Legal Issue in Research Application

George 㚦㍸↢烉 ˬ䳁㛔(paper)䓙ℏ敋⣏冋(Secretary

普ˣἧ䓐冯㎕曚ᷳ怑㱽⿏烊㍸ὃ䕭Ṣ天㯪ᷳ䕭㬟屯

of State)㇨㚱炻䳁㛔ᶲ䘬䲨抬(the writing)⇯䓙慓ⷓ

㕁炻冯⃩姙℞㚜㬋ㆾ墄⃭䫱[15]ˤ

㇨㚱炻侴娚䲨抬⮯㚫⁛復䴎㓧⹄ 䁢㬣ṉ䴙妰ᷳ

㟡㒂㬌ᾅ嬟㨇⇞炻䕭㬟屯㕁⮯䓙⎬慓ⷓㆾ㨇

䓐ˤ˭[10]晐叿䕭㬟暣⫸⊾䘤⯽炻䳁㛔⃚⬀ṳ岒㻠

㥳ᾅ䭉炻ḇ攻㍍Ὣㆸ㮹䛦⛐≈㊧⣏ℐ⚳⎬䚩⯙慓

塓⍾ẋ烊屯㕁⃚⬀㈨埻䘬㍸㖯炻ṎὫἧ劙⚳㓧⹄⃰

㗪䘮怑䓐‍ᾅ炻Ữ䚠斄⯙姢䲨抬⌣ᶵ℟㚱㳩忂⿏

⼴㍸↢⮯ NHS 䕭Ṣ屯㕁⼁普䁢ᷕ⣖屯㕁⹓炻ẍὃ

ᷳ䉨㱩(冯冢䀋忶⍣䉨㱩栆Ụ)ˤ晐叿役⸜Ἦ䕭㬟屯

⬠埻↮㜸冯䞼䨞ἧ䓐ᷳ妰䔓炻ἳ⤪ 2000 ⸜崟㍐埴

㕁徸㬍暣⫸⊾炻⛐≈㊧⣏ᶨᾳṢ⎗傥⎴㗪㑩㚱⣂

the NHS National Program for IT(NPfIT)⍲ 2013 ⸜

䧖䕭㬟屯㕁䘬㞍娊徼⼹炻ἳ⤪⎬慓昊㍸ὃ䕭Ṣ㞍

崟㍐埴 Care.data炻䃞侴ℑ侭⛐㍐≽忶䦳ᷕ炻䘮⺽䘤

娊䘬暣⫸䕭㬟(electronic medical record, EMR)䲣

䇕嬘ᶼẍ⣙㓿㓞⟜[11]ˤ㚱婾侭ᷣ⻝炻⛐䕭㬟ℐ朊

䴙ˣ⚳⭞ㆾ⎬䚩㓧⹄㍸ὃ䘬暣⫸䕭㬟(electronic

暣⫸⊾䘬㗪ẋ炻䕭㬟ᷕ䘬屯妲(information)䓙䕭Ṣ

health record, EHR)㞍娊⸛⎘ˣㆾᾳṢ䁢䴙㔜⯙慓

㇨㚱炻侴℞ṾṢ⇯㗗➢㕤⎰㱽䄏嬟䕭Ṣᷳ䚖䘬Ḱẍ

屯㕁㇨ἧ䓐䘬ᾳṢ䕭㬟(personal health record)⋗

ῇ䓐[12]ˤ

㔜ⶍ℟䫱ˤỮ⮎晃ᶲ炻姙⣂≈㊧⣏㮹䛦᷎䃉㱽㌴

1993 ⸜ ≈ ㊧ ⣏ 㚨 檀 㱽 昊 㕤 McInerney v.

㎉冒⶙䘬⯙慓屯㕁炻⯌℞㗗䔞⎴㗪㚱⣂ᾳ慓䗪䄏

MacDonald 㟰ᷕ炻⮵㬌嬘柴㚱庫㶭㤂ᷳ斉㖶ˤ㟰ẞ

嬟㍸ὃ侭㗪(ἳ⤪⛐ᶵ⎴㨇㥳ㆾ嶐䚩ấ⯙姢)炻㚱ṃ

ḳ⮎䁢䕭Ṣ MacDonald 㫚⎹℞慓ⷓ McInerney 䳊⍾

Ṣ᷎ᶵ㶭㤂㚱暣⫸䕭㬟⎗㞍娊炻㚱ṃ⇯㗗䃉㱽⍾

冒⶙忶⍣㇨㚱䕭㬟ᷳ墯㛔炻Ữ McInerney 慓ⷓ堐䣢

⼿ἧ䓐徼⼹[16]ˤ㬌䎦㱩ᶵ⎗傥ἧ䕭Ṣ⚘べ炻⮵

傥㍸ὃ冒⶙䴻ㇳ䘬悐↮炻军㕤䕭Ṣ⃰⇵㕤℞Ṿ慓

ỵ㕤䫔ᶨ䶂➢Ⰼ慓䗪䘬慓ⷓ侴妨炻⛐䵲⿍㗪⇣炻

ⷓ⯙姢䘬䲨抬炻䓙㕤Ⱄ㕤℞Ṿ慓ⷓ䘬屉䓊炻

㗪ⷠ天⛐䕭Ṣ䕭㬟ᶵ⬴㔜ㆾᶵ忋屓䘬ね㱩ᶳ炻

McInerney ㉺䳽㍸ὃ炻᷎⺢嬘䕭Ṣ冒埴↮⇍⎹℞Ṿ

↢慓䗪㰢⭂炻㚜㗗ᶨ⣏㊹㇘[17]ˤ2019 ⸜≈㊧⣏

慓ⷓ䳊⍾ˤ㬌㟰䘤䓇㗪≈㊧⣏⯂䃉䚠斄夷䭬炻⚈㬌

慓⬠㚫㛇↲(Canadian Medical Association Journal)

㟰ẞᷣ天䇕溆䁢炻䕭Ṣ⮵℞䕭㬟㗗⏎㚱㪲㞍教冯婳

䶐廗 Persaud 慓ⷓ⌛ᷣ⻝炻冯℞便屣ㆸ㛔⛐Ὣ忚ᶵ

㯪墯㛔ˤ⇌㰢䳸㝄䕭Ṣ⊅姜炻㱽昊⎴シ MacDonald

⎴䲣䴙攻屯㕁䘬ˬḺ忂⿏(interoperability)˭ 炻ㅱ㓡

䘬婳㯪炻᷎␥Ẍ McInerney 慓ⷓㅱ㍸ὃ㇨㚱䕭㬟墯

㍉埴ℐ⚳ᶨ农䘬 EHR 䲣䴙[18]ˤ

㛔ˤ㱽昊娵䁢䕭Ṣ㚱㪲天㯪炻㩊夾冒⶙䕭㬟墉㇨㚱

伶⚳䘬 HIPAA 夷䭬䕭Ṣ⮵䕭㬟㚱㞍教ˣ墯

塓慓ⷓ䲵ℍ㱣䗪⍲⺢嬘侫慷䘬屯妲炻忁⊭㊔℞Ṿ慓

墥⍾⼿ˣᾖ㓡ᷳ㪲炻⮵㕤冒幓慓䗪屯妲塓⤪ỽἧ䓐

ⷓ㇨ 䘬悐↮烊䃞侴炻䕭Ṣ⮵䕭㬟䘬ˬ⍾䓐(access)˭

ᷳˬ塓⏲䞍㪲˭炻ẍ⍲⼿㉺䳽冒幓慓䗪屯妲塓ἧ䓐

ᶵ⼿⺞Ỡ军慓䕭斄Ὢẍ⢾䘬悐↮炻䕭Ṣ㚱㪲䌚⼿䘬

⛐䈡⭂䚖䘬䫱炻᷎㛒憅⮵䕭㬟ᷳ㬠Ⱄㆾ㇨㚱㪲㚱㇨

᷎朆䕭㬟㛔幓炻⚈䕭㬟⮎橼㬠Ⱄ㕤慓ⷓ[13]ˤ

夷䭬ˤ侴㟡㒂⎬ⶆ㱽夷[19]炻㚱 New Hampshire

㎃妨ᷳ炻䕭㬟㛔幓䓙墥ἄᷳ慓ⷓㆾ㨇㥳㇨㚱炻

ᶨⶆ㖶㔯夷⭂炻䕭㬟ᷕ㇨⊭⏓䘬慓䗪屯妲(medical

䕭Ṣ㑩㚱䘬㗗℞ᷕ冯ᾳṢ䚠斄ᷳ屯妲炻⚈㬌㚱㪲⮵

information)炻ㅱ塓夾䁢䕭Ṣᷳ屉䓊(N.H. Rev. Stat.

娚屯妲㍸↢ἧ䓐ᷳ天㯪炻ㆾ㗗⮵娚屯妲ᷳ吸普ˣἧ

Ann. §151:21(X))炻Ữ⃀䭉⤪㬌炻娚㱽岎Ḱ䕭Ṣ⼿

䓐冯㎕曚埴ἧ⎴シ㪲[14]ˤ㬌夳妋军Ṳṵ橼䎦㕤≈

⮵䕭㬟ᷣ⻝ᷳ㪲旸冯℞Ṿⶆ᷎䃉ⶖ䔘ˤ⎎⢾㚱 21

㊧⣏䘬䚠斄夷䭬冯㓧䫾ᷕ炻ἳ⤪℞ˬᾳṢ‍⹟屯妲

ⶆ夷䭬炻䕭㬟Ⱄ㕤慓䗪㨇㥳ㆾ慓ⷓᷳ屉䓊炻⤪

ᾅ嬟㱽˭(Personal Health Information Protection Act,

Mississippi ⶆ㖶㔯夷䭬炻䕭㬟䁢慓ⷓㆾᾅ⬀娚䕭㬟

PHIPA) 姕 妰 㚱 ˬ ‍ ⹟ 屯 妲 ᾅ 䭉 侭 ˭ (health

ᷳ㨇㥳䘬屉䓊(Miss. Code Ann. §73-43-11)炻South

information custodian)ᷳ奺刚炻㬌奺刚忂ⷠ䓙䕭Ṣ

Carolina ⶆ⇯㗗㖶㔯夷䭬炻䕭㬟Ⱄ㕤䕭Ṣᷳᷣ㱣慓

䘬⭞⹕慓ⷓㆾ㗗㍸ὃ慓䗪䄏嬟䘬㨇㥳㑼ả炻䓙℞⮵

ⷓ㇨㚱炻⊭㊔䕭Ṣ廱ṳ䴎慓ⷓ⇵䘬䚠斄䕭㬟Ṏ⎴

䕭 㬟屯㕁㑼 屈ᾅ䭉 (custody)冯㍏ ⇞(control)ᷳ 㪲

(S.C. Code Ann. §44-115-20)烊℞检 29 ⶆ⇯㗗㛒㚱

屔炻ἳ⤪烉䡢ᾅ䕭㬟ᷳᾅ⬀ˣ⁛廠冯嗽䎮ᷳ⬱ℐ⿏烊

䚠斄夷䭬ˤ2009 ⸜ 2 㚰炻伶⚳䷥䴙䁢㍸㋗䴻㾇㍐

㍉⍾⎰䎮㍒㕥ẍᾅ嬟ᾳṢ‍⹟屯妲烊䡢ᾅ䕭㬟ᷳ㓞

≽冯忂忶ᷳ˪2009 ⸜伶⚳⽑䓎冯ℵ㈽屯㱽㟰˫

476

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

(American Recovery and Reinvestment Act of 2009, ARRA)炻℞ᷕ⊭㊔㋡㲐漸⣏䴻屣炻䘤⯽‍⹟屯㕁

(patient-centered)ᷳ䚖㧁烊 4.

⛐晙䥩⍲屯妲⬱ℐ⎗䡢ᾅ䘬⇵㍸ᶳ炻⣂㔠䕭Ṣ

ℐ朊暣⫸⊾冯屯妲Ḻ忂炻啱ẍὫ忚慓䗪⑩岒炻

㗗栀シ↮ṓ冒幓慓䗪屯妲䘬[25]ˤKoskinen 䫱

HIPAA ḇ⚈ㅱ暣⫸䕭㬟⁛廠⍲Ṍ㎃ᷳ屯㕁⬱ℐ炻

(2016)Ṏᷣ⻝䕭㬟ㅱ䓙䕭Ṣ㇨㚱炻昌ㅱ㋸㡬䇞

侴㚱慵天ᷳᾖ㬋ˤᶵ忶炻㬌㓧䫾晾塓娵䁢⮵伶⚳℔

㪲ᷣ佑⿅䵕⢾炻➢㕤 Locke ᷳ⿅゛炻ㅱ⮯⎗嬀

ℙ堃䓇䑘⠫ⷞἮ慵天≑䙲炻Ữṵ䃉憅⮵䕭㬟㬠Ⱄ

⇍䘬䕭㬟屯妲夾䁢ᾳṢṢ㟤(personhood)䘬ᶨ

㪲炻㍸↢庫㖶䡢ᷳᷣ⻝[20,21]ˤ

悐↮炻ᶵㅱ䓙ṾṢᷣ⭘烊㬌⢾炻䁢性⃵⮯ˬṢ˭

冢䀋䚖⇵᷎䃉憅⮵䕭㬟㇨㚱㪲䚠斄ᷳ夷䭬ㆾ

夾䁢屉䓊ᶼ䁢⎗ả䓙ṾṢ嗽伖ᷳ㧁䘬炻

㱽⼳妋慳炻㚱慓䗪㱽夷天㯪炻慓䗪㨇㥳ㅱὅ䕭Ṣ

Koskinen 䫱ᷣ⻝炻ᶵㅱἧ䓐⤪ˬownership˭

天㯪㍸ὃ䕭㬟墯㛔炻ẍ⍲ㅱ屈屔䕭㬟ᾅ⬀⍲扟㭨䚠

ㆾˬproperty˭䫱倂䃎㕤䴻㾇Ⰼ朊ᷳ䓐婆炻⺢

斄夷䭬(⍫˪慓䗪㱽˫䫔 69-71 㡅)ˤ㟡㒂⚳ℏ㱽⼳

嬘㓡䓐⤪ˬdatenherrschaft˭(⽟㔯炻シ㊯⮵屯

⬠侭忂婒夳妋炻䕭㬟Ⱄ㕤慓ⷓㆾ慓䗪㨇㥳㇨㚱ˤ⤪

㕁䘬䳽⮵ㆾᷣ天㌴㍏㪲)䫱⎵娆炻Ἦ㍷徘⮵䕭

昛倘⭴(2014)娵䁢炻䓙㕤䕭㬟䁢慓ⷓ普橼⮵䕭Ṣ屯

㬟屯㕁ᷳ䭉䎮冯㍏⇞[26]ˤ

妲䘬姀抬屯㕁炻ㅱⰔ㕤慓昊ㆾ慓ⷓ㇨㚱炻䕭Ṣᶵ⼿

Hall 冯 Schulman(2009)⇯娵䁢炻䷙䃞㚱婾侭ᷣ

姜婳慓昊ㆾ慓ⷓṌẀ䕭㬟⍇㛔炻侴⚈䕭㬟姀庱䕭Ṣ

⻝ᶵ妶婾 “ownership”炻䚜㍍倂䃎⛐䕭㬟屯㕁⤪ỽ

ᷳ屯妲炻䕭Ṣṓ㚱ἧ䓐㪲炻᷎㑩㚱⼿⮵ˬℐ悐˭䕭

ᾅ嬟冯㍏⇞䘬嬘柴炻䃞侴ṢᾹ⮵䕭㬟屯㕁屉䓊㪲ㅱ

㬟屯㕁忚埴教奥冯⼙⌘ᷳ㪲⇑[22]ˤ㜿⽿ℕᷣ⻝䕭

⤪ỽ㬠Ⱄ䘬⓷柴炻㗗冒䃞䓊䓇ᶼ䃉㱽徜性䘬炻⛐㛒

㬟⛐䈑岒ᶲ㬠Ⱄ慓䗪㨇㥳㇨㚱炻Ữ⛐䕭Ṣἧ䓐㪲䭬

㚱㖶䡢ℙ嬀䘬ね㱩ᶳ炻⮯⮵暣⫸䕭㬟䵚䴉䘬㘖念

⚵悐↮炻侫慷䕭㬟℟㚱慓ⷓ⁁⾀抬ᷳ㛔岒炻慓⬠䘤

⿏ˣ㓰䌯ˣ⺋㲃⹎ˣ㔜⎰≃䫱ⷞἮ慵⣏⼙枧ˤHall

⯽⽭枰ẘ岜慓䗪⮰㤕Ṣ⒉⾈⮎ᷳ姀抬炻⊭㊔⣙㓿⍲

䫱⽆㱽⼳奨溆炻㍸↢⸦枭㚱斄䕭㬟㇨㚱㪲ⷠ夳䘬徟

拗婌炻㕡㚱忚㬍ᷳ⎗傥炻㓭㍸↢ˬ㉀堟婒˭炻⮵㕤

⿅烉

庫ᶵ暨䴻慓䗪Ṣ⒉ㄹ啱⮰㤕䞍嬀⇌㕟墥ἄ侭炻ἳ⤪

1.

⮵㕤 ᶨ枭℟㚱䴻㾇 㓰䙲䈑⑩䘬 ㌴㍏㪲冯屔

⼙⁷䲨抬ㆾ㩊㞍䳸㝄㛔幓炻䕭Ṣ⼿ṓ㚱ℐ悐䘬ἧ䓐

ả炻᷎朆㴱⍲屉䓊㪲(䈑㪲)炻℞Ṿ夷䭬Ṣ冯

㪲旸烊姀庱ℏ⭡暨䴻慓䗪Ṣ⒉ㄹ啱⮰㤕䞍嬀⇌㕟墥

ṢḺ≽⤪⣹䲬ˣὝ㪲埴䁢䫱Ṏ䈥㴱℞ᷕ烊

ἄ侭炻ἳ⤪㩊㞍⟙⏲(⏓↮㜸⇌㕟)ˣㇳ埻䲨抬ˣ嬟

2.

℞Ṿ㱽⼳ḇ⎗傥岎Ḱ栆Ụ屉䓊㪲䘬㪲⇑炻Ữ㚱

䎮䲨抬䫱炻䓙㕤墥ἄ侭枰ㄹ啱℞⮰㤕炻᷎⊭⏓ᷣ奨

ᶵ⎴䘬㱽䎮➢䢶炻ἳ⤪晙䥩㪲⎗岎Ḱ䕭Ṣ⮵䕭

⇌㕟ㆸ↮炻ᶵ⎴慓ⷓ ↢ᷳℏ⭡⎗傥ᶵ⎴炻㬌悐↮

㬟䘬㍏⇞㪲炻䕭Ṣ⎗旣㬊℞ṾṢ⮵冒幓屯㕁䘬

䕭Ṣ⇯ᶵ℟㚱⬴ℐ䘬ἧ䓐㪲[23]ˤỽ⺢⽿(2016)㊯

⍾䓐(access)炻Ữᶵ⎗㒂㬌扟ⓖ冒幓屯㕁烊

↢炻ᶨ凔Ṣ䚜奢㚫娵䁢䕭㬟ㅱ䁢䕭Ṣ㇨㚱炻Ữ⛐慓

3.

屉䓊㪲䘬姕妰炻ᶵ㗗䁢Ḯᾅ晄ᾳṢ➢㛔㪲炻

䗪㱽㫈仢䚠斄夷䭬炻ὅ䎦埴㮹㱽⍲叿ἄ㪲㱽䚠斄

⎴㗪ḇ⊭⏓䣦㚫䴻㾇䘤⯽ᷳ䚖㧁炻⚈㬌⮵㕤ᶵ

㱽䎮⇌㕟ᶳ炻䕭㬟㇨㚱㪲䡢⮎ㅱ㬠Ⱄ㕤慓ḳṢ⒉ㆾ

℟䪞䇕⿏冯㌺Ṿ⿏䘬ḳ䈑炻䔞ᾳṢᷣ⻝㇨㚱㪲

慓䗪㨇㥳炻⬀⛐娵䞍ᶲ䘬句ⶖ [24]ˤ

⎗傥旣䣁䣦㚫⇑䙲㗪炻忁栆ḳ䈑⎗傥㚫塓夾䁢 ˬ℔ℙ屉(public good)˭ẍὫ忚℞⇑䓐烊

Kish ␴ Topol(2015)ᷣ⻝炻䕭㬟ㅱ䓙䕭Ṣ㇨ 㚱炻䎮䓙⊭㊔烉 1.

2.

3.

4.

ẍ䕭㬟侴妨炻忂ⷠ䃉㱽ẍ╖ᶨㆾ⬴㔜䘬㇨㚱㪲

劍⚈ 娵䁢䕭Ṣ䃉㱽 䎮妋ㆾ䭉䎮 冒幓䕭㬟屯

婾ᷳ炻ᶨấ䕭㬟屯㕁㴱⍲⣂ᾳ⮎橼(䕭Ṣˣ慓

㕁炻侴ᶵ䴎Ḱ℞㇨㚱㪲炻㬌䁢䇞㪲ᷣ佑

䗪Ṣ⒉ˣ慓䗪㨇㥳ˣᾅ晒Ṣ䫱)䘬⍫冯炻㚱⼊

(paternalism)ᷳ⿅䵕烊

䈑㪲䘬⣂Ṣℙ㚱㚫ἧ㇨㚱㪲䉨ン嵐㕤墯暄炻㚜

晐叿䕭㬟屯㕁㼃⛐䘬⇑䙲徸㻠⡆≈炻䕭Ṣ䁢慓

忹婾䕭㬟屯㕁⎴㗪⊭⏓䃉⼊屉䓊䘬悐↮烊⛐㬌

䗪㚵⊁ᷳẀ屣侭炻ㅱ㚱㪲䌚⼿䓙䕭㬟屯㕁忳䓐

ね㱩ᶳ炻⁛䴙㤪⾝䘬㇨㚱㪲炻⮯ᶵ㕟塓⇲㷃侴

埵䓇ᷳ⇑䙲烊

徸㻠暋ẍ⮎㕥炻⤪㓡ẍ⣹䲬⍲℞Ṿ㱽⼳㪲⇑炻

䁢⺢䩳䕭Ṣᾉả冯忼ㆸẍ䕭Ṣ䁢ᷕ⽫

㚫㗗庫㖻㕤䲬⭂冯句⮎䘬 㱽[27]ˤ

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

477


Health Data and Ethical Legal Issue in Research Application

⽆ᶲ徘⚆栏⎗䩢䞍炻䕭㬟㬠Ⱄ䡢⮎䁢墯暄ᷳ 嬘柴炻℞⍇⚈⛐㕤烉(1)䕭㬟屯㕁ᷳ䓊䓇㴱⍲⣂⮎

堃䞼䨞(p=0.0160)ˤ 2.

⮵㕤⮯ᾳṢ䕭㬟夾䁢℔ℙ屉(52%ᶵ⎴シ)炻ẍ

橼⍫冯烊(2)䕭㬟屯㕁⎴㗪⊭⏓㚱⼊橼(䕭㬟㛔)⍲

⍲㓧⹄ㆾ慓䗪㨇㥳炻⚈㬌ㅱ㍸ὃ娚屯㕁忚埴䞼

䃉⼊橼(屯妲)䘬悐↮烊(3)䕭㬟屯㕁℟℔ℙ屉⿏

䨞(51%ᶵ⎴シ)炻㊩㬋⍵シ夳侭䲬⌈⎬⋲ˤ

岒烊(4)䕭㬟屯㕁⊭⏓ᾳṢ晙䥩屯㕁烊(5)䕭㬟屯㕁

3.

㚱䲬⋲㔠䘬⍿姒㮹䛦炻⎴シ慓⬠䞼䨞⮵䣦㚫⣏

ᷳἧ䓐⊭⏓℔䙲⍲䥩䙲䓐徼烊(6)晐叿䥹㈨䘤⯽炻

䛦‍⹟䘬届䌣炻㭼ᾅ嬟冒⶙ᾳṢ晙䥩Ἦ⼿慵天

忳䓐䕭㬟屯㕁⎗埵䓇ᷳ㼃⛐₡ῤ徸㻠㍸檀ˤ䎦昶

(54%)ˤ

㭝⮎⊁ᶲ⶚䘤⯽↢栆Ụ 㱽炻䕭㬟䓙慓ⷓㆾ慓䗪

4.

ℕㆸ㮹䛦⛐䓇㳣ᷕᶵ㚦㞍奢ảỽᾳṢ屯妲晙

㨇㥳㇨㚱炻屈㑼屯㕁⬱ℐ⍲ᾅ䭉ᷳ屔ả炻侴䕭Ṣ

䥩塓Ὕ⭛䘬ḳẞ(60%)炻Ữ㚱⮯役ℓㆸ䘬㮹䛦

⼿➢㕤⮵℞ᷕ㇨⏓ˬ屯妲˭ṓ㚱㇨㚱㪲ˣㆾ℞Ṿ

㑼⽫炻劍⮯䕭㬟ㆾ‍ᾅ屯㕁㍸ὃ 䞼䨞炻㚫㚱

➢㕤晙䥩㪲䫱䎮䓙炻⮵䕭㬟ᷣ⻝ἧ䓐㪲(㞍娊教

晙䥩⢾㳑䘬⎗傥(78%烊79%)ˤ

奥ˣ䓛婳墯㛔ˣ㚜㬋䫱)ˤ

5.

㮹䛦⮵㕤ᾳ屯䴻ㇳ侭䘬ᾉả䦳⹎炻䓙檀军Ỷ↮

㛔㔯ἄ侭ᷣ⻝炻⯙䕭㬟屯㕁⼊ㆸᷳ忶䦳侴婾炻

⇍䁢烉慓䗪㨇㥳ˣ慓ⷓˣ䞼䨞侭ˣ㓧⹄

⊭㊔Ḯ慓䗪Ṣ⒉⮵㕤䕭Ṣᷳ䓇䕭䴻槿忚埴䕭⎚娊

(p=0.0297)ˤ役ᶫㆸ㮹䛦䚠ᾉ慓䗪㨇㥳傥 ⤥

⓷冯姀抬(⊭⏓ᷣ徘ˣ䚖⇵䕦䕭ˣ忶⍣䕭⎚ˣ⭞㕷

䕭㬟䘬晙䥩ᾅ嬟(69%)炻崭忶Ḽㆸ㮹䛦䚠ᾉ慓

⎚ˣ䲣䴙⿏⚆栏Ƀ)ˣ幓橼䎮⬠㩊㞍ˣ⮎槿⭌㩊槿ˣ

ⷓ㚫ᾅ⭮䕭Ṣ屯㕁(56%)冯䞼䨞侭㚫ẍ䕭Ṣ㚨

⼙⁷㩊㞍ˣ㩊槿䳸㝄ᷳ⇌嬨冯↢℟⟙⏲Ƀ䫱ˤ㔜ᾳ

Ἓ⇑䙲⃒⃰侫慷(52%)炻侴䚠ᾉ㓧⹄傥 ⤥‍

䕭㬟ㆾ‍⹟屯㕁ᷳ䓊䓇冯姀抬炻晾䃞㗗ẍ䕭Ṣ䁢ᷣ

ᾅ屯㕁晙䥩ᾅ嬟侭⇯㛒忶⋲㔠(44%)ˤ(㜿⫸

橼炻Ữ㗗䕭㬟䘬㍷徘冯䲨抬炻⌣⽭枰䴻忶⮰㤕妻䶜

ΐˣ哉䓓㖴䞼䨞ㆸ㝄⟙⏲炻⯂㛒䘤堐)

ᷳ慓䗪Ṣ⒉㕡傥䁢ᷳ炻䕭㬟屯㕁劍朆䴻忶慓䗪⮰㤕

㬌婧㞍䳸㝄⏰䎦冢䀋㮹䛦⮵㕤ᾳṢ䕭㬟冯‍

Ṣ⢓ᷳ⇌嬨冯妋婒炻䔞ḳṢḇ⼨⼨䃉㱽䎮妋℞シ

ᾅ屯㕁㗗⏎䁢℔ℙ屉ᷳン⹎㚱㇨ᾅ䔁炻㘖念㑼ㄪ‍

佑ˤ⚈㬌炻劍ᷣ⻝䕭㬟屯㕁䁢䕭ṢᾳṢ㇨㚱炻⇯⾥

⹟屯㕁䓐㕤䞼䨞䘬晙䥩桐晒炻ᶼ⮵㕤慓䗪℔堃䞼䨞

䔍Ḯ䕭㬟屯㕁ᷫ慓䗪埴䁢忚埴ᷳ忶䦳炻䴻䓙慓䗪Ṣ

ᷳ℔ℙ⇑䙲炻㗗⏎⽭䃞⃒⃰㕤ᾳṢ晙䥩炻⯂䃉ℙ

⒉⮰㤕妻䶜ᷳ䲨抬ˣ㩊槿冯娖慳ᷳ㛔岒冯届䌣ˤ慓

嬀ˤ␤ㅱ⇵徘斄㕤䕭㬟㬠Ⱄ㪲䘬婾彗炻⛐㛒䴻⃭↮

昊⮵㕤䕭㬟℟㚱㑩㚱⍲ἧ䓐ᷳ㪲⇑炻ḇ℟㚱䭉䎮⍲

妶婾冯㹅忂䘬⇵㍸ᶳ炻ᾳṢ䚜奢⎗傥㚫冯Ὣ忚‍⹟

ᾅ嬟ᷳ佑⊁ˤ

屯㕁⇑䓐ᷳ㓧䫾䚠䈜妠ˤ冱ἳ侴妨炻㟡㒂婧㞍䳸㝄

҇౲ჹ଼நၗ਑ࣴ‫ޑز‬ᄊࡋ! ΋/ġ ᆵ᡼҇౲ᄊࡋፓࢗ!! 2017 ⸜ 6 㚰ˬ䓇㈨慓喍⚳⭞✳䥹㈨妰䔓ᷳΐ 䎮㱽⼳冯䣦㚫⼙枧(ELSI)㍐≽妰䔓˭ᷳ℔ℙ⍫冯 䳬炻憅⮵䕭㬟冯‍ᾅ屯㕁ἧ䓐㕤䞼䨞䘬㮹䛦ン⹎炻 忚埴ℐ⚳⿏暣姒婧㞍炻⥼妿ᶾ㕘⣏⬠㮹シ婧㞍䞼䨞 ᷕ ⽫ 炻 惵 ⎰ 暣 儎 庼 ≑ 暣 娙 姒 ⓷ 䲣 䴙 (computer assisted telephone interview, CATI)忚埴屯㕁吸普炻 ẍ⯭ỷ⛐冢䀋 22 ䷋ⶪ⸜㺧 20 㬚ẍᶲᷳ㮹䛦䁢⮵ 尉炻㚱㓰㧋㛔 1,100 ấ(姒⓷ㆸ≇䌯 21.5%)ˤ婧㞍 䳸㝄栗䣢烉 1.

䚠庫㕤䕭㬟(32%栀シ)炻㮹䛦庫栀シ⮯‍ᾅ屯 㕁(52%栀シ)㍸ὃ䴎⬠埻㨇㥳炻忚埴慓䗪冯℔

478

栗䣢炻⣂㔠㮹䛦晾⮵㍸ὃ‍⹟屯㕁㕤䞼䨞䘬晙䥩桐 晒ⷞ㚱䔹ㄖ炻䃞侴ℕㆸ㮹䛦᷎㛒⮎晃䴻槿忶晙䥩Ὕ ⭛ḳẞ炻䓙㬌⎗㍐䞍炻劍傥德忶⃭↮㹅忂冯⭋忼炻 嬻㮹䛦䝕妋冯ᾳṢ‍⹟屯㕁晙䥩䚠斄ᷳ屯妲炻⊭ ㊔烉℟橼ᾅ嬟㍒㕥ˣᾳṢ⮵屯㕁ᷳ㌴㍏ˣ媖娊䭉忻 䫱炻ㅱ㚱≑㕤㷃⮹悐↮朆➢㕤䴻槿➢䢶ᷳㄪㄖˤ 㬌⢾炻婧㞍䳸㝄栗䣢炻㮹䛦⮵㕤‍⹟屯㕁䭉䎮 侭ᷳᾉả䦳⹎㚱ⶖ䔘炻㬌⎗傥冯㮹䛦䅇〱䦳⹎㚱 斄ˤᶨ凔㮹䛦德忶⯙慓⎗䳗䧵⮵慓䗪㨇㥳⍲慓ⷓᷳ 娵嬀冯⺢䩳ᾉảデ炻Ữ⮵䞼䨞Ṣ⒉ㆾ㓧⹄䪗⇯忂ⷠ 㫈仢Ṍ㳩䭉忻炻劍㫚㍸㖯㮹䛦䘬ᾉả䦳⹎炻椾⃰⽭ 枰ἧ℞㚱㨇㚫㍍妠冯䝕妋㬌嬘柴炻德忶⃭↮屯妲㍸ ὃ䚠斄晙䥩ᾅ嬟㨇⇞ᷳ婒㖶炻傥㚱≑㕤ᾉả➢䢶ᷳ ⺢䩳ˤ

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

Β/ġ Β /ġ ‫ځ‬ ‫ځ‬д୯ৎ҇౲ᄊࡋፓࢗ! д୯ৎ҇౲ᄊࡋፓࢗ!

㝄炻⛐屯㕁ἧ䓐䓐徼(䞼䨞ˣ⑩岒㓡忚ˣⶪ⟜埴扟)ˣ

2015 ⸜䓙⊿ッ䇦嗕 ARK 䣦㚫㓧䫾ᷕ⽫忚埴ᷳ

ἧ䓐侭(⣏⬠慓昊ˣ喍⺈ˣ℔堃悐攨)ˣ冯屯㕁㓷デ

婧㞍䞼䨞栗䣢(n=1,202)[28]炻ᶨ凔㮹䛦⮵㕤屯㕁晙

⹎(Ỷˣ檀)ᶱ⚈䳈㭼庫ᶳ炻䓐徼㗗㮹䛦㚨斄↯䘬炻

䥩㚨ⷠ夳䘬㑼ㄪ䁢烉⮯屯㕁ἧ䓐⛐℞Ṿ䚖䘬ᶼᶵ⏲

ἧ䓐侭㫉ᷳ炻屯㕁㓷デ⹎⇯朆栗叿⼙枧⚈⫸ˤ

䞍(70%)ˣ屯㕁⚈榕⭊侴㳑曚(62%)ˣ屯㕁⚈シ⢾侴

䵄⎰ᶲ徘⚳ℏ⢾䞼䨞炻㮹䛦ン⹎婧㞍㚱≑㕤慸

㳑曚(43%)䫱ˤ侴憅⮵屯㕁ᷚ忋㗗⏎暨天䴻䕭Ṣ⎴

㶭ᶨ凔Ṣ(䕭Ṣ)⮵㕤㬌嬘柴䘬ᷣ天斄↯䁢ỽ炻朊⮵

シ䘬悐↮炻ᶱ䧖䩳⟜⎬㚱ᶱㆸ䘬㮹䛦㓗㊩炻↮⇍

㗗⏎↮ṓ冒幓‍⹟屯㕁㕤䞼䨞炻晙䥩⮎䁢㚨ᷣ天ᷳ

㗗烉⎒天䡢ᾅᶵ㚫㚱Ṣ⚈㬌塓嬀⇍⌛ᶵ暨天⍾⼿⎴

䔹ㄖ炻䃞侴⼙枧㚨䳪㰢⭂侭炻⇯䁢⮵㕤屯㕁䭉䎮侭

シ(30%)ˣㅱẍ⎴シ䁢⍇⇯炻Ữ劍⍾⼿⎴シ忶㕤⚘

ㆾἧ䓐侭ᷳᾉả⹎ˤ⽆婧㞍䳸㝄⎗䞍炻⛐⎗ẍ䡢ᾅ

暋炻慵天䞼䨞Ṏᶵㅱ⚈㬌⍿旣(34%)ˣ䃉婾⤪ỽ悥

屯㕁⬱ℐ⍲晙䥩䘬⇵㍸ᶳ炻⣂㔠㮹䛦䘮㚱↮ṓ‍⹟

ㅱ⍾⼿⎴シ炻劍䃉㱽⍾⼿⇯ㅱ㓦㡬娚䞼䨞(31%)ˤ

屯㕁㕤䞼䨞䓐徼ᷳ⇑Ṿン⹎ˤ侴ᾉả㛔岒⛐㕤Ṣ冯

⛐傥䡢ᾅ屯㕁ᶵ塓嬀⇍䘬⇵㍸ᶳ炻⣂㔠㮹䛦ᶵṳシ

Ṣᷳ攻䘬斄Ὢ(⤪慓䕭斄Ὢ)炻Ὣ忚䚠Ḻ䝕妋䁢⺢䩳

屯㕁塓⤪ỽἧ䓐(73%)ˤ

斄Ὢᷳ䫔ᶨ㬍烊⛐‍⹟屯㕁↮ṓᷳ⟜➇炻㬌斄ὪṎ

⚈ㅱ 2014 ⸜ 5 㚰 care.data 妰䔓⣙㓿冯䳪㬊炻

⍿⇘⣂慵⚈䳈⼙枧炻⊭㊔烉㗗⏎⏲䞍ˣ屯㕁㗗⏎⍲

劙⚳朆䆇⇑䳬䷼ HealthWatch ↮⇍㕤 2015ˣ2016ˣ

⤪ỽ塓ᾅ嬟(䡢ᾅᶵ塓嬀⇍)ˣ屯㕁⮯塓䓐㕤ỽ䧖䓐

⍲ 2018 ⸜⮵㮹䛦冯 NHS ↮ṓ䕭㬟屯㕁ᷳン⹎忚埴

徼ˣ劍䘤䓇晙䥩Ὕ⭛⮯⤪ỽ嗽䎮ˣ㗗⏎⎗徨↢䫱ˤ

婧㞍(n=2,071ˣ2,044ˣ2,072)[29]ˤ㟡㒂 2015 ⸜䘬

㚱揺㕤㬌炻⤪ỽ㍸ὃ㮹䛦⃭↮屯妲冯Ὣ忚℞⮵⇵徘

婧 㞍 䳸 㝄 炻 66% 䘬 㮹 䛦 堐 䣢 栀 シ ↮ ṓ ⋧ ⎵

嬘柴ᷳ䎮妋炻⮯䁢㍸㖯㮹䛦ᾉả⹎炻冯⍫冯᷎㓗㊩

(anonymous, シ ㊯ 䃉 㱽 ℵ 忋 䳸 军 䈡 ⭂ ᾳ Ṣ ) ᷳ 屯

䞼䨞䘬慵天斄挝ˤ

㕁烊2016 ⸜婧㞍䳸㝄⏰䎦炻㚱ᶱ↮ᷳḴ䘬㮹䛦㦪 㕤↮ṓ屯㕁炻䃞侴㮹䛦Ṏⶴ㛃䡢ᾅᾳṢ屯妲䴻忶怑 䔞⋧⎵嗽䎮炻ᶼᶵ㚫⚈㬌㊃农屈朊⼙枧炻崭忶⋲㔠 㮹䛦㑼⽫㚫⼴〼⃩姙↮ṓ炻ḇ⚈㬌ⶴ㛃傥㚱晐㗪徨 ↢ᷳ㪲⇑烊2018 ⸜⚈ㅱ NHS ⮯㕤 5 㚰⯽攳㕘䘬屯 㕁徨↢㨇⇞(national data opt-out)炻HealthWatch 㕤 3 㚰ℵ㫉忚埴㮹婧炻䘤䎦㦪シ冯 NHS ↮ṓ屯㕁䘬 㮹䛦㭼ἳ⡆≈军 73%炻䷙䃞⚈⍿ 2017 ⸜ NHS 屯㕁 怕榕ᷳḳẞ⼙枧炻崭忶⋲㔠䘬㮹䛦娵䁢冒⶙㭼 3 ⸜⇵㚜⛐᷶屯㕁⬱ℐ嬘柴(53%)炻Ữṵ㚱 77%䘬㮹 䛦堐䣢ᾉả NHS ᾅ嬟ᾳ屯ᷳ傥≃ˤ 2017 ⸜㽛㳚㕘⋿⦩䇦㕗ⶆ(New South Wales, NSW)ᷳ晙䥩ᾅ嬟⮰⒉(privacy commissioner)⮵ 18 㬚ẍᶲ㮹䛦ᷳ屯㕁晙䥩ン⹎忚埴暣姒婧㞍 (n=500)[30]炻婧㞍䳸㝄栗䣢炻60%䘬㮹䛦ᶵ䚠ᾉㆾ ᶵ䡢⭂ᾳ屯⎗ẍ塓⬴ℐˬ⍣嬀⇍˭炻ᶼ⛐ 18-34 㬚 㕷佌㚱㚨Ỷᷳᾉả⹎(27%)烊䚠庫㕤℞Ṿ䚖䘬(⤪㓧 ⹄ᷳ㓧䫾䘤⯽ˣ㓧⹄㤕⊁夷∫冯㓡┬ˣ䓊⑩冯㚵⊁ 䚋㷔䫱)炻㮹䛦㚨栀シ⮯‍⹟屯㕁ㆾᶨ凔ᾳ屯ἧ䓐 㕤䞼䨞䚖䘬(58%烊39%)ˤ㬌⢾炻伶⚳ Grande 䫱 (2013)㚦⮵暣⫸䕭㬟㫉䳂ἧ䓐(secondary use)䘬㮹 䛦ン⹎忚埴䶂ᶲ婧㞍(n=3,336)[31]炻㟡㒂婧㞍䳸

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

‫ך‬ ‫ך‬୯଼ߥၗ਑৤ນ೜ਢ! ୯଼ߥၗ਑৤ນ೜ਢ! ϐࣴ‫ز‬উ౛᝼ᚒ! ϐ ࣴ‫ز‬উ౛᝼ᚒ! ΋ ΋/ġ /ġ ਢ ਢҹङඳ! ҹङඳ! 侫慷冢䀋ℐ㮹‍ᾅ䲵ᾅ䌯⶚忼 99%ẍᶲ炻1998 ⸜崟ᷕ⣖‍⹟ᾅ晒⯨(䎦ˬ‍ᾅ会˭)⥼妿⚳堃昊⺢ 伖ˬℐ㮹‍⹟ᾅ晒䞼䨞屯㕁⹓˭ 炻᷎冒 2000 ⸜崟㍸ ὃ⢾䓴ẍ≈ῤ㚵⊁㕡⺷䓛婳‍ᾅ屯㕁忚埴䞼䨞 [32]ˤ2008 ⸜崟埴㓧昊堃䓇会(䎦ˬ堃䤷悐˭)攳⥳ ẍ⮰㟰⺢伖ˬ‍⹟屯㕁≈ῤㅱ䓐⋼ἄᷕ⽫˭(䎦ˬ堃 䓇䤷⇑屯㕁䥹⬠ᷕ⽫˭)炻⮯‍ᾅ屯㕁冯℞Ṿ‍⹟ 屯㕁ἳ⤪䗴䕯䘣姀ˣ㬣⚈䴙妰䫱忚埴㔜⎰炻ẍὫ忚 ℔堃㰢䫾⑩岒ˣ⬠埻䞼䨞䓊傥ˣ慓䗪ᾅ‍䚠斄䓊㤕 䞼䘤∝㕘䫱䁢䚖㧁[33,34]ˤ ⎘䀋Ṣ㪲Ὣ忚㚫(ẍᶳ䯉䧙ˬ⎘㪲㚫˭)㚦㷔娎 ˬℐ㮹‍⹟ᾅ晒䞼䨞屯㕁⹓˭㍸ὃᷳ䘦叔Ṣ㉥㧋㬠 Ṣ㨼炻䘤䎦啱䓙䈡⭂Ṣᷳ↢䓇⸜㚰㖍ˣ⯙姢㖍㛇ˣ ⿏⇍⌛⎗⽆娚㨼㟰ᷕ彐嬀↢䈡⭂ᾳṢᷳ屯㕁炻⮵岒 䔹屯㕁⹓ᷳ晙䥩桐晒[35]ˤ娚屯㕁⹓映临⮵慳↢屯 㕁ᷳ晙䥩ᾅ嬟忚埴⣂㫉ᾖ㬋炻ἳ⤪慳↢㪬ỵ婧㔜烊 ⮵份夳䕦䕭ˣ䱦䤆䕦䕭ˣ⼴⣑⃵䕓䕯῁佌䫱䕭Ṣ屯

479


Health Data and Ethical Legal Issue in Research Application

㕁ᷳℵ㧉䱲嗽䎮烊旸⇞⮵份䕭䕭Ṣ屯㕁ᷳ䓛婳䫱炻

⻝⍣嬀⇍⊾ㅱ忼⇘ˬ⌛ἧẍ䈡⭂屯㕁忚埴⮵䄏ˣ䳬

㚨䳪㕤 2016 ⸜ 6 㚰 28 㖍ℐ朊䳪㬊㚵⊁[36]ˤ⎴㗪炻

⎰冯忋䳸炻ḇ䃉㱽啱㬌彐嬀↢䈡⭂ᷣ橼˭ᷳ⻟⹎炻

⎘㪲㚫㕤 2012 ⸜⃰ẍᾳṢ幓↮⎹‍ᾅ⯨天㯪徨↢

㚨檀㱽昊Ṏ娵䁢⣒忶炻ㅱẍˬ䣦㚫⣏䛦䃉㱽⽆屯㕁

屯㕁⹓塓㉺⼴炻⎹℞㍸崟埴㓧姜姇炻ᷣ天憅⮵埴㓧

ℏ⭡庽㖻㍐䞍娚屯㕁㇨Ⱄᷳᷣ橼˭䁢㧁㸾⌛⎗ˤ

㨇斄攻ᾳṢ屯㕁㳩忂䘬怑㱽⿏(A 㨇斄吸普炻㍸ὃ

(ᶱ) ḳ⇵⎴シ㪲冯ḳ⼴㌺昌㪲᷎朆ᶨ橼ℑ朊

䴎 B 㨇斄⺢屯㕁⹓)ˣ⍣嬀⇍⊾㧁㸾(ㅱ⡆≈⻟⹎)ˣ

㚨檀㱽昊⏎⭂⍇⮑㇨媪ˬḳ⇵⎴シ㪲˭冯ˬḳ

ẍ⍲ḳ⼴㌺昌㪲(ㅱ⎗徨↢屯㕁⹓)䫱㍸↢ᷣ⻝炻㛔

⼴㌺昌㪲˭䁢ᶨ橼ℑ朊ᷳ婒㱽炻᷎冱˪ᾳṢ屯㕁ᾅ

㟰军 2017 ⸜䴻㚜ᶨ⮑ᶲ姜㚨檀㱽昊楩⚆⼴⭂孆ˤ

嬟㱽˫⮯ˬ吸普⍲嗽䎮˭冯ˬ⇑䓐˭↮攳夷䭬䁢ἳ炻

娚㚫ℵ㍸Ṍ慳ㅚ倚婳炻䚖⇵䫱⼭⮑䎮ᷕˤ

婒㖶㱽夷⮵屯㕁吸普ˣ嗽䎮⍲⇑䓐ᷳᶵ⎴昶㭝炻㚱

Β/ġ ಖֽղ،ϐ‫ـ‬ှ! 㟡㒂䳪⮑⇌㰢(㚨檀埴㓧㱽昊 106 ⸜⇌⫿䫔 54 嘇埴㓧⇌㰢)炻㚨檀㱽昊⛐䳸婾悐↮䵕㊩⍇⮑㰢⭂ (楩⚆⎘㪲㚫䘬ᶲ姜)炻Ữ⛐悐↮䇕溆⇯㚱ᶵ⎴ᷳ夳 妋炻䯉徘⤪ᶳ烉 (ᶨ) 斄㕤埴㓧㨇斄攻䘬ᾳṢ屯㕁㳩忂Ⱄ㕤⯂㛒㚱 䚠ㅱ夷䭬ᷳˬ㱽⼳㺷㳆˭ 㚨檀㱽昊偗⭂⮯⶚吸普ᷳ㮹䛦ᾳṢ屯㕁炻㕤 ᶵ⎴埴㓧㨇斄攻㳩忂炻⎗㷃庽慵墯吸普ㆸ㛔炻ᶼὫ 忚屯㕁⇑䓐侴㚱℞₡ῤ炻Ữḇ⎴㗪㊯↢屯㕁グ㳩 忂ˣ⮵Ṣ㟤㪲䘬ᾅ晄暋⹎グ檀炻侴䎦埴㱽夷⮵㬌⯂ 䃉䚠ㅱ夷䭬(⮵埴㓧㨇斄ᷳ攻䘬屯㕁㍸ὃ侭冯屯㕁 ㍍㓞侭)ˤ⛐⯂㛒㚱䚠ㅱ夷䭬ᶳ炻㚨檀㱽昊德忶⮯ 屯㕁㍸ὃ侭(‍ᾅ会)栆㍐怑䓐ˬ屯㕁⇑䓐˭夷⭂炻 侴⮵屯㕁㍍㓞侭(堃䤷悐)炻⇯夾㇨㍍㓞ᷳ屯㕁㗗⏎ ⶚⬴ㆸˬ⍣嬀⇍⊾˭炻⬴ㆸ侭⌛ᶵℵ⍿˪ᾳṢ屯㕁 ᾅ嬟㱽˫夷䭬炻㛒⬴ㆸ侭⇯思⽒屯㕁ˬ嗽䎮˭ㆾˬ⇑ 䓐˭ᷳ䚠斄夷⭂ˤ (Ḵ) ⍣嬀⇍⊾㧁㸾ᷳ斉㖶 㟡㒂㚨檀㱽昊夳妋炻⮵屯㕁㍍㓞侭侴妨炻劍 屯㕁⶚⬴ㆸˬ⍣嬀⇍⊾˭ἄ㤕炻娚屯㕁⮯⚈╒⣙ˬᾳ ṢⰔ⿏˭侴ᶵℵ⍿˪ᾳṢ屯㕁ᾅ嬟㱽˫夷䭬(ᶵℵ 㗗ᾳṢ屯㕁)ˤ㚨檀㱽昊娵䁢炻㇨媪ˬ⍣嬀⇍⊾˭ 炻 ㊯䘬㗗⮵ˬ屯㕁㍍㓞侭˭侴妨炻娚屯㕁⶚ˬ⬴ℐ↯

天㯪↮⇍姽Ộ℞⮵ᾳṢ屯妲晙䥩㪲ᷳᾅ晄㗗⏎嵛 ⣈炻⚈㬌ᶵ㚫⚈䁢⃵昌ḳ⇵⎴シ(⤪⎴シ吸普)炻⌛ 旸⇞℞ḳ⼴㌺昌㪲(⤪天㯪 㬊⇑䓐)ˤ (⚃) ㉺䳽ḳ⼴㌺昌㪲ᷳ埴ἧ᷎㛒忽⍵㭼ἳ⍇⇯ ⛐婾嫱‍ᾅ会⼿㉺䳽㮹䛦埴ἧ徨↢㪲䘬悐 ↮炻㚨檀㱽昊椾⃰昛㖶炻‍ᾅ屯㕁⹓䘬⬴┬⺢䩳Ⱄ 㕤ˬ℔ℙ屉˭ 炻侴䔞ᾳṢ➢㕤屯妲晙䥩㪲䘬ᷣ⻝(天 㯪徨↢)冯℔ℙ⇑䙲(䵕嬟屯㕁⹓ᷳ⬴┬)䚠堅䨩 㗪炻㚨檀㱽昊ᷣ⻝炻⮯ᾳ屯ˬ⍣嬀⇍⊾˭䁢⋼婧㬌 堅䨩㚨㚱㓰䌯䘬ㇳ㭝ˤ侴㛔㟰㇨㴱ᷳ⍣嬀⇍⊾ἄ㤕 晾ᶵ䚉⬴⁁炻Ữḇ⶚⣏ⷭ旵Ỷ⎗嬀⇍⿏烊劍㫚ᷣ⻝ 埴ἧḳ⼴㌺昌㪲炻ẍ䡢ᾅˬᾳṢ屯妲晙䥩㪲˭炻⇯ 暨㍸↢晙䥩㪲⍿Ὕ⭛ᷳ䦳⹎⍲⎗傥⿏炻夾ᾳ㟰ḳ⮎ 侴⭂ˤ 㛔㟰冒 2012 ⸜军 2017 ⸜炻䴻䘤⚆㚜⮑冯⚃㫉 ⇌㰢炻㛇攻᷎怑忊ㆹ⚳˪ᾳṢ屯㕁ᾅ嬟㱽˫慵天ᾖ 㬋(2015 ⸜ 12 㚰 31 㖍ᾖ㬋ˣ2016 ⸜ 3 㚰 15 㖍㕥 埴)炻⇌㰢䳸㝄晾䁢⍇⏲㓿姜炻Ữ⮵冢䀋䎦埴ᾳ屯 夷䭬冯‍⹟屯㕁⹓䞼䨞℟㚱慵天シ佑炻昌慸㶭㇨㴱 嬘柴䇕溆炻᷎⮵䎦埴㱽夷ᶵ⣈㖶䡢ᷳ悐↮炻▿娎㍸ ↢ᾖ墄ˤ℞ᷕ⮵䞼䨞⮎⊁㚨℟⼙枧≃䘬䁢ˬ⍣嬀⇍ ⊾˭冯ˬḳ⼴㌺昌㪲(徨↢)˭ᷳ䚠斄妶婾炻ẍᶳ忚 ᶨ㬍↮㜸ᷳˤ Ο.ġġ ѐ᛽ձϯϐ௖૸

㕟屯㕁ℏ⭡冯䈡⭂ᷣ橼攻ᷳ忋䳸䶂䳊˭ˤẍ㛔㟰侴

ἧ䓐ᾳṢ屯㕁忚埴䞼䨞⮵屯㕁ᷣ橼㚨ᷣ天ᷳ

妨炻䓙㕤ἄ㤕㧉⺷㗗堃䤷悐㳦⮰Ṣ⇵⼨‍ᾅ会炻➟

桐晒⌛䁢晙䥩⓷柴炻⚈㬌⛐䓇䈑屯㕁⹓ㆾ‍⹟屯㕁

埴≈⭮⼴㓄⚆屯㕁炻ẍ⺢伖屯㕁⹓炻シ␛叿堃䤷悐

⹓䞼䨞䭬䔯墉炻晐叿屯㕁晙䥩ᾅ嬟Ⰼ䳂グ檀(⌛冯

ṵᾅ㚱⎗ˬ怬⍇˭娚屯㕁冯ᷣ橼忋㍍ᷳ⎗傥(㚱⮰

䈡⭂ᾳṢ䘬忋䳸⎗傥⿏グỶ)炻屯㕁ᷣ橼⮵屯㕁䘬

Ṣ㎉㚱妋⭮搘⋁)烊⚈㬌炻⮵堃䤷悐侴妨炻娚屯㕁

㍏⇞㪲旸ḇ晐ᷳ旵Ỷ(⊭㊔ἧ䓐冯徨↢)ˤ侴⛐䚠斄

⯂㛒忼⇘ˬ⍣嬀⇍⊾˭ᷳ䦳⹎炻⣏ⷭ⹎旵Ỷ℞ˬ⎗

㤪⾝䘤⯽ᷳ⇅炻㚱斄ᾳṢ屯㕁ˬ⍣嬀⇍⊾˭ᷳ䓐婆

嬀⇍⿏˭炻ṵⰔ㕤ᾳṢ屯㕁ˤᶵ忶炻⮵㕤⎘㪲㚫ᷣ

冯㧁㸾⯂㛒㚱㘖念ℙ嬀炻ḇ⚈㬌农䓇䓐婆冯妋慳ᶲ

480

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

䘬㶟㵮[37]烊㛔㟰⎴㧋ḇ㴱⍲栆Ụᷳ⓷柴ˤ 㟡㒂˪ᾳṢ屯㕁ᾅ嬟㱽˫䫔 2 㡅䫔 1 㫦炻ᾳṢ

㱽昊娵䁢ㅱẍˬ屯㕁㍍㓞侭˭奺⹎Ἦ⇌㕟烊Ṏ⌛炻 㟡㒂㚨檀㱽昊䘬妋慳炻῀劍屯㕁㗗䓙‍ᾅ会冒埴≈

屯㕁㵝味㇨㚱ˬ⼿ẍ䚜㍍ㆾ攻㍍㕡⺷嬀⇍娚ᾳṢ˭

⭮冯㌴㎉妋⭮搘⋁炻⚈⮵堃䤷悐(屯㕁㍍㓞侭)侴

ᷳ屯㕁烊侴㇨媪ˬ⼿ẍ攻㍍㕡⺷嬀⇍˭炻㊯ᾅ㚱娚

妨炻⶚䃉㱽怬⍇屯㕁冯ᷣ橼ᷳ忋䳸炻⚈㬌≈⭮⼴䘬

屯㕁ᷳ℔⊁ㆾ朆℔⊁㨇斄ẍ娚屯㕁ᶵ傥䚜㍍嬀

屯㕁⌛䫎⎰ˬ⍣嬀⇍⊾˭㧁㸾ˤ㍉䓐㬌⇌㕟㧁㸾⮯

⇍炻枰冯℞Ṿ屯㕁⮵䄏ˣ䳬⎰ˣ忋䳸䫱炻⥳傥嬀⇍

⎗傥埵䓇ẍᶳ⓷柴烉⮯ˬ⼿攻㍍嬀⇍䘬屯㕁˭(ἳ

娚䈡⭂ᷳᾳṢ(˪ᾳṢ屯㕁ᾅ嬟㱽㕥埴䳘⇯˫䫔 3

⤪㛔㟰䘬≈⭮屯㕁)㍸ὃ䴎㝸ˬ屯㕁㍍㓞侭˭ 炻侴⚈

㡅)ˤ⎎㟡㒂˪ᾳṢ屯㕁ᾅ嬟㱽㕥埴䳘⇯˫䫔 17 㡅炻

䁢娚ˬ屯㕁㍍㓞侭˭㛒㊩㚱怬⍇屯㕁䘬柵⢾屯妲(⤪

㇨䧙䃉⽆嬀⇍䈡⭂䔞ḳṢ炻㊯ᾳṢ屯㕁ẍẋ䡤ˣ⋧

妋⭮搘⋁)炻忁ṃ屯㕁⚈㬌䫎⎰ˬ⍣嬀⇍⊾˭㧁㸾炻

⎵ˣ晙啷悐↮屯㕁ㆾ℞Ṿ㕡⺷炻䃉⽆彐嬀娚䈡⭂ᾳ

侴ˬ⍣嬀⇍⊾˭㛔ㅱ㊯娚屯㕁⶚䴻䃉㱽塓䚜㍍ㆾ攻

Ṣ侭ˤ䓙㬌⎗䞍炻㟡㒂䎦埴˪ᾳṢ屯㕁ᾅ嬟㱽˫炻

㍍嬀⇍ˤ

᷎㰺㚱ˬ⍣嬀⇍˭ㆾˬ⍣嬀⇍⊾˭ᷳ䓐婆⍲⭂佑炻

䓙 GDPR 斄㕤ˬ`⎵⊾˭屯㕁䘬⭂佑⌛⎗ẍ

⚈㬌埵䓇⮎⊁ᶲⷠ夳䘬㶟㵮ˤ⤪冢⊿檀䫱埴㓧㱽昊

䝕妋炻屯㕁䘬ˬ⎗嬀⇍⿏˭⇌㕟㧁㸾ㅱ娚㗗ẍˬ屯

103 ⸜⹎姜㚜ᶨ⫿䫔 120 嘇⇌㰢ᷕ㍸⍲烉ˬɃ㚱斄

㕁㛔幓˭䁢㸾炻侴朆ẍˬ屯㕁㍍㓞侭˭侴妨烊GDPR

ᾳṢ屯㕁ᷳ⭂佑⍵朊妋慳⎗䞍炻㇨媪ˮ⍣嬀⇍⊾˯ 炻

ᷳ㇨ẍἧ䓐ˬ`⎵⊾˭ᶨ娆Ἦ㍷徘㬌栆屯㕁炻⌛⻟

⌛㊯德忶ᶨ⭂䦳⸷䘬≈ⶍ嗽䎮炻ἧᾳṢ屯㕁ᶵℵ℟

婧娚屯㕁⛐㛒ἧ䓐ˬ柵⢾屯妲˭䘬ね㱩ᶳ炻冯ˬ⋧

㚱䚜㍍ㆾ攻㍍嬀⇍⿏ˤ˭Ữ⛐⼴临㍷徘⇯堐䣢烉 ˬɃ

⎵⊾˭屯㕁䚠⎴炻ảỽṢ䘮䃉㱽嬀⇍䈡⭂ᾳṢ炻ⶖ

℔⊁㨇斄㍏䭉⍣嬀⇍⊾䦳⹎Ƀ⎗㍉⍾ˮ⎗微ᷳ㒔⋧

䔘⛐忁栆屯㕁ṵ㚱塓怬⍇䘬⎗傥ˤ㎃妨ᷳ炻ὅ䄏

⎵⊾屯㕁˯㕡⺷忚埴⍣嬀⇍⊾(⌛ẍ⮰Ⱄẋ䡤ˣ暁

GDPR炻⼿䚜㍍嬀⇍ˣ⼿攻㍍嬀⇍ˣẍ⍲⍣嬀⇍⊾

⎹≈⭮ㆾ℞Ṿ㈨埻嗽䎮炻ἧ嗽䎮⼴ᷳ䶐䡤屯㕁䃉⽆

屯㕁炻ㅱ娚䘮㗗ẍˬ屯㕁㛔幓˭䁢⇌㕟㧁㸾ˤ↉㗗

嬀⇍䈡⭂ᾳṢɃ)炻㗗⯙屯㕁㎕曚侭㕤屯㕁慳↢忶

冯柵⢾屯妲⮵䄏ˣ䳬⎰ˣ㭼⮵⌛℟㚱怬⍇℞冯ᷣ橼

䦳ᷕ炻㇨㍉⍾ᷳ⎬枭⬱ℐ䵕嬟⍲桐晒㍏䭉ᷳ㍒㕥炻

忋䳸⎗傥⿏䘬炻䘮Ⱄ㕤ˬ⼿攻㍍嬀⇍˭䘬屯㕁烊⮵

⛯Ὢ⇌⇍屯㕁㕤㎕曚忶䦳㗗⏎⶚忼⍣嬀⇍⊾䦳⹎

忁栆屯㕁侴妨炻屯㕁晙䥩ᾅ嬟䘬斄挝⛐㕤ˬ柵⢾屯

ᷳὅ㒂Ƀ˭䫔ᶨ㫉↢䎦䘬ˬ⍣嬀⇍⊾˭シ佑冯 GDPR

妲˭䘬䭉䎮炻ẍ⍲㇨㍉⍾䘬屯㕁嗽䎮㈨埻(⤪䶐䡤ˣ

ᷳ ˬ ⋧ ⎵ ⊾ ˭ (anonymized) ㆾ HIPAA 䘬

≈⭮)⮵屯㕁䘬ᾅ嬟傥≃ˤ侴⼿ẍ⽆ᾳ屯㱽夷審⃵

ˬde-identified˭⛐㤪⾝ᶲ㗗㍍役䘬炻Ữ⼴临㭝句ᷕ

䘬⍣嬀⇍⊾屯㕁炻⇯㗗ˬ屯㕁㛔幓˭⶚䃉㱽ℵ冯䈡

㇨ἧ䓐䘬ˬ⍣嬀⇍⊾˭⇯Ⱄ㕤ˬ`⎵⊾˭

⭂ᷣ橼忋䳸炻䎮婾ᶲ䃉婾䓙婘忚埴嗽䎮⇑䓐⛯䃉塓

(pseudonymized)冯℞Ṿ屯㕁ᾅ嬟㈨埻䘬䭬䔯炻㤪⾝

怬⍇ᷳ桐晒炻ⷠ夳䘬㕡㱽㚱⃰忚埴`⎵⊾(⤪䶐

⇵⼴ᶵᶨ农ˤ

䡤ˣ≈⭮)炻䃞⼴⮯娚柵⢾屯妲Ḱẍ扟㭨炻ㆾ㗗⤪

⛐㛔㟰䳪⯨⇌㰢墉炻㚨檀㱽昊▿娎慵㕘慸㶭㬌

伶⚳ HIPAA ㍉⍾䘬⬱ℐ㷗㕡㱽(⍣昌 18 ᾳ嬀⇍䫎)

㤪⾝ˤ冯⇵徘冢⊿檀䫱埴㓧㱽昊䫔ᶨ㫉㍸⇘䘬ˬ⍣

䫱烊⍣嬀⇍⊾屯㕁䘬晙䥩ᾅ嬟斄挝⛐㕤炻嫱㖶㇨㍉

嬀⇍⊾˭㤪⾝䚠⎴炻㇨媪ˬ⍣嬀⇍⊾˭炻㗗䓐Ἦ⇌

⍾ᷳ⍣嬀⇍⊾㕡㱽ㆾ㈨埻炻屯㕁⶚䃉塓怬⍇ᷳ桐晒

㕟娚屯㕁㗗⏎怬Ⱄ㕤ˬᾳ屯˭ᷳ㧁㸾烊ᶨ㖎屯㕁⶚

(ㆾ桐晒㤝Ỷ)ˤ

⬴ㆸˬ⍣嬀⇍⊾˭炻Ṏ⌛ˬ⬴ℐ↯㕟屯㕁ℏ⭡冯䈡

慸㶭屯㕁⎗嬀⇍⿏炻ㅱ㗗ẍˬ屯㕁㛔幓˭Ἦ⇌

⭂ᷣ橼攻ᷳ忋䳸䶂䳊˭炻䃉㱽ℵ塓䚜㍍ㆾ攻㍍嬀

⭂ᷳ⼴炻⌛ᶵ暋䎮妋˪ᾳṢ屯㕁ᾅ嬟㱽˫墉㚱斄ˬ䃉

⇍炻⶚ᶵ℟㚱ᾳṢ⿏岒炻ḇᶵℵ⍿ᾳ屯㱽䭉䎮ˤ军

⽆嬀⇍䈡⭂䔞ḳṢ˭ᷳ⇌㕟㧁㸾烊㟡㒂℞⭂佑炻 ˬ䃉

㕤℞Ṿ⮵ᾳṢ屯㕁忚埴≈ⶍẍ䫎⎰ˬ䃉⽆嬀⇍䈡⭂

⽆嬀⇍䈡⭂䔞ḳṢ˭⎗德忶ẋ䡤ˣ⋧⎵ˣ晙啷悐↮

䔞ḳṢ˭ᷳ⎬䧖嗽䎮炻⎒天怬℟㚱⼿攻㍍嬀⇍䘬⎗

屯㕁ㆾ℞Ṿ㕡⺷(`⎵⊾)Ἦ忼ㆸ炻Ṏ⌛炻㟡㒂䚠斄

傥⿏(ἳ⤪ᾅ㚱妋⭮搘⋁)炻⇯䘮㗗㷃⮹屯㕁ᷳ

㡅㔯㇨忚埴䘬屯㕁㍸ὃ冯㎕曚炻军⮹忼⇘ˬ`⎵⊾˭

ˬ⎗嬀⇍⿏˭ˤ

䘬天㯪⌛⎗ˤ䃞侴炻㱽夷㛒㖶䡢夷䭬䘬悐↮㗗炻䔞

侴⯂⼭慸㶭䘬㗗屯㕁ˬ⎗嬀⇍⿏˭⇌㸾炻㚨檀

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

㍸ὃㆾ㎕曚䘬㗗ˬ⼿攻㍍嬀⇍˭ᷳ屯㕁㗪炻⎗䓐㕤

481


Health Data and Ethical Legal Issue in Research Application

嬀⇍ᷳˬ柵⢾屯妲˭ㅱ⥍┬ᾅ䭉㕤ˬ屯㕁㍸ὃ侭˭

⿏⍇⇯˭(㎵⭛㚨⮷⍇⇯)炻ᷣ天䎮䓙䁢烉

冯ˬ吸普侭˭䪗炻侴㇨ἧ䓐ᷳˬ`⎵⊾˭㈨埻Ṏㅱ

1.

‍ᾅ屯㕁⹓ᷳ⬴┬⺢䩳Ⱄ㕤慵天℔ℙ屉烊

䫎⎰ᶨ⭂㧁㸾炻᷎ㅱ惵⎰㚱䚠斄㨇⇞ẍ䚋䜋℞句

2.

➢㕤ᾳṢ晙䥩侴㌺昌䈡⭂Ṣᷳ屯㕁炻㚱䣁㬌℔ 䙲䚖䘬ᷳ⮎嶸烊

⮎ˤ 䵄ᶲ㇨徘炻䷙䃞㛔㟰䇕姇㚱≑㕤悐↮㤪⾝ᷳ彐

3.

⬠䳸㝄⍿⇘慵⣏⼙枧烊

㖶炻Ữṵ㚱悐↮㛒婾⍲ᷳ溆炻⊭㊔烉 1.

⍣嬀⇍⊾屯㕁䘬⇌㕟㧁㸾烉屯㕁ᶨ㖎䴻娵⭂忼

4. 5.

HIPAA ᷳ⬱ℐ㷗㕡㱽ㆾ⮰⭞⮑㞍)炻Ṏ䃉姕妰 䚋䜋㨇⇞(ἳ⤪德忶 IRB ㆾ晙䥩⮑㞍⥼⒉㚫)

2.

3.

⮯ᾳṢ屯㕁ˬ⍣嬀⇍⊾˭䁢⋼婧℔ˣ䥩䙲堅䨩 㚨㚱㓰䌯ᷳㇳ㭝ˤ

6.

ᾳ㟰劍天ὅˬ晙䥩㪲⍿Ὕ⭛ᷳ嘆˭ᷣ⻝㌺昌炻

ᷳね㱩ᶳ炻⮯⎗傥⮶农➟埴侭ᶵ䞍⍣嬀⇍⊾㧁

⽭枰⃰℟橼㊯㖶冒幓晙䥩⎗傥⍿Ὕ⭛ᷳ䦳⹎

㸾ỽ⛐炻ㆾ⚈㧁㸾ᶵ⎴侴埵䓇䇕嬘ˤ

⍲㨇䌯ˤ

攻㍍嬀⇍屯㕁䘬晙䥩ᾅ嬟㧁㸾烉㟡㒂䎦埴夷

䁢ℤ栏屯㕁⹓䨑⭂冯ᾳṢ㪲䙲ᾅ晄炻⛐䓇䈑屯

䭬炻攻㍍嬀⇍屯㕁⎗⛐⤪慓䗪堃䓇䞼䨞⟜➇炻

㕁⹓ㆾ‍⹟屯㕁⹓䞼䨞䭬䔯墉炻ᾳṢ⮵屯㕁䘬㍏⇞

冯➢㕤℔䙲䚖䘬ᷳ⬠埻䞼䨞ᷕ㳩忂冯㎕曚炻侴

㪲旸炻⮯⍿屯㕁晙䥩ᾅ嬟䦳⹎⼙枧ˤ⤪ WMA ⎘⊿

➢㕤攻㍍嬀⇍屯㕁ṵ㚱忋䳸军䈡⭂ᾳṢᷳ⎗

⭋妨ᷕᾅ晄ᾳṢ㚱晐㗪㑌⚆⎴シ冯天㯪⮯屯㕁徨

傥⿏炻⤪ GDPR ㇨妨(GDPR Article 4(5))炻ㅱ

↢屯㕁⹓ᷳ㪲⇑炻Ữ㬌㪲⇑ᷳ怑䓐屯㕁⭊橼䁢ˬ⎗

妪⭂夷䭬䡢ᾅ⎗ὃ嬀⇍ᷳ柵⢾屯妲(⤪妋⭮搘

嬀⇍䘬˭(identifiable)屯㕁(䫔 15 㡅)ˤ⚈㬌炻⎘⊿

⋁)ᷳ↮⇍⬀㓦冯⥍┬䭉䎮炻ᶼ⮵㫚⇑䓐冯㎕

⭋妨ḇ天㯪ㅱ⏲䞍㼃⛐⍫冯侭炻䔞屯㕁䴻嗽䎮䁢

曚㬌栆屯㕁ᷳᾳṢㆾ㨇㥳炻天㯪℞ㅱ℟⁁䚠ㅱ

ˬ䃉㱽彐嬀˭(non-identifiable)㗪炻ᾳṢ⮯⎗傥䃉㱽

ᷳ㈨埻炻冯䳬䷼ℏ悐ἄ㤕夷䭬炻ẍ䡢ᾅ娚屯㕁

⼿䞍屯㕁塓⤪ỽ嗽䎮炻ḇ䃉㱽怠㑯㑌⚆⎴シ(䫔 12

ᷳ嗽䎮䡢⮎䃉㱽塓㍍㓞侭嬀⇍ˤ

㡅)ˤGDPR Ṏ⮵ᾳṢ屯㕁㕤䥹⬠䞼䨞䚖䘬ἧ䓐ᷳ

ᾳ屯晙䥩ᷳ㈲斄侭烉䚖⇵冢䀋ᾳ屯㱽᷎㛒姕伖

⇒昌㪲Ḱẍἳ⢾夷⭂炻⛐䫎⎰㚨⮹吸普⍇⇯ˣᶼ䴎

⮰屔ᷣ䭉㨇斄炻㱽⊁悐䁢妋慳㨇斄炻ᾳ㟰䇕

Ḱ䔞ḳṢ⇒昌㪲⮎晃ᶲᶵ⎗埴炻ㆾ⮯♜慵㎵⭛屯㕁

嬘⮯夾℞㇨Ⱄᷕ⣖䚖䘬ḳ㤕ᷣ䭉㨇斄ㆾ⛘㕡

嗽䎮䚖㧁ᷳね㱩ᶳ炻⎗⮵ᾳṢᷳ屯㕁⇒昌㪲Ḱẍ旸

㓧⹄ℙ⎴彎䎮烊侫慷⣏㔠㒂⍲Ṣⶍ㘢ㄏ䫱䥹㈨

⇞(GDPR Article 17(3)(d); 89(1))ˤ

䘤⯽炻忳䓐ᾳ屯ẍ忚埴⎬⺷䞼䨞⮯䁢㛒Ἦ嵐

⚈㬌炻╖⯙桐晒冯⇑䙲堉慷炻⮵ᾳṢ屯㕁徨↢

⊊炻䁢Ὣ忚屯㕁⇑䓐冯ℤ栏ᾳṢ晙䥩ᾅ晄炻⺢

㪲Ḱẍ旸⇞炻⛐䫎⎰怑䔞⇵㍸天ẞᶳ⮯⎗塓嫱ㆸ烊

嬘⎗㕤ᾖ㱽㗪炻Ἕ⎴⡆姕⮰屔ᷣ䭉㨇斄(栆Ụ

侴㗗⏎⭡姙㮹䛦徨↢‍⹟屯㕁⹓炻⯂暨侫慷ˬ℔䛦

⚳⢾ᷳ privacy commissioner, privacy office)炻

ᾉ岜(public trust)˭ᶨ⚈䳈ˤ⇵徘冢䀋㮹䛦ン⹎婧

ㆾ德忶⤪ㆸ䩳⚳⭞䳂媖娊⥼⒉㚫㕡⺷炻⮵䎦埴

㞍䳸㝄炻㮹䛦⮵㓧⹄ᾅ嬟‍ᾅ屯㕁䘬ᾉả⹎炻冯慓

‍⹟屯㕁⍲晙䥩䚠斄ᷳ慵天⓷柴炻㍸↢㓧䫾⺢

ⷓˣ慓䗪㨇㥳䚠庫ᷳᶳ㗗㚨Ỷ䘬炻ᶵ⇘Ḽㆸ烊῀劍

嬘冯㊯⺽ˤ

⛐㬌ね㱩ᶳ屧䃞㍐≽徨↢㨇⇞炻㚨檀㱽昊ㄪㄖ⎗傥

Ѥ.ġġ ٣ࡕ௨ନ៾(ଏ ଏр)ϐ ϐ௖૸ 㚱斄㮹䛦㗗⏎⎗㉺䳽⮯ᾳṢ‍ᾅ屯㕁㍸ὃ䴎 屯㕁⹓ἧ䓐炻㚨檀㱽昊㕤㛔㟰䳪⮑⇌㰢ᷕ斉㖶炻䷙ ἧ㮹䛦ᷳḳ⇵⎴シ㪲⍿旸⇞炻Ữ℞ḳ⼴㌺昌㪲᷎ᶵ ⽭䃞⍿㬌旸⇞烊侴㚨檀㱽昊德忶㭼ἳ⍇⇯㩊夾炻娵 䁢‍ᾅ会⮵㮹䛦ḳ⼴㌺昌㪲ᷳ旸⇞᷎㛒忽⍵ˬ⽭天

482

劍⭡姙⮹㔠Ṣὅ㬌䎮䓙徨↢炻⿸⺽䘤徨↢桐 㼖炻⼊ㆸ䟜䨿㓰ㅱ烊

⇘ˬ⍣嬀⇍⊾˭炻⮯⎗ᶵ⍿ᾳ屯㱽夷䭬炻Ữ⛐ 䎦埴㱽夷᷎㛒㍸ὃ℟橼ᷳ⇌㕟㧁㸾(ἳ⤪

⃩姙ᾳṢ徨↢䫱⎴⮵㧋㛔忚埴怠㑯炻⮯ἧ䴙妰

䘤䓇ᷳ䟜䨿㓰ㅱ䡢⮎⎗傥䘤䓇ˤ䃞侴炻⺽䘤䇕䚠徨 ↢桐㼖炻᷎朆㍐埴徨↢㨇⇞ᷳ⽭䃞䳸㝄ˤẍ劙⚳ NHS ⃰⇵㍐埴 Care.data ⣙㓿ḳẞ䁢ἳ炻㚨⇅⚈㓧 ⹄㛒傥⃭↮⭋忼徨↢㨇⇞䚠斄屯妲炻⍲⮯㬌㤕⊁⻟ ≈䴎⭞⹕慓ⷓ(GP)屈屔侴⺋⍿㈡姽ˤ ⛐㬌妰䔓䳪㬊⼴炻㕤 2018 ⸜ 5 㚰慵㕘┇≽ᾖ 㬋⼴䘬⚳⭞徨↢㨇⇞(National Data Opt-out)炻㮹䛦

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

⎗晐㗪农暣ㆾ䶂ᶲ䚜㍍⎹ NHS 彎䎮ˤ2018 ⸜ 7 㚰

3.

ᶵ⼿ℵἧ䓐(no further use)烉UK Biobank ᶵ⼿

军 2019 ⸜ 3 㚰ᷳ徨↢䌯䲬 2.7%炻2020 ⸜ 6 㚰⇯旵

ℵ忋专⍫冯侭炻ᶵ⼿ℵ⍾⼿㛒Ἦ䘬䕭㬟屯妲炻

军 2.6%[38]ˤ㬌ね㱩㍐㷔冯劙⚳㮹䛦⮵ NHS ᷳᾉ

ḇᶵ⼿ℵἧ䓐忶⍣⍾⼿䘬屯㕁⍲㩊橼ˤUK

ả䦳⹎㚱斄炻姙⣂婧㞍䞼䨞栗䣢炻劙⚳㮹䛦⮵㕤

Biobank ⮯㚫扟㭨㩊橼炻Ữ⎗傥䃉㱽徥希⇘㇨

NHS 㚱檀ᾉả⹎烊ἳ⤪ ARK(2015)㊯↢炻⮵ᾅ嬟

㚱⶚䴻㔋ⶫ↢⍣㩊橼ᷳ㭀检烊䔞⍫冯侭怠㑯㬌

屯妲ㆾ㔠㒂⬱ℐ䘬ᾉả⹎炻㚱 86%䘬㮹䛦堐䣢ᾉả

徨↢炻⮯⎗旣㬊冒⶙䘬屯妲塓ἧ䓐㕤㛒Ἦ䘬䞼

NHS炻  㫉㕤 ⮵℞⭞ ⹕慓ⷓ ᷳᾉả (91%)[28]烊

䨞炻Ữ䃉㱽⽆⶚䴻⬴ㆸ䘬䞼䨞䳸㝄ᷕ炻䦣昌冒

HealthWatch(2018)ᷳ婧㞍䳸㝄栗䣢炻77%䘬㮹䛦堐

⶙䘬㔠㒂[43]ˤ㇒军 2017 ⸜炻⶚⺢䩳 488,000

䣢ᾉả NHS ᾅ嬟℞ᾳṢ屯㕁ᷳ傥≃炻ᶼ㚱ᶫㆸ㮹

䫮➢⚈屯妲炻㊩临德忶䶂ᶲ⼊⺷㒜⃭⍫冯侭冒

䛦㦪シ NHS ⮯℞‍⹟屯㕁ἧ䓐㕤䞼䨞(73%)[29]ˤ

姽屯㕁(⤪梚梇✳ンˣ橼傥㳣≽ˣ⽫䎮‍⹟

军㕤⤪ỽ㍸檀℔䛦ᾉ岜炻Tully 䫱(2018)䞼䨞㊯↢℔

䫱)炻᷎㕤 2014 ⸜⡆≈⼙⁷屯㕁ᷳ吸普炻ẍ 10

㮹⮑嬘忶䦳㚱≑㕤⡆忚㮹䛦䝕妋↮ṓ‍⹟屯㕁ᷳ

叔䫮䁢䚖㧁[44]ˤ

桐晒冯䙲嗽炻⣂㔠⍫冯侭⚈㬌㓡嬲⍇㛔⮵䎦埴墯暄

⽆⇵徘ἳ⫸⎗䞍炻⃩姙ᾳṢ㚱徨↢㪲冯屯㕁⹓

䘬屯㕁↮ṓ㓧䫾ᷳ䚳㱽烊姙⣂⍫冯侭⛐⃭↮䞍ね⼴

ᷳ攟ᷭ䴻䆇⍲℔䙲䚖䘬ᷳ徥㯪炻ℑ侭᷎ᶵ堅䨩ˤ朊

(informed)炻旵Ỷ℞⍇㛔⮵‍⹟屯㕁↮ṓ䘬㆟䔹ン

⮵⣏✳屯㕁⹓䘬℔ˣ䥩䙲堅䨩炻ˬ⍣嬀⇍⊾˭㗗旵

⹎[39]ˤ

ỶᾳṢ⇑䙲⍿㎵ᷳ㚱㓰㬍樇炻䃞侴⍣嬀⇍⊾⌣⎗傥

䚠庫㕤‍⹟屯㕁⹓炻䓇䈑屯㕁⹓⚈⊭⏓㩊橼侴

⣏ⷭ旵Ỷ屯㕁ᷳ忳䓐₡ῤ炻㷃㎵Ḯ℔䙲䚖䘬ᷳ忼

㚱㚜檀ᷳ䞼䨞₡ῤ炻Ữ⎴㗪ḇ喲⏓㚜⣂ᾳṢ晙䥩屯

ㆸˤ⮵䓇䈑屯㕁⹓冯‍⹟屯㕁⹓侴妨炻屯㕁䫮㔠㗗

妲(ἳ⤪➢⚈屯妲)ˤ2000 ⸜⅘Ⲟ㓧⹄㌰Ḱ deCODE

⼙枧屯㕁⹓₡ῤ䘬慵天⚈䳈炻Ữ屯㕁䘬⎗忳䓐䦳⹎

䓇㈨℔⎠ἧ䓐ℐ⚳䲬 27 叔㮹䛦慓䗪䲨抬ˣ⭞㕷

(ἳ⤪㗗⏎⼿徥希ˣ㚜㕘ˣ冯℞Ṿ屯㕁⹓忋䳸䫱)Ṏ

㧡ˣ➢⚈屯妲䘬⮰Ⱄ㪲⇑(exclusive rights)炻᷎㍉⍾

⋩↮慵天ˤ

㍐⭂⎴シ(presumed consent)⇞⹎[40]ˤ㬌冱⺽䘤⅘

⎎ᶨ㕡朊炻⃩姙徨↢㪲ᷳ⮎ἄ㇨旬ⷞᷳ漸⣏埴

Ⲟ⬠埻䓴冯慓䓴⍵⻰炻䳬ㆸ⎵䁢 Mannvernd 䘬䳬

㓧ㆸ㛔ˣ屯妲⏲䞍冯徨↢䦳⸷ᷳ墯暄⿏ˣ忈ㆸ屯㕁

䷼炻℔攳⍵⮵㓧⹄ˬ堃䓇悐攨屯㕁⹓㱽㟰˭(Act on

⹓⬴㔜⿏ᷳᶵ㕟嬲≽ˣ㗗⏎⎗傥⮵ᶾẋ⿏徥希屯㕁

a Health Sector Database)ˤ㇒军 2004 ⸜炻⶚㚱䲬

ⷞἮ堅㑲Ƀ䫱炻䘮⽭枰≈ẍ侫ㄖ冯⃳㚵ˤ朊⮵⣏㔠

20,000 Ṣ娵䁢屯妲塓㾓䓐侴徨↢(䲬 7%)[41]ˤ2017

㒂⍲Ṣⶍ㘢ㄏ㈨埻⾓忇䘤⯽ᷳᶾẋ炻⤪ỽ⺢䩳傥ℤ

⸜ deCODE 䲬㚱 150,000 Ṣ䘬屯㕁炻⌈⅘Ⲟㆸ⸜Ṣ

栏⮲慵⍫冯侭ˣ屯㕁⹓䘬䨑⭂夷㧉ˣ傥⃭↮䘤㎖忳

䷥㔠ᶵ⇘ᶨ⋲(䲬 44%)[42]ˤ䚠庫ᷳᶳ炻劙⚳䓇䈑

ἄᷳ㧉⺷炻䘮㚱⼭屯㕁㍸ὃ侭ˣ䞼䨞侭ˣ䓊ˣ⭀ˣ

屯㕁⹓(UK Biobank)㕤 2006 ⸜⯽攳䚖㧁 50 叔Ṣ䘬

⬠䫱斄ὪṢ㊩临⓮妶ẍ⺢䩳ℙ嬀⍲夷䭬ˤ

㊃⊇妰䔓炻⍫冯侭⮯㍸ὃ埨㵚ˣ⯧㵚ˣⓦ㵚㩊橼炻 ⠓⮓姽Ộ屯㕁炻㍍⍿⼴临徥希炻᷎⎴シ冯℞䕭㬟忚 埴ᷚ忋ˤ UK Biobank 姕妰㚱ᶱ䧖徨↢炻↮⇍䁢烉 1.

ᶵ⼿ℵ忋专(no further contact)烉UK Biobank ⮯ᶵ⼿ℵ䚜㍍忋专⍫冯侭炻Ữṵ䃞⎗ẍᾅ䔁冯 ἧ䓐⍫冯侭ᷳ屯妲冯㩊橼炻⊭㊔忶⍣⍾⼿冯㛒 Ἦ⽆䕭㬟䌚⼿ᷳ屯妲ˤ

2.

ᶵ⼿ℵ⍾䓐(no further access)烉UK Biobank ⮯ ᶵ⼿ℵ忋专⍫冯侭炻ḇᶵ⼿ℵ⍾⼿㛒Ἦ䘬䕭㬟 屯妲炻Ữṵ䃞⎗ẍἧ䓐忶⍣⶚⍾⼿䘬屯妲冯㩊 橼ˤ

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

ୖᆶੰᐕᆶ଼நၗ਑ࣴ‫ز‬ϐၰቺက୍! ୖᆶੰᐕᆶ଼நၗ਑ࣴ‫ز‬ϐၰቺက୍! ⤪ỽ⛐Ὣ忚慓⬠䞼䨞㗪ℤ栏䞼䨞⍫冯侭/⍿娎 侭㪲䙲炻ᷫ㗗䞼䨞ΐ䎮ᷳ㟠⽫婚柴ˤ䔞ẋ䞼䨞ΐ䎮 ᷳ㾓妜炻冯Ḵ㫉⣏㇘㛇攻冯ᷳ⼴媠⣂㾓䓐Ṣ栆⍿娎 侭ᷳ慄倆㚱斄炻ἧ⼿ˬ⍿娎侭ᾅ嬟˭ㆸ䁢䞼䨞ΐ䎮 ᷳ㟠⽫ˤ䃞侴炻䔞ᾅ嬟䞼䨞⍫冯侭ㆸ䁢䓇慓䞼䨞ΐ 䎮ᷳ揝⼳炻⎬䧖ᾅ嬟㨇⇞ⰌⰌ≈䔲炻ὧ⎗傥忈ㆸ慓 ⬠䞼䨞䘤⯽ᷳ旣䣁炻⍵侴ᶵ⇑德忶慓⬠䞼䨞Ἦ忈䤷 Ṣ佌䚖䘬ᷳ忼ㆸ烊⮵䞼䨞ΐ䎮⮑㞍㨇⇞冯⍿娎侭ᾅ 嬟㱽夷忚埴㩊妶㓡忚炻ḇ⽭枰㊩临忚埴ˤ⬠侭ὧ㚱

483


Health Data and Ethical Legal Issue in Research Application

㍸↢ˬ⍫冯慓⬠䞼䨞㗗ᶨ䧖忻⽟佑⊁˭ᷳ婾徘炻Ṏ

⊁(㰺㚱⎰ἄ⌛䃉㱽忼ㆸ)炻侫慷⣂㔠䞼䨞㛒傥㊃⊇

憅⮵ˬ徨↢㪲ᷳ嫱ㆸ˭忚埴㩊妶炻ẍᶳ↮㜸㬌Ḵ婾

嵛⣈⍫冯侭ᷳ䎦㱩炻ㅱ德忶㔁做⋼≑℔䛦䝕妋⍫冯

溆炻᷎ㅱ䓐㕤‍⹟屯㕁䞼䨞㓧䫾ᷳ⍵⿅ˤ

䓇慓䞼䨞ᷳ䣦㚫₡ῤ冯屔ả[48]ˤ

΋/ġ ୖᆶᙴᏢࣴ‫ز‬ϐၰቺက୍! ṢᾹ㗗⏎㚱⍫冯慓⬠䞼䨞ᷳ忻⽟佑⊁烎 Harris(2005)ᷣ⻝炻➢㕤ᶵ ⭛⍇⇯(do no harm)ㆹ Ᾱ㚱⻟䁰䘬屔ảᶵ⎗ ⭛ṾṢ炻侴➢㕤䦵⻙ṵ⻟䘬 ˬ埴┬⍇⇯(the principle of beneficence)˭⇯⎗⮶↢ ˬ㊗㓹⍇⇯(the rule of rescue)˭ 烉⛐⎗⎰䎮 ⇘䘬䭬 ⚵ℏ㚱忻⽟佑⊁⍣性⃵♜慵 ⭛䘬䘤䓇ˤHarris 娵 䁢慓⬠䞼䨞䁢妋昌䛦Ṣ⍿䕦䕭 ⭛䘬⽭天⃫䳈炻Ṣ Ᾱ⚈㬌㚱⍫冯慓⬠䞼䨞䘬忻⽟佑⊁ˤ⎎⢾➢㕤ˬ℔ ⸛⍇⇯(the principle of fairness)˭ 炻ṢᾹㅱ性⃵ˬ㏕ ὧ干侭(free rider)˭䘬埴䁢炻Ṏ⌛⎒ṓ⍿⇍Ṣ⍫冯 䞼䨞ᷳㆸ㝄冒⶙⌣ᶵ⍫冯䞼䨞烊⮵㕤傥䁢䛦ṢⷞἮ 䙲嗽ᷳ䣦㚫㳣≽炻䛦ṢṎ㚱佑⊁↮㑼䵕专娚㳣≽㇨ 暨ᷳ䉏䈚ˤ 劍偗⭂慓⬠䞼䨞䁢℔ℙ⇑䙲炻ᶼ⛐䈡⭂㤝䪗 ね㱩ᶳ⎗嫱ㆸ⻟⇞⍫冯㗪炻ㅱ思⽒ẍᶳ⸦溆侫慷烉 1.

军 ⮹ ⛐ 屈 㑼 ⍲ 桐 晒 䁢 㚨 ⮷ (minimal) 䘬 ⇵ ㍸ ᶳ炻ᶵㅱ`姕㮹䛦ᶵ㚫栀シ䁢℔ℙ⇑䙲侴Ẁ媠 埴≽烊

2.

㮹䛦㚫栀シ⍫冯⮵冒幓冯䣦㚫䘮㚱䙲嗽ᷳ㳣 ≽烊

3.

䔞偗娵㚱䁢℔ℙ⇑䙲侴埴≽䘬㘖念佑⊁ (general obligation)㗪炻⮵㕤⍾⼿⎴シ冯⏎䘬㊹ ㇘㚫㷃⮹炻ḇ庫ᶵ㚫⮯⍫冯䞼䨞夾䁢㼃⛐⿏䘬 ∅⇲[45]ˤ Schaefer 䫱(2009)➢㕤ˬ℔ℙ⇑䙲婾溆(public

goods argument)˭ᷣ⻝烉䓇慓䞍嬀䁢ᶨ䧖℔ℙ屉炻 䛦Ṣ䘮⎗⍾⼿炻⌛ἧ㗗㛒⮵℞㚱届䌣侭Ṏ䃞炻侴⍫ 冯慓⬠䞼䨞㗗㓗㊩㬌慵天℔ℙ屉⬀临䘬斄挝炻⚈㬌 ㇨㚱Ṣ䘮㚱⍫冯慓⬠䞼䨞ᷳ佑⊁ˤ䚠庫㕤䚖⇵䘬  㱽炻Schaefer 䫱ᷣ⻝炻ㅱ⛐㚱列⤥䎮䓙 (good reason) 䘬 ⇵ ㍸ ᶳ 炻 㕡 傥 ㉺ 䳽 ⍫ 冯 䞼 䨞 [46] ˤ

Forsberg 䫱(2014)㊯↢䌚⼿㚱㓰䘬慓䗪䄏嬟᷎ 朆䎮㇨䔞䃞炻慓䗪䄏嬟ẘ岜㊩临䘬慓⬠䞼䨞䘤⯽炻 ᶼṢᾹ䃉㱽枸㷔冒⶙⎗傥暨天ỽ䧖䄏嬟屯㸸炻➢㕤 㭷ᾳṢ䘮㚱⮵慓⬠忚⯽ᷳℙ忂暨㯪炻⍫冯慓⬠䞼䨞 ᷳ佑⊁ㅱ➢㕤ˬ䣦㚫⣹䲬(social contract)˭奨溆ˤ Forsberg 䫱ᷣ⻝ṢᾹ⮵㕤䫎⎰ᶳ↿㡅ẞᷳ慓⬠䞼 䨞㚱⍫冯佑⊁烉 1.

㴱⍲⽖⮷(diminutive)桐晒烊

2.

㛒⮵⍫冯侭ⷞἮ屈㑼ㆾ㎵⣙(burdens or costs)烊

3.

℟㚱㼃⛐䙲嗽䘬(potentially beneficial)ˤ㟡㒂 㬌㧁㸾炻ẍ⃚⬀䘬䳬䷼㩊橼ㆾ‍⹟屯㕁㇨忚埴 ᷳ䞼䨞䘮Ⱄ㬌栆炻㮹䛦➢㕤⎗ⷞἮ冒ㆹ⇑䙲 (self-interest)ᷳ䣦㚫⣹䲬炻㚱⍫冯㬌栆䞼䨞ᷳ 忻⽟佑⊁[49]ˤ 憅⮵㚱ṃ夷䭬ㆾ㊯⺽天㯪ἧ䓐‍⹟屯㕁忚埴

䞼䨞䘮⽭枰⍾⼿ᾳṢ⎴シ炻昌朆娚⎴シ㗗⮎晃ᶲᶵ ⎗埴䘬(impractical)炻Ballantyne 冯 Schaefer(2018) ⮵㬌婾溆㍸↢⍵楩炻娵䁢䎦埴㓗㊩㮹䛦㚱忻⽟佑⊁ ⍫冯‍⹟屯㕁䞼䨞䘬婾溆炻嵛ẍ⺞Ỡ军㓗㊩⛐審⃵ ⎴シ䘬ね㱩ᶳ㫉䳂ἧ䓐(secondary use)Ἦ冒℔悐攨 (public sector) 䘬 ⎗ 嬀 ⇍ 䘬 ᾳ Ṣ ‍ ⹟ 屯 妲 ˤ Ballantyne 䫱⺢嬘憅⮵㬌䧖䞼䨞炻IRB ᶵ枰姽Ộ⍾ ⼿⎴シᷳ⎗埴⿏(practicality)炻侴ㅱ叿慵⛐姽Ộ娚 䞼䨞⎗ⷞἮᷳ℔ℙ⇑䙲ˣ℔ℙ⍫冯⍲德㖶⹎[50]ˤ 㬠䲵ᶲ徘⬠侭ᷣ⻝炻⎗䞍➢㕤慓⬠䞼䨞⎗ⷞ Ἦᷳ℔ℙ⇑䙲ᶼ㇨㚱⚳㮹䘮䁢⍿よ侭炻⍫冯慓⬠䞼 䨞᷎朆⎒㗗⇑Ṿ≑Ṣ┬冱炻㚜㗗➢㕤ˬḺよ (reciprocity)˭ᷳᶨ䧖忻⽟佑⊁烊⯌℞䔞⍫冯侭㇨暨 ㈧⍿ᷳ屈㑼䚠⮵Ỷ(ἳ⤪䕭㬟⍲‍⹟屯㕁ˣ⽖⮷桐 晒ᷳ奨⮇⿏䞼䨞Ƀ)ˣ侴䞼䨞䓊↢ᷳ⇑䙲䚠⮵檀 㗪炻㬌佑⊁㚜䁢⻟䁰ˤ Β.ġġ ଏр៾ϐ᛾ԋ(Justification)

Rhodes(2005, 2017)娵䁢㇨㚱Ṣ䘮䁢䓇慓䞼䨞䳸㝄

⛐冐⸲娎槿⍲Ṣ橼䞼䨞⟜➇炻ᾅ晄⍫冯侭⼿晐

ᷳ⇑⭛斄ὪṢ炻⚈㬌ㅱẀ↢冯㇨䌚⼿䚠䧙ᷳ届䌣炻

㗪⛐䃉屈㑼ᷳ⇵㍸ᶳ徨↢娎槿炻⃤䃞⶚䁢ℙ嬀ˤ

᷎⺢嬘⮵㖊㚱䞼䨞ΐ䎮㤪⾝忚埴婧㔜炻ᶵℵ⮯⍫冯

Schaefer 冯 Wertheimer ⇯▿娎慸㶭㬌㪲⇑ᷳ嫱ㆸ䎮

侭夾䁢⍿∅⇲侭[47]烊揺㕤㭷ᾳṢ䘮㚱㼃⛐ᷳ慓䗪

䓙炻ᷣ⻝徨↢㪲ㅱ㗗➢㕤Ṣ橼䞼䨞ᷳ䈡㬲⿏侴Ἦ炻

暨㯪炻ẍ⍲慓⬠忚⯽Ⱄ㕤℟㚱䣦㚫⎰ἄ⽭天⿏ᷳḳ

ᶼ军⮹⊭⏓⚃ᾳⰌ朊烉(1)屯妲ᶵ⮵䧙(information

484

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

imbalance)烊(2)性晒ᶵ⮵䧙(inability to hedge)烊(3)

䗪Ṣ⒉ᷳ⮰㤕届䌣⍲㘢ㄏ屉䓊ᷳ䳗䧵ˤ

⚢㚱ᷳᶵ䡢⭂⿏(inherent uncertainty)烊(4)⮵幓橼忈

Ḵ.ġ 慓䗪㨇㥳㑩㚱䕭㬟冯‍⹟屯㕁ᷳ㇨㚱㪲冯ἧ

ㆸᶵ怑(untoward bodily invasion)[51]ˤ

䓐㪲炻⎴㗪屈㚱䭉䎮冯ᾅ嬟ᷳ屔ảˤ侴℞ἧ䓐

ὅ㬌奨溆炻䔞䈡⭂䞼䨞䴻㬌⚃Ⰼ朊↮㜸炻℟㚱

㕤慓 ⬠䞼䨞暨ẍᾅ 嬟ᾳṢ屯㕁 冯晙䥩䁢⇵

庫冐⸲䞼䨞Ỷㆾ⸦᷶ᶵ⬀⛐ᷳ桐晒㗪(⤪⓷⌟婧㞍

㍸炻䞼䨞暨℟㚱㬋䔞ᷳ䥹⬠冯䣦㚫₡ῤ炻䴻忶

ㆾ‍⹟屯㕁⹓䞼䨞)炻㬌㗪⃩姙⮵㬌栆✳䞼䨞⍫冯

♜嫡 ᷳΐ䎮⮑㞍䦳 ⸷ẍ䡢ᾅ⎬ 䧖㪲䙲冯₡

侭ᷳ徨↢㪲Ḱẍ旸⇞ㅱ䁢⎰䎮䘬[51]ˤHolm(2011)

ῤˤ䕭Ṣ⮵㕤冒⶙ᷳ䕭㬟屯㕁⇯㑩㚱䓛婳ˣᾅ

⎴シᶲ徘奨溆炻᷎ᷣ⻝╖ẍ⍫冯侭ᷳ冒ᷣㆾ冒㰢

⬀冯ἧ䓐ᷳ⎬䧖㪲⇑ˤ

(autonomy or self-determination) 冯 幓 橼 ⬴ 㔜 ⿏

ᶱ.ġ ⛐屯㕁⬱ℐ⍲晙䥩ᾅ嬟ᷳ⇵㍸ᶳ炻⣂㔠㮹䛦㚱

(bodily integrity)䃉㱽嫱ㆸ⮯⶚⎴シ吸普ᷳ㔠㒂ㆾ

↮ṓ‍⹟屯㕁㕤慓⬠䞼䨞ᷳ⇑Ṿ⿅゛炻䃞侴㮹

㩊橼⬴ℐ徨↢ˤ㚱揺㕤䓇䈑屯㕁⹓䞼䨞冯⁛䴙冐⸲

䛦⮵屯㕁晙䥩ᷳ⬱ℐデ冯⮵䞼䨞ᷳ㓗㊩炻⮯⍿

䞼䨞ᷳⶖ䔘炻䷙ἧ徨↢㪲ㅱ⺞Ỡ军䓇䈑屯㕁⹓䞼䨞

⇘⮵㕤屯㕁䭉䎮侭ᷳᾉ岜⹎㇨⼙枧ˤ⚈㬌䡢ᾅ

⟜➇炻Ữ娚㪲⇑ᷳ䡢↯ℏ⭡炻⇯ᶵ⽭䃞枰冯冐⸲䞼

屈 屔 ả ᷳ 䞼 䨞 埴 䁢 (responsible research conduct)冯㍸㖯℔䛦ᾉ岜(public trust)䁢Ὣ忚

䨞⟜➇䚠⎴[52]ˤ 㬌⢾炻晾朆䁢嫱ㆸ徨↢㪲ᷳ䎮䓙炻Ữ徨↢㪲⎗

‍⹟屯㕁䞼䨞ㅱ䓐ᷳ慵天➢䢶炻ㅱ德忶㚱㓰䘬

䁢 ℔ 䛦 ⮵ 䞼 䨞 侭 ᾉ 岜 䦳 ⹎ ᷳ 嫱 㖶 㨇 ⇞ [51] ˤ

℔䛦㹅忂冯媖娊ˣ㮹ᷣ⮑嬘冯℔㮹⍫冯ˣ㮹䛦

Helgesson 冯 Johnson(2005)⇯ᷣ⻝炻徨↢㪲⮵㕤䞼

冯䣦㚫ẋ堐⍫冯ΐ䎮⮑㞍Ƀ䫱㨇⇞炻Ἦ㍸⋯℔

䨞ᷳˬ℔䛦ᾉ岜˭㗗慵天䘬炻㬌㪲⇑⮯⼙枧ṢᾹ⍫

䛦ᾉ岜烊德忶⎬䧖㔁做妻䶜㨇⇞⍲⮑㞍䚋䜋㱽

冯䞼䨞ᷳシ栀炻⊭㊔⎴シ⮯㩊橼㍸ὃ䴎䓇䈑屯㕁⹓

夷炻ẍ䡢ᾅ䞼䨞Ṣ⒉思⬰᷎⮎嶸䞼䨞ΐ䎮炻㚜

ἧ䓐[53]ˤ

㗗岷⼿℔䛦ᾉ岜ᷳ➢㛔㬍樇ˤ

㬠䲵侴妨炻䔘㕤⁛䴙冐⸲䞼䨞⮵㕤⍿娎侭徨↢

⚃.ġ Ṣ㪲⛀橼㇨斄↯㍸ὃ‍⹟屯㕁忚埴䞼䨞⎗傥

㪲ᷳᾅ晄炻⮵㕤Ỷ桐晒⿏岒ᷳ䓇䈑屯㕁⹓冯‍⹟屯

䓊䓇ᷳ桐晒⓷柴炻ᷣ天䁢䈡㬲䕦䕭䉨ン侭ㆾ㖻

㕁⹓䞼䨞炻旸⇞⍿娎侭徨↢㪲ᷳᷣ⻝㚱℞ΐ䎮㬋䔞

⍿ ⭛㕷佌(㚨ⷠ冱ἳ㗗 HIV デ㝻侭ˣ⭞㙜⿏

⿏烊䃞侴炻Ữ⎎ᶨ㕡朊侴妨炻徨↢㪲ᷳᾅ晄Ṏ⎗傥

Ὕ⍿⭛侭ˣ份夳䕦䕭ˣ⍇ỷ㮹㕷佌Ƀ)炻℞晙

㚱≑㍸⋯℔䛦ᾉ岜ˤ

䥩怕㳑㺷⼴㇨埵䓇ᷳ ⭛ˣ⍿⇘䕦䕭㰉⎵⊾ˣ

่ ่!ፕ! !ፕ! 䞼䨞ΐ䎮Ⱄ㕤㊩临䘤⯽ᷕ䘬⬠⓷炻晐叿䞼䨞柀 ➇冯㕡㱽ᷳ㉻⯽暨ᶵ㕟朊⮵㕘䘬ΐ䎮嬘柴⍲㊹ ㇘烊⛐ˬὫ忚慓⬠䞼䨞ẍ⡆忚Ṣ栆‍⹟䤷䣱˭冯ˬᾅ 嬟䞼䨞⍫冯侭ᷳ㪲䙲冯⮲♜˭攻⤪ỽ⍾⼿⸛堉炻℞ ⍇⇯冯⮎⊁ㅱ䓐Ṏ暨冯㗪ᾙ忚⍲怑㗪婧㔜ˤ䴙㔜ẍ ᶲᷳ䞼䨞冯↮㜸炻䫮侭⮵㕤䕭㬟冯‍⹟屯㕁㕤慓⬠ 䞼䨞ᷳΐ䎮侫慷㍸↢ẍᶳᷣ⻝烉 ᶨ.ġ 䕭㬟屯㕁ᷫ㗗䕭Ṣ⯙慓ᷳ忶䦳炻䓙慓䗪Ṣ⒉䥱 ㊩℞⮰㤕妻䶜炻⮵㕤䕭Ṣᷳ䓇䕭䴻槿冯‍⹟䉨 㱩忚埴䕭⎚娊⓷冯䲨抬ˣ➟埴⎬䧖䎮⬠㩊㞍冯 慓⬠㩊槿ˣ䳸㝄⇌嬨冯↢℟⟙⏲Ƀ䫱㬍樇㇨䳗 䧵墥ἄ侴ㆸ炻℞ℏ㵝晾Ⱄ㕤⮵㕤䕭Ṣ‍⹟䚠斄 屯妲ᷳ姀抬炻䃞侴℞⺢䩳忶䦳㚱㤝檀ㆸ↮Ⱄ慓

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

ㆾ㕷佌⍿⇘㧁䰌⊾Ƀ䫱⼙枧ˤ⮵㬌炻ᾳṢ晙䥩 ᷳᾅ晄⚢䁢➢㛔炻Ữ⮵㕤ẩ⚾㎕曚晙䥩侭ᷳ旚 ⇞冯㆚嗽ˣ⮵㕤塓㰉⎵⊾䕦䕭(ἳ⤪ッ㹳䕭ˣ 䘚䗯ˣ⿏⁛㝻䕭ˣ䱦䤆䕦䕭Ƀ䫱)ᷳ⍣䣦㚫㰉 ⎵⊾ᷳ㔁做冯䣦㚫㹅忂ˣ⮵㕤⻙⊊㕷佌ᷳ⮲慵 冯⸛䫱䚳⼭Ƀ䫱炻䘮䁢彬Ṳ暨⎴㗪≒≃㓡┬ẍ ⻕⸛䣦㚫ᶵ⸛䫱ᷳ䫾䔍冯䚖㧁ˤỮ劍㫚ẍ♜㟤 旸䷖屯㕁㕤䞼䨞ἧ䓐ᷳ㨇㚫ˣㆾ㍸檀℞⍾䓐ᷳ ⚘暋 ⹎冯墯暄⹎Ἦ 旣⌣䞼䨞ẍ 性⃵ᶲ徘桐 晒炻᷎朆㬋䡢ᷳ旚⇞⮵䫾ˤ⤪㬌㚜⎗傥ἧ⼿冯 忁栆 ⻙⊊侭冯㖻⍿  ⭛㕷佌䚠 斄ᷳ䞼䨞敽 ⤪炻⚈侴仢᷷⇞妪㓡┬㍒㕥ᷳ䥹⬠冯㓧䫾➢ 䢶炻⍵侴ἧṾᾹ㚜䁢⻙⊊ˣ㪲䙲㚜⍿⇘⾥䔍ˤ Ḽ.ġ ➢㕤㊗㓹⍇⇯ˣ性⃵㏕ὧ干ˣ℔⸛Ḻよˣ℔ℙ ⇑䙲Ƀ䫱⍇⇯炻㍸ὃ䕭㬟冯‍⹟屯㕁ẍ忚埴  ⭛桐晒Ỷ侴℔䙲₡ῤ檀ᷳ䞼䨞炻℞忻⽟㬋䔞⿏

485


Health Data and Ethical Legal Issue in Research Application

㤝檀炻⚳㮹⍫冯䞼䨞ᷳ忻⽟佑⊁ṎⰔ㖶䡢ˤ㬌 忻⽟佑⊁⛐⮎㕥ℐ㮹‍ᾅ⇞⹎ᷳ⎘䀋炻⚳㮹➢

2.

30, 2020. 哉䓓㖴ˣ恙㲘㸸烉ᶾ䓴慓ⷓ㚫⎘⊿⭋妨烉‍⹟

㛔慓䗪䄏嬟暨㯪⶚⍿慓䗪䄏嬟橼䲣ᾅ晄ᷳ➢䢶

屯㕁⹓冯䓇䈑屯㕁⹓ᷳΐ䎮侫慷ˤ冢䀋慓⬠

ᶲ䙲⼊⻟䁰烊⽆侴⮵㕤㬌栆✳‍⹟屯㕁䞼䨞炻

2016;20:620-4ˤ 3.

旸⇞䔞ḳṢᷳ徨↢㪲Ṏ⎗嫱ㆸˤ

UK Information Commissioner Office. What is

ℕ.ġ ㆹ⚳䚖⇵ᷳᾳṢ屯㕁ᾅ嬟夷䭬⯂㚱姙⣂⼭墄⃭

special category data?, 2019. https://ico.org.uk/

䘤⯽冯慸㶭ᷳ嗽炻⊭㊔烉㚨檀㱽昊㊯↢埴㓧㨇

media/for-organisations/guide-to-data-protection

斄攻屯㕁㳩忂ᷳ䭉䎮炻斄㕤⍣嬀⇍⊾⇌㕟㧁

/guide-to-the-general-data-protection-regulation-

㸾ˣ⼿攻㍍嬀⇍屯㕁ᷳ䭉䎮ˣᾳ屯晙䥩㈲斄侭

gdpr/special-category-data-1-0.pdf/

(ἳ⤪晙䥩ᾅ嬟⭀会)䫱䚠斄㨇⇞炻ᷫ㚱⼭䚠斄

July 30, 2020.

㪲屔⍲ᷣ䭉㨇斄ᷳ慵夾冯两临䘤妋㰢⯽ˤ

4.

⮯㖊㚱ᷳ䕭㬟冯‍⹟屯㕁炻䳸⎰⎬䧖䓇䈑屯

Chabinsky

SR,

Protection

Laws

Pittman and

FP.

Accessed USA:

Regulations

Data 2020,

㕁ˣ㩊橼屯㕁⍲℞Ṿ朆慓䗪柀➇ᷳ屯㕁炻⼊ㆸ㔜⎰

2020.https://iclg.com/practice-areas/data-protect

✳䘬䥹⬠䞼䨞屯㕁⹓炻ㅱ䓐㕤⣏㔠㒂ˣṢⶍ㘢ㄏˣ

ion-laws-and-regulations/usa/ Accessed July 30, 2020.

℔ℙ堃䓇ˣ➢⚈䞼䨞ˣ䱦㸾慓⬠ˣ旚䕓䥹⬠Ƀ䫱䅙 攨䞼䨞柀➇炻䁢䔞⇵⚳ℏ⢾䞼䨞ᷣ㳩嵐⊊ˤ℞䚖䘬

5.

Reed M. A guide to US data protection,

⛐㕤Ὣ忚䥹⬠䞍嬀冯慓䗪䥹㈨ᷳ忚⯽炻㚨䳪䚖䘬⇯

2018.https://www.akingump.com/a/web/97777/

冯慓䗪䄏嬟ᷳ䚖㧁ᶨ农炻ᷫ䁢㍸⋯慓䗪䄏嬟⑩岒ẍ

Michelle-Reed.Trade-Security-Journal.pdf/

⡆忚Ṣ栆‍⹟䤷䣱ˤ⎰᷶ΐ䎮ᷳ䕭㬟冯‍⹟屯㕁䞼 䨞ㅱ䓐枰ẍᾅ晄ᾳṢ晙䥩冯屯㕁⬱ℐ䁢⇵㍸炻ẍὫ

6.

Accessed July 30, 2020. 䩳㱽昊烉暣儎嗽䎮ᾳṢ屯㕁ᾅ嬟㱽ᾖ㬋勱㟰Ἕ

忚䣦㚫℔ℙ⇑䙲ᷳ⮎䎦烊侴㬌℔ℙ⇑䙲ᷳ⮎䎦炻㚱

㟰⮑㞍㟰 – Ṍ源⛀⋼⓮ –ˤ䩳㱽昊℔⟙

⼭䞼䨞侭ˣ⍿娎侭ˣ䞼䨞㨇㥳ˣ℔悐攨冯䣦㚫ᷳℙ

2008;97:114-218ˤ 7.

⎴⍫冯ˣ㈧⍿屈㑼ẍ ↢届䌣ˤ

UK Information Commissioner’s Office. Right to be informed, 2019. https://ico.org.uk/media/

ठ!ᖴ!

for-organisations/guide-to-data-protection/ guideto-the-general-data-protection-regulation-gdpr-1

㛔㔯䁢哉䓓㖴慓ⷓ➟埴䥹㈨悐妰䔓ᷳ悐ấㆸ 㝄炻ἄ侭嫡⎹䥹㈨悐农嫅ˤ

-0.pdf/ Accessed July 30, 2020. 8.

ᖂ!ܴ!

US National Institutes of Health. Letting your personal health information be used and shared for research, 2005. https://privacyruleandresearch.nih.

㛔䞼䨞ᷳ⇑䙲堅䨩烉䃉ˤ䞍ね⎴シ烉䃉ˤ⍿

gov/hippaprivacy/HIPAA.pdf/ Accessed July 30,

娎侭㪲䙲烉䃉Ṣ橼ㆾ≽䈑⮎槿ˤ

2020. 9.

ୖԵЎ᝘! 1.

Incidental

World Medical Association. WMA Declaration of Taipei on Ethical Considerations regarding Health

Databases

and

Biobanks,

2016.

https://www.wma.net/policies-post/wma-declaration -of-taipei-on-ethical-considerations-regarding -health-databases-and-biobanks/ Accessed July

486

US Department of Health and Human Services. Uses

and

Disclosures,

2002.

https://www.hhs.gov/sites/default/files/ocr/priva cy/hipaa/understanding/coveredentities/incidenta lu%26d.pdf/ Accessed July 30, 2020. 10. Nuffield Council on Bioethics. The collection, linking and use of data in biomedical research and

health

care:

ethical

issues,

2015.

https://www.nuffieldbioethics.org/assets/pdfs/Bi

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

ological_and_health_data-report.pdf/ Accessed

sis/who-owns-medical-records-50-state-compari

July 30, 2020.

son/ Accessed July 30, 2020.

11. Presser L, Hruskova M, Rowbottom H, et al.

20. Burke T. The health information technology

Care.data and access to UK health records:

provisions in the American Recovery and

patient

trust.2015.

Reinvestment Act of 2009: implications for

https://techscience.org/a/2015081103/ Accessed

public health policy and practice. Public Health

privacy

and

public

Rep 2010;125:141-5.

July 30, 2020. 12. Cross M. Patients, not the state, own medical

21. Hall MA, Schulman KA. Ownership of medical

records, says GP, 2006. https://www. theguardian.

information. JAMA 2009;301:1282-4. 22. 昛倘⭴烉慓䗪屔ả䘬⼊ㆸ冯⯽攳炻䫔ᶨ䇰ˤ冢

com/technology/2006/jul/06/epublic.guardianwe eklytechnologysection./ Accessed July 30, 2020.

⊿ⶪ烉冢⣏↢䇰ᷕ⽫炻2014:156-8ˤ

13. Supreme Court of Canada. McInerney v.

23. 㜿⽿ℕ烉䕭ἳᷳ㇨㚱㪲ˣ教奥㪲冯媬⮓婳㯪

MacDonald.1992.https://scc-csc.lexum.com/scc-

㪲ˤ2003 ⸜ 3 㚰 10 㖍ˤhttp://www.lawtw.com/

csc/scc-csc/en/item/884/index.do/ Accessed July

article.php?template=article_content&area=free

30, 2020.

_browse&parent_path=,1,561,&job_id=27038&

14. Information and Privacy Commissioner/Ontario. A Guide to the Personal Health Information Protection Act, 2004.https://www.ipc.on.ca/ wp-content/uploads/Resources/hguide-e.pdf/Acc MD.

essed July 30, 2020. 24. ỽ⺢⽿烉慓䗪㱽⼳冯慓⬠ΐ䎮炻䫔ᶱ䇰ˤ冢⊿ ⶪ炻⃫䄏↢䇰炻2016:191-4ˤ 25. Kish LJ, Topol EJ. Unpatients-why patients

essed July 30, 2020. 15. Ontario

article_category_id=206&article_id=12402/Acc

Reminder

to

Physicians

-

Obligations as a Health Information Custodian,

should own their medical data. Nat Biotechnol 2015;33:921-4.

2015.https://www.ontariomd.ca/about-us/news/r

26. Koskinen J, Kainu V, Kimppa K. The concept of

eminder-to-physicians-obligations-as-a-health-in

Datenherrschaft of patient information from a

formation-custodian/Accessed July 30, 2020.

Lockean perspective. J Inf Commun Ethics Soc

16. Risling

T.

Your

electronic

health

data:

Understanding the different records, systems and how they connect, 2019. https://theconversation.

2016;14:70-86. 27. Hall MA, Schulman KA. Ownership of medical information. JAMA 2009;301:1282-4.

com/your-electronic-health-data-understanding-

28. Robinson G, Dolk H, Dowds L, et al. Public

the-different-records-systems-and-how-they-con

Attitudes to Data Sharing in Northern Ireland:

nect-124692/ Accessed July 30, 2020.

Findings from the 2015 Northern Ireland Life

17. Goldman B. A national electronic health record

and Times survey, 2018. https://www.ark.ac.uk/

for all Canadians, 2019. https://www.cbc.ca/

pdfs/Researchreports/Data_Sharing_Report.pdf/

radio/whitecoat/a-national-electronic-health-reco

Accessed July 30, 2020.

rd-for-all-canadians-1.4976932/Accessed July 30, 18. Persaud N. A national electronic health record 19. HealthInfoLaw.org. 50

Who

State

Owns

Comparison,

Medical 2015.

http://www.healthinfolaw.org/comparative-analy

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

being shared

by the

NHS?, 2018.

https://www.healthwatch.co.uk/sites/healthwatch .co.uk/files/20180517%20-%20How%20do%20

for primary care. CMAJ 2019;191:E28-9. Records:

29. HealthWatch. How do people feel about their data

2020.

people%20feel%20about%20their%20data%20b eing%20shared%20by%20the%20NHS.pdf / Accessed July 30, 2020.

487


Health Data and Ethical Legal Issue in Research Application

30. Information and Privacy Commission NSW: Attitudes of the NSW Community to Privacy 2017, 2017. https://www.ipc.nsw.gov.au/ sites/ default/files/file_manager/Attitudes_of_the_NSW_

storm,

2004.

https://www.theguardian.com/

science/2004/may/16/genetics.research /Accessed July 30, 2020. 42. Bresnahan S. The key to curing disease could lie

Community_to_Privacy_Report%20NEW.pdf

in Iceland's genes, 2017. https://edition.cnn.

/Accessed July 30, 2020.

com/2017/03/16/health/iceland-genes-genealogy

31. Grande D, Mitra N, Shah A, et al. Public Preferences about Secondary Uses of Electronic

-alzheimers-exp/index.html/ Accessed July 30, 2020.

Health Information. JAMA Intern Med 2013;

43. UK Biobank. Withdrawal from UK Biobank,

173:1798-806. 32. ℐ 㮹 ‍ ⹟ ᾅ 晒 䞼 䨞 屯 㕁 ⹓ 烉 㚵 ⊁ 䯉 ṳ ˤ

2020. https://www.ukbiobank.ac.uk/with drawal/ Accessed July 30, 2020.

https://nhird.nhri.org.tw/brief_01.html/ Accessed

44. UK Biobank. UK Biobank Showcase User

July 30, 2020. 33. 埴㓧昊䞼䨞䘤⯽侫㟠⥼⒉㚫烉屯妲攟⮰㪬ˤ㓧

Guide: Getting Started, 2017. http://biobank.

⹄㨇斄屯妲忂⟙ 2013;312:1-11ˤ 34. ⏛⦧ㄏ烉堃䓇䤷⇑悐堃䓇䤷⇑屯㕁䥹⬠ᷕ⽫ṳ 䳡(䯉⟙)炻2017 ⸜ 3 㚰 9 㖍ˤhttps://www.mohw.

ctsu.ox.ac.uk/~bbdatan/ShowcaseUserGuide.pdf / Accessed July 30, 2020. 45. Harris J. Scientific research is a moral duty. J Med Ethics 2005;31:242-8.

gov.tw/dl-16182-b2977730-09ac-45c1-96dd-b64

46. Schaefer GO, Emanuel EJ, Wertheimer A. The

70c71fe75.html/ Accessed July 30, 2020. 35. 冢䀋Ṣ㪲Ὣ忚㚫烉˰㆞Ṣ⊭˱‍ᾅ屯㕁⹓埴㓧

obligation to participate in biomedical research.

姜姇㟰ˤ2017 ⸜ 11 㚰 23 㖍ˤhttps://www.tahr.

47. Rhodes R. Rethinking research ethics. Am J

org.tw/news/NHRI-lazy/ Accessed July 30, 2020. 36. ℐ 㮹 ‍ ⹟ ᾅ 晒 䞼 䨞 屯 㕁 ⹓ 烉 㚨 㕘 㴰 〗 ˤ https://nhird.nhri.org.tw/news1 Accessed/ July 30, 2020. 37. 匲⬯䛇ˣ哉䓓㖴烉‍⹟屯㕁冯䓇䈑屯㕁⹓䞼䨞 ᷳΐ䎮嬘柴ˤ冢䀋慓⬠ 2018;22:181-91ˤ

JAMA 2009;302:67-72. Bioeth 2005;5:7-28. 48. Rhodes R. When is participation in research a moral duty? J Law Med Ethics 2017;45:318-26. 49. Forsberg JS, Hansson MG, Eriksson S. Why participating in (certain) scientific research is a moral duty. J Med Ethics 2014;40:325-8.

38. UK NHS Digital. [MI] National Data Opt-Out,

50. Ballantyne A, Schaefer GO. Consent and the

2020.https://digital.nhs.uk/data-and-information/

ethical duty to participate in health data

publications/statistical/national-data-opt-out/

research. J Med Ethics 2018;44:392-6.

Accessed July 30, 2020. 39. Tully MP, Bozentko K, Clement S, et al. Investigating the Extent to Which Patients

51. Schaefer GO, Wertheimer A. The right to withdraw from research. Kennedy Inst Ethics J 2010;20:329-52.

Should Control Access to Patient Records for

52. Holm S. Withdrawing from research: a rethink

Research: A Deliberative Process Using Citizens’

in the context of research biobanks. Health Care

Juries. J Med Internet Res 2018;20:e112.

Anal 2011;19:269-81.

40. BioNews. Icelandic woman wins genetic privacy

53. Helgesson G, Johnsson L. The right to withdraw

case, 2004. https://www.bionews. org.uk/page_

consent to research on biobank samples. Med

89221/Accessed July 30, 2020.

Health Care Philos 2005;8:315-21.

41. McKie R. Icelandic DNA project hit by privacy

488

Formosan J Med 2020 Vol.24 No.5


‍⹟屯㕁䞼䨞ㅱ䓐ᷳΐ䎮㱽⼳

The Ethical and Legal Implication of Using Medical Record and Health Data in Research Daniel Fu-Chang Tsai, Yu-Chen Juang, Yu-Hsuan Chen, Hsiao-Yi Yeh Abstract: Using big data in biomedicine and artificial intelligence research have developed rapidly in recent years which makes the importance of medical record and health database for research also increased. Establishing health databases for research and linking them to biobank or genetic bank is current research trend which brings novel ethical legal challenges. This paper firstly examines the definitions of health data and the necessity of data protection, then explores the ownership of medical record, public attitude toward using data for research, the lawsuits of the Taiwanese Health Insurance Database research, anonymization and right to opt-out, the moral obligation to participate in research, and proposes justification and recommendation for ethical health data research. Key Words: medical record, health data research, HIPPA, GDPR, national health insurance database lawsuit, duty to participate research (Full text in Chinese: Formosan J Med 2020;24:471-89) DOI:10.6320/FJM.202009_24(5).0001

Department and Graduate Institute of Medical Education and Bioethics, College of Medicine, National Taiwan University, Taipei, Taiwan Received: July 30, 2020

Accepted: August 7, 2020

Address correspondence to: Daniel Fu-Chang Tsai, Department and Graduate Institute of Medical Education and Bioethics, College of Medicine, National Taiwan University, No. 1, Sec.1, Jen-Ai Rd., Taipei, Taiwan. E-mail: fctsai@ntu.edu.tw

⎘䀋慓⬠ 2020 ⸜ 24 ⌟ 5 㛇

489


人工智慧衍生糾紛 之責任歸屬分析 東海大學法律學院 張凱鑫助理教授


場次二:人工智慧衍生糾紛之責任歸屬分析—借鏡醫療領域 AI 利用的日本經驗 東海大學法律學系助理教授

張凱鑫

綱要 第一章

前言

第二章

AI 與醫療行政的關連

第一節

醫療保健領域內的 $, 與機器人有效利用

第二節

醫療機器規制

第三節

醫業規制

第四節

醫療大數據與個人情報

第三章

AI 與臨床現場的關連

第一節

告知後同意

第二節

AI 誤作動所生醫療事故的法律責任及追究方法

第四章

展望

第一節

執照制度的可能性

第二節

缺陷、瑕疵、過失的舉證的困難度

第三節

保險或補償制度的可能性

第一章

前言

隨著人工智慧(下稱 AI)在各領域內的應用與成效逐漸廣為人知,近年來, 各行各業也紛紛搶搭這最新一波的 AI 浪潮,其中,金融與醫學領域投入探索與 導入的各種嘗試,更是推動我國 AI 巨浪的兩大重要動力。 1


在醫療領域內,AI 技術與應用的發展,逐漸遍佈醫療環節的各個面向,醫療 服務面貌革新的徵象,也開始浮現,但此一進展也引起另外的問題:一是國家在 衛生行政制度上,要如何應對新型態的醫療業務或醫療服務方式?二是在醫病關 係上,要如何界定、分配醫師使用最新科技而對病患生命、身體、健康所帶來的 風險? 意識著上開問題,本文擬借鏡日本在相關問題上的法制經驗,試圖拋磚引玉, 與大家一同思考我國應如何在法律制度的整備上,妥善處理上開問題,以謀求妥 善管理醫療科技所帶來的革新與風險,以及謀求醫學進步與患者權益之平衡。 本文以下將從 AI 與醫療行政的關連開始,依序檢討 AI 醫療機器、AI 與醫業 規制、AI 與個人資料保護等行政法層面的相關問題,繼而轉入 AI 與臨床現場的 關連,研討 AI 對醫療執業方式可能帶來的轉變,先探究 AI 運用與告知後同意之 問題,次針對 AI 誤作動的民事法律責任問題,區分 AI 軟體與附 AI 手術支援機器 人來檢討,最後以提出展望以代結論。 礙於篇幅與主題,針對遠距醫療的相關問題,另紙討論,本次暫且割愛,先 予敘明。

第二章 第一節

AI 與醫療行政的關連 醫療保健領域內的 $, 與機器人有效利用

人工智慧(下稱 AI)、機器人在醫療領域之有效利用,使醫療的品質與精度獲 得飛躍性的提升,有可能對患者與醫療關係者帶來重大的革新。1 作為例子,以 使用醫療大數據的 AI 的情報分析為基礎,醫師進行更高精度的診斷或治療方針 的決定乙事,現被認為變得可以達成2,而且已經是現在進行式。此外,針對以 前被認為醫師難以發現的疾患,透過讀入龐大醫療影像資料進行深度學習的 AI 的高精度解析、預測,也被認為變得有可能可以比較容易被發現。3再來,支援 進行放射線治療的模擬等,提出對於患者的適切治療計畫,藥劑投與方針的決定 的醫療電腦程式的開發等也正在進行中。4透過在醫療領域內有效利用 AI,患者 不只能夠享受更高水準、更高精度的醫療的提供,也被期待能使醫療關係者享有 減輕負擔帶來的好處。 5AI、機器人的有效利用在醫療保健的領域所帶來的醫療

1

人工知能法務研究会編(鈴木優担当),AI ビジネスの法律実務,日本加除出版,平成 29 年 11 月 27 日初版発行,89 頁。

2

同註 1。

3

同註 1。

4

同註 1。

5

同註 1。 2


的品質的提升,不僅國民、病患可以獲得好處,也能使醫療從事者的負擔也減輕, 也可以期待帶來醫療從業人員能夠專於注患者的治療的良性循環的結果。6 借用鄰國為例,日本厚生勞動省平成 29 年 6 月 27 日「保健醫療分野におけ る AI 活用利用推進懇談會報告書」7舉出應該推進 AI 有效利用的 6 個重點領域, 分別是:基因醫療、圖像診斷支援、診斷.治療支援、醫藥品開發、看護與認知 症、手術支援。首先針對這 6 個重點領域進行個別領域的技術開發以及實用化, 希望之後進行超越各該領域的 AI 有效利用。8 圖表 6-1:AI 所致醫療革新示意圖9

第一項

基因醫療

首先,基因組,是龐大數量的核酸序列相關情報,人的基因遺傳情報大約是 由 30 億對基因對所構成。基因序列因人而異,而且因為基因變異而成為疾病原 因的這件事情,可以運用於決定診斷或治療方針,特別是在癌症或困難疾病的領 域,正在將使用基因解析的診療(基因醫療)實用化。10 因為科技的發展,基因解析的成本已經大幅降低,因此對基因醫療的期待也 提高了,但因為基因解析在性質上有大量解析資料的必要,這個就人類的手工作 業來調查核酸序列中有無、哪裡變異的話,是有其界限(或是不可能11)的。12不 6

第二東京弁護士会

情報公開.個人情報保護委員会編(小野浩奈担当),AI.ロボットの保

健医療分野における活用とその行政規制を教えて下さい,勁草書房,2019 年 2 月 20 日第 一版第一刷発行,180 頁。 7

「保健醫療分野における AI 活用利用推進懇談會報告書」(平成 29 年 6 月 27 日), https://www.mhlw.go.jp/file/05-Shingikai-10601000-Daijinkanboukouseikagakuka-Kouseika gakuka/0000169230.pdf 最後瀏覽日:2020 年 11 月 22 日。

8

同註 6。

9

同註 1。

10

同註 6。

11

同註 1,90 頁。 3


過,如果有效利用 AI 的話,變得可能在短時間內解析發現變異的之處13,若能判 明疾病的原因基因的存在,將可以努力預防該疾患的發作,醫師也可以將該調查 結果反映在患者的診療方針中(例如,透過調查抗癌劑的感受性或是與癌症的發 生有關的基因等的變異,在決定治療方針時,有利用的可能性,因而在癌症與困 難疾病的領域,基於基因變異的診療正在被實用化)14,能夠實現極度細緻的個 別化醫療。15 而且將收集累積的多數的基因情報或臨床情報的資料 (data) 進行總體解析, 也可能在短時間內發現以過去的方法無法發現的疾病的原因基因。在日本,厚生 勞動省正在構築統合各研究基地的基因情報與臨床情報的資料庫。今後,在日本, 不只是研究,擬一併收集累積由通常的醫療所獲得的資料。16

第二項

圖像診斷支援

AI 的圖像診斷支援,是藉由透過圖像診斷系統或醫療檢體檢查機器等的醫療 機器的深度學習,得以發揮超過人類的圖像認識的性能,被期待藉以防止圖像診 斷時的漏看17,在圖像診斷領域,透過深度學習的有效利用,被認為可以做到在 診斷型醫療機器提示疾病名稱清單或異常所見清單的機能那樣的程度。18藉此, 在專科醫師不足的偏遠地區,也能夠接受高水準的圖像診斷,提高醫療水準;用 來在醫師診斷後的 double check,讓漏看的發生率降低;從大量的圖像中選出醫 師應該要解讀的圖像來減輕醫師的負擔,可易有效率的診斷等好處,都可以被期 待。19 但是,為了充實圖像診斷的機能,龐大的診斷圖像等的醫療大數據的蒐集以 及其利用乙事,是不可欠缺的前提,此處會產生資料合法性的問題。

第三項

診斷.治療支援

生命科學的領域,每天都在進步,一直都有龐大數量的論文持續被公開發表, 醫師等醫療從事者在日常業務的同時,還要讀懂全部的論文,不斷地把握最新的 知識見地,是很困難(不可能)的。20而且,診察、治療的醫師的技術質量雖然 被確保具有一定水準,但是很多時候還是要仰賴個別醫師的知識或經驗,也被指 謫出來。21再者,論文以外,包含錄影或 IoT 資料、基因資料等在內的大數據的 12

同註 6,181 頁。

13

同註 1,90 頁。

14

同註 7。

15

同註 6,181 頁。同註 1,90 頁。

16

同註 6,181 頁。

17

同註 1,90 頁。

18

同註 6,181 頁。

19

同註 6,181 頁。

20

同註 6,181 頁。同註 1,90 頁。

21

同註 7;同註 1,90 頁。 4


有效利用等等,預示著醫療保健領域中情報量劇烈增加的事情,這些情報由人類 全部處理、把握,是不可能的。22但是使用 AI,能夠處理、把握從論文開始的龐 大數量的醫療關聯資料,在診斷或治療發揮作用,被認為可得基於最新的醫療知 見來進行診斷、治療,23不只是補充豐富的情報,還可以補充熟練的技術、經驗, 24 有效利用 AI 的與減輕醫療從事者的負擔有所關係。25 有效利用 AI 的診斷、治療支援,已經朝向實用化的方向前進,具體的有效 利用例有:1.AI 的診斷、治療支援的有效利用,使專科外的疾病的診療成為可能, 即使在醫療缺乏的地區,也提供了與都市地區相同的高品質的醫療。2.蓄積診療 資料,從而防止比較罕見難以診斷的疾病的漏看。3.在生物指標(評價指標)缺 乏的精神科醫療,在患者的發話、表情、身體動作等資料中,透過有效利用 AI 來提高診斷的精度等等。26

第四項

醫藥品開發

醫藥品的開發到實用化需要很長的年月和成本,成功率也很低(從研究開始 到獲得批准花費約 9~17 年的時間,每成分近 1000 億日元的開發費用,只有 2 萬~3 萬分之一的成功率)27。 但是,通過有效利用 AI,有望縮短開發時間和削 減開發經費。28醫藥品開發過程首先需要確定創藥標的(醫藥品作用的蛋白質等 生物體內分子),但容易開發的東西,很多已經研究完畢。 不過,通過讓 AI 學 習大數據,有望發現至今為止沒有發現的創藥標的。29 其次,通過深度學習創 藥標的和化合物的結合數據,可以高精度地設計出對該創藥標的具有藥理活性的 化合物。30 另外,對於成為醫藥品候補的化合物所具有的毒性也容易預測,可 以降低著手開發後因為發現預想外的毒性而中止開發的風險。31 但是在現狀中,公開化的醫藥品相關大數據的數量並不多。 今後,如果公 家機構等能夠根據一定的規則彙集數據,設置能夠在製藥企業等共同使用的數據 庫,則有望加強製藥產業整體的競爭力。32

22

同註 6,181 頁。

23

同註 1,90 頁。

24

同註 1,91 頁。

25

同註 6,181 頁。

26

同註 6,182 頁。

27

厚 生 労 働 省 , 医 薬 品 産 業 ビ ジ ョ ン , ( 平 成 25 年 6 月 26 日 ) https://www.mhlw.go.jp/seisakunitsuite/bunya/kenkou_iryou/iryou/shinkou/dl/vision_ 2013a.pdf

最後瀏覽日:2020 年 11 月 22 日。

28

同註 6,182 頁。

29

同註 6,182 頁。

30

同註 6,182 頁。

31

同註 6,182 頁。

32

同註 6,182 頁。 5


第五項

看護、認知症

在護理領域,一直以來從維持、提高老年人的生活質量和減輕護理者負擔的 觀點出發,不斷推進看護機器人的開發及其對看護現場的普及。33在超高齡社會 的日本,看護必要(支援必要)認定者急劇增加(以日本為例,2000 年:約 218 萬 人→2016 年:約 622 萬人,在我國,依照衛生福利部的統計 104 年全人口失能 人數 76 萬人,120 年快速增加至 120 萬人34)。另一方面,看護人才不足日益嚴 重,對看護機器人的期待越來越高。35 日本厚生勞動省等,機器人對於看護之運用,作為重點的開發領域,舉出了: ①移乘看護(輔助者的力量輔助的著裝型機器等),②移動支援(支持老年人外出 的步行支援機器等),③排泄支援,④看守、交流(在與老年人等的交流方面使用 機器人技術的生活支援機器等) ⑤入浴支援、⑥看護業務支援(收集·積累伴隨於 看護業務的情報,可有效利用於必要支援的機器等)。36 另外,厚生勞動省在應 該推進 AI 有效利用的 6 個重點領域之一裡列舉了「看護、認知症」 。37 今後,通 過在現有型看護機器人上新附加 AI 技術,將可能預測排泄等生活事項和生活節 奏,使 AI 學習 Vital Sign(體溫、血壓、脈搏等)的數據,與適當的診察、治療 聯繫等功能的擴大。38

33

第二東京弁護士会

情報公開.個人情報保護委員会編(小野浩奈担当),AI.ロボットの

介護分野における活用とその行政規制を教えて下さい,勁草書房,2019 年 2 月 20 日第一 版第一刷発行,189 頁。 34

厚 生 労 働 省 , 平 成

29

年 版

厚 生 労 働 白 書 ,

http://www.mhlw.go.jp/wp/hakusyo/kousei/17/dl/all.pdf,235 頁,最後瀏覽日: 2020 年 11 月 22 日。國家發展委員會-中華民國 103 至 149 年人口推計,103 年;行政院衛生署 國

調

99-100

http://www.nhi.gov.tw/Resource/Registration/4930_22.%E9%95%B7%E6%9C%9F%E7 %85%A7%E9%A1%A7%E4%BF%9D%E9%9A%AA_10410.pdf,最後瀏覽日:2020 年 11 月 20 日。 35

同註 33。

36

厚生労働省老健局高齢者支援課·経済産業省製造産業局産業機械課,ロボット技術の介護利 用

29

10

http://www.meti go jp/press/2017/10/20171012 1/20171012001-1.pdf,最後瀏覽日: 2020 年 11 月 22 日。 37

同註 7。

38

同註 7,18 頁。 6


而且,在考慮到有效利用 AI 的看護計劃(看護必要(支援必要)者的身心狀況、 生活環境、希望等的基礎上,為了能恰當地利用看護服務而被作成的看護服務的 利用計劃)的製作支援,也在進行著面向實用化的努力。39

第六項

手術支援

手術是醫療中特別重要的領域,但外科醫師在手術中經常被要求要迅速的意 思決定,因此不僅精神和身體負擔非常大,外科醫師數量也在持續減少。 但是, 通過積累手術時的數據、經過情報和併發症發生等預後數據,有效利用 AI,將可 以選擇成功概率高的手術,不僅減輕外科醫師的負擔,還可以期待患者的生命預 後的改善。40 手術用機器人已經部分實用化了41,但由於沒有觸覺等理由,機能上仍有其 界限。但是,通過在通過傳感器的外部識別數據中應用深度學習,將來可能可以 獲得觸覺,也可以實現某種程度的自動化,被期待今後有著大幅度的性能提高。 42

如上所述,AI·機器人有助於保健醫療領域的發展,可以給患者以及醫療工 作者帶來很大的好處。 但是,因為是直接關係到人的健康·生命的領域,所以國 家在推進其有效利用的同時,慎重地進行法律整頓。 43 需要注意的問題有:① 醫療器械規制、②醫師法等醫業規制、③醫療大數據和敏感性個人資料的問題。

第二節

醫療機器規制

像醫療用機器人那樣將 AI 技術用於醫療的情形,從其性質上來說,可以認 為是符合醫療機器的情況。 如果是醫療機器,就有義務基於醫藥品·醫療機器等 法律確保其安全性和有效性。44 因此,如何判斷使用 AI 的醫療用機器人和計算 器程式,是否該當於醫療機器,就成為重要的問題。 日本「關於醫藥品、醫療機器等的品質、有效性以及安全性的確保的法律」 (以下稱日本藥品機器等法)第 2 條第 4 項規定,所謂「醫療機器」,係指「以 使用於人或動物的疾病的診斷、治療或預防為目的,以及以影響及於人或動物的 身體的構造或機能為目的(再生醫療等製品除外),依照政令所規定之的機械器

39

平 成

29

6

29

日 閣 議 決 定 「 未 來 投 資 戦 略

2017 」 ,

https://www.kantei.go.jp/jp/singi/keizaisaisei/pdf/miraitousi2017_t.pdf,44 頁,最後瀏 覽日:2020 年 11 月 22 日。同註 33,190 頁。 40

同註 6,183 頁。

41

作為例子,可以舉出外科醫師遠程操作的手術機器人「達文西手術系統」(美國 Intuitive Surgical 公司)。

42

同註 6,183 頁。

43

同註 6,183 頁。

44

同註 1,95 頁。 7


具等等」。本來,在領域的性質上,在個別案件中判斷該當性並不容易,而對行 政當局有包含事前確認並慎重檢討的期待。45 有效利用 AI、機器人的機器等,從藥劑的混和調整機器人開始,到一般個人 著裝來進行自我健康管理的穿戴終端裝置為止,種類繁多,因此是否該當日本藥 品機器等法之醫療機器的這件事情上,發生問題。46 手術用機器人、圖像診斷軟體等,有效利用 AI、機器人的機器,若該當「醫 療機器」 (日本藥品機器等法第 2 條第 4 項) ,對其製造、販賣,設有許可等要件 (日本藥品機器等法第 23 條之 2、第 23 條之 2 之 3) ,針對個別的品項設有確認 安全性和有效性之承認制度(日本藥品機器等法第 23 條之 2 之 5)47。「醫療機 器」包含電腦程式(日本藥品機器等法第 2 條第 18 項)。48 再次對照上述藥品機器等法第 2 條第 4 項關於「醫療機器」之定義:「以用 於人或動物疾病的診斷、治療或預防,或影響人或動物身體的結構或功能為目的 的機械器具等」 ,可知進行放射線治療的類比等,以提出治療計劃的計算器程式、 進行凝固因子製劑等投藥時必須注意的藥劑的動態分析,支援決定投藥方針的計 算器程式等,是該當於所謂的「醫療機器程式」(同法第 2 條第 18 項),有受醫 藥品醫療機器等法之適用的可能性。49 對於診斷支援軟體等等,醫療用電腦程式對於醫療機器的該當性的判斷問題, 厚生勞動省表示應該考慮下列 2 點:1.鑒於電腦程式醫療機器所產生的結果的重 要性有助於疾病的治療、診斷等到什麼程度?2.在電腦程式醫療機器發生機能障 害的情形,包含影響人的生命以及健康之虞(不良狀況發生時的風險)的總和風險 的蓋然性到什麼程度等,來進行判斷。50 如果按照這樣的看法,該當於醫療機器的電腦程式具體包括: 1.可以將在 醫療機器得到的圖像等的資料加工處理,做成使用於診斷或治療的目的的指標、 圖像、圖表等等的電腦程式;2.以透過模擬等支援治療計畫、方法的決定為目的 的電腦程式等等。51因為這兩種類型的電腦程式對診斷、治療的參與度,以及發 生機能障害時的風險程度均較高。 另一方面:1.將醫療機器取得的資料,以作為診療記錄而使用之目的進行轉 送、保管、表示的電腦程式;2.對資料(圖像除外)進行加工、處理讓而可在泛 用型計算器上被表示的電腦程式(使用於診斷者除外);3.作為對醫療關係者的

45

同註 6,184 頁。

46

同註 6,184 頁。

47

同註 6,183 頁。

48

同註 6,183 頁。

49

同註 1,95 頁。

50

厚生労働省平成 26 年 11 月 14 日薬食監麻発 1114 第 5 号「プログラムの医療機器への該 当性に関する基本的な考え方について」、平成 26 年 12 月 16 日厚生労働省医薬食品局監視 指導・麻薬対策課「ソフトウェアの医療機器への該当性に関する基本的な考え方」。同註 6,184 頁。同註 1,96 頁。

51

同註 6,184 頁。同註 1,96 頁。 8


medical training 的教材使用的教育用電腦程式;4.對患者說明治療方針用電腦程 式,5.維修醫療機器的電腦程式,6.進行診療預約和受理等的院內業務支援程式, 7.顯示個人健康情況的心跳數的健康管理用的程式等,這些程式並不直接貢獻於 疾病的治療、診斷,對診斷治療的貢獻度和發生功能障礙時的風險都很低,所以 不屬於該法上的醫療機器。52在製造、銷售醫療用應用程式和生物感測器等裝置 時,有必要對照上述判斷標準研究有無符合醫療機器的定義,但一般廣泛普及的 健康管理用應用程式(顯示、傳送體重、血壓、心率、血糖值等)通常被認為不 屬於醫療機器。53 再者,使用該當於醫療機器的機器人技術的復健機器的開發,經濟產業省等 機關,有表示了在安全性確保維必要的機器的研究開發應該留意的事項。54

第三節

醫業規制

AI 掌握了與醫師同等的醫學知識,AI 能否代替醫師單獨進行患者的診斷治 療呢? 該法等出於保護患者生命健康的宗旨,規定: 「若非醫師,不能從事醫業。」 禁止沒有醫師、牙醫師、護理人員等執照的人從事醫業55(日本醫師法第 17 條、 歯科醫師法第 17 條及保健師·助產師·看護師法第 31 條等,我國醫師法未有直接 禁止的明文,但從同法第 28 條針對「未取得合法醫師資格,執行醫療業務者」 所設之刑責觀之,應認與上開日本法律之規定有相同之趣旨)。 按照該條款的宗旨,根據本條承認被醫師壟斷的「醫業」,是指在進行該當 行為時,如果不具有醫師的醫學判斷及技術,可能會危害人體或有危害人體之虞 的行為(醫行為) ,而以反覆繼續的意思進行該等行為56 57。 但是,關於某個行 為是否屬於醫療行為,有必要根據各個行為的形態進行個別具體的判斷。58過去 被認為符合醫業的例子有藥劑注射、X 光照射、聽診、觸診、病名診斷、眼底檢

52

同註 50。同註 6,184 頁。同註 1,96 頁。

53

同註 1,96 頁。

54

経済産業省・國立研究開発法人日本醫療研究開発機構「ロボット技術を用いた活動機能回 復 裝 置 開 発 ガ イ ド ラ イ ン 2015 ( 手 引 き ) 」 ( 平 成 27 年 12 月 ) (http://www.meti.go.jp/policy/mono_info_service/healthcare/downloadfiles/ihuku_GL /201512.27.pdf )。

55

同註 1,91 頁。

56

平成 17 年 7 月 26 日付医政発第 0726005 号厚生労働省医政局長「医師法第 17 条、菌科医 師法第 17 条及び保健師助産師看護師法第 31 条の解釈について(通知)」。同註 1,91 頁。 同註 6,185 頁。

57

東京地判平成 23・3・23 判時 2124 号 202 頁。該判決指出:「非醫師所不能執行的醫業, 是指以醫行為為業而進行,所謂醫行為,是指若無醫師的專門知識或技能可認為是危險的行為。 醫業或醫行為,包括診斷、投藥、注射、心電圖檢查、超音波檢查等生理學的檢查。」

58

同註 1,91 頁。同註 6,185 頁。 9


查、聽力檢查、處方發行等。 59 因為診斷、治療行為通常被認為是只要不以醫 師的醫學判斷和技術來進行,就對人體有害或有危害之虞的行為,可說是醫師法 上應該委託醫師判斷的行為。60 承上所述,有效利用 AI、機器人進行診斷、診療時,可能會成為與醫師法等 相抵觸的問題。在完全沒有醫師參與,進行了利用 AI、機器人的診斷等醫療行為 的情況下,在現行法上當然是違反醫師法的。 61 但是,並不是連醫師進行診斷 治療行為時,參考 AI 帶來的資訊,都一併被禁止。毋寧說,如前所述,為了通 過 AI 提高醫療水準之目的,有備置積極活用 AI 的方策的必要。62即使在現狀中, AI 也沒有單獨進行診斷確定、治療方針的決定。63 另外,AI 的推測結果也可能 有錯誤。64 如此一來,從協調醫師法上的規定和 AI 活用的優點的觀點出發,在 AI 提供(支援)診斷治療時,可以認為,在擔當醫師參考 AI 所提供的資訊或者 補充面對面診療來診斷和治療患者的病情的範圍內,能將 AI 活用於診斷治療行 為65。 也就是說,關於診斷、治療的最終判斷者必須是醫師。66 另外,醫師活 用 AI 時,特別是,由於 AI 的利用有可能影響患者的利益,因此從確保患者適當 的自我決定的觀點出發,醫師應該對患者,就 AI 活用的優點、問題點等進行適 當的說明。67(請參考下述第三章第一節之說明) 今後,即使 AI 進行診斷.治療支援,從保護患者生命健康的宗旨出發,診 斷確定和治療方針的最終意思決定應該由醫師進行,其意思決定的責任也應該由 醫師承擔。68 關於這一點,厚生勞動省在 2018 年 12 月表示,即使是利用以人 工智慧(AI)進行診斷、治療等支援的程式而進行診斷的情況下,也表示進行診 斷、治療的主體是醫師,醫師負最終判斷之責的見解,並通知全國都道府縣,要 求週知相關機關。69本文認為此一見解可供我國參考。

第四節 第一項

醫療大數據與個人情報 建構醫療保健平臺

59

米村滋人『醫事法講義』(日本評論社,2016 年)40 頁。

60

同註 1,91 頁。

61

同註 6,185 頁。

62

同註 1,92 頁。

63

同註 6,185 頁。

64

同註 6,185 頁。

65

厚生労働省的「保健医療分野における AI 活用推進懇談会」中,報告了現狀,AI 不進行單獨 診斷、決定治療方針,由醫師將 AI 的推測結果,與其他資料庫的情報統合而解析,進行治療 方針的決定等內容。同註 1,92 頁。

66

同註 1,92 頁。

67

同註 1,92 頁。

68

同註 6,185 頁。

69

平成 31 年 1 月 16 日厚生労働省「第 4 回保険医瘀分野 AI 開発加速コンソ一シアム資料』 10


為了在醫療領域有效利用 AI,必須將包括臨床數據在內的龐大的醫療大數據 讀入 AI(深度學習) 。 讀入 AI 的醫療數據量越大,AI 的將來預測的準確度增加, 其精度提高。 為了收集盡可能多的醫療資訊並將其醫療大數據化並加以利用, 必須確保醫療資訊在患者、醫療機構、民間企業等之間順利流通。 以推進在醫療保健領域內有效利用 AI、機器人為目的,蒐集分散在各處的資 料,提供給醫療機關等的構造,成為必要。厚生勞動省 2017 年 7 月 4 日公開發 表「以國民健康確保為目的之推進大數據有效利用相關資料健康改革推進計畫. 工程表」,以確保國民健康為目的,開始構築有機連結健康.醫療.看護的大數 據的醫療保健平臺。70並且同時公布,重新考量在現狀保有醫療付款明細(レセ プト)情報等龐大的醫療保健資料的審查支付機關的應有方式,積極的有效利用 該保有的龐大數據。71 現在,作為日本主要的醫療大數據之一,有厚生勞動省的處方資訊特定檢查 等資訊資料庫(國家資料庫) 。 雖然該資料庫中含有個人健康、醫療等相關資訊, 但該數據的處理僅限於研究目的,處於不提供民間使用的狀況。 因此,為了能 有效活用該資料庫,現在正在推進將處方資訊等大數據與 ICT 技術連接,不論官、 民都可以活用的措施。具體來說,通過 ICT 技術連接現在按制度管理的健康、醫 療、護理相關的數據,構築所謂的「保健、醫療數據平臺」,展開通過醫療大數 據分析避免疾病和需求護理狀態的早期預防措施,以及嘗試實現新治療方法的開 發或創藥。72通過該平臺,不僅是研究者,製藥公司等民間企業、保險人及都道 府縣等也從而可以按照各自的目的順利地利用醫療大數據。 但是,關於醫療資 訊的處理,有必要注意以保護個人隱私為目的而制定的個人情報保護法(我國是 個人資料保護法)上的規定。 即,在病歷和診療資訊等醫療資訊中包含能夠識 別患者姓名、出生年月日等特定個人資訊的情況下,相當於個人資訊保護法上的 「個人資訊」 ,受該法的保護。 而且,平成 29 年 5 月 30 日全面實施的修訂日本 個人情報保護法,將個人敏感資訊定位為要顧慮個人資訊。 取得該資訊時,必 須取得資訊主體的同意等。 在這個要顧慮個人資訊中,除了表示患有特定疾病 經歷的「病歷」之外,還包括: (1)身體障礙、智力障礙、精神障礙等身心功能 障礙; (2)醫生及醫療工作者對本人進行的疾病預防以及早期發現而進行的健康 診斷、健康測定、壓力檢查、基因檢查(診療過程中進行的除外),其他判明就 診者健康狀態的檢查結果; (3)根據健康診斷等的結果,或以疾病、受傷或身心 變化為理由,由醫生等對本人進行關於改善身心狀態的指導或診療或調劑的記述 等的資訊(包含診療記錄、醫院受診的事實),均屬要顧慮的個人情報。73

第二項

日本個人情報保護法的規制經驗

70

同註 6,185 頁。

71

平成 29 年 7 月 4 日付厚生労働省·社會保険診療報酬支払基金「支払基金業務効率化、高度 化計畫」。同註 6,186 頁。

72

同註 1,97 頁

73

同註 1,98 至 99 頁。 11


日本個人情報保護法實行令第二條第 1 號第 2 號規定,病歷(個人情報保護 法第二條第三項)、身體障礙、認知障礙、精神障害(包含發達障礙)的心身機 能障礙存在的事實,或是透過醫師進行的以預防疾病以及早期發現為目的的健康 診斷,以及其他檢查的結果等等,被規定為要顧慮的個人情報(相當於我國個人 資料保護法第 6 條之敏感性個人資料),依照日本個人情報保護法第 17 條第 2 項的規定,取得這些情報時,原則上必須得到患者本人的同意。 關於醫療保健的情報,性質上直接連接到個人的隱私,為了尋求嚴格的處理, 日本個人情報保護委員會.厚生勞動省指示了在醫療保健領域中處理個人情報的 方針74。而且,關於不受到要顧慮個人情報的規制而作為自由有效利用資料的手 段,有資料的匿名化,關於匿名化的手法,希望能參考其指引。75 日本個人情報保護法第 76 條第 1 條第 1 項第 3 號規定, 「大學以及其他以學 術研究為目的的機關或團體以及其從屬者」 , 「以提供學術研究之用之目的」而處 理個人情報時,免除前述本人同意為始的個人情報處理是業者的義務。「大學以 及其他以學術研究為目的的機關或是團體」,是指私立大學、公益法人等的研究 所等以學術研究為主要目的而活動的機關或學會等以學術研究為主要目的而活 動的機關,「其所屬者」是指私立大學的教員、公益法人等的研究所的研究員、 學會的會員等。76即使是民間團體附屬的研究機關,該機關以學術研究為主要目 的時,在提供學術研究之用的情況,該當本款,所以私立大學附醫院的場合,可 得該當本號事由,一般民間醫院的情形,無從該當本号事由。77

第三項

做為個人情報的醫療情報的處理

首先,在取得患者的病史和診療資訊等時,原則上必須取得患者本人的同意。 例外作為不必本人同意的情況則有: (1)根據法令的情況, (2)為了保護人的生 命或財產,難以得到本人的同意時, (3)有以提高公共衛生或推進兒童的健全育 成為目的之特別必要,難以得到本人的同意時, (4)國家機關等必須協助執行法 令規定的事務的情況下,如果徵得本人的同意,有可能對該事務的執行帶來障礙 時, (5)該要考慮的個人資訊由本人、國家機關、地方公共團體等公開的情況下, (6)通過目視或拍攝本人,取得其外形上明顯的要顧慮個人資訊的情況,以及 (7)個人情報保護法 23 條 5 項各号中揭示的情況下,接受作為個人數據的要顧 74

個人情報保護委員会·厚生労働省「医療·介護関係事業者における個人情報の適切な取扱いの た

(

29

4

14

)

(https://www.ppc.go.jp/files/pdf/iryoukaigo_guidance.pdf) 同註 6,186 頁。 75

個人情報保護委員会「個人情報の保護に関する法律についてのガイドライン(匿名加工情報 福 ) 」

( 平 成

28

11

月 、 平 成

29

3

月 一 部 改 訂 )

(https://www.ppc.go.jp/files/pdf/guidelines04.pdf ) 同註 6,186 頁。 76

個人情報保護委員会「個人情報の保護に関する法律についてのガイドライン(通則編)(平成 28 年 11 月、平成 29 年 3 月一部改訂) (https://www.ppc.go.jp/files/pdf/guidelines01.pdf ), 83 頁。同註 6,187 頁。

77

同註 6,187 頁。 12


慮個人情報的情況。78 其次,醫院和診所等醫療機構以患者的診斷、治療為目 的直接從患者本人那裡聽取過去的病史、有無過敏等情報時,通常被認為是患者 本人同意,沒有問題。79再者,在向第三者提供診療情報等時,原則上也需要得 到本人的同意。但是,與取得時一樣,在提供診療情報等第三者的情況下,也有 上述①至④的例外事由。在實務中,一般採取醫療機構在診察患者時等使用知情 同意書等書面形式取得患者本人明確同意的方法。80如上所述,在處理患者的病 歷和診療情報等時,必須遵守個人情報保護法上的規定。

第四項

次世代醫療基盤整備法

2018 年 5 月 31 日,以作為實現有效利用數位資料的次世代的醫療領域的研 究、醫療系統、醫療行政的基盤為目的,以及為了大規模蒐集、有效利用包含數 位化醫療現場的輸出(醫療行為的實施結果)在內的多樣資料等目的,日本「關 於有助於醫療領域之研究開發之目的的匿名加工醫療情報之法律(次世代醫療基 盤整備法)」開始施行。81在該法中規定,1.為了確保高度的資料安全,滿足具有 充分匿名加工技術等的一定基準,能適正且確實地實施以醫療情報的管理或利用 有效利用為目的的匿名加工技術之人,可被認定為匿名加工醫療情報做成事業者; 2.醫療機關等的醫療情報處理事業者,在本人不拒絕提供的情形下,可以對認定 匿名加工醫療情報做成事業者提供醫療情報。在適用該法律的情況,被認為是作 為日本個人情報保護法第 17 條第 2 項第 1 號之「基於法令的情形」 ,在取得需要 82 要顧慮個人情報時,不須獲得本人的同意。 透過該法之施行,產、學、官等各種各樣的主體將可以近用採用該法的構造 而得到的匿名加工醫療情報。繼而這些多樣的數據通過標準化、結構化等,作爲 在相關人員之間能夠安心、安全共享的整體基礎而能被協作、匯集,通過活用這 個基礎,被認為將可能實現:①醫療行政、醫療服務等的高度化·效率化,②通 過臨牀研究和臨牀試驗的效率化等來促進研究,③新的醫療技術和保健服務的創 造等。83

第三章

AI 與臨床現場的關連

第一節

告知後同意

78

同註 1,99 至 100 頁。

79

同註 1,100 頁。

80

同註 1,100 頁。

81

同註 6,187 頁。

82

同註 6,187 頁。

83

平成 30 年 4 月 27 日閣議決定「医療分野の研究開発に資するための匿名加工医療情報に図 す

(https://www.kantei.go.jp/jp/singi/kenkouiryou/jisedai_kiban/pdf/kihonhoushin.pdf) 同註 6,188 頁。 13


一般論上,與不使用手術支援機器人的情形相比較,手術支援機器人大幅縮 小對身體的侵襲性(例如應切開的範圍),其結果,手術後的回復必要期間可能 縮短,對患者有很大的好處。但是,另一方面,手術支援機器人有一定的比例會 發生故障,使用手術支援機器人的醫療從事者的經驗與能力不足的事態也被設想。 84 因此,知情同意(在得到充分資訊的基礎上,根據該資訊而作出的同意)具有 很大的意義。85 1970 年代初,存在「在徵求患者同意時,作為其前提,當然需要醫師對病 狀及手術必要性進行說明」的判例86,平成 9 年改正後日本醫療法第 1 條之 4 第 2 項規定為「醫師、齒科醫師、藥劑師、護士及其他醫療擔當者,在提供醫療時 必須進行恰當的說明,努力得到接受醫療者的理解」87,原則上明確了必須踐行 知情同意。 日本最高法院曾經認為,作為對侵害行為的違法性阻卻事由,以本 人的承諾為必要88,因此,知情同意被解釋為是必要的,但近年來,則逐漸轉以 自己決定權或人格權的保障為其根據。89。 而且,日本最高法院認為,如果有該疾病的診斷(病名和病情)、預定實施的 手術內容、手術附隨的危險性、其他可能選擇的治療方法,則有義務說明其內容 和利害得失、預後情況等。90 知情同意必須以患者能夠充分理解的方法,以及 必須以醫師能夠確認患者是否充分理解的方法來進行,僅僅交付記載了說明內容 的文件是不充分的。 91 除文件的交付之外,還應該透過與患者的直接對話來進 行,在可以看出患者理解不充分的時候,再進一步實施謹慎明確的說明,得到充 84

手術支援口ポットを用いたものではないが,群馬大学医学部附属病院での腹腔鏡手術によ る医療事故(2010 年~2014 年。http://hospital.med.gunma-u.ac.jp/?p=4117 参照), 可以說明確了新手術方法的風險。

85

弥永真生執筆, ロボットによる手術と法的責任,弥永 真生, 宍戸 常寿編,ロボット・AI と法,有斐閣

86 87

2018 年 4 月 9 日,192 頁。

東京地判昭和 46 年 5 月 19 日判時 660 號 62 頁。 厚 生 事 務 次 官 「 醫 療 法 の 一 部 改 正 に つ い て 」 ( 平 成 9 年 12 月 26 日 ) (http://www.mhlw.go.jp/topics/bukyoku/isei/igyou/igyoukeiei/tuchi/091226.pdf ) 作 為「第二修改要點」的「1 醫療提供時的說明」,指出「醫療」是醫師等醫療的負責人在充分 尊重患者的狀況、立場的同時,根據與患者的信賴關係而提供,近年來患者的健康意識提高, 患者的醫療需求的多樣化、高度化,根據這種狀況,醫療的擔當人在提供醫療時,要進行適當 的說明,努力得到接受醫療者的理解」。

88

最判昭和 56 年 6 月 19 日判時 1011 號 54 頁。該判決指出:「開顱手術是危險的手術,因 而是對患者的身體的重大的侵襲,從而打算施行開顱手術的醫師,有義務對患者說明其侵襲的 內容以及與此相伴的危險性。」

89

最判平成 12 年 2 月 29 日民集 54 巻 2 號 582 頁。該判決指出:「因為怠於說明,必須認為 患者是否接受伴隨輸血的可能性的本件手術的權利被剝奪了,這一點等於侵害了該患者的人格 權。」

90

最判平成 13 年 11 月 27 日民集 55 巻 6 號 1154 頁。

91

同註 85,193 頁。 14


分理解和同意,此一同意,對於重要的內容,一般認為有必要以書面加以確認。 92

關於與活用手術支援機器人的手術的關係,根據名古屋大學醫療事故調查委 員會報告書,現時「由於機器人支援下內視鏡手術是處於臨床研究階段的先驅性 手術技術的治療」,對知情同意,表示「以更慎重地說明與取得同意的程序為必 要」。93 另一方面,日本最高法院,至少,針對某種在不少醫療機構被實施,有相當 多的實施例,在實施該療法的醫師之間也被正面評價的療法(術式),患者有可 能適應該療法(術式),且在醫師知道患者就該療法(術式)對自己的適應的有 無,針對實施可能性有強烈關心的情況等,即使醫師自己對該療法(術式)持負 面評價,即使自己沒有實施該療法的意思,也有應該在醫師知道的範圍內對患者 說明其療法(術式)的內容、適應可能性或接受該療法的利害得時,實施該療法 (術式)的醫療機構的名稱與所在地的義務。94伴隨著支援手術機器人的逐漸普 及,即使是選擇不使用支援手術機器人的手術的醫師,在一定的情況下,就使用 支援手術機器人對這件事情負有說明義務的日子也許已經不遠了。95 再者,手術等伴隨有一定的危險,因此,告知後同意對患者的所謂「危險的 承擔96」的另一個機能是現實存在的。依照日本製造物責任法第 4 條第 1 号規定, 手術支援機器人製造業者,基於在該時點的科學技術、製造技術、醫學等的水準, 負有進行作為手術支援機器人的合理的安全設計的義務。但是,縱有安全設計, 92

同註 85,194 頁。

93

關於該案件,報告書指出:「同意書是為了參加關於機器人支援下內窺鏡手術的臨床研究, 鑒於該手術是先驅臨床研究中的手術技術,有包括伴隨未知領域的醫療行為的併發症不確定性 在內的風險的可能性, 特別是得到關於這種不利的理解是很重要的」,「接受說明而理解的 專案」中,在「參加研究時可能考量的利益及不利益」欄中「應該慎重說明,直到被確認為止, 並得到同意。 另外,「關於臨床研究說明書的記載內容,說明書中記載了:「『本手術的危 險性』,雖然也記載了『在實際手術中除了上述以外,還有可能發生預想不到的併發症』,但 該記載是關於胃癌手術及腹腔鏡的手術一般性記載.。 作為參加研究的情形的機器人支援下內 視鏡手術特有的不利益,僅記載了『一般認為手術時間變長』, 但是,鑒於機器人支援下內 視鏡手術是處於臨床研究階段的未知領域的手術技術,即使在『給試料提供者帶來的利益及不 利』中,應該再一次記載臨床研究中支援機器人下內視鏡手術中發生預想外的風險的可能性」 等語。同註 85,194 頁。

94

前掲最判平成 13 年 11 月 27 日。結果,對患者(及其家屬)進行的說明,詳細且說明文書 的分量很多的情況不少。 但是,對患者等來說,理解說明的內容並不容易,另外,比起這種 情況,恢復健康等通常是最關心的事情。 對於這樣的患者,對關心薄弱的事情進行很多說明, 不僅會給患者帶來負擔,還有可能損害同意的任意性。

95

同註 85,195 頁。

96

在知道自己危險的情況下進行行為(典型的是進行危險的運動的場合,但在美國,在棒球場被 界外球打中而受傷的那樣的情況下,一般被認為有承擔了危險)。 雖然是在與刑法的關係上被 廣泛討論。 關於是否能請求賠償的關係,在日本,目前還沒有研究過。 15


針對無論如何無法迴避的手術支援機器人的固有危險性而言,使用者,亦即醫療 從事者,負有適切傳達此固有危險的義務。因此,作為醫療從事者,被期待在手 術時,將使用有一定風險的手術支援機器人的這件事情,對病患等事前充分說明, 將選擇委由病患之判斷。必須選擇經過充分說明後,患者所同意的解決方法。97

第二節

AI 誤作動所生醫療事故的法律責任及追究方 法

第一項

AI 誤作動所生之醫師責任

醫師在治療診斷患者所用的 AI 因為任何的原因發生誤作動,結果發生醫療 事故時,患者能對誰追究法律責任呢? 通常,在發生醫療事故的情形,若針對該事故的發生,於擔當診斷治療醫師 有過失者,大抵上是該醫師或醫療法人之賠償責任問題的案件。但是,將來,AI 的有效利用繼續前進,醫師決定診斷或治療方針之際會越來越依賴 AI 的分析結 果,關於醫療事故的請求的對象或請求的構成恐怕會複雜化。98 一般而言,追究醫療事故的醫師責任的情形,有無從醫療行為當時的醫療水 準逸脫乙節,成為問題。此點,日本判例上,針對醫師應負的注意義務的基準, 認為:「是診療當時所謂臨床醫學實踐中的醫療水準」99,臨床中的醫療水準被 認為是醫師注意義務的水準。100而且,判斷醫療水準之際, 「該醫療機關的性格, 所在地區的醫療環境的特性等各種情事都應該加以考慮」 , 「關於新治療法的相關 知見,以相當程度普及於具備與該醫療機關相類似之特性之醫療機關,且可認為 期待該醫療機關擁有該知見乙節應屬相當時,只要不存在特殊情事,應認為該知 見對於該醫療機關而言應屬醫療水準。」101現在還沒有看到關於將 AI 用於醫療 之際的醫療事故的裁判,但是在將來,提供高度尖端醫療的醫療機構等繼續邁向 AI 導入,只要沒有到達一般人都可能取得關於 AI 誤作動風險等的相關情報的狀 態,就算 AI 的誤作動發生,也不能說醫師的診斷、治療沒有達到診療當時的臨 床醫學實踐中的醫療水準。102更進一步,在將來,提供高度尖端醫療的醫療機構 等繼續邁向 AI 導入,已經到達一般人都可以取得關於 AI 作動或誤判斷的風險等 的情報的狀態時,則針對未適切對應處理那樣的 AI 的誤判斷的風險所生的誤診 斷等,追究醫師責任的案例應該會發生。103

97

同註 85,195 頁。

98

同註 1,93 頁。

99

最判昭和 57 年 3 月 30 日判時 1039 號 66 頁。

100

同註 1,93 頁。

101

最判平成 7 年 6 月 9 日民集 49 巻6號 1499 頁。

102

同註 1,93 頁。

103

同註 1,93 頁。 16


第二項

對於軟體製作業者的法律責任

針對 AI 的誤作動,能否對 AI 的軟體製作業者追究法律責任呢?

第一款

契約責任?

首先考量,因為 AI 作動錯誤而受害的被害患者,與軟體製作業者之間如果 有直接的契約關係的話,那可以對軟體製作業者追究契約責任的方法。但是醫師 在對患者進行診斷治療之際接受 AI 的支援的情形,通常只有在醫師與 AI 軟體製 作業者之間存在諸如買賣契約等關係,患者與軟體製作業者之間並不存在那樣的 關係。也因此,這樣的情形下,患者不能對軟體製作業者追究契約責任。104

第二款

侵權行為責任?

再者,考量患者以身為第三者的軟體製作業者的權利侵害行為而受損害為理 由,對軟體製作業者追究依照民法第 184 條的侵權行為責任的方法。但是追究軟 體製作業者的侵權行為責任的時候,從主張舉證責任的問題來看,患者一方有必 要就軟體製作業者的過失進行主張與舉證。105因為 AI 製作者與患者之間就 AI 軟 體本身存在著顯著的情報偏在的問題,認為實際上患者要主張並舉證 AI 軟體上 有失誤的這件事情是極為困難的。106再者侵權行為責任是過失責任,追究 AI 製 作者的過失,必須主張、舉證證明以預見可能性為前提的注意義務違反。107但是, AI 製作者被認為可以在開發製作階段可以預見 AI 誤作動的情形實際上應該是不 多。108從而,如果使用侵權行為的構成,通常對患者很難獲得實質的救濟。109

第三款

製造物責任?

那麼,追究製造物責任的方法又怎麼樣呢? 本來,製造物責任法是以謀求救濟被害者為目的而設置的民法的特別規定。 日本製造物責任法第 1 條規定: 「因為製造物的缺陷而產生關於人的生命、身體 或財產的危害的情形的製造業者等的損害賠償責任」。在同樣一部法律裡,所謂 「缺陷」 ,包括製造上的缺陷、設計上的缺陷以及警告上的缺陷三種意義。 (為行 文之清晰起見,詳細的說明請參本章第三項)但是,同法第 2 條第 1 項規定: 「本 法律中之製造物」是指製造或加工的動產。」,對照日本民法第 85 條:「本法所

104

同註 1,94 頁。

105

同註 1,94 頁。

106

同註 1,94 頁。

107

同註 1,94 頁。

108

同註 1,94 頁。

109

同註 1,94 頁。 17


稱之物,以有體物為限」,從而單純軟體本身,並不該當日本製造物責任的適用 物件。110 不過,在我國消費者保護法制中,未必會得出與上述日本法制相同的結論。 對照我國消費者保護法第 7 條規定,從事設計、生產、製造商品或提供服務之企 業經營者,於提供商品流通進入市場,或提供服務時,應確保該商品或服務,符 合當時科技或專業水準可合理期待之安全性。其中所謂「商品」,依照消費者保 護法施行細則第 4 條之規定:「本法第 7 條所稱商品,指交易客體之不動產或動 產,包括最終產品、半成品、原料或零組件。」但我國民法並不限定物必須是有 體物,因而在我國,軟體本身仍可解釋為物,是動產,屬消費者保護法上的商品, 依其提供使用之方式之不同,有可能是商品,也有可能是服務,而使軟體欠缺當 時科技或專業水準可合理期待之安全性的情形,仍得依我國消費者保護法的規定 請求軟體設計者賠償損害。 不過,因為針對裝有軟體的機器而言,在日本該當於日本法上之製造物,在 我國則該當我國消費者保護法所稱之商品,以軟體的缺陷為原因而發生機器誤作 動的情形,對於機器製造者有追究製造者責任的餘地(再者,設想軟體的作動錯 誤,應該預先在軟體製造者與機器製造者之間規定適切的責任分配。透過設置這 樣的契約約款,機器製造者進行賠償的情形的求償關係也會比較明確。) 。111(此 部分之說明,請參下第三項所述。) 日本製造物責任法第 4 條第 1 款,製造業者等,如能證明「基於製造業者在 交付當該製造物時的科學或技術相關知識見地,不能認識當該製造物上有該缺陷 之事」者(開發危險的抗辯),不負損害賠償責任。我國消費者保護法第 7 條之 1 則規定:「企業經營者主張其商品於流通進入市場,或其服務於提供時,符合 當時科技或專業水準可合理期待之安全性者,就其主張之事實負舉證責任。(第 1 項)商品或服務不得僅因其後有較佳之商品或服務,而被視為不符合前條第一 項之安全性。(第 2 項) 」,可認為有相同的意旨,允許企業經營者證明消費者所 受之損害,非商品進入市場或服務提供時之科技水準可合理期待其不發生之損害 而免責。關於這一點,作為 AI 的特性就是通過機器學習自律地進化的這一點來 看,有可能無法否定不能認知 AI 的缺陷的可能性。112AI 相關的製造物責任的實 務運用,還有待今後累積案例。

第三項

手術支援機器人製造業者之產品責任

日本製造物責任法第 3 條規定:「製造業者等…其所製造之製造物,該交付 之製造物之缺陷致生侵害他人之生命、身體或財產時,負擔賠償由此所生之損害 之責任」。手術支援機器人之「缺陷」為原因,因而損及患者的生命、身體的情 形,機器人製造業者等原則上將負製造物責任。此處所謂製造業者等,按照該法

110

同註 1,94 頁。

111

同註 1,95 頁。

112

同註 1,95 頁。 18


第 2 條第 3 項第 1 款之規定,是指「以製造、加工或輸入製造物為業之人」113。 如果不是以「業」而製造的話,機器人製造者不負製造物責任。所謂「以…為業」, 是指以反覆繼續的意思而進行,非反覆繼續的行為,至於是否以營利為目的,則 有分歧,但多數見解認為不用以營利為目的。114 日本製造物責任法第 2 條第 2 項規定: 「本法中的『缺陷』 ,係指考慮當該製 造物的特性、其通常被預見的使用形態、其製造業者等交付該當製造物之時期以 及其他當該製造物的相關情事,認為當該製造物欠缺通常應有的安全性。」學說 上則說明,此處所謂缺陷,通常在:(1)製品之設計上未確保對製品而言合理的 安全性(設計上缺陷)、(2)在製造過程中含有缺陷,結果導致未確保製品上有必要 的合理的安全性(製造上缺陷)、(3) 當未以適切方法對使用者表示、通知對於該 製品可能存在的危險性的迴避方法(指示、警告上之缺陷)等情形,會被認定為有 缺陷。115日本製造物責任法第 2 條第 2 項中,所謂「缺陷」,是指考慮(i)該製造 物的特性,(ii)其通常預見的使用形態,(iii)該製造業者等交付該製造物的時期, 及(iv)其他有關該製造物的情況,該製造物通常缺乏安全性。參考第 14 次國民生 活審議會消費者政策部會報告《關於以製造物責任制度為中心的綜合防止消費者 受害.救濟的應有方式》,認為應考慮的要素包括:(i)針對製造物的特性,包含 製造物的效用.有用性、製造物的使用·耐用期間、製造物的經濟性、受害發生 的機率和程度、製造物的表示等考慮要素。另外,(ii)關於通常可被預見的使用形 態,製造物的被合理預期的使用的可能性,及由製造物的使用者防止損害發生的 可能性,(iii)關於交付時期,不僅是製造物交付時期,在該時間點以合理的成本 進行事故防止是否在技術上可行性(技術實現可能性)。116 手術支援機器人,是預設由非一般消費者的醫師等專家所使用,以此為前提, 來判斷缺陷之有無。換句話說,醫療機器是專家用的機器,沒有經過充分的訓練 是不允許使用的(也就是說,作為製造業者可以期待由具備充分技術質量的人來 使用的這件事情)。以此為前提設計製品的話,有被判斷為充分的空間。而且, 作為醫療從事者的注意義務的內容,製造業者可以期待使用者非常仔細地閱讀說 明書.手冊的每個角落的看法,也可以說是站得住腳。117 從而,如果按照「在醫師使用醫藥品時未遵守上開文書記載的使用上的注意 事項,從而發生醫療事故的情形,針對不遵守注意事項乙節,如果沒有特別的合 理的理由時,推定該醫師有過失118」,以及「確認最新的添附文書,依其必要參 照相關文獻,在該醫師所處的狀況下,有收集在可能範圍內的最新情報的義務119」 的見解的話,使用手術支援機器人的醫師被認為有義務精讀手冊以及收集包含注

113

同條項第 2 款、第 3 款則分別規定了自任製造業者以及實質製造業者。

114

同註 85, 頁。

115

同註 85, 頁。

116

同註 85, 頁。

117

同註 85,189 頁。

118

最判平成 8 年 1 月 23 日民集 50 巻 1 號 1 頁。

119

最判平成 14 年 11 月 8 日判時 1809 號 30 頁。 19


意喚起文書在內的最新情報的義務。120然後,受到充分的訓練且有經驗的醫師, 履踐這樣的步驟而使用手術支援機器人的這件事,似可被認為是「通常可被預見 的使用形態」。如此一來,關於醫療機器的製造物責任的成立與否,與關於指向 一般消費者的製品的製造物責任相比,可能就有不同的判斷基準。121 儘管如此,在日本判例中,製造者在製造販賣 Jackson Rees122(人工呼吸用 器具)時,只要沒有對使用者採用發出明確表示在與氣管切開管等呼吸輔助器具 的連接部位存在引發堵塞的組合,在這樣的組合下不要使用 Jackson Rees 那樣的 指示、警告等,可認為有指示.警告上的缺陷123,且有被認為導管上有強度不足 的缺陷。124 再者,製造業者等,如能證明「基於製造業者在交付當該製造物時的科學或 技術相關知識見地,不能認識當該製造物上有該缺陷之事」者(開發危險的抗辯, 日本製造物責任法第 4 條第 1 款),不負損害賠償責任。針對手術支援機器人, 會有承認這樣的抗辯的可能性。這邊講的交付時的「科學或技術之相關知識見地」, 只要是在會影響有無缺陷的判斷的程度上被確立的知識就可以,而且,指的是客 觀存在於社會上的知識的整體,製造業者等特定的人的知識作並非問題所在。125 但學者也指出,在日本,到目前為止,承認開發危險的抗辯,認為製造業者等免 責的裁判例尚未出現,承認開發危險的抗辯是極端例外的狀況。126 120

同註 85, 頁。

121

同註 85, 頁。

122

BVM の一種であり、主に人工呼吸器使用時に用いられる。一般に病院での周術期

(perioperative period)に用いられる BVM である。呼吸のためのラグビーボールの形を したゴム袋のバッグがあって、マスクにつながる蛇管(空気の通路)と反対側に余剰ガスが 出て行く管がついており、さらに蛇管のマスクのすぐ近くに麻酔ガスや酸素を送り込むチュ ーブが横からつながっている形式の呼吸回路。T ピースと非自動膨張式バッグを組み合わせ たものである。メイブルソン F 回路とも呼ばれている。バッグに換気調整弁を有し、気道 内圧調整能を有した BVM。高濃度酸素の投与が可能。調整呼吸、補助呼吸、持続気道陽圧 (continuous positive airway pressure: CPAP) を行うことができ、1 回換気量や肺のコンプ ライアンス(軟らかさ)が分かる。麻酔中や救急蘇生時の人工呼吸、人工呼吸を要する患者 の搬送時の人工呼吸、気管吸引時の低酸素・無気肺防止などに使用。新生児から 15Kg 以下 の小児の麻酔にも向いている。 123

東京地判平成 15 年 3 月 20 日判時 1846 號 62 頁。

124

東京地判平成 15 年 9 月 19 日判時 1843 號 118 頁。

125

第 129 回国会衆議院商工委员会議録第 5 号(平成 6 年 6 月 3 日)8 頁[坂本政府委员],通

商産業省産業政策局消費経済課(編)「製造物責任法の解説』142 頁(通商産業調査会, 1994 年),川ロ康裕「製造物責任法の成立について」ジュリスト 1051 号(1994 年)50 頁。 126

東京地判平成 14 年 12 月 13 日判時 1805 号 14 頁,大阪地判平成 23 年 2 月 25 日 (平成 16

年(ワ)第 7990 号)等等,理解為把在其製造業者等交付該製造物的當时所可能得到的世界最高 的科学技术水準,認定為其判断基準乙節,應屬相當。同註 85,191 頁。 20


第四項

手術支援機器人製造業者之民法侵權行為責 任

使用手術支援機器人的手術,不當損及患者的生命、身體的情況下,進行手 術的醫療從業人員如果有過失127,該醫療從業人員和醫院等,對受害者對負有基 於侵權行爲(民法 184 條以下)128或基於債務不履行129的損害賠償責任(民法第 226 條、第 227 條、第 227 條之 1)。130 如果以東京高判平成 14 年 2 月 7 日(判時 1789 號 78 頁)等案例爲前提,也 可以設想手術支援機器人的製造業者基於侵權行為對受害者負損害賠償責任之 事。 東京高判平成平成 14 年 2 月 7 日案件中,人工心肺裝置及其內的泵(ボン プ),因為是基本上如果沒有操作人員的過失或失誤,是不會引發導管龜裂等的 事故而可耐受多數次的使用之物,所以認定無日本製造物責任法所定「該當製造 物欠缺通常應有之安全性」的缺陷,但另一方面又指出,「醫療機器的製造者, 負有應不僅就機能上的性能,還包括其安全操作的方法、危險發生的可能性等都 加以充分試驗,並應針對這些事項對操作者進行具體且充分的說明,且應發出關 於事故發生之危險性的具體警告的義務」,並認為違反此項義務的製造者應負侵 權行為責任。131 即使在手術支援機器人的製造業者對患者承擔製造物責任或侵權行為責任 的情形,在不少手術中,也有可能同時存在醫療器械的缺陷和進行手術的醫師等 的過失的情事,另外,假設即使手術支援機器人存在某種不良情況,醫師等如果 適切地對應處理的話,將得以防止損害,或防止損害擴大的情形也不少,此點必 須加以留意。像這種情況,製造業者和醫療從事者、醫院等,將對受害者承擔不 真正連帶債務。132

第五項 127

債務不履行責任與瑕疵擔保責任

明明應該預見和認識到會發生違法的結果,卻由於不注意而未預見而為某行為,或不為某種

行爲的心理狀態。 128

使行爲人承擔賠償因違法行爲所造成的損害的義務的制度。

129

債務人在沒有正當理由的情況下,不根據債務的本旨給付的行爲被稱爲債務不履行。 白話

講,就是不守約束,不履行義務。 這裡指的是,半途不實現約束(不完全履行)。 130

另外, 正在導入、設置手術支援機器人醫院等,如果是國家、公的團體的所設立、運營的醫

院的情況,手術支援機器人,如果該當國家賠償法第 3 條的公共設施時,其設置或管理有欠 缺的範圍內,該醫院等的設置管理者的國家、公的團體將負無過失的損害賠償責任。 131

平成 29 年修訂後,在日本民法下,是以契約不適合為理由的債務不履行責任。同註 85, 頁。

132

此處負損害賠償責任者,对受害者所遭受的损害全额承担赔偿责任(受害者可以对一个人全額

请求),如果不是责任者中有人支付了全部或一部分(清償)或可以與之同視之事,負有責任 者之任何一人所生之事由,不影響其他責任人。同註 85,192 頁。 21


手術支援機器人的出賣人,除了有可能對(對患者等進行了負擔損害賠償責 任的手術的)醫師等或者醫院等承擔基於製造物責任或者侵權行為的損害賠償責 任之外,還可能承擔基於以下所述的債務不履行或者瑕疵擔保責任的損害賠償責 任。133 首先,在手術支援機器人存有瑕疵(從交易通念來看,不具有同類物品通常 應有的品質、性能,有缺陷的狀態),在該瑕疵即使是盡交易上所要求的通常注 意也無法被發現的情形,如在日本,買受人(例如醫院)得從發現有瑕疵之時起 一年內,對販賣者通知該不適合之事由後,行使包括請求損害賠償在內的各項權 利(日本民法第 566 條第 1 項)134;在我國,買受人於交付後發現當時不能即知 之瑕疵,應即通知出賣人,並應於通知後 6 個月間向出賣人解除契約或請求減少 價金,如缺少出賣人所保證之品質或出賣人故意不告知物之瑕疵,買受人得不解 除契約或請求減少價金,而請求不履行之損害賠償。但此等權利,於物之交付後 經過 5 年者,即不得主張。上述關於六個月期間之規定,於出賣人故意不告知瑕 疵者,不適用之(我國民法第 356 條第 3 項、第 365 條、第 360 條) 。 但是,關於手術支援機器人,一般多少會發生一些機械故障,可能會得出是 否不存在「從交易通常觀點來看,具有同類物品通常應該具有的品質、性能」的 問題,或是在如果只有某個企業在製造手術支援機器人那樣的情形,可能會得出 未必存在同種類之物或到底什麼是通常應有的品質、性能的問題。 另一方面,在手術支援機器人的買賣中,可以說出賣人是依照將適當作動的 標的物交付給買受人的債務本旨來完成給付。從而,只提供不能適當作動的機器 人,是不完全給付,必須賠償買受人由此所受的損害(日本民法第 415 條)。135 在特定物的買賣中,以出賣人不負擔提供無瑕疵之物的義務為前提,鑑於買 賣的有償性,為了保護不知道瑕疵的買受人的利益,作為法律特別承認的責任, 規定了瑕疵擔保責任,這一理解曾經是有力的,但是平成 29 年修正日本民法所 規定的瑕疵擔保責任是債務不履行責任的一種,而瑕疵擔保責任即使在出賣人無 過失的情況下也可以承認的這一點,與以出賣人故意或過失為要件的日本民法 415 條的責任不同,這在近時的日本學說中是主流。 而且,一般認為,作為買 受人,無論採用哪種方法,只要滿足其要件,就可以向出賣人要求損害賠償。 但 是,如果可以說手術支援機器人存在設計上的缺陷、製造上的缺陷或指示·警告 上的缺陷,根據前述的製造物責任向機器人製造業者等要求損害賠償,通常會對 醫院等有利。

第四章

展望

133

同註 85, 頁。

134

平成 29 年修訂後,在日本民法下,購買者(例如醫院)在交付的手術支援機器人關於品質

不符合契約內容的情況下,若從知道該不適合開始 1 年以內(銷售者在交付時知悉該不適合, 或者因重大過失而不知者,不受此 1 年期間之限制)將此等意旨通知之販賣者,購買者將可 以此不適合作為理由,請求損害賠償。 135

平成 29 年修訂後,在日本民法下,以契約不適合(第 562 條 1 項本文)為理由,構成債務

不履行(第 415 條 1 項)。 22


第一節

執照制度的可能性

使用支援手術機器人的手術例可以說是正在增加中,而且雖然在總體比例上 仍非多數,在醫學院或醫學系教育課程中,也尚未要求以這樣的手術的進行為目 的的訓練,當然醫師的國家考試也還沒有納入施行這樣的手術的可能性。即使是 這樣,達文西機器人的製造商 Intuitive Surgical 公司設有資格認定制度,資格取 得後,至少見習 10 例的病例後,承認可以進行手術。136 在歐洲,為了外科醫師使用支援手術機器人那樣極為複雜的機器進行手術的 目的,設有最低限度的執業要件規定,為了取得可以進行這樣的手術的歐洲級別 的資格,以此為目的的訓練以及最終試驗等對歐盟來講是必要的,針對那樣的資 格要求繼續教育,以謀求能對應於進步機器的能力,資格更新制度也有必要等的 想法都被提出來。之後,歐洲議會為了保護患者的健康,認為針對醫師或照顧輔 助者等的醫療專業人員的適切的教育訓練以及準備實屬重要,為了確保讓專家的 能力成為最高水準的這件事情變成可能,決議:以許可外科醫師操作、使用外科 機器人為目的,必須滿足最低限度的職業上的要求事項,有加以規定的必要的意 旨。137尤其歐洲委員會在上開決議作成之後,基於對應於該決議的目的,公布一 連串的規制上及政策上的措施(但未直接提及對於職業上的要求事項)。138

第二節

缺陷、瑕疵、過失的舉證的困難度

在美國,即使是在民事案件,也有導入陪審制度,也有要求專家證人,在手 術支援機器人的製造者只有一家公司的現狀之中,請求損害賠償的原告得不到適 切的專家證人的問題,被指摘出來。139在日本及我國,以自由心證主義以及職業 法官制度為背景,也說不定會出現不是深刻的問題的看法,但是,如果是從在醫 療過失訴訟中病患的一方得不到適切的專家證言的問題來看的話,手術支援機器 人的缺陷或瑕疵,或是手術醫師等的過失的舉證,也是有可能伴隨著困難。相反 的,開發危險的抗辯,在什麼樣的範圍內會被承認,也成為課題。140再來,使用 手術支援機器人的手術實行醫療從事者的過失或是不純熟,與手術支援機器人的

136

同註 85,206 頁。

137

European Parliament resolution of 16 February 2017 with recommendations to the

Commission on Civil Law Rules on Robotics(2015/2013(INL)), para. 33. 同註 85,206 頁。 138

European Commission, Follow up to the European Parliament resolution of 16

Feburary

2017

on

Civil

Law

Rules

on

Robotics

(http://www.europarl.europa.eu/oeil/spdoc/do?i=28110&j=0&l=en). 同 註 85 , 206 頁。 139

同註 85,207 頁。

140

同註 85,207 頁。 23


缺陷、瑕疵之間無法明確區分的事情,也會不斷發生,因此,手術支援機器人成 為原因的事故報告是不是太少了的問題,在美國也開始有人指摘。141

第三節

保險或補償制度的可能性

承上所述,手術支援機器人的瑕疵或缺陷的舉證固屬困難,另一方面,執刀 醫師等的過失的舉證也不容易,但是使用手術支援機器人的這件事情被認為與患 者的損害有所關聯的情形也是有可能的,為了處理這種情形,像自駕車賠償責任 保險那樣強制附保,依照情形的不同,不管醫師有無過失而進行補償的架構,作 為立法論也許有檢討的價值。142因為,雖然以現在的技術水準或醫療水準為前提 的話有一定程度的風險,但是手術支援機器人的使用乙事,從宏觀的,中長期的 角度來看,如果可以說是與患者的利益以及國民全體的利益相關聯的話,這點可 以說與自駕車的駕駛乙事有共同的面向。再者,在醫療事故中,因果關係的舉證 屢屢遇到困難,有鑑於此,創設給予被害人與(涵蓋由醫藥品等的副作用所生損 害的)藥害救濟制度相同的救濟的制度,或是納入藥害救濟制度之內給予補償的 那樣的想法,或許可行也說不定。 另外,手術支援機器人的手術,能減輕患者的身體上負擔,結果就是,能夠 縮短住院期間等,因此而有助於削減醫療費,縮小醫師等的技術量的差別,並因 而對患者而言有獲得大利益的可能性,從這樣來看,手術支援機器人的製造者, 能夠像準備製造物責任那樣付諸保險乙事,實屬另一很重要的考量面向。143假設 合理的保險費的投保如果在市場原理下有困難的話,像核能災害損害賠償制度那 樣由國家政策性地針對超越一定限度的金額的進行補償那樣的方法,也沒有理由 不進行在立法論的層次上的考慮。144(全文完)

141

同註 85,207 頁。

142

同註 85,207 頁。

143

同註 85,208 頁。

144

同註 85,208 頁。 24


人工智慧醫療糾紛 之民事責任 與刑事責任 亞洲大學 楊玉隆助理教授


壹、前言 隨著資通訊科技與大數據的快速發展,以人工智慧(Artificial Intelligence,以 下簡稱 AI)為系統的電子產品或服務,充斥在於各行各業中。在各 AI 應用領域 中,醫療層面所涉及之 AI 技術較為廣泛,其應用稱為 AI 醫療,包括利用 AI 演 算法處理大量醫療資訊,從中找到更好的治療方法與協助研發更好的藥物;在辨 識醫療影像方面更是有所突破,能發現人類難以察覺之病因;AI 協助手術開刀 方面,隨著 AI 介入所達到自動化之比例,也細分多種類型之手術機器人。然我 國對於 AI 醫療之發展策略尚為初步之政策,缺少關於 AI 科技之法律規範,如何 因應 AI 科技快速發展所引發的法律議題,有探究之必要。 AI 一詞最早出現於 1956 年美國達特茅斯學院(Dartmouth College)中的一場研 討會中,由美國 Stanford 大學的 John McCarthy 教授為首的數人提出「WHAT IS ARTIFICIAL INTELLIGENCE?」論文,認為人工智慧是「製造智慧機械的科學和 工程學,尤其是指具有智慧的電腦程式;是有關類似像用電腦了解人類的智慧的 任務,但 AI 不必自限於生物學上可觀察的方法。(It is the science and engineering of making intelligent machines, especially intelligent computer programs. It is related to the similar task of using computers to understand human intelligence, but AI does not have to confine itself to methods that are biologically observable. )1」。 手術機器人乃近年人工智慧運用之重要課題,因人體解剖構造複雜,生理機 能差異性大、及生物徵候變化極敏感,在辨識、判斷與處置上較為相當困難,是 以利用人工智慧技術之需求也較高。惟目今多數手術機器人僅屬輔助系統,如行 2 之有年的達文西機器人手術系統 ,為遠距醫療一環,在我國部分相關手術有全 民健保給付3,但並非全自動手術系統,然而市面上的產品因為深度學習與機器

1

John Mccarthy, What Is Artificial Intelligence? (2007), 2, http://www-formal.stanford.edu/jmc/whatisai.pdf

(last visited Nov. 9, 2020)。 另外亦有提出 AI 一詞,最早由美國數學家 John McCarthy 於 1955 年提 出,李國偉,人工智慧的名稱政治學,科學月刊,網址: http://scimonth.blogspot.com/2018/03/blog-post_35.html。(瀏覽日期:2020 年 11 月 7 日) 。 2

將近 30 年前,人類起用腹腔鏡手術代替傳統開腔手術後,這類技術與工具日新月異。後來,腹

腔鏡手術因為內視鏡看到的體內是平面視覺,手術器械的角度又受限,因此美國直覺手術公司 (Intuitive Surgical Inc. )發展具有立體影像傳導、同步模擬外科醫師手、腕、指動作的機械手臂, 美國 FDA 在 2,000 年核准上市,取名達文西外科系統(da Vinci Surgical System) 。 https://www.intuitive.com/。(瀏覽日期:2020 年 11 月 11 日) 。 3

達文西外科系統其實就是內視鏡手術羸的功能大升階版,對外科醫生來說,手術視野和立體視

覺,器械角度的幅度和靈活度,切刀精細度,勝過內視鏡;對病人來說、傷口小、恢復快、流血 少、院天數短、更快回復健康,比其他傳統手術更理想。104 年間台大醫院曾提送達文西外科系 1


學習的發展,與其他相關技術之提升,帶動機器人產業邁向全自動化,出現了許 多不同應用與等級的手術機器人,如同自駕車的駕駛人控制程度分級,Micheal Yip 和 Nikhil Das 所撰的 Robot Autonomy for Surgery 中將手術機器人依照醫師可 4 控制程度區分為四級 ,第一級為直接控制(dirrect control),例如達文西機器人手 術系統,由醫師操作為與控制台的控制器,控制機械手臂為位於手術台的病人動 刀;第二級為分享控制分享控制(shared control)5,例如 Mako Robotic-Arm Assisted Surgery,醫師可以利用預先規劃的路線使機器人達成預先計劃好的骨頭移除手 術,可以以觸覺反饋使防止手臂操作失誤;第三級為監督式自動化(supervised autonomy)6,例如 CyberKnife,其為一種無創放射療法,仍須醫師先決定好與消除

統臨床上應用的手術項目審查,有列入常規治療,但不同意納入健保支付。健保署以「列屬於本 保險攣特約醫事服務機構提供辦理醫療科技評估期間或已完成 HTA 後不同意納入健保支付診療 項目」方式,將 36 項達文西手術編列醫令診斷代碼意思是說,可用健保身份使用這 36 項達文西 外科系統,住院醫療費用如診察費、病房費、檢查費、藥費等可獲健保給付,麻醉及治療處置等 醫療服務依規定申報,但最貴的手術設備使用費、機械手臂專用的各種器械材料,完全是自費, 收費標準則由各縣市主管機關核定。健保署認為達文西外科系統沒有比傳統手術(開腔、內視鏡) 有更好療效和安全性,而且經過經濟分析,不符合經濟效益,所以不納入健保支付,真正的原因 其實就是健保。一旦開放給付達文西機械手臂手術,會加速取代傳統治療,健保財務完全負荷不 了。之後於 106 年健保僅開放其中 1 項部份給付一攝護腺癌達文西外科系統根除手術,將手術費 比照照腹腔鏡手術,儘管已經部分給付,攝護腺癌用達文西外科系統,至少還要自費 15 至 18 萬 不等的手術費差額,和手術設備費、特材費等。健保署認為達文西機械手臂手術費用高昂,健保 難以全額支付,因此擬比照腹腔鏡手術金額給付,也就是民眾可於療程選擇達文西外科系統,然 後健保給付腹腔鏡手術的金額,不足的部分再自費。楊玉隆,遠距手術之相關法律問題初探,月 旦醫事法報告,30 期,2019 年 4 月,45 頁。 4

Micheal Yip & Nikhil Das, Robot Autonomy for Surgery, 2-4, https://arxiv.org/pdf/1707.03080.pdf (last

visited Nov. 10, 2020). 5

在一開始機器人有使用者用示範教導(Programming by Demonstration)學習一個軌跡,當機器人在

執行軌跡的時候,必須透過預定軌跡路徑以逆向運動學轉換為各軸的角度命令,驅動馬達使機械 臂移動。由於在機械臂上有安裝力/力矩感測器,當使用者介入來修改軌跡到想要的軌跡,並且 施力在機械臂上,使用示範教導的方式可以改變機械臂的軌跡。然而機器人有預定要執行的軌 跡,而人也有想要改變的期望軌跡,所以在做的同時人的意志或力量進來之後,透過分享控制系 統分配權重值,使兩個軌跡在交互作用下,達到了軌跡的平衡也就是機械臂的新軌跡。劉鴻燊, 基於分享控制之機器臂學習系統設計與實現,國立交通大學電控工程研究所碩士論文,2016 年 9 月,33 頁。 6

監督(supervised)意義是則使用標記的數據設定創建模組,然後可用於全新未見過的數據集(data

set)進行分類或排序 (例如在一批照片中找尋特定的人相)。這有助於識別數據中的特定資料 (可 能是關鍵用語或物理屬性)、預測可能的結果、或發現異常數值或情況。機器自動化(autonomy) 或自動決策(autonomous decision-making) 是指演算法程序能不必經過人類輸入就能用以做出決 2


之腫瘤位置,之後機器人才能自動完成手術;第四級則為完全自動,但目前尚無 7

此種手術機器人 。 AI 手術機器人為 AI 技術運用之成果,其透過機械與電腦化,減少人為失誤, 實現精準之手術治療成果,惟 AI 手術機器人的使用是為了卻使極重視安全性的 醫療領域,增添了不確定性之使用安全風險,也帶來不同層面之風險與法律問 題。本文從手術機器人的手術醫療行為及提供的醫療服務出發,探討目前實務上 手術機器人的樣態;另外和業務相關的民事法規上,如消費者保護法等,探討業 務是否受其規範,以及其可能之責任歸屬。 貳、事實8摘要 病患甲男因前局限性前列腺癌於 A 醫院由乙醫師看診,乙醫師告知甲,將 使用「達文西外科手術機器人」於根治性前列腺切除術9,並說明此此系統機器

策。https://iknow.stpi.narl.org.tw/Post/Read.aspx?PostID=13238,財 團 法 人 國 家 實 驗 研 究 院 科 技政策研究與資訊中心 7

科 技 產 業 資 訊 室 , 人工智慧:未來決策制定的機遇與影響

Tokio Matsuzaki , Ethical Issues Of Artificial Intelligence In Medicine, 55 CAL. W. L. REV. 264-65

(2018).) 8

真實案例為 Roland C. MRACEK, Plaintiff, v.BRYN MAWR HOSPITAL, and Intuitive Surgical, Inc.,

Defendants,United States District Court, E.D. Pennsylvania。2005 年 6 月 9 日,原告 Mracek 在被診斷 出前列腺癌後,其外科醫師使用「達文西機器人」進行了前列腺切除手術,此機器人係由直覺外 科公司(Intuitive Surgical, Inc.)設計、生產及販賣。Mracek 主張該機器人於手術時故障並顯示機 器「錯誤」的訊息,之後剩餘的手術程序使用腹腔鏡設備以取代該機器人。一週之後,Mracek 出現血尿、性功能障礙(erectile dysfunction),此是在手術前從未有的,並合併腹股溝疼痛。本 案賓州地方法院認維該所通過的侵權行為第 402A 條作為賓州的嚴格產品責任之法律上要件 (adopted § 402A of the Restatement (Second) of Torts as the law of strict products liability in Pennsylvania.),即原告必須證明:(1)產品有缺陷(the product was defective;);(2)產品在製造 商控制下存在的缺陷(he defect existed while the product was in the control of the manufacturer);(3) 缺陷是原告受傷的直接原因(the defect was the proximate cause of the plaintiff's injuries)。賓州地方法 院認為原告 Mracek 未能履行其嚴格責任的舉證責任,因為他沒有提交批評達文西機器人機器人 的專家報告(expert report),而判決原告敗訴。原告不服上訴,聯邦第三上訴法院肯認地方法院之 意見,同樣做成有利於直覺外科公司之判決。資料來源: https://www.courtlistener.com/opinion/2469949/mracek-v-bryn-mawr-hosp/。(瀏覽日期:2020 年 11 月 12 日) 。 9

根治性前列腺切除術是第一種用於治療前列腺癌的方法,也是治愈局限性前列腺癌最有效的方

法之一。通過手術治療可以達到根治;目前對於低危局限性前列腺癌,仍首選根治性前列腺切除 術。手術分為(A)傳統開腹法,(B)腹腔鏡法,及(C)機械人手臂輔助法三種。手術時間平均(A)為 3


人會大幅降低勃起功能障礙的風險。甲於全身麻醉並接受此系統機器人準備的情 況下,在手術當中發生機器人忽然顯示錯誤消息,乙醫師重新啟動它幾次並即聯 繫製造商 B 予以技術支援。機器人製造商的技術代表丙隨後來到手術室,並試 圖協助外科團隊解決機器人的問題,但是機器人仍無法運行。由於機器人的故 障,手術團隊放棄了以機器人作前列腺切除手術的嘗試,而另以傳統腹腔鏡設備 以完成手術。手術完成一周後,甲因嚴重血尿而再次入院,並有勃起功能障礙與 經常性腹痛。病患甲起訴主張 A 醫院、乙醫師與手術機器人製造商 B 有醫療過 失並請求共同賠償。 參、AI 手術機器人的相關法律關係與民事責任 人工智慧手術機器人製造商與醫療機構間的法律關係,目前法規中不能真正 了解人工智慧手術機器人設計人在醫療團隊中的執業定位,以及和醫師執行之醫 療業務的差別。人工智慧手術機器人製造商和病患的法律關係是否會有變化,在 肯認人工智慧手術機器人設計人有專屬其業務的論點下,以下探討上述人工智慧 手術機器人製造商和醫療機構、醫師業務性質上可能之法律關係, 一、AI 手術機器人製造商與醫療機構間可能之契約關係 (一)、雙方為契約關係:有買賣契約關係 AI 手術機器人製造商與醫療機構成立買賣契約且賣出標的物 AI 手術機器人 給於醫療機構。因醫事人員大多都不熟悉 AI 醫療產品,即廠商在賣出 AI 手術機 器人時,製造商應先履行買賣契約之附隨義務,對醫療機構醫師與其他會使用該 產品之醫事人員進行正確使用該產品之說明或教學、實際操作、或實際操作、操 作障礙之評估與排除、病人生理定位、生理徵候監控等。而實務上附隨義務既為 履行契約義務或保護當事人人身與財產上之安全,基於誠信原則而發生,若契約 上債務人違反附隨義務時,則足以影響契約目的之達成,使債權人無法實現其訂 10 定該契約之目的,債權人得以解除契約 。於本案若 AI 手術機器人製造商無履行 說明義務而導致醫事人員操作失誤而手術失誤之致病人受有權益損害時,AI 手 術機器人製造商須承擔民法第 227 條中不完全給付之責任,醫院可以解除該買賣 契約。

3-4 小時,(B)及(C)為 3~6 小時。手術皆是直接切除攝護腺及儲精囊,再將膀胱及尿道縫合,是 高侵入式治療。(A)有健保給付。(B)有部分健保給付,仍須自費 3~5 萬元。(C)需自費 17~25 萬元。 資料來源:臺大醫院泌尿部,https://www.tmua.org.tw/ptEdu-localizedPCtherapy.php,臺大醫院泌尿 部。(瀏覽日期:2020 年 11 月 8 日) 。 10

陳聰富,臺灣民法誠信原則之發展實務,月旦民商法雜誌,62 期,2018 年,17 頁。 4


而 AI 手術機器人之產品設計上有瑕疵,為訓練資料非廠商所保證之真實患 者之數據致使 AI 產品非其所宣稱之品質,導致生錯誤之醫療建議,因此為買賣 契約成立前此 AI 手術機器人產品即有瑕疵,為產品之自始瑕疵,醫療機構僅得 依民法第 360 條要求 AI 手術機器人製造商需負瑕疵擔保責任,因此得向 AI 手術 11 機器人製造商解除買賣契約或請求減少價金,而請求不履行之損害賠償 。 (二) 、雙方為契約關係:有承攬契約關係 一般醫療契約目前國內實務及學者通說定性為「委任契約」,其原因不外乎 以下幾種一、醫療契約係由醫療行為人對醫療需求人提供醫療服務之契約,依據 醫師法第 11 條之規定可知,醫師親自執行業務之行為有「診察」「治療」「開 給方劑」「交付診斷書」等項目,足見醫療行為人執行業務與勞務的提供有關, 依據民法第 529 條,關於勞務給付的契約,不屬於法律所定其他契約之種類者, 適用關於委任之規定。因此,醫療行為亦屬委任契約之範疇,以勞務給付即診療。 醫療業者基於其專業知識技能得自由裁量診治方法,不受病患指揮監督,且並非 以「治癒」疾病為內容,故醫療業者所付之債務為「手段債務」12而非「結果債 務」,亦即病患委託醫療業者處理疾病的診療事務,而醫療業者允為處理,而成 立「委任契約」13。 但是一般情形下,醫療機構購買 AI 手術機器人後,對於 AI 手術機器人自執 行手術業務之細節並不瞭解,需要 AI 手術機器人製造商予以後續 AI 手術機器人 之醫事人員之訓練、實際操作、操作障礙之評估與排除、病人生理定位、生理徵 候監控等,AI 手術機器人製造商而之給付內容多為著重「完成一定工作」之效 果,而非單純醫療事務之處理,「完成一定工作」之結果作為契約之重要目的, 屬於雙方共識,以「完成一定工作」作為給付責任者,因此其契約性質,近似承 攬契約,適用民法承攬之相關規定,故工作之結果之給付是為達成既定的結果(醫 事人員之訓練、實際操作、操作障礙之評估與排除、病人生理定位、生理徵候監 控等)。 (三 )、製造商與醫師為於複委任之關係

11

王澤鑑,債務不履行法的變遷-違約責任與損害賠償(下),法令月刊,67 卷,10 期,2016 年,

10 頁。 12

謝哲勝,無過失醫療責任:醫師的夢魘?病人的救星?謝哲勝、蘇永欽、黃立、王千維、郭麗

珍、楊秀儀、陳聰富、姚志明、林誠二合著,民法七十年之回顧與展望紀念論文集(一)總則債 編,2000 年 10 月,277 頁。 13

吳建樑,醫師與病患「醫療關係」之法律分析,東吳大學法律研究所碩士論文,1994 年 7 月,

24 頁。 5


民法規定:受任人原則上應自己處理事務,不得再轉委託他人處理。惟有時 亦有需要他人協力或輔助之時,如一概不准,亦難得事理之平,故可能有使用複 代理人之必要,民法第 537 條但書規定:「但經委任人之同意或另有習慣,或有 不得已之事由者,得使第三人代為處理。」此即所謂複委任。原為法所不許,特 殊情形下始可為之,惟今則已從例外轉變為原則矣。通常於「委任契約書」內多 半會約定有複委任權以及特別代理權。 關於複委任之法律效果,可分述如下:(1)合法之複委任:民法第 538 條第 2 項規定:「受任人依前條之規定,使第三人代為處理委任事務者,僅就第三人之 選任,及其對於第三人所為之指示,負其責任。」(2)違法之複委任:民法第 538 條第 1 項規定:「受任人違反前條之規定,使第三人代為處理委任事務者,就該 第三人之行為,與就自己之行為,負同一責任。」合法之複委任,原則上應經委 任人之同意,然則委任人與複代理人相互間之關係如何?民法第 539 條規定: 「受 任人使第三人代為處理委任事務者,委任人對於該第三人關於委任事務之履行, 有直接請求權。」 通說和實務上多認為醫療契約係委任契約,在一般民事的委任契約中,委任 人賦與受任人一定的權利與義務,而委任關係之成立,係基於委任人對受任人之 信任而來,當受任人無法完成約定事宜時,在民法第 537 條中有提及複委任: 受任人處理委任之事務,自應親自為之,如無法親自處理,經委任人之同意或另 有習慣或有不得-之事由者,得使第三人代為處理。原則上受任人需要親自為 之,除非法律另有規定,因此在民法第 537 條中,除非以下三種情形否則不得 14 複委任 :1、 委任人之同意:民法不允許複委任,是為了保障權益,但如委任 人同意,自無禁止之必要,同意可在契約成立之時或其後為之。2、另有習慣: 如銀行受委託之匯款或託收款。3、有不得已之事由:受任人如臨時生病等。 以未來可能發生第四級則為完全自動手術機器人醫療場景,人工智慧手術機 器人製造商可提供獨立且完整醫療手術服務。醫師為病患完成確診或恢復身體功 能的目標,而人工智慧手術機器人製造商則是為個案的現況,訂定手術計劃,協 助醫師。因此就人工智慧手術機器人製造商、醫師及病患間,於醫療現場醫師與 人工智慧手術機器人設計人之間因專業提供的服務不同。委任事務本身即應委任 人指示為之,也就是委任人的患者與受任人醫師訂定委任契約,委託醫師為其病 情進行診斷,而醫師依其職業權責進行診斷、給藥或侵入性治療等,如今醫師在 醫囑上給出 AI 手術的相關項目,讓病患再自行前往治療室接受手術服務,相關 委任事務交由第三人的人工智慧手術機器人製造商獨立處理。

14

林誠二,民法再債篇各論(中)三刷,瑞興,2011 年 1 月, 232 頁。 6


在複委任的關係下,醫師與病患訂定的契約仍繼續有效存在,而醫師和 AI 手術機器人製造商間亦是委任關係,但在此時醫師對於 AI 手術機器人情形下- 沒有主動控制權,在民法第 539 條規定:「受任人使第三人代為處理委任事務 者,委任人對於該第三人關於委任事務之履行,有直接請求權。」,故個案對於 自,關於來院治療的目的可和治療師進行討論及做治療的規劃,對於人工智慧手 術機器人製造商相當享有一定的債權。但人工智慧手術機器人製造商應依民法第 535 條對委任之醫師負有善良管理人之義務,也依民法第 540 條有對其報告義 務,而且依民法第 541 條,工作成果歸屬於委任人。複委任的情形病無法解釋 多數醫療手術實務上醫師與人工智慧手術機器人製造商的關係,單以複委任關係 來解釋醫師及人工智慧手術機器人製造商的合作關係並不能完全適用。 (四)、製造商和醫師為第三人負擔契約之關係 民法第 268 條:「契約當事人之一方,約定由第三人對於他方為給付者, 於第三人不為給付時,應負損害賠償責任。」這條規定在學說上常稱為涉他契約 中的第三人負擔契約,而且第三人(AI 手術機器人製造商)因不是契約當事人,債 權人(病患)只能向債務人請求給付,不得對第三人直接請求給付。 目前在醫師、AI 手術機器人製造商、病患三者中,因人工智慧手術機器人 製造商在醫療機構中無法單憑醫囑提供服務,所以醫師與病患定契約後,如委任 契約,單獨手術項目由人工智慧手術機器人製造商來進行,類似當事人約定由第 三人為給付。所以人工智慧手術機器人製造商和醫師非第三人負擔契約之關係。 (五)、製造商與病患或醫師間有債務承擔契約 因債權可以讓與,債務亦可透過承擔來達成權利主體的改變,因此債務承擔 係以不變更債之同一性,經合意生效,由第三人承受債務人之債務並成為債務 15 人。依民法第 300 條 ,為債務轉由第三人負擔。 然而履行輔助人在概念上,若製造商完全聽命於債務人之履行輔助人,其係 該當為債務人之手足,故因輔助人之故意、過失所生之責任自應由債務人承擔, 且債務人使用履行輔助人,即債務人使用履行輔助人,因現實上並不發生債務人 由第三人承擔之作用,故不構成民法上述規定之債務不履行責任。 另,如認製造商非完全聽命於債務人之履行輔助人,在醫師履行了診斷之義

15

民法第 300 條:「第三人與債權人訂立契約承擔債務人之債務者,其債務於契約成立時,移轉

於該第三人。」 7


務後即完成契約,但因病患有手術需求,故主動向病患進行關於手術治療之要 約,如病患同意,即再成立一新契約,但因手術醫療服務提供過程,人工智慧手 術機器人製造商並無法直接和醫師或個案要求承擔醫療契約之債務,故應認為醫 師提供相關醫囑後,病患同意和人工智慧手術機器人製造商訂立契約,由人工智 慧手術機器人製造商代為承擔,進行清償債務。 唯就專業分工的立場,醫師了解治療業務內容,並不等同於能執行好治療業 務,故由醫師成立治療服務提供契約並非合宜。而且在債務承擔的條件下,病患 因有需求,前來掛號求診,此時仍無法確定是否要進行治療,醫師將病患轉介給 人工智慧手術機器人製造商後,並非病患自此就無需再行回診,且醫師主責診 斷,人工智慧手術機器人製造商進行手術治療,病患所接受專業的服務內容並不 相同,並非符合債之同一性,人工智慧手術機器人製造商也無法承擔原來病患確 診需求的債務,應不適用於人工智慧手術機器人製造商與醫師間的關係。 二、AI 手術機器人製造商與醫療機構間可能之非契約關係 (一) 、製造商是否為醫療機構履行輔助人-民法上的履行輔助人 蓋履行輔助人在民法中的第三人履行的制度之一,為債務人借助第三人的行 為代為履行債務,民法第 224 條規定:「債務人之代理人或使用人,關於債之 履行有故意或過失時,債務人應與自己之故意或過失負同一責任。但當事人另有 訂定者,不在此限。」此處的代理人或使用人,均是為債務人服務,且事實上幫 助債務人履行債務之人,故均屬學說上的履行輔助人。而次承攬人亦為履行輔助 16 人的一種 。 一般履行輔助,就民法 224 條的立法精神觀之,係債務人藉由履行輔助人 擴張其活動範圍,而享有利益,且因履行輔助人多為較無資力之人,難使其為有 效之負責,故基於誠信原則,理當讓債務人為其所加於債權人之危險負責17。而 債務人與其履行輔助人不須負有法律上之義務為必要,亦不問在經濟上或社會地 位上有無從屬關係,因債務人履行輔助人得擴大其活動範圍而取得利益,而通說 認為履行輔助人應受債務人指示監督18。即債務人與其使用人並不一定要有契約 關係,只要是基於債務人之意思而使其為輔助人,履行債務的過程中,因其故意 或過失行為,導致債務並未如期履行時,債務人方才需要為履行輔助人負責。

16

王澤鑑,為債務履行輔助人而負責,法學叢刊,34 卷,3 期,1989 年 07 月,1-19 頁。

17

林誠二,債法總論新解體系化解說下冊,初版,瑞興圖書,2010 年 3 月,46 頁。

18

林誠二,債法總論新解體系化解說下冊,初版,瑞興圖書,2010 年 3 月,49-50 頁。 8


(二) 、製造商是否為醫療法上之醫療輔助行為 醫療輔助行為的意義為醫療(作之診斷、處方、手術、病歷記載、施行麻醉 等醫療行為,應由醫師親自執行,其餘醫療。醫師之醫療履行輔助人,為醫師與 病患訂定契約關係時的第三人,履行輔助人的行為視同債務人的行為,醫師亦應 負擔起債務不履行的責任。 一般情形下,AI 手術機器人製造商與醫師間並不一定有契約關係,僅為業 19 務上有所相關,但從目前的醫療習慣來看 ,常常是要醫師開立治療項目,而人 工智慧手術機器人設計人為替醫師執行治療項目之人員,需遵從醫師的指示,唯 依前述之醫療業務討論,在醫師法中規定,未取得合法醫師資格,任何人不得擅 20

自執行醫療業務 ,但醫師法第 28 條所指的醫療業務,幾乎涵蓋了所有醫療現場 會發生的醫療行為,甚為廣泛,另因診斷、照會及醫囑的目前形式定義不明,對 於不只在醫療機構運作,醫療輔助行為是否為醫療行為?衛福部函釋指出醫療輔 助行為本質上為醫療行為21,因其危險性較低,並非涉及專屬醫療工作之診斷、 處方、手術、病歷記載、施行麻醉之醫療行為,故可由醫師就特定病人診察後, 交由其他醫事人員依醫師指示為之。準此,醫療輔助行為本質上為醫療行為,質 言之,醫療行為區分為「醫師親自執行之醫療行為」與「在醫師指示下可執行之 醫療行為22(即醫療輔助行為)」兩型態23。 另看目前醫療服務提供情形,其他醫事人員專業,如在護理人員法第 24 條 中,說明護理人員如執行醫療輔助行為時,應在醫師指示下為之,為目前在法規 中明確規定的醫療輔助人員,又如呼吸治療師在執行業務時,均需依照醫師指示 為之(呼吸治療師法第 13 條第 2 項),和護理人員法類似,有明確的文字「應」受 24 醫師指示。而醫療輔助行為的範圍,主管機關曾有函釋定義 ,從法規中文字解

19

民法第 1 條:「民事,法律所未規定者,依習慣;無習慣者,依法理。」在此處選擇習慣一詞,

是因為專業人員互動,卻成了整體醫療環境的就醫習慣,就醫模式改變仍尚有其他選擇,實應考 慮直接適用時是否適合。 20

醫師法第 28 條: 「未取得合法醫師資格,執行醫療業務者,處六個月以上五年以下有期徒刑,

得併科新臺幣三十萬元以上一百五十萬元以下罰金。」 21

李聖隆,醫護法規概論,華杏,2001 年,5 版,216 頁;徐朝威,醫療輔助行為在法規範中之

界定,東吳大學法律學系研究所碩士論文,2010 年,177 頁;衛生署(82)衛署醫字第 8255075 號函。 22

徐朝威,醫療輔助行為在法規範中之界定,東吳大學法律學系研究所碩士論文,2010 年,177

頁。 23

蔡振修,違反醫師罪(密醫罪)修正條文析論,醫事法學,10 卷,1 期,2002 年 3 月,23 頁。

24

行政院衛生署(90)年衛署醫字第 0900017655 號函,列出醫療輔助行為範圍包含了: (9) 輔助施 9


釋來看,並未提及 AI 手術機器人執行的是醫療輔助行為的業務,AI 手術機器人 製造商執行的業務不應以醫療輔助行為概括之,無法用醫療輔助概念來加以詮 釋,不應認為為醫療履行輔助人。 (三)、小結 AI 相關應用系統與產品需確保在操作或使用上的安全性,例如醫療科技與 交通運輸科技產業需高度安全性方能成指令與目標。而大多數的 AI 系統應用目 前仍需藉由人類從旁介入,例如醫療科技產業中的達文西機器人手術系統其 AI 系統的自動化運作含量少,仍需由醫師全程操作,其安全上的風險管控雖與傳統 25 手術的情況相似 ,但若該機器人系統於手術時發生故障,使病人生命安全仍受 到威脅,此時 AI 廠商對產品安全性需負擔相當的責任,應考量產品風險並提升 其之安全性。 前述中,討論了醫師和 AI 手術機器人製造商間可能之法律關係,應先分清 在病患在醫師與 AI 手術機器人製造商處接受了何種的醫療專業業務,將責任分 離。未來病患雖然可能是因為同一種病因,或多個病因前來求診,目前面對專業 治療的程序、目標、方式等醫療專業內容可能也可能出現多樣性,是否日後可將 之視為兩個或多個債之關係,值得進一步研究並進行責任探究。 肆、AI 手術機器人製造商、醫療機構與醫師損害賠償責任問題 一、前言 (一)、 醫療機構與醫師連帶負損害賠償責任(契約責任) 醫療機構應居於管理人之角色,對於醫療設施之設置與維護、醫療人員之選 任與監督、職務與責任分工、不同科別與部門之協調聯絡、及醫療品質之提升方 案,擬訂計畫並予以執行26。至此對於醫院內因 AI 醫療系統與相關設備之醫療事 故,醫院應為其管理監督之疏失,對病患負賠償責任。醫院與廠商訂定買賣契約,

行侵入性檢查,(二) 輔助施行侵入性治療、處置。(三)輔助各項手術 3(四) 輔助分娩。(五) 輔助 施行放射線檢查、治療。(六) 輔助施行化學治療。(七) 輔助施行氧氣療法 (含吸入療法) 2 光線 療法。(八) 輔助藥物之投與。 (九) 輔助心理、行為相關治療。(十) 病人生命徵象之監、與評估。 (十一) 其他經中央衛生主管機關認定之醫療輔助行為。 25

See Da Vinci Surgery: Minimally Invasive Surgery, https://www.davincisurgery.com/ (last visited Nov..

9, 2020). 26

陳聰富,醫療機構法人組織責任,月旦實務講座,

http://www.angle.com.tw/media/GroupDetail.aspx?iMG=672。(瀏覽日期:2020 年 11 月 11 日) 。 10


醫療契約責任之歸屬主體,與醫療機構間存有醫療契約,若依照契約責任,醫療 過失乃醫療機構未履行與病人之醫療契約,因醫師與 AI 製造商之過失使伊受有 27 損害,醫院所為之給付即不合契約本旨,共同侵權行為 應負債務不履行之損害 賠償責任,病人可依民法 227 條之規定依債務不履行法律關係主張權利28。而醫 事人員是醫療機構之履行輔助人,依民法第 224 條規定醫事人員之行為有過失, 醫療機構應與其之過失負同一賠償責任29。因此,依契約責任,醫療機構需負擔 債務不履行之損害賠償之責或依照醫師之過失責任負同一責任。司法實務民事判 決及其他多數實務30見解以為,僅醫院為醫療契約之當事人,醫師除可能之侵權 責任外,對於病人毋庸負契約責任。 (二)、 醫療機構與醫師連帶負損害賠償責任(侵權行為責任) 依照民法第 184 條規定之侵權行為責任,依我國法院傳統見解31,僅適用於 自然人,並不適用於法人,從而醫療機構似無法依民法第 184 條規定獨立負侵權 責任。依照現行之醫療法第 82 條,醫療機構之過失責任,不限以違反醫療上必 要之注意義務且逾越合理臨床專業裁量,於修法後比醫師負擔更重之損害賠償責 任32。因此,醫療機構因由醫師代為執行醫療業務致生損害於病人,需對病人負 損害賠償之責。又根據民法 188 條第 1 項規定使醫療機構負僱用人責任,為醫 事人員過失成立,從而醫療機構應連帶負賠償責任33,由醫療機構與醫師連帶負 損害賠償責任。 基上,民法的概念核心是私法關係上的「權利主張」,因此,關於權利主張

27

關於此類醫療事故之責任分擔型態,我國民法第 185 條第 1 項規定:「數人共同不法侵害他人

之權利者,連帶負損害賠償責任。」對於共同加害行為,實務上採取行為關連共同說,因而多數 過失行為,導致同一損害,均成立連帶責任。司法院 66 年 6 月 1 日(66)院臺參字第 0578 號令 例變字第一號謂:「民事上之共同侵權行為(狹義的共同侵權行為,即加害行為)與刑事上之共 同正犯,其構成要件並不完全相同,共同侵權行為人間不以有意思聯絡為必要,數人因過失不法 侵害他人之權利,苟各行為人之過失行為,均為其所生損害共同原因,即所謂行為關連共同,亦 足成立共同侵權行為。」依民法第 185 條第 1 項前段之規定,各過失行為人對於被害人應負全部 損害之連帶賠償責任。 28

王澤鑑,債務不履行法的變遷-違約責任與損害賠償(下),法令月刊,67 卷,10 期,2016 年,6

頁。 29

侯英泠,我國醫療事故損害賠償現況與展望,台灣法學雜誌,39 期,2002 年, 120 頁。

30

如案臺灣高等法院 99 年度醫上更(一)字第 3 號民事判決。

31

最高法院 95 年度台上字第 338 號判決;臺灣高等法院 97 年度重上國字第 1 號判決。

32

廖建瑜,醫療法第 82 條修正帶來的新變局?!,月旦裁判時報,74 期,2018 年,63 頁。

33

邱慧洳,醫療機構組織責任之探究,高大法學論叢,14 卷,1 期,2018 年,138 頁。 11


的「請求權基礎」,在民法具有極高的重要性。在體系上,損害賠償請求權主要 可大略分為「契約責任」與「侵權責任」兩者,為民事責任兩大核心,其二者間 之法律適用關係,涉及民事責任體系的基本價值判斷與利益衡量。依照傳統舉證 責任分配的理論,原告(患者)根據侵權行為損害賠償請求權請求賠償時,必須 負責證明醫師在醫療過程中的某行為具有過失,同時也要證明這個過失行為和損 害間具有因果關係。「契約責任」與「侵權責任」通常為請求權競合,沒有特別 規定排斥一般規定的問題。「契約責任」與「侵權責任」成立基礎不同 ,契約 責任係先有其他特定之債務,因該特定之債務未依債之本旨而履行,因而轉化為 損害賠償請求權,係在替代契約之履行請求權; 侵權責任並無特定之債務先存 在,而係因行為人違反法律上一般社會安全義務致生他人損害,而對被害人負賠 償責任,此係原始發生之損害賠償請求權。 訴訟可以主張的請求權基礎(訴訟標的)有兩種:「侵權行為損害賠償請求 權」 (民法 184 條以下)及「債務不履行損害賠償請求權」 (主要為民法 227 條)。 34 目前通說採請求權競合說 ,訴訟上可以同時主張之。契約責任通常必須以當事 人間具有契約關係為前提,在探討契約責任時,對於契約關係做正確的定性是最 重要的第一步。而在契約關係已正確的定性後,即可開始探求當事人間的契約責 任問題。 二、AI 手術機器之契約責任 (一)、AI 手術機器人製造商與醫療機構間買賣契約關係 1. 不完全給付之責任 AI 手術機器人製造商與醫療機構成立買賣契約且賣出標的物 AI 手術機器人 給於醫療機構。實務上附隨義務既為履行契約義務或保護當事人人身與財產上之 安全,基於誠信原則而發生,若契約上債務人違反附隨義務時,則足以影響契約 目的之達成,使債權人無法實現其訂定該契約之目的,債權人得以解除契約 35。

34

請求權競合說:此說認為一個具體事實,具備侵權行為與債務不履行之要件者, 應尌各個規

範判斷之,所產生之二個請求權,係獨立併存。而此說又分為兩說:(一)請求權自由競合說: 除上述兩個請求權係獨立併存外,無論在成立要件、舉證責任、賠償範圍、抵銷、時效等, 均 尌各個請求權判斷之。債權人得擇一行使, 若其中一個請求權已達目的而消滅,另一請求權亦 隨之消滅。反之,若一個請求權非因已達目的而無法行使時,另一請求權則不消滅。 (二)請求 權相互影響說:二個請求權雖獨立併存,但可互相作用,即契約法上之規定可適用於基於侵權行 為而生之請求權,反之亦然。 35

陳聰富,臺灣民法誠信原則之發展實務,月旦民商法雜誌,62 期,2018 年,17 頁。 12


於本案若 AI 手術機器人製造商無履行說明義務而導致醫事人員操作失誤而手術 失誤之致病人受有權益損害時,AI 手術機器人製造商須承擔民法第 227 條中不 完全給付之責任,醫療機構可以解除該買賣契約。 2、瑕疵擔保 無法達到原來契約預定效用而形成買賣瑕疵,此時若發生安全性等嚴重之影 響,則 AI 廠商可能須負瑕疵擔保責任36。而 AI 手術機器人之產品設計上有瑕疵, 為訓練資料非廠商所保證之真實患者之數據致使 AI 產品非其所宣稱之品質,導 致生錯誤之醫療建議,因此為買賣契約成立前此 AI 手術機器人產品即有瑕疵, 為產品之自始瑕疵,醫療機構僅得依民法第 360 條要求 AI 手術機器人製造商需 負瑕疵擔保責任,因此得向 AI 手術機器人製造商解除買賣契約或請求減少價 金,而請求不履行之損害賠償37。 (二)、雙方為契約關係:有醫療承攬契約關係 所謂「債務不履行」,指債務人因可歸責之事由,未依債之本旨而為給 付,致債務內容未能實現。其態樣分為三種:「給付不能」、「給付遲延」、「不完 全給付」。前兩者係未為給付之債務不履行型態,為消極債權侵害;後者則係其 給付而致債務不履行,為積極債權侵害38,即債務人雖有給付,但非依債之本旨 為給付,其給付不完全。其構成要件包括「契約已經成立且有效存在,當事人間 有契約義務之存在」「可歸責於債務人之事由,致為不完全給付」與「債務人有 責任能力」。「不完全給付」類型包括「瑕疵給付」與「加害給付」,其法律效 果依民法第 226 條可歸責於債務人之事由致給付不能者,債權人得請求損害賠 償,及依第 256 條得解除契約。 契約之當事人應對所約定之契約內容為履行,若一方未依債之本旨履行,即 有發生債務不履行之可能。而債務不履行規定乃一般私法契約之基本規定,故美 容醫學契約應有適用。而契約性質為近似承攬契約,其債務不履行之態樣如同與 一般私法契約之債務不履行態樣,不完全給付債務不履行之態樣非如當時所約定

36

瑕疵擔保責任規範根據我國民法第 354 條:「物之出賣人對於買受人,應擔保其物依第三百七

十三條之規定危險移轉於買受人時無滅失或減少其價值之瑕疵,亦無滅失或減少其通常效用或契 約預定效用之瑕疵。但減少之程度,無關重要者,不得視為瑕疵。出賣人並應擔保其物於危險移 轉時,具有其所保證之品質。」 37

)

王澤鑑,債務不履行法的變遷-違約責任與損害賠償(下),法令月刊,67 卷,10 期,2016 年,

10 頁。 38

邱聰智,新訂民法債編通則(下) ,自版,2003 年 3 月,新訂一版,45 頁。 13


之內容。此即履行利益,製造商之給付有瑕疵,此屬履行利益之瑕疵,即債務人 雖為給付,然因可歸責於債務人之事由,致未符債務本旨者39。若在給付上有瑕 疵,係為履行利益之損害,此給付稱「瑕疵給付」,如數量不符、品質不合、方 法不當、價值或效用減少、給付地點不當等。又製造商與醫療機構間,原約定為 「正確使用該產品之說明或教學,或實際操作、操作障礙之評估與排除、病人生 理定位、生理徵候監控等」之行為,顯屬於承攬之契約無誤,製造商依此於承攬 契約所負之義務,乃係「為原告正確使用該產品之說明或教學,或實際操作、操 作障礙之評估與排除、病人生理定位、生理徵候監控等」,自應遵循此契約之本 旨,如發生不完全給付之情形,自應負損害賠償責任無誤。 三、一般侵權責任 (一)、成立要件 民法第 184 條可分為第 1 項前段、第 1 項後段及第 2 項,皆為個別之請求權 基礎。首先,按民法第 184 條第 1 項前段有謂,因故意或過失,不法侵害他人之 權利者,負損害賠償責任,通說歸納出六個成立要件,(1)須有加害行為;(2)行 為須不法;(3)須侵害他人權利;(4)須致生損害;(5)須有責任能力;(6)須有故意 或過失,前四項為客觀要件,後兩項為主觀要件,又過失係採善良管理人注意義 務之標準40。判斷 AI 手術機器人醫療事故責任時,首先以民法第 184 條第 1 項 前段規範說明。 AI 手術機器人失控或故障而致病患遭受損害時。依民法 184 條第 1 項,我 41 國實務與通說認為應以行為人是否怠於善良管理人之注意義務為過失 ,而其注 意義務之認定,依現行醫療法第 82 條之規定,應以該醫療領域當時當地之醫療 常規、醫療水準、醫療設施、工作條件及緊急迫切等客觀情況為斷,且過失須逾 越合理臨床專業裁量,依照現行醫療法下醫師仍須對 AI 醫療之診斷為親自診察 與最後確認,因此若醫師無善盡最後的親自診斷與確認之責,缺乏相當之注意義 務,而且逾越合理臨床專業裁量而使病人致死,醫師應負損害賠償責任。 目前多數 AI 手術機器人之主控權仍為醫師所擁有,若因過失造成損害,原 則上仍由醫師負擔損害賠償責任,符合自己行為責任原則42,如屬第一級為直接

39

王澤鑑,民法學說與判例研究(三) ,三民,1986 年 9 月,五版,74 頁。

40

即抽象輕過失。王澤鑑,侵權行為法,2011 年 8 月,105 頁。

41

邱慧洳,論醫師醫療行為之注意義務—評最高法院 100 年度臺上字第 2256 號民事判決,法令

月刊,66 卷,2 期,2015 年,58 頁。 42

但若發生醫療事故之 AI 手術機器人,係第三級為監督式自動化(supervised autonomy) 或第四級 14


控制之達文西機器人手術系統,由醫師操作為與控制台的控制器,控制機械手臂 為位於手術台的病人動刀;至於第二級為分享控制分享控制手術機器人與第三級 為監督式自動化手術機器人,本文認為致生損害,涉及手術機器人控制權轉換問 題,第二級為分享控制分享控制手術機器人與第三級為監督式自動化手術機器人 在自動狀態下醫師仍應保持警覺以回覆手術系統接管要求,如醫師未回覆系統接 管要求致生損害應如何處理,即涉及控制權轉換的問題。在部分自動化手術狀態 下,人類雖已不承擔全部手術任務,但其仍應保持警覺以回覆系統接管要求,若 未回覆系統之接管要求而導致損害發生,則仍有可能構成民法侵權責任。 (二)、舉證責任 當 AI 手術機器人失控或故障而致病患遭受損害時,依一般侵權行為所造成 的損害賠償責任43中會以 AI 手術機器人使用者之故意或過失為其構成要件,然現 今 AI 應用之決策因運用深度學習演算法產生不可解釋性與不可預見性,不但使 受害者難以對一般侵權行為之要件進行舉證,甚至若由其他條文使舉證責任倒 置,AI 應用的使用者可能也無法解釋 AI 為何如此運行或決策,當然也難以證明 44 其故意或過失,若因此無法舉證,而為此背負損害賠償責任,有不公平之虞 。 (三)、因果關係 由民法第 184 條 1 項前段可知,侵權行為之成立,須他人之權利係「因」 加害人之行為而受損害,「因」代表著不法行為與損害間必須具備因果關係(責 任成立之因果關係),若無法具備則無責任可言。我國實務學說採取相當因果關 係之判斷公式,即「無此行為,雖必不生此損害,而有此行為,通常即足生此種 45 損害者,具因果關係」 。於使用 AI 手術機器人手術之場合,使用 AI 手術機器 人手術醫療行為,依照一般社會經驗判斷,若認有此 AI 手術機器人失控或故障

則為完全自動之 AI 手術機器人,則情況可能有所不同。此二階段之自動系統,大部分或幾乎完 全掌控 AI 手術機器人之手術行為,尤其第四級 之 AI 手術機器人,如此醫師已無操作駕 AI 手術 機器人之可能,無醫療行為,又何來「行為過失」之有。 43

侵權行為所造成的損害賠償責任規範根據我國民法第 184 條第 1 項:「因故意或過失,不法侵

害他人之權利者,負損害賠償責任。故意以背於善良風俗之方法,加損害於他人者亦同。」 44

黃銘傑,人工智慧發展對法律及法律人的影響,月旦法學教室,200 期,2019 年,52 頁。

45

最高法院 76 年台上字第 158 號判決節錄:「侵權行為之債,固須損害之發生與侵權行為間有

相當因果關係始能成立,惟所謂相當因果關係,係以行為人之行為所造成的客觀存在事實,為觀 察的基礎,並就此客觀存在事實,依吾人智識經驗判斷,通常均有發生同樣損害結果之可能者, 該行為人之行為與損害之間,即有因果關係。」此為相當因果關係於實務上之判斷方式,此判決 於文獻上多有援引,足資參考。王澤鑑,侵權行為法,2011 年 8 月,249-250 頁。 15


致足生病患遭受損害之結果,故該 AI 手術機器人失控或故障情形與損害間應具 因果關係。 四、AI 手術機器人製造商之責任 46

我國現行法關於商品致他人損害之狀況,由民法第 191 條之 1 之商品製造 人責任,及消保法第 7 條之商品責任。以下即討論人工智慧手術機器人事故之 侵權責任,與病患權益之保護。 如前述,當 AI 手術機器人失控或故障而致病患遭受損害時,今 AI 應用之決 策因運用深度學習演算法產生不可解釋性與不可預見性,病患難以對一般侵權行 為之要件進行舉證,若由其他條文使舉證責任倒置,AI 應用的使用者可能也無 法解釋 AI 為何如此運行或決策,當然也難以證明其故意或過失,若因此無法舉 證,而為此背負損害賠償責任,有不公平情形。因此,AI 科技舉證之困難可能 為 AI 科技侵權責任之問題核心。病患將會針對 AI 手術機器人之 AI 設計與製造, 轉而向 AI 手術機器人廠商主張民法第 191-1 條的商品製造人責任47,而因民法第 191-1 條於實務上仍要求病患需證明自己為通常使用產品而致生損害之因果關係 48 ,因此病患仍須先證明之方能主張 AI 手術機器人廠商商品製造人責任,而該條 文為商品製造人之推定過失責任,AI 廠商需證明其對於商品或服務是否符合當 時科技或專業水準可期待之安全性49,但由於 AI 醫療臨床決策系統現階段於市面 上仍有產品獨佔性,且大數據資料會有寡占之現象50,同時也因為 AI 科技之新穎 與 AI 難以解釋之特性,若使 AI 廠商能因此輕易證明其已盡相當之注意義務,且 AI 產品符合合理期待之安全性時,有可能使所有的責任將落於病患身上,將使 病患因舉證困難致在難以使廠商負商品製造人責任。 民法第 191 條之 1 採取過失、因果關係與違法性舉證責任轉換之立法模 式,減輕被害人舉證之困難度,若商品製造人欲免責,按本條第 1 項但書規定, 必須證明其已盡相當之注意義務而無故意過失,且商品欠缺與損害間不具因果關

46

按民法第 191 條之 1 第 1 項規定,商品製造人因其商品之通常使用或消費所致他人之損害,

負賠償責任。 47

商品製造人責任規範根據我國民法第 191-1 條第 1 項:「商品製造人因其商品之通常使用或消費

所致他人之損害,負賠償責任。但其對於商品之生產、製造或加工、設計並無欠缺或其損害非因 該項欠缺所致或於防止損害之發生,已盡相當之注意者,不在此限。」 48

最高法院 93 年度台上字 989 號判決;最高法院 97 年度台上字 975 號判決。

49

劉姿汝,商品製造人責任之因果關係認定,月旦法學教室,189 期,2018 年,13-14 頁。

50

陳鋕雄,人工智慧醫療決策系統之法律議題,收錄於人工智慧與相關法律議題,元照,2019

年,76 頁。 16


係,並提出阻卻違法事由51。是以,本來於一般侵權責任中難以舉證之部分,於 民法第 191 條之 1 獲得解決,惟被害人仍須舉證,於「商品之通常使用」之情 況下仍會發生損害。如此病患之舉證仍相當困難,原因是 AI 手術機器人之使用 相較於傳統內視鏡手術技術更複雜許多,需要產品製造者給予醫師適當訓練,與 器材的操作熟悉。除非病患舉證醫師使用人工智慧手術機器人之舉措,有做出其 他實際控制人工智慧手術機器人之行為,或超越人工智慧手術機器人製造、原本 設計之目的範圍,否則即應符合商品之通常使用。 於本案 AI 手術機器人之侵權責任於現行我國民事法體系下有難以課予其責 任之情狀,反之醫師於使用 AI 醫療而造成侵權之責任與一般醫療過失無異,且 可能因此承受使用 AI 醫療系統之大部分風險,廠商與醫師兩者相較之下之侵權 責任有失衡之虞。 五、消保法第 7 條適用與舉證責任問題 (一) 、消保法第 7 條適用問題 有鑒於現代消費社會大量生產、消費的生活型態,傳統過失歸責原理不足以 因應日新月異的商品所造成之法律糾紛。為提高消費品質、維護消費安全,我國 於民國 83 年公布施行消費者保護法(下稱消保法),引進比較法上之無過失責 任、嚴格責任,並以商品或服務之「安全性欠缺」取代「過失」,作為歸責事由 52 。 關於商品或服務責任,大多數國家對於服務企業經營者仍以有故意過失,作 為應負賠償責任之要件。惟服務內容、種類多端,消保法施行細則第 4 條亦僅針 對「商品」加以定義,關於「服務」之定義,則未見明文。從而究竟何種服務應 適用或排除於消保法,即生疑義。其中最具爭議性之一者,乃「醫療行為」是否 適用消保法上服務無過失責任之問題。早期實務見解,對於醫療行為究竟應適用 民法之過失責任原則,抑或適用消保法第 7 條之服務無過失責任,見解不一。然 而在醫界大力呼籲下,醫療法第 82 條 107 年修正後,最高法院見解逐漸一致認 為,消保法之服務無過失責任,不適用於醫療行為所造成之損害]53。

51

惟商品製造人對於商品之生產、製造或加工、設計並無欠缺或其損害非因該項欠缺所致或於防

止損害之發生,已盡相當之注意者,則不負損害賠償責任。黃立,消費者保護法:第一講—我國 消費者保護法之商品與服務責任(一),月旦法學教室,8 期,2003 年 6 月,72 頁。 52

醫療行為於消費者保護法之適用,https://www.eyebook.com.tw/Article/Detail/47106?lang=zh-TW。

(瀏覽日期:2020 年 11 月 14 日) 。) 53

詹森林,消費者保護法服務責任之實務問題:最高法院 96 年度台上字第 656 號判決、99 年 17


至於學說見解,包括「不適用說」,認為醫療行為不適用消保法上服務無過 失責任之見解,因醫療行為治療過程與結果,充滿不確定性與危險性,非醫師所 能控制,醫療傷害損失無從經由保險分散,則必須由病患承擔損失,從而增加患 者的醫療費用。並且促使醫師採取防禦性醫療措施,大量浪費醫療資源,增加社 54 會成本,並無法達成保護消費者之立法目的 。 另一「區分說」學者認為應區分「治療行為」與「非醫療之醫事服務行為」, 前者乃指醫療行為本身,如:醫師診斷、治療、手術、護理師量血壓、打針、復 健人員協助復建等,於此並無消保法第 7 條之適用;後者則如:醫療機構失火或 地板溼滑導致病患死亡或受傷,此等醫療行為以外之其他醫事行為,仍應適用消 55

保法之規定 。另有學者認為,應區分「單純治療失敗」及「醫療意外事故」; 單純醫療失敗,並非消保法服務責任保護之範疇,應適用民法契約責任、侵權責 任之原則規定。蓋因單純治療失敗,係指醫療服務本身未能達到一定效果,不具 有該醫療服務通常或病患預期所能發揮之治療效用或治療品質,或醫療服務對病 患身體造成通常不可避免或一般所能預期或容忍之副作用,對病患因而肇致之損 害而言,此種損害屬「醫療行為內涵之風險」範疇;至於「醫療意外事故」,則 得適用消保法關於服務責任之規定,以「危險責任原理」作為決定損害分配或風 險承擔之標準。蓋因此係指伴隨或附加於提供醫療服務過程中,對病患人身或財 產所肇致其他突發的、不可預期的或不合理損害而言,此種損害乃接受治療過程 中所發生之意外損害,屬「醫療行為外加之風險」範疇,與疾病本身是否治癒, 或是否發生不可避免或可容許之副作用等病程可能之結果無關,而是涉及附隨於 56 提供醫療服務過程中所偶發之緊急、難以預測或不可預知之風險 。

本文採「區分說」,本件為「醫療意外事故」,起因於醫師操作「達文西外 科手術機器人」進行於手術之醫療服務過程中,發生機機器人的緊急故障事件, 而致病人突發的不可預期的或不合理損害,屬「醫療行為外加之風險」範疇,而 非常規性醫師「醫療行為」可以預測或大多可預知之醫療所造成之風險,故仍有 消保法第 7 條適用。

度台上字第 933 號裁定及其原審判決之評析,法令月刊,63 卷,1 期,2012 年 1 月, 3-4 頁。 54

55

陳聰富,侵權歸責原則與損害賠償,2008 年 6 月, 246-248 頁。 詹森林,消費者保護法服務責任之實務問題:最高法院 96 年度台上字第 656 號判決、99 年

度台上字第 933 號裁定及其原審判決之評析,法令月刊,63 卷,1 期,2012 年 1 月,頁 4-5。 56

陳忠五,醫療事故與消費者保護法服務責任之適用要件(上):台灣台北地方法院八十五年度

訴字第五一二五號與台灣高等法院八十七年度上字第一五一號(馬偕紀念醫院肩難產案)判決再 評釋,台灣本土法學雜誌,17 期,2000 年 12 月, 101-110 頁。 18


(二) 、消保法第 7 條舉證責任問題 消保法第 7 條第 1 項、第 3 項以及第 7-1 條規定「從事設計、生產、製造商 品或提供服務之企業經營者,於提供商品流通進入市場,或提供服務時,應確保 該商品或服務,符合當時科技或專業水準可合理期待之安全性。」 、 「企業經營者 違反前二項規定,致生損害於消費者或第三人時,應負連帶賠償責任。但企業經 營者能證明其無過失者,法院得減輕其賠償責任。」 、 「企業經營者主張其商品於 流通進入市場,或其服務於提供時,符合當時科技或專業水準可合理期待之安全 性者,就其主張之事實負舉證責任。而關於消保法第七條的舉證責任,學理上指 出「應依一般原則及消保法規定定之即:1.應由病患負舉證責任①商品屬消保法 施行細則第四條所定範圍;②設計、製造、生産商品的企業經營者;③商品流通 進入市場;④其係該條所稱消費者或第三人;⑤生命、身體、健康及財產(財產 權)受侵害;⑥權益侵害與商品欠缺安全性有因果關係;2.企業經營者(加害人) 應負舉證責任的:商品具有符合當時科技水準可合理期待的安全性(消保法第 7 條之 1 第 1 項)57。」 我國「商品缺陷」之舉證責任均由病患負舉證責任,證明其商品並無缺陷, 惟就「因果關係」之舉證責任,消保法就此並無舉證責任倒置之規定,故仍由病 患負舉證責任,如此病患之舉證仍是困難。 伍、結論與建議 一、病患主張民法第 191-1 條的商品製造人責任,而因民法第 191-1 條於實 務上仍要求病患需證明自己為通常使用產品而致生損害之因果關係,因此病患仍 須先證明之方能主張 AI 手術機器人廠商商品製造人責任,而該條文為商品製造 人之推定過失責任,AI 廠商需證明其對於商品或服務是否符合當時科技或專業 水準可期待之安全性,但由於 AI 醫療臨床決策系統現階段於市面上仍有產品獨 佔性,且大數據資料會有寡占之現象,同時也因為 AI 科技之新穎與 AI 難以解釋 之特性,若使 AI 廠商能因此輕易證明其已盡相當之注意義務,且 AI 產品符合合 理期待之安全性時,有可能使所有的責任將落於病患身上,將使病患因舉證困難 證明其故意或過失,若因此無法舉證,而無法獲得損害賠償,有不公平情形。 二、本件為「醫療意外事故」,起因於醫師操作「達文西外科手術機器人」 進行於手術之醫療服務過程中,發生機機器人的緊急故障事件,而致病人突發的 不可預期的或不合理損害,屬「醫療行為外加之風險」範疇,而非常規性醫師「醫 療行為」可以預測或大多可預知之醫療所造成之風險,故仍有消保法第 7 條適

57

王澤鑑,侵權行為法,三民,2013 年 2 月,709 頁。 19


用。但我國「商品缺陷」之舉證責任均由病患負舉證責任,證明其商品並無缺陷, 惟就「因果關係」之舉證責任,消保法就此並無舉證責任倒置之規定,故仍由病 患負舉證責任,如此病患之舉證仍是困難。 二、建議未來可能以立法強制 AI 手術機器人加裝手術紀錄儀器,紀錄使用 人工智慧手術機器人之舉措時所為之操控行為,事故當時係由何人實際掌控人工 智慧手術機器人及操駕過程皆得清楚記載。若被害人欲爭執人工智慧手術機器人 系統存有缺陷,而欲證明人工智慧手術機器人於通常、合理使用下仍發生損害, 僅須調出人工智慧手術機器人紀錄儀器之紀錄內容即可能得出答案,AI 手術機 器人製造人能爭執之空間將被限縮。 三、AI 手術機器人於某些領域的精確判斷的確已經打破醫療法上醫事人員 極力爭取的臨床專業裁量之空間,且使醫療水準有向上提高之勢,使醫師的必要 注意義務之標準提升,也可能使醫療過失之認定標準與責任,於現行醫療法上產 生衝擊,而在醫療糾紛上可能因而增添了更多的法律責任。 四、政府應負起保護責任,對於 AI 手術機器人所構成的侵權態樣對於現行 法體系造成衝擊與挑戰,然而必須面對與解決之,尤其於醫療領域更需謹慎觀 之,AI 醫療系統造成之風險將由弱勢之病人承擔,而產生的法律責任需適當分 配以維護 AI 手術機器人發展下各相關層面者之權利。

20


人工智慧醫療 刑事責任風險之探討 國立高雄大學 張麗卿教授


人工智慧醫療刑事責任風險之探討 張麗卿 目次 壹、 前言...................................................................................................................... 1 貳、 運用智慧醫療的場域與特色.............................................................................. 3 參、 運用智慧醫療宜遵守的倫理準則...................................................................... 6 一、 以人為本,尊重自主權利.......................................................................... 6 二、 公平多元,避免歧視偏見.......................................................................... 7 三、 安全穩健,強化風險管控.......................................................................... 8 四、 可解釋性,加強責任劃分.......................................................................... 8 五、 維護隱私,保障個人資料.......................................................................... 9 肆、 醫師運用智慧醫療衍生刑法風險的原因........................................................ 10 一、 未告知使用智慧醫療系統........................................................................ 10 二、 未妥善使用智慧醫療系統........................................................................ 11 (一) 醫師過度信賴智慧醫療系統的判讀............................................ 11 (二) 醫師忽略智慧醫療系統的判讀.................................................... 12 三、 未謹慎使用病人的資料............................................................................ 12 伍、 智慧醫療所生刑法風險的應對........................................................................ 13 一、 運用智慧醫療應得病人同意.................................................................... 13 二、 遵守運用智慧醫療系統的注意義務........................................................ 14 (一) 客觀的注意義務............................................................................ 15 (二) 主觀的注意義務............................................................................ 16 三、 衡平使用資訊與隱私保障........................................................................ 18 陸、 未來的挑戰:容許風險與自主智慧醫療系統................................................ 20 柒、 結語.................................................................................................................... 22

壹、前言 人工智慧的研究與運用,正如火如荼勢不可擋的影響各個生活領域;在醫療 上應用人工智慧,就產生「智慧醫療」。所謂智慧醫療是指,在各個醫療領域上 使用人工智慧系統,意即利用先進的通訊軟體及電腦技術,進行醫療資訊的智慧

國立高雄大學特聘教授、人工智慧國際法律研究基金會執行長。 1


化蒐集、轉換、處存、輸出及處理,也包含將醫療流程數位化運作1,進而提供 或強化健康服務與健康資訊之醫療模式;亦即,智慧醫療是將科技導入醫療領域, 輔助現行醫療行為人力不足、資料量過大整理不易、資源有限等問題。詳言之, 智慧醫療,是跨領域交互合作的產物,可包含醫學資訊、公共衛生與商業三者的 交集。世界衛生組織(WHO)將智慧醫療稱為「e Health」,並對其定義為資通 訊科技(ICT)在醫療及健康領域的應用,內容可以包含醫療照護、疾病管理、 公共衛生監測、教育和研究等領域2。 目前,智慧醫療主要應用於:輔助診療、醫學影像、電子病歷、健康管理、 虛擬助理、醫院管理疾病風險預測、藥劑互相作用效果的檢索、輔助醫學研究等 領域。國內各大醫院用運用的具體案例,例如,「病情惡化預警系統」、「顱內出 血識別系統」 、 「青光眼與視網膜病變識別系統」 、 「腸道內視鏡影像系統」 、 「智慧 術後傷口追蹤系統」 、 「髖骨骨盆腔骨折影像判讀」 、 「判讀腦出血」 、 「手術併發症」 、 「癌症評估」、「瀕臨死亡的預警」等等,不勝枚舉。 雖然,截至目前,智慧醫療在醫療上的地位,只是協助者,協助醫師判讀, 節省醫師的時間。醫師仍為主要角色,具有醫療上的最後決定權。理論上,醫師 依照自己的專業歷練,不能完全依賴智慧醫療。但是,在智慧醫療如火如荼應用 的情境下,醫療生態已經產生重大變化,並可能衍生許多法律爭議,醫師的確會 產生各種法律的風險3。在各種法律風險之中,刑事責任的承擔是最受矚目的。 因為,智慧醫療系統的新發展,對於專注於個別化責任的解釋有其侷限性:由於 醫師只是該系統參與者之一,如果其僅是透過系統內的交互作用而產生傷害的結 果時,是否要承擔責任?系統參與者(如程序設計者及製造商)又該扮演怎樣的 角色?例如,智慧醫療判讀錯誤而發生醫療上的疏失,導致病人受到傷害,有無 刑法上的風險?再例如,智慧醫療建立在龐大的病人資料上,醫師如果不小心使 用病人的資料時,也可能涉及刑法或個人資料保護法的刑事制裁等等。 面對這些風險,本文認為,必須清楚智慧醫療的運用領域及其特色之後,才 能掌握使用智慧醫療時應該遵守的「智慧醫療倫理準則」;並從倫理準則中導出 法律規範的各種情形,用以討論因為違反倫理準則可能存在的法律風險,以及應 對之道。人工智慧的發展,應該是人類文明不可逆的發展。智慧醫療也是醫療發 本文主要聚焦在刑法風險與對應的解決。 展的必然。本 1 2

3

杜加懂,智能醫療應用場景及需求分析,電信網技術,2013 年,頁 27-31。 郭年真、賴飛羆、李鎮宜等,智慧醫療與關鍵議題與對策之研究結案報告 https://ws.ndc.gov.tw/Download.ashx?icon=..pdf&n=5pm65oWn6Yar55mCX%2Be1kOahiOWgse WRil8yMDE3MDQxMV9SMi5wZGY%3D&u=LzAwMS9hZG1pbmlzdHJhdG9yLzEwL3JlbGZpb GUvNTY0NC8yNzE1OC8xZDIwZjcwYS00YzhlLTQwZWQtYWY4ZC0xZmM1NWIxMDI0OW UucGRm,頁 16。(最後瀏覽:2020/10/31)

這些風險及挑戰,從憲法、醫師法、醫療法、醫療器材管理法、民法、保險法、智慧 財產權法、個人資料保護法以及刑法等,無所不包。另外, W. Nicholson Price II, Artificial intelligence in health care: applications and legal implications. The SciTech Lawyer; 14(1), 11-13 (2017),則特別指出涉及侵權行為、智慧財產權,以及隱私資料保護。 2


貳、運用智慧醫療的場域與特色 人工智慧的研究與運用,不只是許多國家的發展重心,也是未來的產業趨勢, 更成為國力的指標之一。我國關於智慧醫療在醫療領域的運用,已經取得許多成 就,也引起國際重視4。以下簡略說明醫師運用智慧醫療的場域及其特色。 智慧醫療的領域中,影 影像醫學的應用,最為廣泛5。在數百萬個病例資料庫 中,閱讀癌症或其他病灶的醫學診斷圖像,透過深度學習提升診斷和治療的正確 率,補助醫師進行診療6。諸如:(1)台北榮總將智慧醫療運用在青光眼、視網 膜病變等影像判讀上,協助醫師提高診斷精確率,從過去小於 40%提升到 90%, 且由台北榮總參與北美放射線學會(RSNA)的顱內出血識別競賽,其開發的演 算法在全球 1340 個團對中位居前 2.3%7;此外,臺北榮民總醫院和台灣人工智 慧實驗室共同訓練的「臨床人工智慧腦瘤自動判讀系統」 (DeepMets)即透過 AI 自動判讀比對磁振造影(MRI)影像資料,以顏色圓點標註病患腦部的腫瘤位置, 並清楚記錄其大小及數目,輔助醫師迅速診斷腦瘤並確認腦瘤範圍8;(2)國泰 醫院與雲象科技研發「腸道內視鏡影像智慧醫療系統」,系統可同步以每秒次的 頻率偵測腸道並標示出瘜肉,即時輔助判讀9;(3)台大醫院研發的「智慧術後 傷口追蹤系統」手機 App,以及能分辨老人斑還是細胞癌的「皮膚科疾病分類」, 提供病人術後回家自拍傷口照片,智慧醫療能根據顏色區塊自動偵測有紅腫、壞 死、出血、化膿四種需回診的情況,並立即提醒民眾就醫10; (4)林口長庚醫院 藉由智慧醫療做影像判讀,協助醫師在一分鐘之內抓出髖骨、骨盆腔骨折11。 (5) 高雄榮總也從急診室出發,運用智慧醫療判讀腦出血,並由神經外科醫師判斷是 否開刀 12 ,(6)彰化基督教醫院更引進高階 AI 乳房掃描儀 MAMMOMAT Revelation,搭配 AI 人工智慧型演算法全自動輔助判讀機制,精準定位病灶及腫

4

例如,彰化基督教醫院於 2015 年即在員林成立全臺第一家智慧醫院。更於近日(2020 年 8 月) 攜手羅氏診斷成立「亞太示範基地」,推動智慧醫院與臨床決策邁向國際,引起很大的關注。 https://www.cch.org.tw/news_detail.aspx?cID=2&Id=376(最後瀏覽日:2020/11/24)。 5 賴飛羆,人工智慧對醫療的影響-緒言,台灣醫學,24 卷 1 期 ,2020 年 1 月,41 頁以下。 6 呂宜瑾,淺析台灣人工智慧醫療之發展,科技政策觀點第 9 期, https://portal.stpi.narl.org.tw/index/article/10499(最後瀏覽日:2020/11/04)。 7 聯 合 新 聞 網 , 北 榮 HTC 開 發 演 算 法 識 別 顱 內 出 血 高 準 確 率 亮 眼 國 際 , https://udn.com/news/story/7266/4193099(最後瀏覽日:2020/11/4) 。 8 薛瀹熢,台灣人工智慧實驗室與台北榮總打造全球首套 AI 腫瘤臨床判讀系統, https://www.gbimonthly.com/2018/11/36132/(最後瀏覽日:2020/11/4)。 9 工商時報,AI 來幫忙內視鏡偵測 9 成 5 腸子息肉都能找到, https://m.ctee.com.tw/livenews/ch/20191205002787-260405(最後瀏覽日:2020/11/04) 。 10 臺大醫院,臺大 AI-SWAS-智慧術後傷口追蹤系統成果發表, https://epaper.ntuh.gov.tw/health/201904/special_3_1.html(最後瀏覽日:2020/11/04) 11 天下雜誌第 683 期,一分鐘揪出骨折、腦出血!AI 助手出動,幫急診室搶時間, https://futurecity.cw.com.tw/article/1242(最後瀏覽日:2020/11/4)。 12 同前註。 3


瘤,提高病灶的檢出率與準確13;等等,不勝枚舉。 除了影像醫學應用外,智慧醫療系統也可以在其他的臨床,進行評估,如 如: 藥劑互相作用效果的檢索;檢查必要性的評價;入院期間的評估;手術併發症的 評估;死亡率的評估等。例如,台中榮總結合東海大學、台灣人工智慧學校運用 病患資料庫和該院的資訊系統,研發運用人工智慧的「 「病情惡化預警系統」,可 以根據風險分數,掌握病房裡每一患者未來 6 至 12 小時的病況惡化風險度,提 供適時且適度的醫療照顧。尤其,更可以精準判斷危急病人在 72 小時內的死亡 可能性,準確率高達 98%14。美國 IBM Watson 的輔助腫瘤診斷系統已在全球數 百家醫院使用,包括:乳腺癌、肺癌、結腸癌、前列腺癌、膀胱癌、卵巢癌、子 宮癌等;台北市立萬芳醫院,於 2017 年即率先導入的 IBM Watson for Oncology 系統,對癌症與基因的分析,就是這種智慧醫療的應用15。最近成功案例是,清 大團隊找到胃癌新標靶療法,主要也是應用大數據找到兩個造成胃癌惡化及轉移 的關鍵生物標記,將可以使用新標靶藥物療法的胃癌患者,提升至 4 成16。 更具有科技感的智慧醫療,是醫 醫療機器人。如智能義肢、外骨骼,達文西微 創手術系統。知名的達文西微創手術系統,就是隨著 AI 技術的進展,使該機械 手臂體積較輕巧,更易於醫護人員在手術環境中架設。目前達文西微創手術,已 經廣泛用於泌尿外科、婦科一般外科、大腸直腸外科、心臟外科、胸腔外科及耳 鼻喉頭頸外科等相關手術。 另外,注重商業性的醫療健康市場,則是智 智能健康管理:民眾日常的健康管 理,目前主要集中在風險識別、虛擬護士、精神健康、在線問診、基於精準醫學 的健康管理、健康 APP、測量與輔助系統,等等。如有名的 Zenbo 醫療照護機 器人。該機器人的設計是著重於陪伴功能,它能透過「智慧系統能夠分析使用如 告知活動資訊、天氣預報,甚至推薦餐飲、音樂」。如果被照顧者患有糖尿病,

13

七億高階醫療影像系統 嘉惠中彰雲投民眾,https://www.youtube.com/watch?v=dBUJ0eAvLtM (最後瀏覽日:2020/11/10) 。 14 台中榮總,人工智慧及 IT 科技實現病人安全承諾落實「精準照護」--病情惡化預警系統,中 榮醫訊第 253 期,頁 10。 15 萬芳引進全球首創 AI 癌症治療系統:它是醫生最好的後盾本,https://cancer.heho.com.tw https://cancer.heho.com.tw/archives/29666(最後瀏覽日:2020/11/28)。值得注意的是;IBM 的 超級電腦-華生(Waston)腫瘤系統,從 2011 年發展至今已在全球超過 230 家醫院使用。但 近年華生醫生的發展聲勢卻持續下跌。主要原因是,華生雖透過大量文獻資料、診斷紀錄等 訓練,但效果仍與醫師診斷有著很大的差距,例如:對於醫療方法的選擇,無法提出具體合 理的解釋,更可能因為無法通盤考量病人條件,做出不適切之診斷,顯見其電腦學習資料量 不足;另外,因應疾病與醫療的變化,須輸入新資料供系統學習,而新舊資料整合不易且所 費不貲,這些臨床應用上瓶頸,使得華生輪為第二、第三線的醫療諮詢系統,甚或為節省成 本而捨棄不用,這些都是 AI 醫療發展與應用上的侷限。參照,呂宜瑾,淺析台灣人工智慧醫 療之發展,科技政策觀點,9 期,2019 年 12 月,頁 41-45。 16 清華發現生物標記 精準標靶治胃癌,https://www.nthu.edu.tw/hotNews/content/996(最後瀏覽 日:2020/11/10) 。 4


更能夠記錄每天量測的血糖與血壓數據,並主動提供所需的衛教知識17。 大數據電子病歷。主要在於透過病人健康數據, 除此之外,智慧醫療還運用在大 集中儲存病人的資料。如:台北醫學大學附設醫院,將智慧醫療導入所有的醫療 流程,從掛號、報到、繳費、加護病房等,提升整體服務及醫療照顧品質18。以 前常見的「給藥錯誤」,也因為智慧醫療的運用而改善很多,而且縮短送藥至病 房的時間。 透過人工智慧的應用,智 智慧醫療與藥品開發與應用方面,也能協助縮短新藥 研發周期、相對就能降低新藥研發成本,並且進一步提高新藥研發成功率等目的。 面對龐大的醫療資訊、情報或資料等,人工智慧能夠有效率的進行學習,能對藥 品的療效、安全性、以及能否滿足藥物的其他必要條件等,提供高精確性的預測 與建議。例如,日本與英國藉由人工智慧合作開發的「DSP-1181」的新試驗藥 品,為罹患強迫症病人所開發的治療藥物。據悉,這項新藥研發,開發者透過了 智慧醫療模式演算,大幅縮短了平均原需耗費 4 年半的「探索研究」期間19。此 外,德國為了優化了農村地區的醫療保健,在 2018 年開啟的藥房 2.0(Apotheke2.0) 計畫,藉分析個人使用消費及個人健康的個別化資訊結論,更容易與外部建立藥 房網絡,以減輕藥劑師的負擔,都是例證20。 從上述運用智慧醫療導入醫療領域事例,舉凡手術併發症、癌症評估、瀕臨 死亡的預警輔助診療、醫學影像、電子病歷、健康管理、虛擬助理、醫院管理、. 疾病風險預測、輔助醫學研究等等形式觀之,智慧醫療的運用,總結可以歸納二 個特色:一 一是「輔助醫師的診斷」。這是指智慧醫療除了在追求準確度外,也讓 醫師的醫療流程更有效率,藉此減少資源的浪費,並提升醫療的成功率;二是「利 用大量數據資料」,特別是醫學或病人的資料。 首先談「輔 輔助醫師的診斷」。由於人工智慧的優秀學習能力,可以促進智慧 醫療,成為醫師的最佳左右手。人工智慧能夠學習醫師的醫療知識,模擬醫師的 思維和診斷推理,做出可靠的診斷和治療方案,進一步可以運用在各個領域,諸 如:醫學影像、生物特徵、電子病歷、健康管理、醫院管理、疾病風險預測、輔 助醫學研究等。智慧醫療因此可以成為醫師的好幫手。 其次,利 利用大量數據資料,特別是醫學或病人的資料。智慧醫療屬於人工智 17

18

19 20

今周刊,AI 應用服務助攻居家照護機器人也能貼心又專業, https://www.businesstoday.com.tw/article/category/154685/post/201909020032/AI(最後瀏覽日: 2020/11/4) 。 台 北醫 學大 學附設 醫院, 智慧 醫療 , https://www.tmuh.org.tw/single/4950 ( 最後 瀏覽 日: 2020/11/10)。 人工智慧法律國際研究基金會編輯部,專家觀點 AI 大幅縮短新藥研發時間 --用於新冠病毒 疫苗研發?https://www.intlailaw.org/home/blog_view/23(最後瀏覽日:2020/11/4) 。 Vgl, Apotheke 2.0, https://www.gesundheitsregion-euregio.eu/projektteam-apotheke-2-0-zurvorstellung-im-bundestag/(最後瀏覽日期:2020/11/28). 5


慧的表現,無法脫離巨量資料的輸入及演算。且為了追求資料價值開發的最大化, 大數據分析及機器學習的發展,有賴於巨量資料的整合與利用,必須仰賴大量的 醫學或病人的資料。例如,有關生物特徵的應用,藉由智慧醫療閱讀醫學文獻並 比對現有的巨量資料,為基因建立標準、模組化的分析流程,找出病根與基因之 間的關係。醫師診斷病人之前不用閱讀大量文獻,透過智慧醫療可協助醫師比對、 判斷潛在疾病或預測患病機率,提高診斷精確度,減少時間浪費。

參、運用智慧醫療宜遵守的倫理準則 智慧醫療的發展與運用雖可帶來更便利、更高效的醫療環境;但同時也帶來 各種可測與不可測的風險。目前各主要發展人工智慧的工業國家與跨國科技企業, 都意識到若要積極發展人工智慧技術,就有必要解決同時可能產生的倫理風險與 道德難題。針對這些倫理與風險,國際間陸續擬定了符合人工智慧發展與應用的 倫理準則21。 原則上,智慧醫療的倫理準則,應呼應一般人工智慧的基本倫理準則,並進 一步考量醫療的實際與需求。基此,運用智慧醫療宜遵守的倫理準則,不可忽略 下述倫理準則。

一、以人為本,尊重自主權利 醫病關係,從早期的醫療父權走向現今強調病人自主權利的時代。強調病人 自主權,就是以人為本的價值。每個人有權決定自我,實現自己的意思,因此人 工智慧的研發與運用應當確保人類的自主權利22。病人自主的內涵是以人格尊嚴 為核心,尊重基本人權與人性尊嚴,醫療行為應當作為保障病人尊嚴之一環,關 照病人的主觀與現實需求。為了達到這項目的,醫師實施醫療行為前的說明義務, 尤其重要。這項說明涉及病人是否接受醫療行為對於其外觀的改變,或是對於身 體本身造成的各項影響。因此,除了充分說明外,更需要確保病人能夠理解醫師 說明的內容,並依其理解做出(同意與否的)決定。 本於尊重與保障病人自主決定權的精神,智 智慧醫療系統的使用,亦需由醫師 向病人說明,再由病人決定,因此必須建立在病人自主的基礎上。例如,德國於 2015 年 12 月通過的「健 健 康 制 度 安全 數位通 訊 與應 用 法 (簡稱數 數 位 健康 法 )」 ( Gesetz für sichere digitale Kommunikation und Anwendungen im Gesundheitswesen, e-Health-Gesetz) ,就是以患者的權益和隱私為中心而制定。這 個法特別強 強調病人的自我決定權。病人可以要求主治醫師告知有關的重要健康資 料,並以數位資料形式儲存使用。病人不僅可自行決定何種醫療資料應以卡片儲 21

22

詳張麗卿,AI 倫理準則及其對臺灣法制的影響,月旦法學雜誌第 301 期,2020 年 6 月,頁 102-107。 張麗卿,AI 倫理準則及其對臺灣法制的影響,月旦法學雜誌第 301 期,2020 年 6 月,頁 102。 6


存,並可決定誰有權查閱。病人亦得提取卡片中儲存之資料,如血糖測量值、從 可穿戴裝置或隨身手圈所量測的資料等。由於智慧手機和其他行動裝置使用健康 APP 已相當普遍,該法更要求,衛生部門不同的 IT 系統所採用的標準簡明化, 並應確認,被保險人(病人)可以使用相關設備來行使他們的醫療資料存取權限, 以及資料是否能夠相互連結進行傳輸23。 此外,除了是否使用智慧醫療系統的自主外,以「告知後同意」為基礎的隱 私保護框架也相當重要。大數據分析有賴於巨量資料的整合與利用,或許我們能 認為,病人願意對醫學研究有所貢獻,但是未有告知說明,即逕自使用常規醫療 產生的資料、資訊,仍會產生自主決定權的疑慮24。尤其, 「資訊自主權的保障」 也必須讓個資的當事人身份不再可辨識,使其與可供辨識研究對象之個人資料、 資訊,不能以任何方式連結、比對;亦即,必須將個人資料之去識別化,以緩解 隱私權侵害的疑慮25。

二、公平多元,避免歧視偏見 智慧醫療應公平多元,而非特定階層的人士才能使用的產品。特別是,當智 慧醫療具有明確的成效,其相關費用,應有健保等機制的配合,讓民眾都能清楚。 在此之中,避免研發人員演算法歧視的技術,增強醫療數據的覆蓋面,減少偏見、 歧視出現的概率,乃不可忽略的倫理規範。因為人工智慧在學習或操作中,可能 無意間獲取偏見資料,及不完整或者殘缺的資料彙整,導致輸出具有歧視與偏見 的決策(男女性別、族群、殘疾、年齡等),故應當讓開發流程透明,並建立監 督機制,監督系統之演算方式、目的與決策。 公平多元,除了要摒除對特定族裔的歧視或偏見之外,也必須強化摒除智慧 醫療對於資訊學習的偏見情形。由於所有智慧醫療系統的模型,都出自於人的建 構,如果輸入資料隱藏偏見,或是專家沒有察覺的盲點,演算法就會創造出有偏 差重現的系統。此外,如果智慧醫療在資料不足的情況,於進行數位化後的資料 蒐集或提供,必定無法發揮功能;因此,如屬罕見疾病的病人或社會少數族群, 可能形成在臨床試驗或研究當中,將會受到忽略。例如,族裔基因不同,會影響 藥物的作用,如果智慧醫療系統只有學習到特定大量族群的藥物資訊,結果可能 對少數族群病人的判讀結論,有很大的副作用。因而智慧醫療系統應該避免任何 具歧視性效果的數據剖析。 23

24

25

參 照 , 德 國 2015 年 12 月 3 日 通 過 數 位 健 康 法 (e-Health Gesetz) https://www.bundesgesundheitsministerium.de/service/begriffe-von-a-z/e/e-health-gesetz.html ; https://stli.iii.org.tw/article-detail.aspx?no=64&tp=1&i=40&d=7105(最後瀏覽日:2020/11/08) 有關於此,大法官第 603 號強調:個人自主控制個人資料之資訊隱私權而言,乃保障人民決 定是否揭露其個人資料、及在何種範圍內、於何時、以何種方式、向何人揭露之決定權,並 保障人民對其個人資料之使用有知悉與控制權及資料記載錯誤之更正權。 我國司法實務 106 年最高行政法院判字第 54 號也強調,關於健保資料庫提供特定目的外利用, 是否違反個人資料保護法的爭議案件,亦提出「個人資料涉及個人資訊隱私權」的重要,並 提出協調化解此等『公、私益衝突』現象最有效率之手段,即是個人資料之『去識別化』」 。 7


更甚者,個人健康資訊的揭露,也可能會造成另類情況的歧視,例如:對於 已知的健康風險或遺傳傾向,可能會影響保險公司的承保意願、就業歧視、以及 污名化疾病的歧視,間接地,對於病人隱私權及自主權利皆有莫大傷害26。

三、安全穩健,強化風險管控 結合巨量資料與機器學習技術的智慧醫療系統,因為其演算法的不透明特性 被稱為「黑箱醫療(Black-box Medicine)」27。由於研究者與程式設計者都需要 大量的病人資訊去發展或確保系統的準確與無偏見,但也同是對於病人隱私的侵 害。所以,智慧醫療系統的運用應建立「風 風險評估程序」,評估風險的種類與程 度,據此訂立安全措施項目,因此,維護資訊安全加強風險管控與監測,至關重 要。如何能事先預見系統本身所帶來的特別風險,則應不斷自我評估及管理其潛 在風險,及測試該系統之安全28。因此,智慧醫療系統必須對於資訊取得、使用、 揭露與分享上,制定相關倫理及遵循規則,才能平衡之間的緊張關係29。 如前所述,智慧醫療系統開發與使用,應秉持公平多元的態度,否則將可能 造成系統安全性的風險。審慎設計系統主要原因是,多數人工智慧系統的訓練所 使用的資料單位,並非全然代表廣泛的人群,最終可能會做出含有偏見及不公平 的判斷,而智慧醫療系統在使用存有偏見的資料情況下,必定無法確實發揮功能, 甚至可能造成判斷失準,對病人的身體健康形成風險30。 因而,醫療機構內部,對於智慧醫療的應用必須小心謹慎,避免智慧醫療遭 受惡意的病毒或網路攻擊而損壞31,將智慧醫療的錯誤降至最低,畢竟智慧醫療 一旦發生問題,必然會對病人產生不當影響,甚至危及生命。

四、可解釋性,加強責任劃分 智慧醫療系統的可解釋性,是智慧醫療能否獲得民眾信賴的關鍵,更是法律 責任分擔的主要判準32。值 值得注意的是,經由深度學習所作成之智慧醫療決策, 26 27

28 29

30 31

32

See, W. Nicholson Price II, Black-Box Medicine, 28 Harvard Journal of Law & Technology 465,466 (2015). See, Roger Allan Ford & W. Nicholson Price II, Privacy and Accountability in Black-Box Medicine, 23 MICH. TELECOM. & TECH. L. REV. 1, 3 (2016). Michigan Telecommunications and Technology Law Review, 沈向洋、Brad Smith,計算未來-人工智能及其社會角色,北京大學,2018 年 9 月,頁 40。 See, Roger Allan Ford & W. Nicholson Price II,Privacy and Accountability in Black-Box Medicine, 23 MICH. TELECOM. & TECH. L. REV. 1 (2016); W. Nicholson Price II, Big Data and Black-Box Medical Algorithms, 12(10) Sci Transl Med., 1 (2018). David C. Vladeck, Artificial intelligence in medicine and the disclosure of risks, AI & Soc (2020). 例如,預防駭客網路攻擊,不需要攻擊 AI 系統本身,只要竄改資料庫裡的數據,就可能造成 AI 判斷錯誤的資訊,即使是最好的人工智慧也將帶來網絡攻擊。See, Maximilian Kiener, Artificial intelligence in medicine and the disclosure of risks, AI & Soc , 1-9(2020). Sullivan HR & Schweikart SJ., Are current tort liability doctrines adequate for addressing injury caused by AI?, 21 AMA Journal of Ethics, 160-161 (2019). 8


常有無法解釋之情形。智慧醫療的運用可能因演算法的不透明性,產生黑箱醫療 的疑慮。演算法的不透明性,可能根本無法透過科學或醫學實驗的過程解釋或理 解,或者連機器學習程式的設計者也無從得知,究竟是何因素導致最終的決定; 演算法不透明性下所為的醫療 甚至有可能來自於技術提供者的營業秘密。因此,演 行為,對於「告知後同意」原則的落實亦會帶來影響,甚至影響醫病間以及對於 醫療措施的信任。例如:醫師可能因為無法就智慧醫療系統的建議,向病人做出 生物及病理關係上的解釋,而不願意採用該建議;病人也可能因為無人可以做解 釋,不願意接受智慧醫療33。 儘管如此,智慧醫療系統結論的可解釋值得信賴,透明性以及當責性,至關 重要。所謂「可解釋性」是指,系統的決策應可被人類理解和追蹤,關於演算的 流程應該透明,且其功能和目的,可以公開傳達交流,並且可以向人們說明決策 過程,讓人可以思考是否要採用。例如,模仿醫師針對醫療決策之解釋模式,強 化智慧醫療系統判讀模型之「可解釋性」,讓責任的劃分成為可能 34。可預見的 是,未來智慧醫療逐漸發達後,病人必然會想得知,智慧醫療的判讀結論。 總之,智 智慧醫療系統的判斷與使用過程的透明化、可理解性,病人才能信任 該智慧醫療的應用。為了讓醫師與智慧醫療系統聯袂出擊,處理與人體相關的偵 測、診斷、治療,需要主管機關邀集法界、醫界共同參與,討論適切的法令,說 明導入方法、管理制度、審查流程,方值得信賴。此如,2019 年 6 月德國聯邦 政府為了透過數位化提供更好的病人照料及革新,提出「數位照顧法草案 Digitale- Versorgung- Gesetz (DVG)」,即為例證。該草案主要在於促進德國保健 系統數位化及完善法規範框架。此種完成「醫療資訊專法」的立法模式,讓醫療 數位化解決方案之實踐和嶄新的創新合作,更具可解釋性35。

五、維護隱私,保障個人資料 醫療大數據對於醫學研究具有一定價值,對於促進人們的健康福祉具有重要 性。雖然利用醫療大數據有明顯的公益性,但也非常容易侵犯到人們的隱私,因 此,如何兼顧公益與個人權益,是重要問題。從而,病人的資料如何保護與處理, 值得注意。 人工智慧建立在大數據的應用之上,而大數據就是巨量的資料36;智慧醫療 也是如此,建構智慧醫療系統必須有大量的病人或疾病資料。常規醫療過程中取 得的醫療個人資料,無論是健保資料、病歷或各種檢查(測)的影像或數據醫療 33

34

35

36

W. N. Price II, Regulating Black-Box Medicine, 116 MICH. L. REV. 436 (2017); W. N. Price II, Black-Box Medicine, 28 Harv. J. L. Tech 465,466 (2015). See Zach Harned, Matthew P. Lungren & Pranav Rajpurkar, Comment, Machine Vision, Medical AI, and Malpractice, Harv. J.L. & Tech. Dig., 7 (2019) Vgl, https://www.bundesgesundheitsministerium.de/fileadmin/Dateien/3_Downloads/Gesetze_und_ Verordnungen/GuV/D/Digitale-Versorgung-Gesetz_DVG_Kabinett.pdf. 黃瀚萱、陳信希,醫療大數據及其應用,臺灣醫學第 20 卷第 6 期,2016 年 11 月,頁 590。 9


個人資料於個資法的分類中屬於特種個人資料,具敏感性37。因而,對於敏感性 資料的大規模收集、使用,可能威脅隱私,尤其是,如果在深度學習過程中使用 大量的敏感性資可能在後續過程中被揭露出去,對個人的基本權會產生影響,必 須謹慎38。 由於涉及到病人的特種資訊,故智慧醫療的應用,須保護隱私和數據資料。 這個包括由使用者提供的資訊,以及使用者與智慧醫療系統互動中所產生的使用 者訊息。在處理個人數據時,則應該建立數據管理約定,並約定誰可以使用數據 以及在何種情況下可以使用數據,且只有符合資格者,始能被允許使用數據 39。

肆、醫師運用智慧醫療衍生刑法風險的原因 如前所述,醫師利用智慧醫療進行診斷輔助時,可能沒有善盡倫理準則的遵 守,而有其風險。醫療行為的決策者是醫師,如果醫師善盡醫療上必要的注意義 務,風險當然隨之降低;反之,醫師草率行事,對於智慧醫療系統提供的意見, 置若罔聞,風險也就增加。以下說明可能涉入刑法風險的原由。

一、未告知使用智慧醫療系統 如前所述,為了保障病人自主決定權,醫師實施醫療行為前的告知與說明義 務,尤其重要。因此,醫師如果沒有善盡告知義務,就會有侵害病人自主權的疑 慮。醫師的告知內容,除了告知病人病情,針對該病情的治療方式,治療後有無 不良反應,以及治癒成功率等訊息等40。是故,當醫師投入智慧醫療系統,將之 作為治療的輔助工具時,宜告知病人。其一,這是比較新穎的治療方式,理當向 病人解釋清楚;其二,智慧醫療系統可能會利用病人的資料,基於個人資料保護, 亦應告知說明。從病人自主決定權的角度看,醫師未充分告知或解釋使用智慧醫 療系統的目的、過程與可能風險等,一旦發生重大事故,就可能有刑事責任的產 生。要避免這種風險,就有必要進行告知。 醫師的告知義務,醫師法第 12-1 條以及醫療法第 81 條規定,醫師及醫療機 構診治病人時,應主動告知病人治療方針及處置情形。從刑法評價的觀點,假定 醫師沒有明確告知手術將會借助智慧醫療,病人在不知的情況同意了手術的進行, 結果造成身體的傷害,是否影響病人同意的有效性?如果答案是肯定的,將會因 為缺乏病人的真摯同意,而被評價為違法,而有成立傷害罪的可能。這也呼應了 37 38 39

40

「醫病平台/我的醫療個資,你的醫療大數據?!--關於健康醫療個人資料運用之隱私與自 主權」https://health.udn.com(最後瀏覽日:2020/11/5) 。 Tomas Söbbing, Fundamentale Rechtsfragen zur künstlichen Intelligenz, (AI Law), 2019, S. 202ff. Vgl, Andreas Leupold, Silke Glossner und Stefan Peintinger, eHealth: Rechtliche Rahmenbedingungen, Datenschutz und Datensicherheit, ins: Florian FischerAlexander Krämer, eHealth in Deutschland, 2016, S. 66. 告知義務的範圍與內涵,詳張麗卿,刑事醫療判決關於告知義務變遷之研究,東海大學法學 研究第 39 期,2013 年 4 月,頁 99-179。 10


歐盟 GDPR 個人資料保護規則的旨意。該規則指出,如果智慧醫療等臨床輔助 系統的判斷,可能影響到病人重大的權利或判斷時,醫師就應當有告知說明的義 務,並進而取得同意41。 由於智慧醫療並非人工智慧替代醫師進行醫療決策,而是讓人工智慧提出判 讀的結論或方案,如何讓病人與醫師攜手參與,透 透過醫師將智慧醫療系統的判讀 傳達給病人知道,這是一個新的告知義務問題。

二、未妥善使用智慧醫療系統 醫師在利用智慧醫療系統的過程中,除了前述沒有周全告知以外,另一種風 險是,醫師未能妥善使用智慧醫療系統,對病人的生命或身體健康造成危險。這 種情形大致分為二大類:一是,醫師過度信賴(甚至盲從)智慧醫療系統;二是, 醫師的決定與智慧醫療的判讀結論產生衝突。

(一)醫師過度信賴智慧醫療系統的判讀 智慧醫療發展到極致,甚至能逐漸取代醫師,而成為真正的醫療決策者。如 果醫師過 過於信賴智慧醫療系統,變成智慧醫療系統的執行者,可能也會導致醫療 專業人員的鬆懈感,疏於對於結果確認或針對錯誤的探知。 其實,智慧醫療系統雖日益進步,但並非全能,智慧醫療的運作,仍存有不 確定性,或者科技無法突破的障礙,這些因素都會使得智慧醫療系統的判斷失準。 例如針對「遠距醫療的情形」 ,醫師法第 11 條第 1 項有規定, 「醫師非親自診察, 不得施行治療」42,主要是規範,面對智慧醫療系統提供的判斷或意見,醫師應 當親自本於專業審視為決定43。因為,醫師顯然的盲從,則恐怕難以排除刑法上 的風險。 然而,未來如果某項智慧醫療系統成為臨床常規時,醫師為減輕工作壓力而 有意無意的「盲從」,結果是否有所不同?或是智慧醫療的系統性錯誤,進而所 建議的醫療方案所導致醫療傷害時,醫師的刑法責任是否應該受到排除?這都值 得關注。 41

42

43

IT Governance Privacy Team, Eu General Data Protection Regulation (Gdpr)-An Implementation And Compliance Guide, 142 , 144(3rd ed. 2019); Stefanie Hänold, Profiling and Automated Dicision-Making: Legal Implications and Shortcomings, Robotics, AI And The Future Of Law, 133-134 (2018). 因為,從 2018 年 5 月衛福部依醫師法第 11 條第 2 項規定所訂定之「通訊診察治療辦法」來 看,一個合法正當的遠距醫療行為,須符合下列要件:一、山地、離島、偏僻地區或有特殊、 急迫情形,為應醫療需要。二、由直轄市、縣(市)主管機關指定之醫師。三、以通訊方式 詢問病情,為之診察,開給方劑。四、由衛生醫療機構護理人員、助產人員執行治療。 為了避免醫療法第 11 條「醫師親自診察檢驗義務」的爭議,目前我國遠距醫療仍以不涉及醫 療行為的「遠距居家照護服務計畫」及「遠距照護醫療技術」為主。陳鋕雄,遠距醫療的法 律衝擊,全國律師,第 11 卷第 1 期,2007 年 1 月,第 45-46 頁;陳鋕雄、劉廷妤,遠距醫療 之民事過失責任標準,東吳法律學報,第 22 卷第 1 期,2010 年 9 月,頁 64。 11


(二)醫師忽略智慧醫療系統的判讀 另一個情況是,如果醫師漠 漠視智慧醫療系統,也可能產生刑法風險。當智慧 醫療系統提供某個醫療建議,醫師基於高度自信,採取不同於智慧醫療系統的判 讀建議,結果導致生命或身體健康的侵害。例如,婦產科醫師不理會(漠視)智 慧醫療系統的陣痛密度的警告,相信自己專業的判斷,延誤接生導致孕婦或嬰兒 不幸死亡的案例。事後證明,系統判讀建議的醫療模式,可以挽回孕婦或嬰兒的 生命。 智慧醫療的目標,是為醫師提供更好的協助,甚至可以成為醫師的智庫,與 醫師攜手進行診療。在這前提下,智慧醫療有一個可能產生的情況是,智慧醫療 系統的建議,與醫師的專業判斷出現歧異;如果這個歧異差距很大,意味著醫師 必須在自身專業,以及智慧醫療系統之間抉擇。 智慧醫療系統,可以掌握豐富的醫學文獻,深度分析病人的相關數據,以瞭 解其身體狀況。智慧醫療系統,畢竟是一種裝置或判讀,無法感受病人心情,可 能忽略一些醫學以外的因素,而這些因素可能影響醫療結果。譬如,經驗豐富的 醫師覺察到,病人有強大的意志力,足以繼續支撐並接受治療;但是,智慧醫療 系統卻僵硬地依據數值判斷。醫師與智慧醫療系統的看法歧異極大,醫師能否堅 持己見,或聽取智慧醫療系統(基於科學統計)的意見,恐怕都不是一個輕鬆的 決定。簡言之,智慧醫療系統的運用,可能未必能得到同意或是根本與使用者(醫 師)明示的意志相違44。 就以台中榮總的「病情惡化瀕臨死亡的預警智慧醫療系統」為例。首先,如 果智慧醫療評估病人還有存活機率,負責醫療的醫師卻判斷為瀕臨死亡,不採取 任何治療措施,經過病人家屬的爭取,由其他醫師搶救,存活了一段時間。在刑 法的解釋上,這個錯誤判斷很可能有疏失。由於醫師的疏失必須導致死亡或傷害, 刑法才有介入的可能;但由於病人存活了一段時間,所以醫師即使判斷錯誤,也 沒有過失致死或過失傷害的問題。反之,如果智慧醫療評估人在 72 小時內死亡, 醫師則認為還有存活機會,積極搶救,病人果真存活了下來,數年後死亡。智慧 醫療的判斷錯誤,幾乎直接導致病人的死亡。智慧醫療系統的風險,刑法應否介 入,或者如何介入。這些都會成為智慧醫療風險的新課題。

三、未謹慎使用病人的資料 由於智慧醫療系統的應用,需要病人的相關資料,因此必須特別關注個人資 料保護法的規定。依個人資料保護法第 6 條規定,有關「病歷」 、 「醫療」 、 「基因」、 「健康檢查」的個人資料,屬於特種個人資料,原則上「不得蒐集、處理或利用」, 44

因為人工智慧輔助系統的運用,可能削弱因人的尊嚴所衍生的自主權與自我決定權的風險, 所以人工智慧分析巨量資料後的結果,未必可得到病人同意使用或者根本與使用者(醫師) 明示的意志相違。See, Verginia Dignum, Reponsible Artificial Intelligence, 115 (2019). 12


除非法律另有規定。是故,病人的相關資料,是特種個資,必須要有法律特別規 定,才可以加以蒐集、處理或利用。 智慧醫療與大數據的使用密不可分,大數據就是必須有大量的病人或疾病的 巨量資料45。基本上,取得病人或疾病資料的方法,包含直接取得、間接取得。 直接取得的路徑,是經病人同意,方能獲得資料,例如,人體生物資料庫管理條 例第 6 條第 1 項規定, 「生物檢體之採集,應遵行醫學及研究倫理,並應將相關 事項以可理解之方式告知參與者,載明於同意書,取得其書面同意後,始得為之。」, 是採取直接取得的立法例。 間接取得的路徑,則取自建置完整的健保資料庫。由於醫學研究,時常涉及 眾多病人,且需要長期的持續觀察46,採取間接取得的方式,比較符合經濟效益; 如此一來,可能產生侵害個人資料的疑慮。換言之,醫療大數據有明顯的公益性, 不過,也非常容易侵犯到他人的隱私。如何兼顧公益與個人權益,是智慧醫療的 一個棘手問題。如果醫師未謹慎利用個人資料,即有侵害隱 隱私秘密的風險。例如, 個人資料保護法第 41 條及第 42 條,規範智慧醫療系統使用者,因為沒有謹慎使 用個人資料的相關刑事處罰。

伍、智慧醫療所生刑法風險的應對 如前所述,醫師運用智慧醫療而涉入刑法風險的原因,可能是醫師忽視病人 的選擇權益或特殊性,疏未告知病人使用智慧醫療;或是醫師信賴自身專業,漠 視智慧醫療系統資訊,或對於智慧醫療資訊,言聽計從;又或者,醫師的意見與 宜事先防 智慧醫療的判讀結論產生衝突;甚至沒有謹慎利用病人資料等等。因此宜 範。以下說明如何迴避相關的刑法風險。

一、運用智慧醫療應得病人同意 醫師運用智慧醫療,應考慮病人自主的問題。醫師如果刻意隱瞞或不願揭露 使用智慧醫療判讀的資訊,除了倫理上的譴責外,可能也會有刑法問題。醫師履 行告知義務的目的,主要是取得病人同意,醫療智慧醫療系統的使用,也必須建 立在病人自主決定的基礎上。 未來,智慧醫療系統的運用,勢必更加多元深入,這意味著運用智慧醫療與 醫師告知義務範圍,也將隨之轉變。醫療行為過程中,如有智慧醫療的協助或判 斷時,基於病人自主決定權的保障,應有必要就智慧醫療的使用方式、目的與相 關風險等告知病人。病人有選擇權,接受傳統醫療術式,或仰賴新興的智慧醫療 輔助手段。例如,美國 FDA 建議病人在接受機器手臂切除手術做預防或治療癌 45 46

黃瀚萱、陳信希,醫療大數據及其應用,臺灣醫學第 20 卷第 6 期,2016 年 11 月,頁 590 以下。 范姜真媺,醫學研究與個人資料保護—以日本疫學研究為中心,科技法科評論 10 卷 1 期,2013 年, 頁 66。 13


症以前,要求醫師務必與病人討論所有治療的選擇,包括另類療法的好處與風險, 以便在充份了解利弊得失的情況下做出決定47。 或許,智慧醫療系統運用「深度神經網路」所作的資料輸入至結果產出間, 究竟經過何種黑箱演算,醫師可能因為無從得知,形成無法充分解釋及告知的困 難。不過,本文認為,「黑箱」怎麼運作並不是那麼重要,因醫師不需要完全了 解深度學習的原理,告知的範圍不需要涵蓋演算法的運作及流程。例如,病人可 能會問醫生如何做出診斷,醫師可能會說出一些他用來得出結論的數據。醫師可 以告知病人:「是從病人本身的所有可用訊息中獲取數據,以及在不同時間和從 其他無數同類病人身上匿名收集的數據,所做出最有力的基於證據的決策。這是 一種與數據直接相關的診斷,而不是基於有限數據的人類直覺,或者相對少的局 部病人的診斷經驗總結。」48,醫療實務運用上,如此告知使用智慧醫療的程度 已經足夠。

二、遵守運用智慧醫療系統的注意義務 醫療目的在於治癒疾病,但過程中也可能伴隨意外而形成病人生命或身體的 侵害。雖然智慧醫療僅能輔助醫師進行決策,但展望未來,當智慧醫療逐漸成為 無法取代的診斷或手術之一部分時,勢必影響醫師注 注意義務的內涵。 有關醫療刑事責任的注意義務,除了醫療常規的客觀注意義務外,也必須從 醫師個別能力來判斷主觀的注意義務。智慧醫療的使用,對於前述客觀與主觀兩 項義務,將帶來何種影響?例如,醫師依據智慧醫療的建議實施醫療行為,後續 如果發生醫療事故,醫師能否主張智慧醫療的判讀或建議符合醫療常規,而不需 負擔責任?反之,如果智慧醫療的使用,是一般醫師於處理類似病情都會採用之 治療模式,但醫師卻忽略未用,是否構成注意義務之違反? 如前所述,智慧醫療的運用,智慧醫療只是輔助者,協助醫師判讀資料,讓 醫師可以有更多時間在治療上。醫師是主,智慧醫療為輔。如果醫師完全信賴智 慧醫療的判讀結果,而沒有進一步的仔細判讀,忽略了病人的特殊性,而這特殊 性可能是在醫學上根本無常規存在,而須仰賴醫師為專業裁量者,這樣完全跟隨 智慧醫療建議導致病人重大的侵害(如死亡或病情加重),醫師就可能有刑法上 的責任。此外,如果智慧醫療系統出現顯而易見的判讀錯誤,醫師應當得以察覺 卻未察覺,也不得免除其責任。以下分從醫師未妥善使用智慧醫療系統的原因, 分析醫師應如何遵守客觀注意義務以及主觀注意義務。

47

48

美國 FDA 建議病人在接受機器手臂切除手術做預防或治療癌症前,務必與醫師討論所有治療 的選擇,包括另類療法的好處與風險。參照,4 成女性有子宮肌瘤名醫告訴妳婦科手術該用達 文西嗎?https://heho.com.tw/archives/47124(最後瀏覽日期:2020/11/06) 新智元,AI 算法透明不是必須,黑箱和可解釋性可簡化為優化問題,參照, https://kknews.cc/tech/qozm84b.html(最後瀏覽日期:2020/1105) 14


(一)客觀的注意義務 前文所述,當智慧醫療的臨床決策在醫師診療過程的重要性明顯提升時,除 了可能影響醫師告知義務的範圍之外,也會成為司法審查過失責任的要點。例如, 關於前述榮總開發的「病人死亡風險判讀系統」,如果醫師未採納系統判讀的結 論: 「病人可能持續存活」 ,而是依其個人專業判斷放棄治療,導致病人喪失繼續 治療的機會而死亡。事後注意義務的審查標的,究竟是醫師未依循系統建議,或 醫師決定放棄治療的判斷「違反醫療常規」?當醫師與智慧醫療系統做出不一樣 的判斷時,司法實務究竟應當依何種標準來審查? 根據醫療法第 82 條,醫師以違反必要之注意義務且逾越合理臨床專業裁量 所致者為限,負民事或刑事責任。兩者標準之有無,應以該醫療領域當時地之醫 療常規、水準設施、工作條件及緊急迫切等客觀情況為斷49。本文認為,智慧醫 療系統的建議,性質上是最佳實證醫學的展現50。若系統判讀的建議係從普遍性 的統計而來,且可當就是一種醫療常規的展現時,醫師依其建議所為的醫療行為, 應無違法問題。但是,於具體個案中,如果因為情況特殊,醫師有堅強的專業自 信而做出不同於智慧醫療所建議的決策,縱然不符醫療常規,仍得依合理專業裁 量免除過失之歸責。 如前例所述的「智慧術後傷口追蹤系統」手機 App,提供病人術後回家自拍 傷口照片,人工智慧能根據顏色區塊自動偵測有紅腫、壞死、出血、化膿四種需 回診的情況,並立即提醒民眾就醫。但是這個系統可能會有缺漏,或者忽略了病 人的特殊性。例如,病人使用的手機拍照有色差,以致於術後有紅腫,卻在手機 拍照上呈現沒有紅腫。也會出現如下的狀況:病人的傷口雖然沒有紅腫、壞死、 出血或化膿,但卻有發燒、嘔吐或其他身體不適的現象,這些發燒等等的現象並 不呈現在追蹤系統裡。如果醫師過分相信追蹤系統,沒有提醒病人手機可能有色 差,以致於完全相信「術後傷口追蹤系統」,醫師沒有注意病人的特殊性(如發 燒或其他身體不適),導致病情惡化甚至死亡,醫師就可能有刑法上的責任。 智慧醫療系統只是輔助的角色,協助醫師判讀醫療資訊,醫師才是主要的決 定者,醫師負有審核的義務,審核系統可能出現的偏誤,特別是病人的特殊性。 且因智慧醫療的協助,讓醫師可快速取得各種臨床指引及醫療資訊,因此法院於 認定醫師責任時,也可能因而傾向提高醫師注意義務的標準。所以,醫療法第 51

82 條的「合理臨床專業裁量」,也不保證可以成為醫師的護身符 。基本上智慧 49

50

51

關於醫療法第 82 條之詳細內容,張麗卿,醫療法第 82 條修法之法學意涵,台灣醫學,第 23 卷 4 期,2019 年 07 月,頁 474-479;同作者,醫療法第 82 條的修正與疑慮:以醫療糾紛拔 牙案為例,月旦醫事法報告,第 21 期,2018 年 7 月,頁 86-111。 張麗卿,實證醫學在醫療過失審判實務上的意義—從胃腺癌存活率談起,東吳法律學報,第 21 卷第 2 期,2009 年 10 月,頁 1-30。 這裡會形成一個趨勢,本來醫師的專業臨床裁量主要是用來緩解醫療常規的侷限性,但在未 來醫師的專業臨床裁量將因智慧醫療系統的精準,使得醫師專業臨床裁量有無法發揮的境地。 15


醫療經過驗證,有其普遍的信度,但是醫師依其臨床專業,應該知道病人的狀況 不可能完全一致。所以臨床上,忽略了對於病人的提醒,忽略了追蹤系統可能無 法呈現的術後狀況,導致病情加重,醫師就難以主張「合理臨床專業裁量」,而 免除過失傷害的刑事責任。 系統失靈而導致醫師誤診,造成病人死傷,醫 另一個問題是,假設智慧醫療系 師與智慧醫療系統的開發商,是否承擔刑事責任?這問題涉及醫 醫師與智慧醫療系 統開發商(包含設計、開發與提供者)的 的責任分配。以醫療影像輔助判讀的智慧 醫療系統為例,當醫師進行診療時,由於系統的錯誤而誤診,並發生錯誤的手術。 例如,系統判斷病人體內某器官有癌細胞,醫師因而摘除遭到誤診(並未潛藏癌 細胞)的器官。結果應該如何歸責? 這種傷害不能歸責醫師,也不能歸責智慧醫療系統的製造商。首先,何以不 能歸責醫師?如果醫療上已經相當仰賴智慧醫療系統,意味著系統受到很大程度 的信賴,醫師對於系統的信賴也成了醫療常規,那麼醫師依照醫療常規的處置, 就不能認為有錯誤。不過,如果智慧醫療系統在判讀上,發生了明顯的偏差或錯 誤,很容易依照醫師的專業判斷即可發現,那麼,醫師的誤診即不可原諒。 其次,何以不能歸責智慧醫療的產品製造商?理由很簡單。現階段的智慧醫 療產品,包含影像判讀等系統,目的並非取代醫師的工作,而是被定位為輔助工 具。醫療上的最終判斷權限屬於醫師,而不是醫療系統製造商。另一個衍生的問 題,系統的判讀誤差,能否把責任歸咎給系統設計者?答案應該是:不可以。系 統設計經過反覆測試,沒有失敗的經驗,意味著系統設計已經顧及了資訊的「客 52

觀可驗證性」,至於非常細微的人體生理及其病理發展,恐怕無法強求設計者。 即使是人為的判斷,心思細膩、覺察敏銳而能夠通盤掌握的醫師,也只是鳳毛麟 角。所以智慧醫療的系統設計師也不能被歸咎。

(二)主觀的注意義務 刑事過失責任的判斷,除了必須判斷客觀注意義務外,也需探討行為人的個 人注意能力。至於刑法上的「注意能力」的判斷基準,究竟要以「一般人」的能 力為準,還是以「行為個人」的能力為準?不無疑問。例如,每個人的注意能力 不同,注意能力的標準到底是什麼?如果行為人的能力特別高(如賽車手或資深 52

所謂醫師遭受到智慧醫療系統挑戰,或許指的就是一種自主性與權威感的威脅。 智慧醫療所運用的演算法,除有不透明性(opacity)的特徵,還可能因為有新資訊的加入, 導致演算法更新而改變其預測與建議,所具有的可塑性(plasticity)。也就是說,演算法所分 析的巨量資料來源於過去與當前的資訊,全新的資訊或發現並未在其訓練資料中,其演算的 過程不可能辨識到新的特徵(feature),預測與建議本有其侷限性。因此,必須透過繼續不斷 的更新資料、追蹤醫療場所中施行成功與失敗的個案,對演算法進行持續的驗證,才能確保 智慧醫療的預測與建議是正確且安全的。從而,將責任歸責於設計者,並不公平。See, W. Nicholson Price II, Big Data and Black-Box Medical Algorithms, 10(471) Sci Transl Med.2,3 (2018); Hannah R. Sullivan & Scott J. Schweikart, Are Current Tort Liability Doctrines Adequate for Addressing Injury Caused by AI?, 21(2) AMA J Ethics. 163 (2019). 16


醫師),行為人是否必須被高度的要求?如果行為人的能力特別低(如駕駛新手 或實習醫師),是否被要求的更少? 針對能力特別低的人,刑法上的判斷幾乎沒有爭執,就依照個人的能力去判 斷,理由是: 「行為人的可罰性不能大於個人的能力」 。我們可以拿交通事故的例 子加以說明。具有駕駛經驗的一般人,在高速行駛中遇到爆胎,不會驚慌急踩煞 車,而是讓汽車緩慢滑行到路肩。不過,如果是駕駛新手遇上爆胎,可能就會驚 慌急煞,以致於追撞他車致人死傷。對於這個新手,刑法應該如何評價?合理的 評價應該是,新手的能力比較差,不能依照一般人的處事能力來責難新手。新手 的「可非難性」必須受到限縮。所以,注意能力的要求,應該以一般人的能力為 準,行為人的能力既然低於一般人,就不能讓他承擔一般人的責任。 下列醫療過失的案例,也應該對於醫師做有利的判斷。設某 基於前述說明,下 實習醫師第一天在急診室值班,診治車禍頭部受傷的患者,實習醫師認為病人意 識清楚沒有安排電腦斷層掃瞄。稍後,病人情況轉壞,實習醫師才安排進行掃瞄, 發現右側大腦大量急性「硬腦膜下腔出血」,導致不幸死亡。姑且認為,醫師未 做電腦斷層掃瞄,不能即時發現「硬腦膜下腔出血」,病人因遲延手術而死亡, 實現了過失的不法構成要件。但是,這個實習醫師第一天上班,個人能力欠缺, 比較不具可非難性。 相對的,針對能力特別高的人,刑法上的判斷比較為難。能否認為,既然行 為人的能力特別高,其注意能力高於一般人,就應該承擔更多的刑法責任?這個 觀點可能讓刑法的穩定性動搖,所以不應該接受。如果接受這個觀點,在醫療領 域上,能力較高者,可能會顧及自己的刑法風險,而不願意積極搶救危重病人。 這不是醫療上樂見的狀況。當然還有一個客觀上的判斷難題,所謂「能力較高」 或「能力特別高」究竟要依照什麼標準去分別?一個具有多年臨床經驗的資深醫 師,是否比起只有幾年經驗的醫師更有專業能力,恐怕很難一概而論。 無論如何,可以預見的是,未來如果智慧醫療的產品越趨完備與成熟,逐漸 形成醫學臨床上的醫療準則,勢必醫師個人能力與經驗的差異化,也會逐漸減少。 以醫學影像的辨識為例,隨著智慧醫療判讀的正確率及可解釋性逐漸提升後,智 慧系統的功能也會類似專業的影像科醫師,提供一般醫師參考照會的依據。換言 之,無論是經驗老練的主治醫師或年輕資歷尚淺的住院醫師,如果仰賴智慧醫療 的協助,結果都能確保取得正確無誤的最佳決策,那麼就會出現「醫師個人能力 均質化」的結果。如此一來,未來智慧醫療系統出事後的過失判斷,也許就只是 純粹審查醫師有無客觀注意義務的違反,而無主觀注意能力差別的問題了。 例如,「瀕臨死亡的判斷」既然可以交由前述台中榮總智慧醫療來預測,那 麼「死亡時點」的判斷應該也可以。刑法學上對於生命終點的判斷,主要是兩種 意見的對立: 「心肺功能喪失說」與「腦死說」 。心肺功能喪失是指,病人失去心 17


跳與呼吸即為死亡。腦死說指,病人的腦幹功能喪失即為死亡。我國目前的實務 判決主要採取心肺功能喪失說,學說則傾向於支持腦死說。至於為了移植器官的 目的,則例外依照人體器官移植條例,採取腦死說。理論上,把病人所有的醫療 資訊以及生命徵象的訊息交給智慧醫療分析,然後讓其判斷病人是否已經死亡, 這應該是可能的。因為智慧醫療閱讀的訊息最大量,智慧醫療系統沒有情緒,沒 有價值思考,可以做出最為冷靜的判斷。所以,將來刑法學在判斷生命終點這個 問題上,也許會多出一個「智慧醫療 AI 說」。 問題是,死亡時點的判斷,醫師的判斷無法絕對精準,智慧醫療系統的判斷, 應該也是無法完全沒有誤差。例如,大約二十年前,電視主播劉海若在倫敦火車 站遇難,被英國的醫師宣告腦死,劉海若的父母以專機把女兒送往北京,中西醫 聯手,把劉海若從死神手中搶回來53。這個顯示:人為判斷會出錯,智慧醫療系 統也會出錯。智慧醫療也許無法覺察一個人的抽象生命力,但是這個生命力很可 能影響一個人的存活。那麼,如果由於智慧醫療系統的判斷錯誤,失去搶救先機, 導致病人的最終死亡,刑法有無必要介入?這個問題的回答,與前述智慧醫療判 斷「瀕臨死亡」的問題回答,是一樣的。我們無法要求智慧醫療的系統設計者, 我們也無法強求能力很高的醫師,必須做出與智慧醫療建議做出相反的判斷。總 之,醫師的判斷無法絕對精準,智慧醫療即使有判斷上的誤區,也只能被法律秩 序容忍。

三、衡平使用資訊與隱私保障 智慧醫療能夠透過收集與分析,演算出個人的疾病風險,並為其提供相應的 預防措施以降低風險,主要是仰賴巨量的數據資料54。這些醫療資料大致是:1. 編 碼資料:如診斷碼、藥品碼等。值得一提的是,台灣因健保制度及醫療法第 69 條所製電子病歷的普及,已有累計超過 20 年的資料。2. 影像資料:如 X 光片、 核磁共振等。3. 自由文字:如病理報告等。4. 生理訊號資料:如心跳、血壓、 體溫、腦波等資料,通常與穿戴性裝置結合55。 透過這些醫療資料為基礎,智慧醫療系統能夠在不斷分析的過程中,形成精 確並值得信賴的系統。在智慧醫療的運用上,不可避免地,會涉及資料蒐集與利 用的合法性問題。個人資料保護如何規定、如何得以不觸犯刑法,可能是醫師最 關切的問題。 智慧醫療對病人資料的運用,醫師將病人資料輸入智慧醫療系統,所產生的

53

54

55

劉海若 倫敦判死 北京救活 http://paper.wenweipo.com/2002/08/21/HT0208210004.htm(最後瀏 覽日期:2020/11/06) Vgl, Alexandra Jorzig/ Frank Sarangi, Digitalisierung im Gesundheitswesen, Ein kompakter Streifzug durch Recht und Technik, 2020, S. 51. 李友專,AI 醫療大未來:台灣第一本智慧醫療關鍵報告,好人出版,2018 年 9 月,頁 62-64。 18


分析、運算,能夠更妥當的輔助醫師進行治療。分析者能夠經由數據剖析(profiling) 加以整合、比對、分析、重新個別化相關資訊。因此,大數據的創新性與重要性, 在於其分析大量不同來源以及不同性質的資訊被特徵化及分析化的價值。由於此 一輸入行為,以病人的資料為基礎(如病史、生理數據等),因此應以取得病人 「書面同意」為主56。運用病人資料的合法化基礎,在於符合個人資料保護法第 6 條第 1 項但書第 6 款、第 19 條第 1 項第 5 款而取得當事人之同意,此時即可 在特定目的內合法地蒐集、處理及利用。 從另一個角度來看,利用病人資料而侵害隱私的刑法風險,有可能是:其一, 違反個人資料保護法第 41 條的「 「違反特種個資使用罪」或違反個人資料保護法 第 42 條的「 「非法變更個資檔案罪」 ;其二,則在於違法刑法第 316 條的「洩漏業 務秘密罪」或違反刑法 318-1 條的「洩漏利用電腦設備秘密罪」。這些罪名的規 範目的,都在保護個人的隱私權益,只是行為樣態不同。 首先,個人資料保護法第 41 條的處罰,針對沒有合法基礎而將病人資料加 以蒐集、處理或利用(即違反個人資料保護法第 6 條第 1 項及第 19 條之規定)。 除了故意之外,亦須「足 足生損害於他人」,始得成立本罪。如何避免誤觸該罪, 最有效的方式是落實病人資料同意書的簽署。 「當事人同意」 ,是個人資料保護, 乃至於整體資訊隱私保護的主軸。在取得同意的情況下,自然不生違反個人資料 保護法的情事。值得注意的是,當事人同意之標的,固然在於醫療或治療目的, 但若牽涉智慧醫療系統的分析運算,建議還是在同意書中明確告知並取得同意, 以杜爭議。另有關個人資料保護法第 42 條的處罰,則以對於個人資料檔案為非 法變更、刪除或以其他非法方法,致妨害個人資料檔案之正確,而足 足生損害於他 人。 另外,刑法第 316 條的「漏業務秘密罪」,則在於洩漏業務上的他人秘密, 致使其隱私受到侵害。2019 年增修刑法 318-1 條的「洩漏利用電腦設備秘密罪」, 則在於規範因利用電腦或其他相關設備知悉或持有他人之秘密者。這兩個條文都 在於規範,醫師可能無故洩漏病人的的相關資訊。所謂無故,就是沒有法律基礎, 沒有正當理由。不過,何謂洩漏、何謂秘密,並沒有具體的判斷標準57,因此學 理上傾向以「主觀秘密為主,客觀秘密為輔」的判斷標準;亦即,若病人主觀上 明確告知為不願透漏的資訊,即屬本罪之秘密。若病人並未表示有個人隱私之意, 則以社會的一般通念加以判斷58。因此,如何避免此項刑事風險,除醫師須尊重 病人個人意願,不隨意透漏其明示的個人隱私外,對於病人未明示的個人隱私, 也應基於社會通念,不随意加以洩漏。

56

57 58

取得書面同意的方式,依個人資料保護法施行細則第 14 條之規定,得以電子文件為書面意思 表示,並依循電子簽章法之規定。張陳弘、莊植寧,新時代之個人資料保護法制:歐盟 GDPR 與臺灣個人資料保護法的比較說明,新學林,2019 年 6 月,頁 155-156。 林東茂,刑法分則,一品文化,2020 年 2 月,頁 121-123。 甘添貴,刑法各論(上) ,三民,2019 年 9 月,頁 173-175。 19


當然,有關上述各條之罪,醫師觸法的機率微乎其微,但亦值得警惕。

陸、未來的挑戰:容許風險與自主智慧醫療系統 智慧醫療在臨床醫療的投入,勢必大幅改變未來病人與醫師間的互動關係, 並衍生諸多法律問題59。從醫師的立場看,智慧醫療可能引發的刑法風險可能更 加受到重視。雖然目前的智慧醫療,仍只是輔助的角色。醫師與智慧醫療的互動, 有明顯的主從關係。但是這樣的情形,未來會有很大的改變。 主要的原因是,人工智慧自主系統的出現60。自主學習系統的出現,帶來刑 法更難化解的困境。智慧醫療系統能夠獨立接收信息,運用深度神經網路所作之 機器學習,自行轉換訊息並可以做出決策61。因而,當智慧醫療不再只是輔助的 角色,而是醫師執業上的常規時,局面可能就有不同。 不過,雖然運用自主智慧醫療系統有越來越多的趨勢,但是到目前為止,錯 誤決策的責任分配,仍沒有很明確。例如,即使人工智慧的辨識圖片能力已經顯 然優越於醫師,但是,期望智慧系統能夠完全獨立自主,足以承擔醫療一切任務, 仍需要很長的時間62。換言之,醫師是否有過失的認定,取決於智慧醫療於臨床 實務的實際運用情形,以及智慧醫療系統與醫師在醫療決策上的分工。 這種差異,透過智慧醫療與智慧交通的比較,便可得知。自駕車是智慧交通 的主要應用之一,也是目前最熱門的人工智慧發展領域。但是,自駕車發展到極 致的目標是,讓搭載智慧系統的車輛能夠自主駕駛,在完全的自駕車上,只有乘 59 60

61

62

W. Nicholson Price II, Artificial intelligence in health care: applications and legal implications. The SciTech Lawyer; 14(1), 11-13 (2017). 張彩琳、林克亮、林世傑、楊子芃、賴妍倩、胡超群、李英雄,人工智慧在醫療的應用及未 來展望,台灣醫檢雜誌,34 卷 2 期,2019 年 6 月,頁 3 以下。 例如,發生在法國 ICU 病房五起有關智慧呼吸機變異的事件。重症專科醫師發現對昏迷中的 病患原本設定的「容 容積控制換氣模式(volume-controlled Mode)」 ,因為呼吸道內阻力的增加, 使系統辨 辨識為每分鐘低通緝警報(而非高氣道壓力警報) ,而意 意外自動促發演算法的運行。亦 即,呼吸機未作警示,但系 系統自主決定轉換為「壓力控制模式(pressure-controlled Mode)」 , 限制氣道的壓力與降低供氣流量。所幸,醫師機警觀察到監視器上曲線變化異常,立刻作緊 急處置,才避免可能的致命性後果。事後發現,可能是自動防褥瘡床墊影響病患氣管內管的 位置移動或彎折等因素所造成。這些案例在醫師發現後,經過醫療機構的驗證,證實呼吸器 確實會自動改變其供氣的模式。醫師對於這個改變在事前或過程中,都無從得知。且一旦這 個自控的模式被啟動,臨床醫師無任何方法可以矯正其不完全的供氣,只能作緊急更換呼吸 機或改為手動供氣的方式處置。提出這些案例報告的臨床醫師們認為,因 因為醫 療臨床上始 終 會有各種複雜且無法預料的狀況,在原本分析迴路內所無法預想或無法估計的情況發生 ,此 時,智慧醫療自動系統並不能提供最佳的解答,反而人類智慧才能找出最好的解決方式。因 因 此,要確保呼吸機符合最 低性與準確性的要求, 醫師 及醫療機構 在其上市後的 評 估、驗證 及 監管,仍是非常重要的。See, Dufour N, Fadel F, Gelée B, Dubost JL, Ardiot S, Di Donato P, Ricard JD, When a Ventilator Takes Autonomous Decisions without Seeking Approbation nor Warning Clinicians: A Case Series, 13 Int Med Case Rep J. 521-529 (2020). See, Eric Topol, Deep Medicine. How Artificial Intelligence Can Make Healthcare Human Again, 255,283(2019); Robert Wachter, The Digital Doctor. Hope, Hype and Harm at the Dawn of Medicine’s Computer-Age, 47(2017). 20


客或貨物,而無須人為駕駛63。反觀醫療領域,我們大概還很難想像,人類將生 命或身體健康,完全託付給智慧醫療系統。醫師與智慧醫療的互動,醫師仍然是 個主要角色,各種智慧醫療的系統,都只是借助人工智慧,協助醫師判讀,節省 醫師的時間與精力。智慧醫療發生如果事故,仍是向醫師究責。醫師作為智慧醫 療臨床上的主要角色,具有醫療決策的最後決定權。 科幻小說的「人工智慧機器人醫師」 ,距離我們還十分遙遠,或許從現在的 角度觀察,似乎遙不可及的「幻想」 ,但卻可能在未來實現。我們對那些尚屬科 幻範疇的問題,不能置身事外,因科技的發展是超乎想像地快。總之,自駕車 或智慧醫療都是人工智慧的運用。自駕車與智慧醫療各有潛在的風險,而且都 可能引發各自的侵害。但是,我們既然要倚賴人工智慧的各種運用,就必須承 受這些載具的相關風險與侵害。否則,研究發展必將停滯不前,而且在科技發 展上也會遠遠落後於他國。 面對人工智慧新型態的風險,相關風險導致實害結果的責任歸咎,在刑事責 任風險上,或許可以透過「容許風險」的理念來降低醫師成立過失責任的機會。 「容許風險」這個概念,刑法上的意義主要有兩個,一個是限縮過失犯罪的成立 範圍,另一個是針對因果關係做合理的評價64。這裡主要是用於限制過失之檢驗。 在容許風險的範圍裡,死亡或傷害的結果一概不能歸責給「容許風險」的行為。 換言之,凡 凡是醫師在未明顯違反醫療常規時,同時為了顧及智慧醫療的發展,應 需給予醫師相對心安的決策空間,醫師無論是相信自己的判斷,或是選擇依循智 慧醫療的建議,後續不良的結果,某種程度上可視為刑法上的可受容許的風險, 不必負過失的責任。 此外,利益衡量也是很重要的判斷基準。凡是提供更多利益的活動,可受容 許的風險範圍就越大。這就如同正在執行勤務的救護車、消防車、警備車或工程 救險車,可以超速、闖紅燈、行駛路肩、逆向開車,就是典型的例子。我們期待 這些車輛提供很高的社會利益,所以必須容許更高的風險。理論上,醫療行為是 為了讓病人恢復健康,也帶來很大的利益,所以醫療行為的容許風險應該比其他 行為更高。不過,容許風險是一個原則,但有原則就有例外。一般情況下,醫師 可以相信智慧醫療系統的判斷,無須處處提防智慧醫療系統可能偏誤。除非系統 錯誤的狀況顯著,醫師有能力輕易發現,可預見及迴避風險發生,否則醫師就不 能被責難。換言之,這裡的注意義務的程度包含結果預見可能性及結果迴避可能 性。其注意的程度取決於受威脅之結果類型及其可能性程度。所以,注意義務也

63

64

有關自駕車所帶來的刑法風險,詳張麗卿,人工智慧時代的刑法挑戰與對應—以自動駕駛車 為例,月旦法學雜誌,第 286 期,2019 年 3 月,頁 87-103。 容許風險的解釋與功能有認為是「不具有過失」 ;或是因果關係以外,當作客觀歸責理論之檢 驗要素之一,或是被當作是違法性要素。Vgl. nur, Lackner / Kühl, Strafgesetzbuch: StGB, 29. Aufl., 2018, Vor §29, 32 ff. 21


會受到信賴原則及容許風險的拘束65。 未來的智慧醫療如果自主深度學習,而有超乎系統設計時的表現,例如,機 器人在程式設計上本來不會辱罵人,但是經由使用者的教導,機器人在公開場所 不能責備程式設計者, 竟然說出侮辱他人的言語66。這種深度學習之後的表現,不 也無法對智慧醫療系統處罰67。同樣地,智慧醫療的系統也可能自己會經由深度 學習,而超越系統的原來程式設計,自作聰明,如果發生病人的侵害,或許應該 依照「容許風險」的概念,排除系統設計者的責任,當然也排除醫師的責任。 運用容許風險的目的是,要給自主學習系統的供應商與醫師有足夠的動力, 去創設系統的安全性,並從而避免嚴重的損害。在刑事責任的檢驗上,容許風險 也可以限制不合理的責任風險。附帶一提,因為容許風險的緣故,系統供應商與 醫師都不必負責,卻造成病人受損而求救無門,亦非吾人所樂見。這種意外只能 依賴設計適當之責任保險理賠機制加以解決,彼此之間的責任分擔。至於系統供 應商與醫師的保險理賠要如何比例分配,就不在本文的討論範圍。

柒、結語 21 世紀經歷了巨大的科技變革,人工智慧為醫學的發展帶來嶄新的活力。 傳統醫療模式已經無法滿足社會進程發展的需求,因此人工智慧成為連接未來醫 學模式的橋樑,多元醫療模式(人類醫師與智慧醫療「共生」)的共存局面,已 然出現!隨著人工智慧的發展,智慧醫療的運用越來越普遍,並且獲得很好的成 效。目前的智慧醫療主要扮演輔助的角色,協助醫師判讀資訊,讓醫師可以有更 多的時間在治療上。因此,原則上,在檢查、診斷、治療或手術上,醫療智慧系 統都不是主體,醫師才是真正的決策者。 智慧醫療系統與醫師的互動,既然是主從的關係,一旦發生醫療事故,比較 容易受到歸責的還是醫師。如前舉台大研發的「智慧術後傷口追蹤系統」手機 App 案例,提供病人術後回家自拍傷口照片,回傳給醫師追蹤治療。如果醫師過 分相信追蹤系統,沒有提醒病人手機可能有色差,以致於完全相信「術後傷口追 蹤系統」 ,醫師沒有注意病人的特殊性(如發燒或其他身體不適) ,導致病情惡化 甚至死亡,醫師就可能有刑法上的責任。

65 66

67

Vgl, Kindhäuser / Zimmermann, Strafrecht Allgemeiner Teil 2019,9.Aufl., § 15 Rn. 58 ff, 61 ff. 最著名的案例是「微軟人工智慧機 Tay」事件。該微軟自動聊天機器人 Tay 可投使用者所好, 根據使用者的教導,不斷調整聊天風格;不幸的是,在用戶惡意教導她說髒話及灌輸種族歧 視的觀念後,她變成了一個種族主義者和性別歧視者,只有一天的光景,微軟只好緊急宣布 將其下架。這是機器自主學習之後的法律規範問題。張麗卿,人工智慧時代的刑法挑戰與對 應—以自動駕駛車為例,月旦法學雜誌第 286 期,2019 年 3 月,頁 95。 這種無法處罰自動學習系統的困難,也同樣出現在自動駕駛的領域。詳參張麗卿,人工智慧 時代的刑法挑戰與對應—以自動駕駛車為例,月旦法學雜誌第 286 期,2019 年 3 月,頁 92。 22


然而,智慧醫療系統可能越來越精準、越有信度,臨床上醫師對於系統的運 用已經逐漸成為常規。如果系統的使用到了這個地步,顯示系統與醫師已非主從 關係,而是平行的位置。一旦發生醫療事故(醫師相信系統的判讀而傷害了病人) , 醫師就有可能主張信賴保護原則。理由是,可受容許的風險。如同一切的科技發 展,人工智慧帶給人們許多便利,也相對衍生一些風險。這些風險出現在各個生 活領域,交通、醫療、居家生活等等。為了追求生活上的便利,我們必須承受可 能衍生的風險,否則科技發展必然停滯不前。我們不能期望智慧醫療系統帶給醫 師與病人方便,卻不容許任何不可測的結果發生。只要智慧醫療系統在設計上、 研發上極盡所能的防範意外的發生,但醫療系統卻自主的學習超越了原來的系統 設計,自作聰明的侵害了病人,此時不宜將侵害的結果歸責給醫師或智慧醫療系 統的設計者與開發者。這種意外只能依賴保險理賠機制加以解決。 不讓智慧醫療系統侵犯病人,應該是上策。這是智慧醫療在研發與運用上應 當注意的倫理準則。本文提出了一些智慧醫療的基本倫理準則。醫師在運用智慧 系統時,應當保持專業上的警覺,不要違反倫理規範,更不能全然的信賴系統。 正如老闆不能完全被秘書或幕僚牽著鼻子走。智慧醫療系統的設計者及使用者 (醫護人員),要注意的倫理準則是,安全穩健、不歧視病人、尊重病人自主、 系統值得信賴。把握了該有的準則,智慧醫療系統基本上就不至於出錯,也不會 踏入風險。即使發生了不可測的意外,侵害了病人,也不至於遭到刑法的歸責。

23



Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.