第17回 ロボット医療における医師の責任
近年、ロボット技術やAI技術が急速な進歩を遂げており、その技術発展は私たちの社会や経済に大きな変化を与えると予想されています。
特に医療分野は、総務省のAIネットワーク社会推進会議が2017年にまとめた報告書においても、「ロボットの投入が非常に有望で、便益も大きい」と想定されています。手術支援用のロボットやAIによる画像診断など、医療分野にロボット・AI技術が導入・活用されることで、今後の医療現場を大きく変えてゆく可能性は非常に高いといえます。
医療とロボット・AIの問題については、製造・販売に許認可が必要か否か、誤作動を起こしてしまった場合のメーカーの責任など多種多様な法律問題が発生します。この様々な問題の中から、今回は医療現場で日々診療に当たっている医師の方が一番気になるであろう、「ロボット医療において事故や医療ミスが起こってしまった場合の医師の責任」について考えてみたいと思います。
1.医療事故・医療ミスに伴う責任とは?
まず、医療事故・医療ミスに伴う医師の法的責任には、①民事上の責任と②刑事上の責任があります。これはロボット・AI医療の場合も同様です。
①民事上の責任とは?
民事上の責任とは、「損害賠償責任」、わかりやすくいえば医療事故によって患者等が被ってしまった損害を金銭的に賠償しなければならない責任です。
死亡事故ともなると、慰謝料・逸失利益(事故がなければ働いて得られた収入等)・その他を含め億単位の賠償責任になることも珍しくありません。
②刑事上の責任とは?
刑事上の責任とは、懲役や罰金刑といった、犯罪に対する刑事罰のことをいいます。刑事罰が確定すると、いわゆる「前科」がつくことになり、社会生活上大きな不利益を被ることになります。医療事故の場合、業務上過失致死傷罪(刑法201条 五年以下の懲役若しくは禁錮又は百万円以下の罰金)が成立するかどうかが問題となります。
なお、業務上過失致死傷罪などの犯罪について有罪が確定した場合、医師法に基づく免許停止・戒告などの行政処分も合わせてなされることがあります。
2.民事上の責任も刑事上の責任も「過失」が問題
故意に患者を傷つけようとした場合などでない限り、民事上も刑事上も、法的責任の基礎として「過失」の有無が問題になります。
医療行為、特に最先端の医療ともなれば、治癒という結果を約束するものではありませんから、治療の結果、不幸にも死亡事故が発生してしまった場合、常に法的責任が問われるわけではありません。事故が起こっても「過失」がなければ医師に法的な責任は認められません。
なお、実際問題として、先端医療における医療ミスが問われた事件では、「過失」が認められたとしても民事上の賠償責任のみが問われる場合がほとんどで、刑事上の責任が問われることはそれほど多くはありません。
逆に、一般的な医療の常識に照らして不合理な判断を行ってしまったり、手術中の手技にミスがあったりという「過失」が認められる場合には、医師が法的な責任を問われることになります。
3.実際の事例でどのような点が「過失」とされるのか?
(1)問題点の整理
ロボット・AI医療において問題となる過失は、以下の4類型に分類できます。
- ①製造物の不具合などのメーカーの「過失」
- ②担当医の手技の「過失」
- ③担当医の知識・能力が不足していたことによる「過失」
- ④ロボット技術を導入するにあたっての病院組織の「過失」
以上を踏まえ、過去実際に起こった事件から、何が「過失」とされるかを見ていきましょう。
(2)名古屋大学医学部事件(2010年)
ロボット医療における医療事故の危険が現実化してしまった事件として、2010年に名古屋大学医学部付属病院で発生した、腹腔鏡下手術支援ロボット「ダヴィンチ」(※)を利用した胃切除手術における死亡事故があります。
この事故では手術中のビデオ映像が残されており、その映像を病院が設置した医療事故調査委員会において分析した報告書が公表されています。
調査委員会の報告書によれば、術野確保のためにロボット鉗子で膵臓を腹側から背側方向へ強く圧迫する操作が行われ、その際に膵臓が椎体とロボット鉗子の間で圧迫され損傷してしまったことが死亡事故の直接の原因であるとされました(②担当医の手技の「過失」)。
そして、そのような“膵臓に愛護的”ではない行為を行ってしまった要因が、執刀医がロボット鉗子は扱い方次第で過度の力がかかる危険性があるという“使用機器の特性を十分理解”できていなかった点にあると結論づけられました(③担当医の知識・能力が不足していたことによる「過失」)。
なお、執刀医は「ダヴィンチ」のトレーニングコースを履修しており、通常の内視鏡手術の経験も豊富であったものの、「ダヴィンチ」経験医を招聘せずに独自に手術を実施したことについては、病院のシステム的な問題があったともされました(④ロボット技術を導入するにあたっての病院組織の「過失」)。
ちなみに報道を見る限りですが、この事件では刑事上の責任は問われておらず、おそらくは病院が遺族の方に対して民事上の損害賠償を行ったものと予想されます。
※ダヴィンチ:内視鏡カメラとロボットアームを患者の体内に挿入し、術者が3Dモニターを見ながらロボットアームを遠隔操作して手術を行う手術支援ロボット。
4.ロボット医療の場合、複雑に原因が絡み合い責任が不明確になることも
(1)誰の責任か解明できない場合
さて、名古屋大学医学部の事件では、手術中の映像を分析することにより事故の原因が究明されました。そのため、誰のどのような「過失」が原因であったのかも明らかとなりました。
先ほど説明しましたように、法的な責任は結果責任ではなく「過失」があることが前提です。
事故の被害者の方がメーカーに損害賠償請求をするのであれば、機器に不具合があったことを立証しなければなりませんし、病院に損害賠償請求をするためには、病院の組織的過失や担当医の過失が認められることが前提となります。
しかし、今後発展・普及するであろうロボット・AI医療では、原因の所在が明らかとならない事例や、予見不可能なリスクが顕在化した場合など、誰にも「過失」がないとされてしまう事例も発生するであろうといわれています。
標準治療の場合、基本的には病院という組織と医師個人の過失が問題になるのに対し、ロボット・AI医療では、そこにロボット・AIメーカーという新たな関与者が登場します。また、病院や医師の過失を考える際にも、単なる操作ミスのみならず、導入に当たっての研修やサポート体制の問題、そもそもロボットを導入すべきであったのかという問題など、過失の判断が複雑化せざるを得ません。
よって誰にも「過失」がない、誰の「過失」かが不明という事例が不可避的に発生することが予想されています。現在の過失判断の枠組みを形式的に適用すると、このような事例、事故の被害者が一切救済されなくなってしまうという事態も想定されます。当然これは問題であり、責任追及を容易にする何らかの立法を含めた手当が必要ともいわれているところです。
他方、ロボット医療の便益を重視する視点からは、事故が発生した場合に容易に責任を問われるようになってしまうと、開発や導入のインセンティブが失われてしまい、これも問題であるとされています。
(2)ドイツ民法の議論
この問題について、ロボット法の先端的な多くの研究がなされているドイツの議論を紹介したいと思います。
ロボット医療を念頭に置いたものではありませんが、ドイツでは2013年のドイツ民法改正において、医療についての特別な契約類型として「治療契約」を定義し、適用される権利・義務関係を整理しました。
ドイツの「治療契約」に関する規定には様々なものがありますが、特徴的なものとして、「一定の事故が起こった場合に治療者側の過失を推定する規定が置かれていること」が挙げられます。“過失を推定する”とは、つまり医療事故が起こった時には、治療者側に何らかの過失があったのだろうという前提で、医療事故の被害者側が病院や医師の過失を立証できなくとも責任追及を可能とする内容です。逆に、病院や医師が責任を免れるためには、自らの治療行為に過失がなかったことを立証しなければなりません。
この「過失の推定」により、ロボット医療において複雑に責任が絡まり合い事故の原因が判然としない場合にも、被害者救済が図りやすくなっています。
(3)日本では今後どうなるか?
他方、わが国の現在の法律では、医療事故について治療者側の過失を推定するような規定はなく、民事上の責任であれば原則通り救済を求める患者側が、誰の過失かということを立証しなければなりません。
もっとも、患者側が適切な証拠や資料を整えて治療者側の過失を立証することは容易ではありません。そこで、実際の医療ミスに関する民事上の裁判では患者側に過失の立証責任があることを前提にしつつも、「このような結果が生じている以上、このようなところに原因があったのだろう」といった経験則の適用などを行い、立証のハードルを下げてゆくことで実質的なバランスと被害者救済を図っている現状があります。
この現在の裁判所の取り扱いに鑑みてロボット医療における複雑な事故が発生した場合、裁判所は被害者救済の観点から、医療事故以外の一般の事故ほど厳格な過失立証を求めないのではないかと予想されます。
また、標準治療における医療ミスと比較すると、ロボット医療においては誰の過失であったのかを認定することは一般的に困難といえます。よって、担当医個人の「過失」が認定できない場合には、導入に当たっての病院の組織的な「過失」については、通常の医療におけるそれよりも体感的にはさらに立証のハードルが下がる方向に進むかもしれません。
5.ロボット医療と説明義務との関係
(1)ロボット医療を行う場合の説明義務は高度なものが要求される
ロボット医療は先進的な治療であり、想定外の危険があることは確かですが、その分便益も大きいものです。従来型の医療では手術が不可能であっても、ロボットの支援を受けた低侵襲性の手術ならば完治させることができる症例もあるでしょう。
この意味で、患者側には「ロボット医療を受ける権利」があるといえます。そして、患者側が自身の決断としてロボット医療を選択した以上、その選択に当然に伴う危険が顕在化した場合には、患者の同意(危険の引受)があったということで、治療者側の責任を軽減しても良いのではないかという議論もなされているところです。
もっとも、ロボット医療のような先進的治療の場合、医師が行う説明責任の程度は通常の医療に比べ高い水準が要求されることになるともいわれています。これは、患者による「危険の引受」を認める大前提といえるでしょう。
ロボット医療における説明としては、「なぜロボット医療が必要か」や「従来型の治療と比較」など、必要性・合理性・適応性・相当性・優越性・目的といった要素について、より高度の説明を行い患者の同意を得る必要があるとされています。
(2)従来型医療の代替案を説明する必要は?
また、ロボット医療ではない従来型の治療を行おうとする医師が、(未だ一般的な医療水準に達しているとはいえない先進的な)ロボット医療という代替案についてどこまで説明すべきか、という問題もあります。
この問題については、乳房温存療法についての最高裁判例(最判平成13年11月17日民集55巻6号1154頁)が今後の判断基準となるかもしれません。
これは、乳がんの手術にあたり、当時医療水準として未確立だった乳房温存療法について、患者に説明をしなかったことへの責任を問われた裁判です。
判決では、
「乳房温存療法を実施している医療機関も少なくなく,相当数の実施例があって,乳房温存療法を実施した医師の間では積極的な評価もされていること」、「当該患者の乳がんについて乳房温存療法の適応可能性のあること及び当該患者が乳房温存療法の自己への適応の有無,実施可能性について強い関心を有することを知っていたこと」などから、医師は患者に対し「乳房温存療法の適応可能性のあること、及び乳房温存療法を実施している医療機関の名称や所在をその知る範囲で説明すべき診療契約上の義務がある」
とされました。
ロボット医療においても同様に、臨床的実施の状況、その医療に対する評価、当該患者への適応可能性、当該患者の関心等を踏まえて、医療機関側に知る範囲での情報提供義務が生じることもありえます。場合によっては説明を行わなかったことが損害賠償の対象となることも考えられるでしょう。
6.ロボット医療を深く理解し患者への説明を
ロボット医療は患者や医療関係者にとって有用なものですが、問題が生じた場合の責任については事例の蓄積や今後の立法に委ねざるを得ないところも多くあります。
もっとも、技術自体の有用性に疑いはありません。医師はロボット医療の特性を把握したうえで事前に患者に説明義務を果たすことで、多くのトラブルを防止することも可能なのではないでしょうか。
なお、本稿執筆に当たっては、Ugo Pagallo著『ロボット法』(2018、勁草書房)の翻訳者であり、我が国のロボット医療における法律問題について研究をなさっている松尾剛行先生(桃尾・松尾・難波律事務所)より参考資料の提供などご協力をいただきました。松尾先生に改めて感謝の意を表させていただきます。ありがとうございました。
<参考>
AIネットワーク社会推進会議「報告書2017-AIネットワーク化に関する国際的な議論の推進に向けて-」
【関連記事】
・「VR(バーチャルリアリティ)が広げる医療の可能性|外科医にして医療VRソフト開発者、杉本真樹氏が目指す未来」
・「イベントレポート「MedPeer Healthtech Academy chapter 1」 宇山一朗氏、林要氏も登壇!「ロボティクス×医療」の”今”をつかみ”未来”をつくる」
・「弁護士が教える医師のためのトラブル回避術|第16回 遠隔診療を巡る法規制~許容範囲と処方箋の考え方」
- 中澤 佑一(なかざわ・ゆういち)
- 弁護士 / 弁護士法人戸田総合法律事務所代表。東京学芸大学環境教育課程文化財科学専攻を卒業後、上智大学大学院法学研究科法曹養成専攻を修了。2011年に戸田総合法律事務所設立する。専門はインターネット・ITに関する法律問題。
著書に 『インターネットにおける誹謗中傷法的対策マニュアル』(中央経済社)ほか。
コメントを投稿する