医療、特に外科分野への人工知能 (AI) の統合は驚くべきペースで進んでおり、他の分野での AI に見られる変革的な効果を反映しています。 ワシントン・ポスト レポート ジョンズ・ホプキンス大学とスタンフォード大学の研究者らが、ChatGPTなどの言語モデルを強化する技術と同様の技術を使用して手術ロボットを訓練する方法を開発したという。このアプローチには、ビデオ録画を通じて人間の外科医を観察および模倣させることでロボットを教育し、ロボットが針の操作、結び目を結ぶ、縫合などのタスクを自律的に実行できるようにすることが含まれます。ロボットはこれらの動作を再現するだけでなく、落ちた針を回収するなどのエラーを修正する能力も実証し、これまで外科用ロボット工学では見られなかったレベルの自律性を示しています。
精度、安定性、人体内の困難な領域へのアクセスという潜在的な利点にもかかわらず、補助手術から自律手術への飛躍は大きな懸念を引き起こします。現在の手術ロボットは、「ブドウの手術」ミームに登場するロボットと同様、外科医によって手動で制御されており、人間が常に指揮を執っているという安心感を与えてくれます。実際、報告書に記載されているように、2020 年には約 876,000 件のロボット支援手術が実施されました。しかし、自律手術への移行により、人間の解剖学的構造や病理学の大きな多様性に対処する AI の能力に疑問が生じています。既存のデータに基づいてトレーニングされた AI は、これまで遭遇したことのないシナリオに苦戦し、手術中に重大なエラーを引き起こす可能性があります。
規制の状況により、さらに複雑さが増します。自律手術ロボットは、患者の診察の要約などの管理業務に使用される AI ツールとは異なり、FDA などの機関からの厳格な承認が必要となる。これらの管理用 AI アプリケーションは、医師が出力をレビューして承認する限り、FDA の承認を必要としませんが、この実践には独自の問題が生じます。過労の医師はAIが生成したデータを必要なほど徹底的に精査しない可能性があり、これは人間の監視がせいぜい大ざっぱで、悲惨な結果を招く可能性があるAIの軍事応用への懸念と並行している。
倫理的および責任への影響は深刻です。自律型ロボットがエラーを起こした場合、誰が責任を負うのでしょうか?外科医、メーカー、それとも AI そのものでしょうか?この疑問は、間違いが生命を脅かす危険性の高い医療行為を考慮するとさらに重要になります。マイアミ大学のロボット外科部長は、CT スキャンや MRI などの画像データを外科的処置に変換することの複雑さを強調し、AI がリアルタイム シナリオでこの情報を正しく解釈し、それに基づいて動作できるようにするという課題を強調しました。
さらに、外科における AI への依存は、2036 年までに 10,000 人から 20,000 人の外科医に達すると予測されている米国の医師不足という根本的な問題に対する応急処置の解決策と見なすこともできます。AI にもっと自律的な役割を求めるのではなく、 、これらの不足の一因となっている医学教育と実践に対する体系的な障壁に対処する必要があるかもしれません。
自律型手術ロボットの研究は画期的である一方で、倫理、安全、規制上の課題というパンドラの箱を開くことになります。医療分野における AI の可能性は否定できませんが、テクノロジーが人間の健康を危険にさらすのではなく、強化する役割を果たすよう、厳格な監視とバランスを取る必要があります。今後の道のりには、技術の進歩だけでなく、そのような革新に伴って必要となる、訓練、監督、倫理的責任などの人的要素についての深い考慮も含まれます。