人工知能ブームは、AI ベースの訪問要約や患者の状態の分析という形で、すでに医療分野に浸透し始めています。今回、新しい研究で、ChatGPT に使用されているものと同様の AI トレーニング技術を使用して、手術ロボットが自律的に動作するようにトレーニングできることが実証されました。
ジョン・ホプキンス大学とスタンフォード大学の研究者らは、人間が制御して外科手術を行うロボットアームのビデオ録画を使用してトレーニングモデルを構築した。研究者らは、ビデオ上の動作を模倣することを学ぶことで、手順に必要な個々の動作をプログラムする必要性を減らすことができると考えています。から ワシントンポスト:
ロボットは、針を操作し、結び目を作り、傷を縫合することを自分で学習しました。さらに、訓練されたロボットは単なる模倣の域を超え、落ちた針を拾うなど、言われなくても自分の間違いを正すことができました。科学者たちはすでに次の段階の研究を開始しており、さまざまなスキルをすべて組み合わせて動物の死体に対して完全な手術を行うという作業に着手している。
確かに、ロボット工学は何年も前から手術室で使用されてきました。2018 年に遡ると、「ブドウの手術」というミームが、ロボット アームが高いレベルの精度を提供することで手術をどのように支援できるかを強調しました。約 876,000件のロボット支援手術 ロボット器具は、外科医の手では決して収まらない体内の場所に到達して作業を行うことができ、震えに悩まされることもありません。スリムで精密な器具は神経の損傷を防ぐことができます。しかし、ロボットは通常、外科医がコントローラーを使って手動で操作します。外科医が常に担当します。
より自律的なロボットに懐疑的な人々が懸念しているのは、ChatGPT のような AI モデルが「インテリジェント」ではなく、単に以前に見たものを模倣しているだけであり、それらが扱っている根本的な概念を理解していないということです。では、AI モデルがこれまでに特定のシナリオを経験したことがない場合は、どうなるでしょうか?手術中に一瞬のうちに何か問題が発生する可能性があります。AI が対応するように訓練されていなかったらどうなるでしょうか?
少なくとも、手術に使用される自律ロボットは食品医薬品局の承認が必要となる。医師が AI を使用して患者の診察を要約し、推奨事項を作成する他のケースでは、技術的には医師が作成した情報をレビューして承認することになっているため、FDA の承認は必要ありません。 AI ボットが不適切な推奨を行ったり、幻覚を起こしたり、発言されていない情報を会議の議事録に含めたりするという証拠がすでにあるため、これは憂慮すべきことです。疲れ果てて過労の医師は、AI が生成するものをよく調べずにゴム印を押すことがどれくらいあるでしょうか?
イスラエルの兵士たちの様子に関する最近の報道を思い出させるような気がする AI に依存して攻撃ターゲットを特定する 情報をよく精査せずに。 「テクノロジーの使用について十分な訓練を受けていない兵士が、(AIの)予測をまったく裏付けることなく人間の標的を攻撃した。」 ワシントンポスト 話 読みます。 「ある時期には、ターゲットが男性であるということだけが裏付けとして必要だった。」人間が現状に満足して十分に理解していない場合、物事がうまくいかなくなる可能性があります。
ヘルスケアもまた、大きな利害が伴う分野であり、消費者市場よりも確実にリスクが高くなります。 Gmail がメールの要約を間違っていたとしても、それは世界の終わりではありません。 AI システムが健康上の問題を誤って診断したり、手術中にミスを犯したりすることは、はるかに深刻な問題です。この場合、誰が責任を負うのでしょうか?の 役職 マイアミ大学のロボット外科部長にインタビューしたところ、彼はこう言いました。
「これは生死に関わる問題なので、賭け金は非常に高い」と彼は言った。すべての患者の解剖学的構造は異なり、患者における病気の挙動も異なります。
パレク氏は、「CTスキャンやMRI(の画像)を見て、ロボットアームを制御して手術を行う」と語った。 「ロボットに手術自体を行わせたい場合は、ロボットがすべての画像処理、CT スキャンや MRI の読み取り方法を理解する必要があります。」さらに、ロボットは、非常に小さな切開を使用する鍵穴手術または腹腔鏡手術を実行する方法を学ぶ必要があります。
完璧なテクノロジーが存在しない以上、AI は絶対に間違いないという考えを真剣に受け止めるのは困難です。確かに、この自律技術は研究の観点からは興味深いものですが、自律ロボットによって行われた手術の失敗による打撃は計り知れないものになるでしょう。何か問題が起こった場合、誰を罰しますか、誰が医師免許を剥奪されますか?人間も無謬ではありませんが、少なくとも患者は、何年にもわたる訓練を受けており、何か問題が起こった場合には責任を負うことができるという安心感を持っています。 AI モデルは人間の粗雑な模倣であり、時々予測できない動作をし、道徳的な羅針盤を持っていません。
医師が疲れていて過労になっているのであれば(この技術が貴重である理由を研究者が示唆している理由ですが)、代わりに不足を引き起こしている体系的な問題に対処すべきかもしれません。米国では医師不足が深刻であることが広く報じられている。 フィールドへのアクセスが困難になる。同国では、2036年までに1万人から2万人の外科医が不足する見通しだという。 米国医科大学協会。