- 人工知能(AI)とは何ですか?
人工知能(AI)は、通常人間の知能が必要とされるような認識、推論、学習、意思決定などのタスクを実行できるようにすることに焦点を当てた、コンピュータサイエンスの広範な分野です。一方で、機械学習(ML)はAIのサブフィールドであり、与えられたタスクのパフォーマンスを自動的に向上させるためのアルゴリズムを作成することを含みます。
医療分野でAIについて話すとき、しばしばMLを指します。MLモデルにはオープンとクローズドの2種類があります。その主な違いは、トレーニングデータの入手可能性とアクセシビリティにあります。
2 . オープンとクローズドのAIモデル
本記事の執筆時点では、FDA(米国食品医薬品局)で承認されたオープンMLモデルは存在していませんでした。すべてのML承認製品はクローズドモデルを使用しています。
クローズド機械学習は、トレーニングデータが事前にラベル付けまたは事前に分類されており、機械学習アルゴリズムがそれらのラベルやカテゴリに基づいて新しいデータを予測または分類するように訓練される機械学習アプローチを指します。トレーニングデータはしばしば独自または制限されており、アルゴリズムは特定のタスクを実行するように訓練されます。
一方、オープン機械学習は、トレーニングデータが一般に利用可能であり、一般の人がアクセスできる機械学習アプローチを指します。オープン機械学習の目標は、現実の問題を解決し、新しいデータについて予測を行うアルゴリズムを開発することがしばしばあります。
3 . AIが医療業界での応用は何ですか?
医療での使用に関しては、実行されるタスクの具体性が重要です。閉ループ学習はアルゴリズムの教育においてより大きな制御を可能にします(教師あり学習)、該当の応用分野で医療従事者(HCP)によって分析されたデータセットを使用します。
MLモデルに使用されるトレーニングデータは、アルゴリズムにバイアスを導入しないようにするために使用前に評価する必要があります。通常はトレーニングのために使用されるデータセットが制限されているため、重要な変数がすべて考慮されていることを確認するためのものです。
複数のデータセットが使用されるべきです(されるべきです);アルゴリズムのトレーニングのためのもの、システムが既知のデータセットに対して正しい応答を生成していることを検証するためのもの、そしてシステムが未知のデータセットに正しい臨床応答を提供していることを確認するためのもの(これも医学的に資格のある人物によって確認されます)。
MLアルゴリズムへの変更ごとに、新しいバージョンが提供される前にこのプロセスを経る可能性があり、規制機関の承認プロセスが適用されます。これはトレーニングに使用されるデータの品質に依存する可能性があります(Open MLデータの品質に対する懸念があります)。
これはOpen MLアルゴリズムが上記のプロセスを経ないと言っているわけではありませんが、まだそのプロセスを経ていないというだけです。使用されるデータセットの品質を制御し、モデルの適切な検証と検証を確保する仕組みは、規制当局を満足させるためにまだ詰められている最中です。
初のOpen MLアルゴリズムを医療応用に持つことは素晴らしい自慢になるかもしれませんが、そのための道のりは長く険しいものでしょう。
現時点では、閉ループMLアルゴリズムとこれらが規制当局によって承認される前に経る頑丈な試験があり、これらの医療機器の結果と他の情報源から得たデータを使用して患者の健康状態とニーズの診断を支援する医療専門家がいます。
要約すると、医療におけるAIは医師を自動化し置き換える試みと見なすべきではありません。むしろ、医師の患者を助ける能力を増強する視点で捉えるべきです。
4 . AIを医療分野での視点: どのような課題が存在するか?
AIを医療に活用することには多くの潜在的な利点がありますが、臨床設定で広く採用される前に解決する必要があるいくつかの課題も存在します。以下は、主な課題のいくつかです。
データの品質と入手可能性: AIシステムは学習のために大量の高品質なデータが必要ですが、医療データは乱雑で不完全であるか、エラーが含まれることがあります。さらに、特定の状態や人口に対してデータが不足している場合があり、正確なモデルを開発するのが難しいことがあります。
規制と倫理的考慮事項: AIシステムは患者のプライバシーやデータセキュリティに関する規制に準拠する必要があり、バイアスや公平性などの倫理的な考慮事項もあります。AIが責任ある透明性を持って使用されるためには、これらの問題に注意を払う必要があります。
解釈可能性と説明可能性: 臨床環境では、AIシステムがどのようにしてその推奨や予測に至ったかを理解することが重要です。しかし、多くのAIモデルは複雑で解釈が難しいため、医療提供者が信頼して効果的に使用することが難しいことがあります。
既存のワークフローとの統合: 医療提供者は患者ケアを管理するための確立されたワークフローとシステムを持っており、AIシステムはこれらのワークフローにシームレスに統合される必要があります。これには、AIが既存のプロセスやシステムにどのように統合されるかを慎重に考慮する必要があります。
責任と説明責任: AIシステムが臨床的な意思決定にますます関与するようになると、AIによって行われた意思決定に対して誰が責任を持つかという疑問が生じます。AIが誤りを comitte したり誤った情報を提供した場合、その結果として生じた被害に対して誰が責任を負うかは判断が難しいことがあります。
トレーニングと教育: 医療提供者は効果的にAIシステムを使用するためにトレーニングを受ける必要があり、これには新しいスキルと知識が必要かもしれません。また、患者には治療にどのように影響を与えるかやケアにおけるAIの役割について教育が必要かもしれません。
全体的に、臨床環境でのAIの使用には複雑で多面的な課題が存在します。これらの課題に対処するには、医療提供者、技術開発者、政策立案者、患者間での協力が必要です。これによって、AIが安全で効果的かつ責任ある方法で使用されることが確保されます。
5 . まとめ
医療におけるAIは「もし」の問題ではなく、「いつ」の問題です。これらのシステムのテストにおいて戦略を進化させることは極めて重要です。これにより、AIが医療で信頼できるパートナーとなり、患者の結果を大幅に改善し、高品質な医療へのアクセスを民主化する可能性が生まれます。AIの可能性を受け入れるにあたり、これらの技術がすべての患者の安全のために堅牢にテストおよび検証される方法という、重要な課題を見逃してはなりません。
AIモデルまたはプロンプトエンジニアリングの技術が重要な約束を秘めた、興奮と迅速に成長している分野です。AIの成果を向上させるための手法がまだ不明瞭な場合は、Miichisoftと提携して当社の迅速なエンジニアリングサービスを利用することが、状況を劇的に変える可能性があります。また、Miichisoft には、医療分野にプロンプトエンジニアリングの応用・人間とAIの相互作用改善する具体的な10つの推奨事項という記事があります。興味がある場合は、こちらのリンクをクリックして参照してください。
参考リンク:https://miichisoft.com/application-of-prompt-engineering-medical-field/