英国の理学療法士団体「Chartered Society of Physiotherapy(以下、CSP)」は、理学療法領域における人工知能(AI)の使用に関する包括的な原則を公開した。
AI技術の臨床現場や教育・研究領域への導入が進む中、倫理的な活用と専門職としての責任を果たすためのガイドラインとして掲載されている。
全18の原則を提示、多層的な視点から構成
CSPが発表した「Statement of Principles to Apply the Use of AI in Physiotherapy(理学療法におけるAI使用に適用される原則の声明)」は、AI活用に関する多層的な視点から、計18項目の原則を掲示している。
<原則>
1. 透明性(Transparency)
2. 必要性(Need)
3. 有効性(Effectiveness)
4. 公平性(Equity)
5. 説明責任(Accountability)
6. 機密保持(Confidentiality)
7. 知的財産の尊重(Respecting intellectual property)
8. リスク管理(Risk management)
9. 持続可能性(Sustainability)
10.安全性(Safety)
11.選択(Choice)
12.同意(Consent)
13.臨床上の説明責任(Clinical accountability)
14.実践の範囲(Scope of practice)
15.パートナーシップによる連携(Partnership working)
16.相談・リスク評価・法的義務(Consultation, risk assessment and legal obligations)
17.ベストプラクティス(Best practice)
18.活用と適用(Use and application)
これらの原則は、AIを導入・活用する際の「チェックリスト」や「実装判断の基準」として活用されることを想定しており、抽象的な理念にとどまらない実務的なガイドラインとして位置づけられている。
また、すべての原則があらゆる状況や設定に当てはまるわけではなく、どの原則が自分に関係するかを判断するのは個人次第と強調している。
なぜ今、AI活用の原則が必要なのか?
CSPは声明の中で、AI技術が理学療法に与える影響について「ポジティブな可能性」と「深刻なリスク」の両面を強調している。
AIはすでに、運動計画の作成、記録の自動化、患者のリスク予測、教育支援など、理学療法の多領域に導入されており、その活用は今後さらに加速すると予測される。
一方で、誤作動、バイアス、責任の不明瞭化、患者との関係性の希薄化など、多くの課題が指摘されている。
CSPは「AIは専門職の判断や説明責任を置き換えるものではない」と明言しており、人間中心のケアとの両立を重視している。
また、今回発表された原則は「半年ごとの見直し」を前提としており、急速に進化する技術に対応する“動的な指針”として機能することが期待されている。
リハビリテーション専門職に求められる "AIとの向き合い方"
日本のリハビリテーション現場においても、AIを活用した動作解析アプリ、リハ支援ロボット、計画書や文書作成に関する自動化ツールが登場しており、今後さらに医療・介護現場での普及が進むことが予想される。
こうした状況の中で、「AIをどう活かすか」だけでなく、「AIとどう向き合うか」が問われる時代となっている。
日本においても、以下のような対応が今後必要になる可能性が考えられる。
● 患者の選択権を尊重するAI活用の設計
● 専門職としての説明責任の所在を明確にする体制づくり
● 教育・実習段階からのAIリテラシー教育の導入
● 倫理的なガイドラインや運用規定の整備
CSPの原則は、AIの利便性に流されることなく、患者中心のケアと専門職の価値を守るためのひとつの指針といえる。
日本のリハビリテーション専門職にとっても、国際的な動向を参考に、自国の現場に即した「AI活用の原則」と仕組みを整えていくことが求められる。
引用・参考:Chartered Society of Physiotherapy ホームページ
■ New AI in physio principles provide a ‘guideline for the future’(CSP 最新ニュース)
■ Statement of principles to apply to the use of artificial intelligence (AI) in physiotherapy(AI活用に関する原則の声明)