· 

WHOガイダンス「健康のための人工知能の倫理とガバナンス 」

WHOは健康のためのAI利用と倫理に関する包括的・国際的な指針を2021年6月に発表した。目的は、画像診断支援や手術支援、製薬など、医療のさまざまな領域で利活用が進むAIの適切な活用を促すことだ。公衆衛生をはじめ医学、法律、人権、技術、倫理などの専門家20人によるもので、9つの章と付章で構成されている。AIに伴う倫理的な課題やリスク、さらにすべての国でAIが公共の利益のために機能するための6つの原則を示している。以下、要約を示す。

1.自律性の保護

 医療領域では、「人が意思決定をコントロールし続ける」ことが、自律性の原則である。AIは、医療提供者であれ患者であれ、十分な情報に基づいて意思決定できるよう支援するように設計されなければならない。また、自律性の尊重は、プライバシーと機密性を保護し、インフォームド・コンセントを確保する義務も伴う。

2.人間の幸福と安全、公共の利益の促進

 AIは人を傷つけるものであってはならない。資金提供者や開発者、システムユーザーは、安全性、正確性、有効性を満たすように開発しなければならない。さらにシステム展開後もAIアルゴリズムの性能を継続的に測定・監視し、AIが設計どおり機能し、患者に有害な影響を与えていないか評価する義務を負う。

3.透明性・説明可能性・理解可能性の確保

 AIの透明性を向上させ、説明可能なものにしなければならない。透明性を確保するためには、AIの設計・展開前に、十分な情報を公開または文書化し、それらをもとに設計方法や使用方法・範囲について、公的な協議や議論を促す必要がある。

4.責任と説明責任の促進

 AIを正しく運用する責任はステークホルダーにある。開発・展開時に、人間が監督する機会を設けねばならない。どこを監督するかは、専門家や設計者、患者などの議論で決まる。監督の目的は、アルゴリズムが医学的に効果的で、疑うことができ、倫理的責任のある機械学習の開発が行われるようにするためだ。AIの使用で生じた問題には、説明責任が果たされねばならない。

5.包括性と公平性の確保

 包括性とは、健康のためのAIが、年齢、性別、収入、人種、民族、性的指向、能力などにかかわらず適切で公平に使用・アクセスできるよう設計されることを意味する。高所得層だけでなく、多様な中間・低所得層の目的や能力に合わせて使用できるようにしなければならない。特に、疎外されている層に不利な偏見をコード化してはならない。

6.レスポンシブで持続可能なAIの推進

 AIの設計者、開発者、ユーザーは、継続的・体系的かつ透明性をもってシステムを評価し、正当な期待や要求に応じて、AIが適切に反応するか判断しなければならない。同時にシステムは、環境影響を最小限に抑え、エネルギー効率を高めるように設計されねばならない。持続可能性のために政府や企業は、AIに適応できるよう医療提供者を訓練したり、AIを使用することによる雇用喪失など、予想される混乱に対処する必要がある。