信頼に足るAI(Trustworthy AI)その1(バイアス)

AIマネジメントシステム

国際規格として、ISO/IEC42001:2023 Information Technology-Artificial Intelligence-Management systemが2023年12月18日発行されました。関連規格の開発も着々と進んでいます。

さて、ご承知の通り。人工知能 (AI) テクノロジーは、人間の生活と社会を変革する大きな可能性を秘めています。一方、AIプログラム及びAIテクノロジーを用いた製品・サービスでは、知識・技術の急速な進歩の中で、他の種類のテクノロジーのリスクと同様に、AIリスクはさまざまな方法で現れる可能性があり、長期または短期、高リスクとして認識されています。



AIテクノロジーを活用するとは

  • 従来のITシステムと異なり、AIが自動意思決定に使われる。
  • 人間がコーディングしたロジックではなく、AIテクノロジーを使用した製品・サービスの実装
  • 人間がコントロールするのではなく、継続的に学習を行うAIシステム

これらAIテクノロジーに依存すればするほど、AIは“信頼に足る”べきであり、それに見合った製品・サービスとしての機能、品質の高さが求められます。


  • AI品質の課題例(顔認証技術)

わずか数年前の出来事ですが、顔認証技術において、白人以外の認識率が低く、Microsoft, Google, Amazon, 米国IBMなど大手IT 企業は、顔認証システムの開発、販売から撤退、またアメリカ国内の警察への販売を停止しました。

  • バイアス(偏り/偏見)

このケースでは、”学習データのバイアス(偏り)により、白人以外の認識精度が相対的に低いという“信頼に足らない”AIシステムであったことが原因でしたが、誤判定だけではなくもう一つの問題点として、2021年6月25日、米ミネアポリスでアフリカ系市民フロイドさんが白人警察官に殺された事件による人「反人種差別運動」という社会的バイアス(偏見)を考慮した、開発撤退、販売停止に至った事例でもあります。

Microsoft, Amazon, 米国IBMは、この「反人種差別運動」真只中で、開発撤退、販売停止の方針転換を発表したとのことでした。


マネジメントシステムはリスクヘッジとなる

今回のコラムでは、バイアスについて、2つの側面でご紹介しましたが、ISO/IEC4001:2023では、この2つの側面を次のような事項でリスクヘッジ管理をします。箇条6.1;リスクアセスメント(6.1.1,6.1.2, 6.1.3)とAIシステムの影響評価(6.1.4)、の要求事項に従い、組織はリスクベース・アプローチ(ヘッジの仕組み)を使用し、組織のAI技術を使用した製品・サービスまたはAI ユースケースに適切な管理レベルを適用し、運用していきます。

具体的には、学習データのバイアスのリスク管理は、リスクアセスメントとその対応で、社会的影響と関係性は、AIシステムの影響評価で特定し、管理していくという要求事項です。

補足、今回はデータの収集というフェーズを取り上げておりますが、AIプログラム、AIを活用した製品・サービスの開発工程が全てを対象とできます。

次回は、今回の“信頼に足るAI”の第1弾としてELSI(Ethical, Legal and Social implications)の社会的な課題にフォーカスしてみましたが、次回以降は、倫理的・法的な要素について、皆様と考えていきたいと思います。

コラム 執筆 担当

コンサルタント
窪田 嘉代子 Kayoko Kubota

自己紹介

あと先になりましたが、私はバリューアップ ジャパンで、今後このAIMS構築を担当することになるコンサルタントの窪田です。

今回のコラムでは、顔認証技術を取り上げましたが、そのほかには、指紋、網膜、声紋など生体認証が多数出てくる「ミッション:インポッシブル」のシーンは有名です。私はそれらを突破していくイーサン・ハントの大ファンですが、「こんなにうまくいくものかしら?」とも思いつつ、ハラハラドキドキしながら全シリーズを観ています。

と、同時に、上記のリスクアセスメントと影響評価のロジックについて、どのような仕組みにしたらよいか?日々、試行錯誤しています。