より良い未来のために、AIのdisparate impactに細心の注意を

2025 / 1 / 14 | カテゴリー: | 執筆者:山本 香 Kaori Yamamoto

(Photo by John Schnobrich via Unsplash)

人工知能(AI)はすさまじい進化を遂げ、私たちの生活のごく身近なところでも広く活用されています。業務の効率化をはじめ多大なメリットがある一方で、プライバシーの侵害や機密情報の漏えい、著作権の侵害、差別・偏見の助長など、様々な倫理問題をはらんでいる点も指摘されています。そうした問題に対して、EUが先陣を切って法整備を進めていますが、今後他の地域でも同様の動きが進んでいくものと思われます。

問題は「説明できないこと」

たとえば、人材採用にAIを活用したケースでは、女性やマイノリティに不利な評価が下される傾向があるとされ、Amazonのように採用過程でのAIの使用を中止した企業もあります。こうした場合に最も問題となるのが、AIがなぜそのような評価を下したのか誰も説明できないこと。不採用の理由が「AIが導き出したから」では、人として受け入れるのはなかなか難しいはずです。

AIがどのようなデータを学習して、どのように動作して結論を導き出しているのか。また、学習データにバイアスが含まれることで、偏見や差別を生み出していないか。AIが評価を下すまでのそうしたプロセスを人間が完全に理解し、説明できるようにするのは難しいのが現状で、透明性や公平性の欠如が問題視されています。

disparate impactを想定した対策を

そのような現状への対策を検討する際に、前提として持つべき視点の一つがdisparate impact(不当影響)です。米国の公民権法に関連して生まれた法律用語で、以下のように定義されています:

A disparate impact policy or rule is one that seems neutral but has a negative impact on a specific protected class of persons.
(disparate impact方針・ルールとは、中立的に見えても、特定の保護された人々にマイナスの影響を及ぼす方針・ルールである)

一見仕組みとしては中立的に見える制度や決まりであっても、意図せず特定の人々に不利な影響を及ぼすことがある、という考え方です。AIの運用は、人の関与が少ないこともあり、中立性が確保されているように思われます。しかし、そのプロセスが不透明な現状を考えると、AIが導き出した結論によって誰がどのような影響を受けるのかを注視しながら、その原因がどこにあるのかを突き止めて、対策を取っていく必要があります。

AIをはじめとするテクノロジーが人間に与える恩恵は大きく、暮らしを豊かにしてくれている側面は確かにあります。しかし、その仕組みを誰も説明できないまま使用するというのは、ある意味人間がAIに使われているとも言え、恐ろしく感じます。まずはアルゴリズムの透明性がしっかりと確保され、あくまで人間がAIを利用してより良い未来につなげていく道筋が見える形で法整備が進むことを期待しています。

※引用文の太字および試訳はすべて筆者によるものです。

こちらの関連記事もあわせてご覧ください:

AIの普及が格差を拡大? 技術革新が労働者にもたらす影響とは

このエントリーをはてなブックマークに追加