Sustainability Frontline サステナビリティをカタチに
AIに携わるあらゆる企業の皆様へ
AIの力を、地球規模の問題解決への貢献や
平和で持続可能な社会の発展のために活用するよう努めます。
SONYが今年9月に発表した、
ソニーグループAI倫理ガイドライン
の一文です。
最近では毎日のようにAIというワードを耳にするようになりました。
技術開発が進み、現在AIは実際に社会の中に入ってくる段階にまできています。
社会実装に伴い注目が高まっているのが、
AIの負の側面をいかに抑制するかという議論です。
漠然とした不安についての抽象的な話ではなく、
AI開発に携わる、あるいはAIを利用する一企業の責任として、
AIのポジティブな側面を抑制しない形で、
どのように負の側面と向き合っていくのか。
負の影響を最小化するために、何をするのか、しないのか。
そうした議論が様々なところで始まっています。
SONYは、FacebookやIBM、Amazonなどが設立した
Partnership on AIに2017年に参加。
AI技術を人々と社会の貢献にどう役立てていくのかについて、
倫理面の問題も含め、議論を進めています。
その流れの中でSONYが発表したのが、日本企業としては先進的な
AI倫理ガイドラインです。
何のためにAI開発を行うのか。
AI開発に伴う課題を解決するために何をしていくのか。
AIの問題点の一つは、AIによる判断の過程が外からは見えず
ブラックボックス化していることです。
そのためAIによる人権侵害などの問題が引き起こされた場合
(たとえばローン提供や就職採用においてAIが差別的な判断をする、など)
その原因を追求することが難しくなります。
現時点ではその問題を解決する方法が明らかではないため、指針では
「AIによる判断の理由が捕捉可能となるような仕組みを、当該商品・サービスの
企画・設計段階において予め導入する可能性を追求していく」
と定めています。
海外企業の指針を見てみると、
Googleは、人々に直接危害を加えるような軍事用途や
国際的な規範を侵害するような監視用途など
技術開発を「追求しない分野」について明言しています。
Microsoftは、AIが人のためにデザインされ、
利用されることに重きを置いています。
AIが及ぼす負の影響へ考える上で、
根幹となるのが「倫理」や「人権」です。
具体的な向き合い方については、
Business for Social Responsibilityが発表した
権利視点からAIを考えるレポート3部作がお勧めです。
AI活用における10の原則やAIバリューチェーンにおける業界ごとの人権リスク、
考えていくためのツールなどがまとまっていて、参考になります。
Artificial Intelligence: A Rights-Based Blueprint for Business
https://www.bsr.org/en/our-insights/report-view/artificial-intelligence-a-rights-based-blueprint-for-business
AIの開発や利用に携わる企業に是非読んでいただきたい一冊(3冊)です。