Translators in Sustainability 伝わるコミュニケーションへの道
AI時代の倫理問題
近年、人工知能(AI)は目覚ましい発展を遂げています。近い将来にAI活用が期待されるシーンは多岐にわたり、現時点でも日常の中でその利便性を享受できるようになってきています。その一方で、AIのネガティブな面も浮き彫りになりつつあります。
昨年は、クレジットカードの使用限度額に性差別の疑いがあるというSNS投稿が拡散し、世界中で議論を呼びました。
AIは、窃盗犯などの将来の再犯リスクを測るためにも使われていますが、ここでは黒人差別が疑われています。公平な目で見れば明らかに違和感のある判定が出るケースが何度も確認されています。
また人工知能がSNSで暴走し、暴言を連発するという事件もありました。
AI導入によるこうした事例は、後を絶ちません。
未来学者のエイミー・ウェブ氏による『The Big Nine: How the Tech Titans and Their Thinking Machines Could Wart Humanity(邦題:ビッグナイン 巨大ハイテク企業とAIが支配する人類の未来)』では、「Black box problem(ブラックボックス問題)」がAI倫理問題の特に大きな原因であると指摘されています。
AIは目的のために最適化を繰り返し、判断を下します。しかし、そのプロセスは現時点では不透明な部分が多く、重大なバイアスが紛れ込む可能性を完全に排除するのは困難です。
また、AIのアルゴリズムは「中立」ではありません。AIの学習の元となるデータに人的なミスやバイアスがあれば、AIにもそのバイアスが反映されてしまいます。ビッグナインの著者ウェブ氏は、AI開発に携わる人々のことを「AI’s tribes(AI種族)」と呼び、そのバックグラウンドの偏りがもたらす潜在的なバイアスの危険性について述べています。
AIのネガティブな面の克服に向けて、企業や国際機関では倫理を尊重しようとする動きが始まっています。
たとえばMicrosoft社は、Fairness(公平さ)、Accountability(説明責任)、Transparency(透明性)、Ethics(倫理)の頭文字をとったFATEというチームを発足させ、AIの倫理問題に取り組んでいます。
またUNESCOは2019年の世界情報社会サミットフォーラム(WSIS)で、現時点ではAIの開発や利用における倫理に関する世界的な枠組みや原則はないと指摘した上で、AIの倫理性確保に向けた動きをリードしていくつもりだという意気込みを発表しました。
AIが人間の知能を超える「シンギュラリティ」は2045年に起こると予測されています。現状のままでは、明るいAI時代は望めないとウェブ氏は言います。
適切な方向に進めば、AIは生活のさまざまな面を改善させると期待されています。学習量やスピードの面では人間をはるかに上回り、将来的には人間の知能や創造性を補完する優れたツールになると考えられています。
シンギュラリティ以降の未来を前向きな気持ちで迎えられるように、こうした課題が早期に解決されることを願っています。
(翻訳者、翻訳コーディネーター/立山美南海)
ーーーーーーー
関連ブログ:AI時代の到来とジェンダー
https://www.econetworks.jp/translationtips/2019/01/ai-gender/
翻訳トレーニング講座 受講者募集中!
環境やサステナビリティの分野を専門とする翻訳を志す方の成長をサポートする翻訳講座「サステナビリティ翻訳トレーニング」。実際にご依頼いただくことの多い報告書や資料に類似する内容を課題とし、受講者の方のレベルアップにプロ翻訳者でもある講師が伴走します。
【募集終了。満席となりました】(2021/5/11更新)