“子ども”を中心に据えたAIシステムへ

2022 / 1 / 7 | カテゴリー: | 執筆者:岡山 奈央 Nao Okayama

Photo by Leon Seibert on Unsplash

 

2021年の11月末~12月上旬にかけて、「子どものためのAIに関するグローバルフォーラム」と題したイベントがオンラインで開催されました。主催者はUNICEFとフィンランド政府です。

AIシステムは、教育、ヘルスケア、福祉などの分野において、政府や企業による利用が急増しています。AIはイノベーションの原動力になる一方で、プライバシー、セキュリティなどにおいて、子どもやその人権を脅かすリスクもあります。しかしながら、AIに関する多くの方針や戦略では、子どもとの関連性について簡単な言及に留まっているのが現状です。このギャップを埋めるためのアプローチをUNICEFとフィンランド政府は模索しており、AIシステムがいかに子どもを保護し、価値を提供し、エンパワーできるかについて検討する2年間のプロジェクトが進められています。このプロジェクトの一環として、AIが子どもにもたらすポジティブな側面とネガティブな側面についてとりまとめたAI Policy guidance 2.0が公開されました。これは、2020年9月にリリースされたドラフト version1.0に、さまざまなステークホルダーからのインプットを統合したものです。冒頭のグローバルフォーラムは、このガイダンスと関連するケーススタディについての理解を深めることを目的に開催されたものです。

AIシステムが子どもに与える影響

現代の子どもたちは、スマホがなかった頃の生活を知らない初めての世代です。また、ヘルスケアや教育において、AIによるアプリケーションやデバイスが急速に取り込まれている世代であり、自動運転車に乗るのが当たり前となる可能性がある初めての世代です。そのため、今回のガイダンスでは、現代の子どもたちは、私たち大人世代も直面したことのない、AIに関するリスクに対し、完全に定着、浸透する前に、備えを始めなければならないと指摘しています。多くの国の政府や組織ではすでに”人”を中心としたAI方針やシステムの検討を進めていますが、子どもに及ぼす影響を考慮した方針づくりに着手している国や組織は多くはありません。注意しなければならないのは、AIによる技術が子どもに及ぼす影響は常に不確実である、ということです。

AIによる影響を受ける度合は、子どもが置かれている社会経済的、地理的、文化的状況により、また、子どもの身体的、心理学的な発展段階により、異なります。たとえ、子ども向けにつくられたAIシステムでなかったとしても、子どもは間接的に影響を受ける可能性があります。そのため、そのシステムの対象が誰であったとしても、そのシステムが子どもに及ぼす影響を考える必要があるのです。

子どもに対し、AIがもたらす可能性のあるリスクと機会

ガイドラインでは、AIが子どもにもたらす可能性があるリスクとして、以下のような点を挙げています。

  • ・バイアスによる、システマチックかつ自動的な差別や除外
    ・AIによる予測分析やプロファイリングによる、子どもの機会や発展の制限
    ・データ保護とプライバシーの権利の侵害
    ・情報格差の拡大

同様に機会としては以下のような点が考えられます。

  • ・子どもたちの教育と発達への貢献
    ・子どもたちの健康に対する貢献
    ・SDGs達成の支援

行政や企業は、こうしたAIが子どもに及ぼすリスクと機会をバランスよく見極めながら、AIに関する方針や戦略を検討していく必要があります。今回公開されたガイドラインでは、上記のリスクと機会に少しでも関係のある組織では、以下の9つの要請について検討してみることを推奨しています。

  • 1. Support children’s development and well-being
    子どもの発展とウェルビーイングを支援する
    2. Ensure inclusion of and for children
    子どもの、子どものためのインクルージョンを確保する
    3. Prioritize fairness and non-discrimination for children
    子どものための公平と非差別を優先する
    4. Protect children’s data and privacy
    子どものデータとプライバシーを保護する
    5. Ensure safety for children
    子どものための安全を確保する
    6. Provide transparency, explainability, and accountability for children
    子どものための透明性、説明可能性、説明責任を提供する
    7. Empower governments and businesses with knowledge of AI and children’s rights
    AIと子どもの人権についての知識で政府や企業をエンパワーする
    8. Prepare children for present and future developments in AI
    子どもに、現在および将来のAIの発展への備えをさせる
    9. Create an enabling environment
    上記を達成するための環境を整える
  • (以上、仮訳)

IBMの説明によると、6のexplainability(説明可能性)とは、” 機械学習アルゴリズムが生み出す結果とアウトプットを人間のユーザーが理解し、信頼できるようにするための一連のプロセスと手法”のことで、“AIが高度化すればするほど、人間はアルゴリズムがどのようにして結果を出したのかを理解し、辿ることが難しくなる”そうです。私たち大人は、ブラックボックス化により生み出されている偏見や差別について十分に理解し、子どもたちへの影響を見極め、配慮するための環境づくりをしていく必要があるのです。

行政、企業、教育機関が一体となった、子どもとAIの環境整備

子どもの権利をAIのシステムづくりの中心に据える試みをすでに始めている国の一つにスウェーデンがあります。スウェーデンでは、2020年1月、子どもの権利条約の内容が法律に取り込まれ、約6割の自治体において、その内容が各種方針やプロセスに反映されるよう何らかの取り組みを始めています。しかしながら、いずれもその場限りであったり、単発の取り組みが多く、より包括的な方針や戦略が必要であるとの声が高まったことを受け、City TrackとNational Trackという二つのイニシアチブが発足しました。いずれも、子どもを中心としたAIシステムを行政や民間企業のオペレーションに反映することを目指しており、その際に必要となる要素の特定を目的としています。City Trackで3都市についての評価を行った結果をベースに、National Trackでは、スウェーデンイノベーション・システム庁(VINNOVA)が出資し、AI推進のための国立機関であるAI Sweden、ビジネス・学術機関・社会をつなぐNPOであるMobile Heights、民間企業のaiRikr Innovation、そして ルンド大学が連携し、国レベルでの戦略づくりを進めています。

日本でも、ウィズコロナの視点から、授業にタブレットを導入する小・中学校が急増していますが、家に持ち帰った後の取り扱いについては、保護者に一任されているケースが多いようです。しかしながら、AIが子どもに対し様々な影響を及ぼし、結果として子どもの人権を侵害してしまう可能性があること等、不確実な要素が多い中で、その判断を保護者だけに任せるのは、かなりハードルが高いといえるでしょう。

北欧の国々のように、日本も国、自治体、企業、教育機関などが連携し、さまざまな視点から影響を検証し、次世代を担う子どもたちの教育環境に反映していく必要性は急速に求められています。

(岡山奈央 エコネットワークス  シニアアナリスト)

このエントリーをはてなブックマークに追加