2021.Oct.12
REPORTSIvana Bartoletti氏講演会「Power, Politics, & AI: Building a Better Future」報告
森原ソフィア遥(東京大学教養学部理科二類、2年)
・日時・場所:2021年8月30日(月)18時~19時半(日本時間) @Zoom
・言語:英語
(講演会の詳細はこちら)
8月30日、B’AI グローバル・フォーラムのイベントとして、イヴァーナ・バルトレッティ先生(オックスフォード大、Women Leading in AI Network共同創設者、Ivana Bartoletti)を招いた英語のフォーラムが開かれた。「Power, Politics & AI: Building a Better Future」をテーマとし、AIの活用が社会に広まる中、AIがいかに政治的なものであるか、社会にどのようなインパクトをもたらすのかに関する講義を拝聴した。このイベントは、同フォーラム運営メンバーであり、東京大学大学院情報学環・学際情報学府所属の板津木綿子教授が“AI and Social Justice” 講演シリーズの司会を務め、B’AIグローバル・フォーラムのプロジェクトディレクターであり東京大学大学院情報学環所属、東京大学理事・副学長でいらっしゃる林香里教授による開会の辞を受けて始まった。
AI倫理、とりわけAIにおけるジェンダー平等やプライバシーの確保について、英国を中心に広く発信している先生は、冒頭でプライバシーの問題をジェンダーの文脈で語ることが重要だと述べた。「データは新しい石油である」という言説が唱えられるように、社会のデジタル化の流れは個人の行動のデータ化 (Datafication) として進んでいるが、データは相互に接続しているものであり、データが収集されることはデータの管理者などそのデータにアクセス可能な人々による横断的な監視が可能になるということでもある。加えて石油と違い、データは何度でも繰り返し使える点もあいまり、AIがそのようなデータを元に解析することにより、すでに脆弱な立場にある人々がますます危険にさらされるという。
現代のデジタル化社会におけるデータ化の流れは、「データは中立なものであり、意思決定にとって客観的な根拠となりうる」という認識に基づいて促進されてきており、この認識は広く浸透している。しかし、現代社会で利用可能なデータは、人間社会の権力の偏重、さらにそれによる差別の歴史を色濃く反映したものであり、未だ問題を孕んだ現代社会の鏡といえるものでもある。歴史的背景を含有した現存データを活用してさまざまなシステムやサービスを開発することは、女性をはじめ歴史的に差別を受けてきた集団にとって大変不利なものになりうるのだ。したがって、データを利活用することによって問題を増幅された形で社会の不均衡な構造が再生産される可能性があるという。
現存のデータから未来を予測するAI利用においては、その過程で監視やコントロールするための公の手が介入する。これによって影響を受けるのが社会で最も脆弱な立場の人々であるという。彼らは、現在の社会構造のパターンを変革することによってしか状況改善が見込めないというのに、パターンを学習し未来予測をするAIによってこのパターンは強化され、これらの人々はさらなる足かせを課せられることになるからだ。
加えて、具体的なAI利活用による弊害が挙げられた。AI(殊に機械学習)の中でも、入力された情報をもとに個人の嗜好や行動の「予測」を行う例として、購買履歴や検索履歴に基づく広告の表示やニュースの選別が挙げられる。これにより、従来無作為に現れて目にしていた周囲の情報にトレンドやパターンが生まれ、これまで匿名性や独自性が確保されていた個人の好みや経験、見聞きするものがAIの介入により、完全に個人に拠るものではなくなってしまうおそれがある。これは、民主主義にも大きな影響を与えうるという。何を見聞きするか、どんなニュースを読むかがAIに制御され、民主主義の前提となる共通認識が形成されなくなるからだ。
講義終盤ではこのような状況を踏まえ、どのようにこの問題に取り組んでいくべきかという問いに対し、この問題は大変複雑で、自然の流れに任せていてはどの分野の人も取り組まずに終わってしまうため、世界的に取り組んでいくべき課題であると述べられた。そのグローバルな議論の場においては多様性が不可欠である。サービスの開発の段階においてだけではなく、テクノロジーとはどういうものなのかといった包括的な議論の空間にも、女性を含めた多様なアイデンティティグループが参画しているかどうかを留意しなければならない。ジェンダーの文脈を含め、個人の立場からではなく集団としての利益を考慮しながら、プライバシーという概念を国際的にどうとらえていくのかを考える必要があるとされた。
Q&Aセッションでは、人間とAIによる意思決定の比較を踏まえ、意思決定の透明化をAIにも求められるようにするべきであるとの意見が述べられたり、権力の偏重が顕著な社会で、既存の権力を持つ例えば男性が多様性によって利益を得ることはできるのか、といった問いが立てられたり、多様な視点からのディスカッションが行われた。先生は、講義と質疑を通じてAIとは、テクノロジーとはなんなのかという問いを常に問い続けなければならないという問題提起によって会を締めくくられた。
講義を拝聴する中で次のようなことを感じた。先生が講義全体にわたって強調された通り、近年EBPM (Evidence-Based Policy Making)という概念が浸透してきているように、データを踏まえた意思決定が広まってきているといえるだろう。しかし、データは収集の仕方、分析の仕方によって信用性が大きく変化するのはもちろん、いかに正確に測定されたとしても現代社会に潜むバイアスを反映したものになってしまう。このことを理解した上で意思決定がなされなければならないという点は、広く社会に啓蒙されなければならないとこの講義を通して感じた。データの利活用によって利便性が増し、社会にサービスが行き届く場面も必ずあるが、新たな技術の実用とともに、それがもたらしうるリスクや影響を確かめながら議論し、問いを立て続けることを忘れてはならないということを改めて気づかされた講演であった。