REPORTS

2021年度第4回BAIRAL研究会「アルゴリズムによる判断はいつ差別だといえるのか?:規範理論を用いた哲学的検討」報告

田中 瑛(2021年度 B’AIリサーチ・アシスタント)

・日時:2021年10月9日(土)15:00-16:30
・場所:Zoomミーティング
・言語:日本語
・ゲストスピーカー:前田春香(東京大学大学院学際情報学府博士課程)
・モデレーター:田中瑛
(イベントの詳細はこちら

2021年10月9日(土)に通算8回目となる「BAIRAL」が開催された。「BAIRAL」はB’AIグローバル・フォーラムのリサーチ・アシスタントが企画し、ゲストスピーカーに様々なAIと社会を繋ぐ研究や実践を紹介してもらう取り組みである。今回は人工知能と差別の研究を進めてきた前田春香氏を招き、哲学的観点からアルゴリズムとそれが引き起こす差別の関係をどのように把捉するのかについて発表をして頂いた。

発表内容を簡単に紹介する。アルゴリズムが差別を引き起こすという問題については、それが単に技術的要因ではなく倫理的要因に基づくものだと批判されてきた。ところが、どのような差別が不当なのかは判然としておらず、私という行為者が外在的な影響に拘束されているように、アルゴリズムもデータやプログラムなどの外在的な影響を免れない。さらに、どのような論理に基づき人工知能が判断を行っているのかは誰にも分からないという「ブラックボックス問題」もあり、差別を設計者に帰責することもできない。そこで、前田氏はミシェル・フーコーやブリュノ・ラトゥールに見られる反主体的な考え方を参照した後、主体の意図を問題としないHellman説を採用し、アルゴリズムによる差別は、人間の尊厳を傷つける表現が可能であること(表現条件)、それが典型的であること(慣習条件)、誰かを従属させること(ヒエラルキー条件)により、差別であると考えられると指摘する。例えば、米国で採用されている再犯率予測プログラム「COMPAS」は、「その人が誰であるか」という属性を入力することで、結果的に黒人に不利な判定を下していたが、実際に法執行のために利用されている点こそが問題だと言う。

上記の通り、人工知能が人間と同様に差別をすることが可能であることを踏まえ、日本における人工知能と差別の認識に関する先行調査の結果も併せて発表して頂いた。具体的には、特定の対象を認識しない差別(例えば、黒人の顔だけ認識しない差別)よりも、誤認による差別(例えば、黒人を動物と認識する差別)の方が否定的に見られ、50代以下では人工知能による差別よりもそれがもたらす利益を優先する人も多く見られた。「分からない」と回答する人も全体的に1/5を占めており多かったが、(人工知能に対する)「親しみスコア」が中・高だと答えない傾向が強かった。

以上の発表を踏まえて、オーディエンスを交えた議論が盛んに交わされた。一部を抜粋すると、モノを人と同じくアクターと見做す考え方に人間中心的な法制度や倫理が追いついていないのではないか、アルゴリズム自体が差別をするのではなく、アルゴリズムを作る人が差別をしているに過ぎないのではないか、などの論点が提示された。ますますアルゴリズムによる媒介が増大していく現代社会において、差別の概念的理解さえも問い直す必要が生じていることを問題提起する良い研究会となった。