REPORTS

Ana Beduschi先生講演会「Artificial Intelligence and Digital Technologies at the Border: Migration and Human Rights Considerations」報告

渡邉結奈(東京大学教養学部学際科学科総合情報学コース、3年)

・日時・場所:2021年8月24日(火)17時半~19時半(日本時間) @Zoom
・言語:英語
(講演会の詳細はこちら

8月25日、B’AI グローバル・フォーラムのイベントとして、アナ・べドゥスキ先生(英国エクゼター大、Dr. Ana Beduschi)を招いた英語のフォーラムが開かれた。”Artificial intelligence and digital technologies at the border: Migration and human rights consideration”をテーマとし、移民政策におけるAIの使用とその人権に関わる懸念について、非常にわかりやすく、また学びの多い講義をいただいた。このイベントは、同フォーラム運営メンバーであり、東京大学大学院情報学環・学際情報学府所属の板津木綿子教授が”AI and social justice” 講演シリーズの司会を務め、B’AI グローバル・フォーラムのプロジェクトディレクターであり東京大学大学院情報学環所属、東京大学理事・副学長でいらっしゃる林香里教授による開会の辞を受けて始まった。

 

 

移民政策におけるAIの使用に潜む問題点

 

まず、講義の始めとして、べドゥスキ先生により、AI及びディープラーニングに関する定義が次のように導入された。AIは、データやアルゴリズム、コンピュータの力を組み合わせた広く一連の技術を指し、ディープラーニングは人間の脳機能を模倣した機械学習の一種で、画像や顔認識などの技術で特に活用されている。この定義を元に、近年身分確認や国境管理、ビザ申請や難民申請などに使用されているディープラーニング並びにAI技術について、その問題点に関する議論へと続いていく。

 

1つ目の問題点として挙げられたのはデータの質とアルゴリズムの偏りについてである。データを与え、その分析を元に予測や分類を行うという特性上、データの質が低ければ結果の質も低くなってしまう。個人が複数回国境を超える可能性があるにも関わらず、国境を超えた合計人数を移民数のデータと捉えてしまうなど、与えるデータの捉え方にミスがある場合もある。これらのことから考えると、AIを用いた移民の予測は大規模な移民受け入れに備えることができる一方で、その予測の正しさには疑問が残るという。また、アルゴリズムの設計及び開発など様々なステージにおいて、設計者や開発者のバイアスが反映されてしまう可能性が高い。例として人種や性別によって認識精度の異なる顔認識技術が問題になっているが、このようにバイアスのあるAIを使用することで、差別や偏見に繋がってしまうこともある。私たちはデータを元に判断することでより正確でバイアスのない判断ができるという認知バイアスを持ってしまう傾向にあるが、あくまでAIは私たちの持つ偏見を映し出す鏡となってしまうということは、AIを生活や仕事の中で活用する可能性のある私たち個人としても肝に銘じるべき問題であると気付かされる。このようなバイアスやデータの質に関わる問題に対処するための方策として、人々の意識を高めることや、多様性のある人材が設計や開発に携わることの重要性、データの中に存在するエラーや誤りを積極的に修正していくことの必要性が挙げられた。

 

次にプライバシー及びセキュリティの問題が挙げられた。個人に関わるデータを使用する際に、そのデータの使用についてきちんと説明されていなかったり、同意の取れていなかったりする状態で使われているケースが多いという。また、このようなデジタル技術が監視に利用されることも増えており、先に述べたようなバイアスを生じうる技術に過度に頼ることによって人権問題に関わる可能性がある。例えば、AIを活用したドローンによる監視や、近年増加傾向にあるAIを用いた移民の監視などが挙げられる。データの漏洩や悪用、不正確なAIによって恒常的に監視され、誤った判断によって不利益を被る可能性があることなどを考えると、非常に重大な問題であることが想像できる。べドゥスキ先生は、この問題に対する解決策の一部として、問題に対する人々の意識を向上させることや、本当にAIを使うメリットの方がリスクよりも大きいのか今一度立ち止まってその価値を問い直すこと、移民政策におけるプライバシーと人権を十分に考慮したAI活用法を確立することなどを挙げられた。

 

3つ目の問題点として示されたのは、移民コントロールにおける”Datafication”である。講義では、”Datafication”を、「あらゆる種類のデータを集め、利用する傾向が助長されていること」と紹介し、この傾向が他の問題と組み合わさると、非常に重大な問題を生じうることを強調した。また、公的機関と民間機関が”Datafication”をめぐってより密接に絡みあっていることは、大きな懸念点であるという。例えば、個人情報を安全に保管するためのサイバー環境が整っていない状況でこのような技術が脆弱性の高い人々の特定に使用されれば、彼ら・彼女らを迫害や暴力、命の危険などに晒すことになる。データ管理戦略の策定や、データ保護の有無による影響の大きさやリスク等の見積もりが方策として挙げられたが、これらのことを国として、また民間としてどのように行い、どのように強制力を持たせていくのかについては課題が残りそうだ。

 

そして最後の問題として挙がったのがアルゴリズムの公平性と説明可能性についてである。AI、特にディープラーニングの技術は、データを入力し、アルゴリズムが自動的にデータに潜む特徴や関係性を学習し、分類を行うことができるようになるため、その中身はブラックボックスとなりがちで、なぜその結果を出力したのかが理解できないことが多い。それに加えて、私たちは自動化バイアスと呼ばれるバイアスを抱いており、機械がバイアスを持っているという可能性を軽視して、機械により自動的に決められた決断を信頼しすぎる傾向にある。このようなバイアスを持っていると、AIの誤った判断によって人権が脅かされるようなことがあっても、救済措置を要求するのに困難を要する可能性もある。べドゥスキ先生は、この問題についても、自動化バイアスに対する私たちの認識を高めること、AIの監査能力やその開発において説明能力を高めること、移民コントロールに関わる意思決定においてAIの判断に頼りすぎないようにすることなどを挙げている。一方で、AIは私たちの生活をより効率的にするために用いられている側面が大きい。本当にAIによって効率化すべきなのか、AIの使用にはどのような問題を孕んでいるのかといった点について、AIの設計・開発者に限らず、AIに携わる可能性のある全ての人が改めて認識を高め、考えていくことが重要となるだろう。そのような意味でも、今回の講義は多くの参加者にとって有意義なものとなったに違いない。

 

移民政策の新たな挑とその未

Image | Daniel Schludi

講義の最後にべドゥスキ先生はAIと移民政策の今後として、予想しうる挑戦と未来について語られた。まず、コロナウイルスのパンデミックに伴って、免疫パスポートなどの、健康状態を示すデジタル技術が移民コントロールに使用される可能性が高いという。これは人々の行動に自由をもたらすだけでなく、行動を制限することでもある。ヨーロッパでは主要となりつつあるこの技術であるが、今後どれほどの国で使われていくのか、移民という文脈ではどのように使われるのか、注意して見ていく必要がある。また、気候変動など環境の変化に関してである。AIは今後、このような環境の変化や災害に対して予測し、準備をするために導入されていくと予想される。このような予測が正しいかどうか、またその背景が理解可能かについて問題は残るものの、気候変動によりもたらされる大規模な移住や難民に対してどのようにこれらのAIを活用していくのか気になる点である。加えて、AIはいずれ人間の職を奪うのではないかとも言われているが、これらのデジタル技術が私たちのライフスタイルや職業のあり方に及ぼす影響は非常に大きいと考えられる。また、このような変化が移民、移住にどのような影響を与えるのかという点も含め、今後のAIのあり方について考えていかなくてはならない。

 

Q&Aセッション

 

講義の後には、参加者を交え40分間のQ&Aセッションが開かれた。まず、コロナ禍によってナショナリズムが高まっていると考えられる現状を踏まえて、AIを移民コントロールに用いることで、移民を排除するような方向性が強化されてしまうのではという懸念などについて議論された。さらに社会的に脆弱な立場に置かれる人々についての話題も提示され、免疫パスポートの導入は何らかの理由でワクチンを受けることのできない人に対する差別につながるという観点、またこのように脆弱な立場に置かれている人々をさらに危険に晒す可能性のあるAIを活用することについて、何か彼ら・彼女らにとってのメリットは存在するのかといった観点などについても議論が行われた。

 

どちらの話題にも関連していることだが、私たちはAIを公共の利益のために使うこともできれば、誰かを排除するために使うこともできてしまう。しかし、それはAIという技術そのものが悪いのではなく、私たちがそれらの技術をどのようにして活用するかが重要であり、そのための手段の一部としてAIが使われうるということである。例えば、移民を国から排除するためにAIを監視技術として使うのではなく、AIチャットボットなどによってより多くの移民に適切な情報を伝えることも可能である。また、AIのバイアスは私たちの社会のバイアスを映し出すものであり、それを差別に使うのではなくて社会に潜むバイアスを発見するという方法で利用することもできるだろう。AIとソーシャルジャスティスに関わる問題はAIが危険を伴うからといって技術の使用を単に拒絶すれば解決する問題ではない。AIの持ちうるリスクや特性を踏まえた上で、技術やデータに全幅の信頼を寄せるのではなく、その技術を使う必要があるのはどのような場面なのか、どのような方法で使用すればリスクを抑えることができるのか、私たち人間が議論し続けなければならないことなのではないかと感じさせられた。

 

そして、今回の議論で得られたような、脆弱な立場の人のことも考慮に入れた様々な視点がその議論において不可欠である。べドゥスキ先生は、講義やQ&Aセッションを通じて、私たち個人を含む全員が、今回紹介されたようなあらゆる問題についての理解を高める必要があるということを強調されていた。AIとソーシャルジャスティスは、特に日本において、まだ多くの人にとっては馴染みのない問題であると感じられる。しかし、このような講演やプログラム、SNSやメディア等を通じてそういった観点が少しでも多くの人に届くことを期待したい。そして、今回のQ&Aセッションのように、技術の設計、使用や政策などによって排除される人はいないか、いるのならば彼ら・彼女らへのセーフガードはどうすれば良いのかといった点について広く意識的に議論がされるべきであるし、私たちも個人として継続的に考えていく必要があるだろう。改めて実り多い講義とディスカッションをしていただいたアナ・べドゥスキ先生にこの場を借りて感謝申し上げたい。