2026.May.03
REPORTSLCFI–B’AIジョイントワークショップ 「正義へ向かう―― AI倫理をめぐる比較文化的アプローチ」報告
呉先珍(B’AI Global Forum 特任助教)
・開催期間:2026年3月10日から2026年3月11日まで
・形式:ハイブリッド(対面およびZoom)
・会場:東京大学本郷キャンパス 福武ラーニングシアター(1日目)、SMBCアカデミアホール(2日目)
・言語:英語(日本語字幕付き)
イベントの詳細はこちら
2026年3月10日〜11日、東京大学 Beyond AI研究推進機構 B’AIグローバル・フォーラムとケンブリッジ大学Leverhulme Centre for the Future of Intelligence(LCFI)は、二日間のジョイントワークショップ「正義へ向かう——AI倫理をめぐる比較文化的アプローチ」を開催した。ワークショップのプログラムは望ましいAI、デジタル不死、AIと障害、リスクと規制、技術社会とユートピアをテーマとして掲げる5つのセッションで構成された。両機関のメンバーに加え、日本・ドイツ・ブラジル・ポーランド・韓国を拠点とするAI ELSI研究者、アーティスト、実務家が集い、議論を交わした。
開会にあたり、B’AIグローバル・フォーラムのディレクター久野愛氏は、AIが社会正義を推進する可能性と社会的格差・バイアスを深める危険性をともに考慮に入れられる俯瞰的な視座に立つことの重要性に触れ、倫理的・法的・社会的観点からAI技術を多角的に検討する本ワークショップの意義を述べた。
セッション1:望ましさ、正義志向、疎外をめぐるラウンドテーブル
司会:久野愛(東京大学B’AIグローバル・フォーラム)
パネリスト:エレノア・ドレイジ(ケンブリッジ大学LCFI)、ジレ・エミネ・ゴーゼン(ヨーロッパ応用科学大学)、呉先珍(東京大学B’AIグローバル・フォーラム)、板津木綿子(東京大学B’AIグローバル・フォーラム)
セッション冒頭では、2024年に始まった「望ましいAI(Desirable AI)」プロジェクトのこれまでの歩みが紹介された。ジレ・エミネ・ゴーゼン氏は、その起点を2023年に東京のドイツ日本研究所(DIJ)で開催されたワークショップに求め、そこからLeverhulme Centre for the Future of Intelligence(ケンブリッジ大学)、B’AIグローバル・フォーラム(東京大学)、Center for Science and Thought(ボン大学)、ヨーロッパ応用科学大学による国際的なオンライン連続講義へと発展した経緯を説明した。本プロジェクトでは、2024年10月から2026年1月にかけて20回以上のセッションが実施され、精神的伝統の継承、労働・障害・デジタル不死、さらには法・規制、存在論・認識論といった多岐にわたるテーマを通じて、AIをめぐる多角的視座が培われてきた。
エレノア・ドレイジ氏は、「望ましい(desirable)」という語の曖昧さに着目し、AI開発において誰の欲求や願望が実現されているのかという問いを提起した。また、レオナルド・ダ・ヴィンチの「ウィトルウィウス的人体図」を再構成した現代アートを参照しつつ、真に望ましいAIとは、ある理想化された美学的な完璧な人間の形式を実現させるためにそれぞれの身体をデータ化して活用するようなものではなく、人々が有限な存在であるまま、地球上でともに良く生きることを可能にするものであると論じた。
板津木綿子氏は、本プロジェクトへの参加がB’AIグローバル・フォーラムにとって重要な転機となったことを振り返り、国際的対話を通じて局所的かつ孤立した議論から脱却できた点を強調した。また、本プロジェクトが人工知能学会(JSAI)倫理委員会による「AI-ELSI賞(展望部門)」を受賞したことに触れ、日本のAIコミュニティにおいても、技術的観点を超えた社会的含意への関心が高まりつつあることを指摘した。
呉は、ピエール・ブルデューの趣味論とそれに対するミシェル・ラモンの批判をとりあげ、「性格が悪い」といった人格評価を通じて他者との差異を区別する判断と、異なる他者を受け容れる意志を、「倫理」の名のもとに一括りにするラモンの見方に疑問を呈した。呉はこのような見方がAI倫理を領域として確立する一連の過程で主要な視点となり、AIをめぐる多様な規範的課題がすべて「倫理問題」として処理される結果を生み出しているとし、経済や政治の問題として扱うべき領域を慎重に切り分ける必要性を指摘した。
質疑応答では、トム・ホラネク氏が日本独自のデザイン史——欧米とは異なる「シンプルさ」の理解——がAIデザインの画一化に抵抗するリソースとなりうるかという問いを提起しました。マヤ・インディラ・ガネシュ氏は人文・社会科学系研究者が産業界や政府とどのように接続しているかを問い、ジャネット・ホフマン氏はヨーロッパにおける市民社会組織のAI倫理議論への関与を例として挙げ、日本でも同様の連携が可能かどうかを尋ねました。対して、現状ではそのような連携の空間はまだ十分に形成されていないものの、今後に向けた芽生えが見られるという回答がなされた。
セッション2:デジタル(不)死をめぐる比較文化的アプローチ——研究報告と映画上映
司会:ジレ・エミネ・ゴーゼン(ヨーロッパ応用科学大学)
発表者:カタジナ・ノヴァチク=バシンスカ(ケンブリッジ大学LCFI)
討論者:ジョン・チヒョン(韓国科学技術院)、折田明子(関東学院大学)、オオツキ・グラント・ジュン(東京大学)、ユスティナ・オルコ(ワルシャワ大学)
セッション2ではデジタル不死を主題に据えた。カタジナ・ノヴァチク=バシンスカ氏は、自身がケンブリッジ大学で進める国際共同研究プロジェクト「AIの時代における不死のイマジナリー――比較文化的分析」の知見を報告した。同プロジェクトはポーランド・インド・中国の三か国で12件のリサーチ活動(専門家ワークショップ3件、フォーカスグループ9件)を実施し、約100名の参加者の声を集めた。
ポーランドでは、デジタル不死の商業化に対する強い懸念が示され、専門家参加者のほぼ全員が商業企業のコンサルタントを務めることを拒否したという。インドでは「尊厳のビジネス(business of dignity)」という概念が提起され、死を商品化する「デス・キャピタリズム」への対抗軸として議論された。中国においては、デジタル死後サービス産業が急成長しており、世界最大規模になりつつあるとする専門家の発言が目立った。
セッションではドキュメンタリー映画「エターナル・ユー」(ハンス・ブロック&モーリッツ・リーゼヴィーク監督)の上映も行われた。映画への講評を中心とする討論で、ユスティナ・オルコ氏は、メキシコの先住民文化における死者の日や、日本のイタコによる口寄せ儀礼などを例に挙げ、死者との交流は人類が古来から抱く根本的な欲求であり、歴史的には儀礼の専門家、共同体、そして一貫した世界観・信仰体系によって管理・保護されてきたと論じた。オルコ氏によると、AIによる「デジタル不死」ツールは同じ欲求に乗じているが、これらのような保護的な枠組みを持たないため、悲嘆に暮れる人々を社会的支援ネットワークから孤立させる可能性がある。次に、オオツキ・グラント・ジュン氏は没後アバターが戦時中に政府によって政治的目的に流用される危険性を指摘し、ジョン・チヒョン氏は公共放送を通じた集団的な悲嘆の実践が商業的な個人化サービスとどう異なるかという論点を提起した。折田明子氏は、四十九日や年忌法要といった仏教の儀礼的節目が、テクノロジーに依存した悲嘆プロセスへの適切な「終わり方」を設計するうえで文化的な参照点になりうることを示唆した。
議論を通じて繰り返し浮かび上がったのは、テクノロジーが悲嘆の体験を孤立させてしまうという懸念であった。また、サービス利用の「終わり方」(いかに利用を終了するか)の設計、デジタル没後サービスを公共財として位置づける可能性とその政治的リスク、そして「エンシュリフィケーション(enshrification)」、すなわち、商業プラットフォームが利用者の利益からアルゴリズムの利益へと変質していく過程への警戒といったテーマが活発に議論された。
セッション3:AI、健康、障がい
司会:アイシャ・ソビー(ケンブリッジ大学LCFI)
パネリスト:安東明珠花(東京大学)、ジョセフ・オスターウェイル(千葉工業大学)
セッション3では、AIと障害をテーマに、方法論的・倫理的資源として当事者の生きた経験にフォーカスを当てた。司会のアイシャ・ソビー氏は、AI画像生成システムが障害の視覚表現において非常に限定的・紋切り型のイメージを再生産していることを指摘し、障害を個人の問題ではなく社会・環境が生み出すバリアの問題として捉える「社会モデル」の枠組みを導入した。
安東明珠花氏はCODA(ろう者の聴こえる子ども)としての自身の経験から語り起こし、ポケベル・ファックス・携帯電話・LINEというコミュニケーション技術の変遷を家族の歴史を通じて描き出した。ろう者の両親にとって書き言葉の日本語は第二言語であり、文字メッセージの微妙な不自然さに気づいていた安藤氏は、その体験がJSL(日本手話)テクノロジー研究への関心につながったことを述べた。JSLの認識技術(手話を文字・音声に変換する技術)は、顔の表情を含むプライバシーへの懸念、全国に分散したデータ収集プロジェクトの非効率性、JSL固有の地域変異や口形の複雑さといった障壁から依然として大きな遅れを取っているという。
安東氏はこれらの課題に取り組む「JSL Collaboration Project」を紹介した。ろう者の言語学者と直接連携してデータセットを構築し、説明と同意のプロセスもネイティブのろう者スタッフが手話で行い、アノテーション(注釈付け)もろう者の言語学者が担うという、「ろう者による・ろう者のための・ろう者とともに」のアプローチが特徴である。安東氏は、JSLを第一言語とする人々が、音声を第一言語とする人々と同じレベルのテクノロジーの利便性にアクセスできる世界を実現することをビジョンとして掲げて議論を結んだ。
ジョセフ・オスターウェイル氏は心理学・計算機科学の観点から、そして自身の非可視的障害(発達性協調運動障害と関連するメンタルヘルスの課題)の経験を共有した。Xboxの音声認識システムが特定の声を正確に認識できなかった事例や、ジョイ・ブオラムウィニとティムニット・ゲブルによる「ジェンダー・シェーズ」研究(商業AI顔認識システムの黒人女性への性能格差を示した研究)を参照しながら、データに代表されない人々がAIに最も見えにくく、最も不利益を被ることを論じた。
オスターウェイル氏はまたアルツハイマー病の認知科学的研究を事例として紹介し、集団レベルの平均化が個人差を見えなくしてしまうという問題を示した。これは「典型的な」ユーザー像を前提に設計されたAIシステムが平均から外れた人々を排除してしまうという、より広い問題の一例を示す。障害当事者が設計段階から関与しないまま生まれる「ディスアビリティ・ドングル」(リズ・ジャクソンらが命名した、当事者が必要性を表明していない課題への善意の技術的解決策)の問題も指摘された。さらに、日本における精神健康障害への社会的まなざしがアメリカとは異なるという文化的差異を踏まえ、研究においても設計においても文化横断的な視点の必要性を強調した。
質疑応答では、障害包摂的な研究を行うことの構造的困難(倫理審査の複雑さ、時間とコストの増大、機関の支援不足)、「インクルージョン」を謳う政策の実効性を検証するための具体的指標の必要性、そしてAIリテラシー教育の重要性などが議論された。マヤ・インディラ・ガネシュ氏は、大規模言語モデルの学習に使用されたウェブサイトの約97%にアクセシビリティ上の問題があるという調査結果を紹介し、AIの構造化された排除の深刻さを指摘した。
セッション4:リスクと規制への比較文化的アプローチ
司会:トム・ホラネク(LCFI、ケンブリッジ大学)
パネリスト:エレノア・ドレイジ(LCFI、ケンブリッジ大学)、ヘン・イー・クワン(東京大学)、江間有沙(東京大学)、羽深宏樹(京都大学)、ジャネット・ホフマン(フンボルト大学インターネット社会研究所/ベルリン自由大学)
司会のトム・ホラネク氏は、2019年のG7ビアリッツ・サミットを起点とする「人工知能に関するグローバル・パートナーシップ(GPAI)」など国際的なAIガバナンス取り組みの概観を示しながら、「グローバルな合意」を標榜しながらも実際にはG7諸国の視点が圧倒的に優位を占めているという批判的な見方を提示した。多くのAI政策文書はヨーロッパ・北米・東アジアを中心に生まれており、アフリカ・ラテンアメリカ・中央アジアは著しく代表されていないという2019年および2023年の研究を引用し、グローバルなAIガバナンスへの参加多様化が公正さの観点からも実践的な意味でも必要だと論じた。
エレノア・ドレイジ氏は、カタールの研究機関HBKUとの共同研究に基づき、AI倫理原則の「マクドナルド化」について報告した。マイクロソフト・グーグル・メタ・アマゾン・アップルのAI責任ある利用に関するガイドラインを調査したところ、「透明性」「公平性」「説明責任」といった言葉が内容を伴わない定義なしに反復されており、相互にコピー・ペーストされているという傾向が明らかになりました。湾岸地域の国々(バーレーン・クウェート・オマーン・カタール・サウジアラビア・UAE)の原則文書を分析した結果、カタールとサウジアラビアの「リヤドAI憲章」は欧米の定型語に頼らず文化的特殊性を反映した表現(たとえば「親密性の保護」——プライバシーとは区別された概念)を用いている点で高く評価された。ドレイジ氏はDIAR(分散AIリサーチ研究所)やHugging Faceのような組織が自らの原則を批判的・透明に提示していることも好例として紹介した。
ヘン・イー・クァン氏は多国籍軍事作戦におけるAIの法的相互運用可能性について論じた。日本の自衛隊は「ポジティブリスト方式」(すべての行動に明示的な法的根拠を必要とする)に基づく法的枠組みを有しており、これが多くのNATO加盟国とは異なる法的・手続き的障壁を生んでいる。NATO共有クラウドソフトウェア「ACE(Allied Software for Cloud and Edge)」への参加国が32か国中24か国にとどまっていることを例に、正式な同盟国間でもAIガバナンスの断片化が続いていることが示された。2025年以降、AI規制の議論が「製品安全」から「経済競争力・国家安全保障」へとシフトしている現状も指摘された。
羽深宏樹氏は、「透明性」「公平性」「安全性」といった高次原則の繰り返しが限界に達しており、議論はより具体的・文脈依存的な段階へと移行しつつあると指摘した。また「AIガバナンス」「AI規制」という独立した枠組み自体を廃して、あらゆる分野に浸透しているAIを各領域のガバナンスの中で取り扱うべきと論じた。江間有沙氏は科学技術社会論(STS)の視点からAI規制機構の形成過程、正当化される専門知の種類、文化・学術的差異が各国の規制アプローチを形成するメカニズムについて問いを立てた。ジャネット・ホフマン氏はヨーロッパにおいて市民社会組織がAI倫理議論を牽引している役割を改めて強調しつつ、日本での同様の動きの可能性を問うた。
セッション5:コードは私たちに魔法をかけられるか?——技術時代における方法としてのユートピア
司会:エレノア・ドレイジ(ケンブリッジ大学LCFI)
パネリスト:ジョニー・ペン(ケンブリッジ大学LCFI)、アリッサ・カスティーヨ・ヤップ(東京大学B’AIグローバル・フォーラム/ザ・サラウ・コレクティブ)、フェルナンド・カゲ(ザ・サラウ・コレクティブ)、イファン・ジュアン(慶應義塾大学)、呉先珍(東京大学B’AIグローバル・フォーラム)、マヤ・インディラ・ガネシュ(ケンブリッジ大学LCFI)
このセッションでは、ユートピアを到達すべき目的地としてではなく、支配的なテクノロジー的未来像に対する開放性を保つための方法として位置づけ、高度技術時代にユートピアを描く意義を探求した。
ジョニー・ペン氏は、ハリウッド映画の多様な作品の隅々に現れる、情報技術が仕事や社交の日常的な場面に浸透していき、積極的に自らの関心や意図を監視とコントロールの対象として差し出すようになる過程が見て取れるクリップを編集し、監視・テクノロジー・社会的統制をめぐる問いを喚起する短編映画を上映した。
アリッサ・カスティーヨ・ヤップ氏、フェルナンド・カゲ氏、イファン・ジュアン氏は2026年3月1日〜7日にClear Gallery Tokyoで開催した展覧会「Way Back Home」を紹介した。移民・家族の記憶・文化的離散をテーマに、空港のような雰囲気の展示空間に搭乗案内板・黒いボックス(各「便」が移民史上の重要な出来事と結びついている)・天井から吊るされた赤いスーツケース・没入型の映像インスタレーションが配置された。ジュアン氏はAI画像生成技術の断片的・流動的な映像の質感が、空港で経験する過去の記憶の重なり合いを表現するのに適していると説明した。カゲ氏は各パフォーマンスの回ごとに観客の名前と選択される「便名」が変わることで、パフォーマンスが毎回固有の出会いとなるという、ユートピア的な一時性の体験を語った。
呉は「時間の外部性」と題した発表を行い、エマニュエル・レヴィナスの哲学を援用して現代のAI言説の根本的な盲点を析出した。イーロン・マスクのシミュレーション理論とユヴァル・ノア・ハラリによるAIと宗教の関係についての議論の双方が、レヴィナスの言う「隔時性(diachrony)」——制御や予測の外側から到来する時間——を消去してしまっているという点で共通の盲点を持つことを指摘した。呉はレヴィナスの議論に依拠しながら、他者の「顔」との出会いから生まれる倫理的責任こそが脆弱性と予測不可能性を前提とするものであり、AIがこの時間的外在性を計算可能なものとして閉じ込めようとするとき、倫理を容易にするどころかその可能性そのものを奪うと論じた。レヴィナスの枠組みにおけるユートピアは、より良い世界への希望ではなく、希望の構造そのもの——私たちを他者の呼びかけに開いたまま保つダイアクロニーの傷——なのである。
マヤ・インディラ・ガネシュ氏はテッド・ストリファスの概念を援用し、「文化の自動化」と「自動化の文化」について考察した。2024年のAppleの「Crush」広告——楽器や本やカメラが産業用プレス機で押しつぶされ薄いiPadに圧縮される映像——を文化の自動化の象徴的事例として取り上げ、人間の仕事と創造的多様性が単一のツールへと収斂させられていくさまを描写した。またトランプ政権ホワイトハウスがOpenAIの「ジブリ化」フィルターをICEによる女性の逮捕という深刻な政治的出来事の伝達に使用した例は、AI生成のパスティーシュが公式コミュニケーションの標準的な様式になりつつある「自動化の文化」を示すものとして提示された。こうした状況への応答として、アートと文化の実践を「哲学の対象でも計算の対象でもなく、実践と行為である」と捉えるジル・ベネットの「プラクティカル・エステティクス」アプローチをとりあげた。
全体ディスカッションでは、テクノロジーへの希望と絶望という問いをめぐる率直な対話が行われました。ペン氏はケンブリッジ大学の修士課程のAI倫理教育プログラムの受講者へ向かってガネシュ氏が「テクノロジーには悲観的だが、人間には楽観的」という言葉を投げかけたことを回想した。この言明に象徴されるように、AIへの批判的な眼差しは人間の創造性や連帯への信頼と矛盾しない。
以上、2日間にわたり、「正義に向かう―― AI倫理をめぐる比較文化的アプローチ」は、テクノ・ユートピア的な不死産業、主要テック企業の標準化されたAI倫理原則、西洋中心の合意形成に基づくグローバルAIガバナンスなど、支配的な言説についての共通理解を形成し、人文・社会科学の観点からAIの課題を考えるうえで国際的・学際的な継続的協力がいかに重要かをより深く理解するうえで役立つ様々な参照項をつくりあげた。そのうえで、批判的な問いかけの足場となる参照項として、文化的多元性・生きた経験・ケアする存在としての人間を中心に据えた視点の重要性を確認し合い、オルタナティブな技術の在り方を提示した。