REPORTS

セミナーシリーズ「Cross-Cultural Approaches to Desirable AI 2nd Edition」報告

呉先珍(B’AI Global Forum 特任助教)

・開催期間:2025年10月22日から2026年1月22日まで
・形式:Zoom
・言語:英語
イベントの詳細はこちら 

2回目のセミナーシリーズ「Cross-Cultural Approaches to Desirable AI 2nd Edition」は、2026年1月22日に閉幕し、東京大学、ボン大学、ケンブリッジ大学、ヨーロッパ応用科学大学の連携による協働関係に新たな節目を刻んだ。
前回のセミナーシリーズでは、各セッションの企画・運営は大学別にわかれて実施されたが、今回のシリーズでは、運営方式を大きく変えた。前年に築かれた緊密なネットワークを基盤として、大学単位の枠組みを越えたテーマ別のチーム体制へと移行し、テーマ選定の段階から、その適合性や意義をめぐる密度の高い議論が行われた。選定されたテーマを基準に設けられた各セッションは、所属ではなく専門性を基準として決められた研究者2名が共同で司会を務める形式とし、セッション全体の構成に鑑みて発表者を招へいし、セッション全体の射程とそれに対する個別の発表の位置づけをめぐって入念な調整を行った。その結果として、発表者同士がパネルディスカッションのなかで予期せぬ形でお互いの見解のつながりを発見したり、オーディエンスが発表同士を結びつけて理解を拡張・深化させ、発展的な考察を導き出している。たとえば、シリーズに参加したヨーロッパ応用科学大学の学生のチームは。「Education」セッションにインスパイアされ、技術デザインプロジェクト「El faro」の構想を練り上げ、最終回でその構想を発表した。

本年度シリーズの大きな特徴は、非西洋のさまざまな哲学的伝統を単に紹介するにとどまらず、質的な水準における比較考察を実現した点にある。「Be(yond) Human」セッションでは、Ubuntu倫理と仏教哲学が、西洋のAI議論にしばしば見られる個人主義的前提に対する有力な代替視座として提示された。両者はAIを独立した存在種としてではなく、人間の習慣や欲望を映し出し、増幅する鏡として捉え、関係性(「われわれがあるゆえに、われはある」)と、可謬性や身体性を自覚する人間理解の重要性を強調した。この対話は、AI開発の焦点を単なる効率性から、ケア、尊厳、祖先から受け継いだ知恵の継承へと移行させる共通の展望を示した。

さらに、労働・仕事・アイデンティティを相互に密接に切り結ぶ主題として捉える議論は、本シリーズの批判的射程をいっそう広げた。ハンナ・アーレントによる労働と仕事の区別およびその技術との関係を再検討する議論は、AIが近代社会の逆説、すなわち、労働からの解放が同時に意味の基盤としての労働の喪失を招く状況を浮き彫りにすることを示した。AIは単なる技術的断絶ではなく、生産性中心の思考枠組みの限界を可視化し、多元的で非生産主義的な人間の意義を再び問い直す契機として位置づけられたのである。加えて、データ・プロシューマー概念に対するマルクス主義フェミニズム的分析は、プラットフォーム経済がジェンダー化・人種化・植民地主義的に配置された不可視の再生産労働に支えられていることを明らかにし、「望ましいAI」をめぐる議論を価値、ケア、グローバル正義の問題へと接続した。この視点はデジタル・アイデンティティの領域にも及び、データ化、自己呈示、AI生成ペルソナを通じて、主体性の理解そのものが技術的インフラストラクチャーによって媒介されつつ変容している現状が示された。

これらの理論的考察と並行して、AIモデルの仕組みや設計に対する直接的な働きかけも扱われた。日本語大規模言語モデルに対する交差的バイアスベンチマークテスト研究は、バイアスが単一属性ではなく、社会的属性と文脈の相互作用の中で生じることを明らかにし、西洋中心的な評価枠組みの限界を示した。また、画像生成モデルに関する研究は、視覚的出力が社会的ステレオタイプを見えにくい形で再生産し得ることを指摘し、バイアス対策をアラインメントや安全性、さらには長期的な人類リスクの問題へと結びつけた。さらに、合成ペルソナ生成の分析は、現在の学習・整合化過程が規範的に整えられた理想的な人間像を内包していることを示し、ペルソナ評価を生成AIに埋め込まれた文化的価値を読み解く手がかりとして提示した。これらの成果は、バイアスを単なる技術的不具合ではなく、社会的・認識論的課題として引き受ける必要性を提起している。

今回のシリーズで新たに浮かび上がったもう一つの重要な論点は、デジタル・ウェルビーイングとプライバシーの問題であった。議論は技術的対処にとどまらず、デジタル生活を規定する社会政治的構造そのものへと及んだ。登壇者は、常時接続社会のもとでウェルビーイングが個人の自己責任として処理されつつある現状を指摘するとともに、中東や欧州の歴史的事例を通じて、プライバシーが長らく普遍的権利ではなく社会的特権として存在してきた事実を示した。この観点から、デジタルの健康は一部の人々のための付加価値ではなく、真に望ましい未来に不可欠な基盤条件として再定位された。

以上みてきたように、今回のセミナーシリーズは、前回シリーズより引き継いだ狭い意味での技術的最適化を越え、社会・文化・環境に深く埋め込まれた関係的領域としてテクノロジーを捉える総合的理解への転換を促すといったモットーを土台とし、AIをめぐる多元的かつ包摂的なビジョンを提示してきた。「望ましいAI」の追究は、倫理、社会正義、そして人間的条件をめぐる想像力と決して切り離せないという意味において全人類を包括する課題である。ただしそれは、生活の最も身近なところにたたずむ、しばしば私たちのAI Agentには最も些細でとるに足らないと思われるかもしれず、文化的に決して一元化され得ない多様性においてはじめて意義をもつ。