2025.Jun.02
REPORTS第37回 B’AI Book Club 報告
AIにおける約束、リスク、人間の価値の複雑性を探る記事
Jingzhi (Ginger) HUANG(B'AI Global Forum 院生メンバー)
・日時: 2025年5月27日(火)13:00-14:30
・場所: ハイブリッド(B ’AIオフィス&Zoomミーティング)
・言語: 英語
・評者: Jingzhi (Ginger) HUANG(東京大学大学院学際情報学府、ITASIAコース修士課程)
・記事:
Amodei, D. (2024). Machines of loving grace: How AI could transform the world for the better. Anthropic.
https://darioamodei.com/machines-of-loving-grace
Amodei, D., Olah, C., Steinhardt, J., Christiano, P., Schulman, J., & Mané, D. (2016). Concrete problems in AI safety. arXiv preprint arXiv:1606.06565. https://arxiv.org/abs/1606.06565
Bloom, P. (2023, December 5). We don't want moral AI. The New Yorker. [Also published on Small Potatoes Substack:
https://smallpotatoes.paulbloom.net/p/we-dont-want-moral-ai]
2025年5月27日、第37回「B’AI Book Club」が開催された。この書評会では、複数の批評的テキストを通じて人工知能と人間の価値観の複雑な関係を探究した。議論は技術的楽観主義と倫理的懸念の間の根本的な緊張関係を明らかにし、参加者たちはAIシステムが知性、道徳性、人間の主体性に対する我々の理解をどのように反映し、形成するかを検討した。
セッションは、AIによる進歩の野心的なビジョンを提示するダリオ・アモデイの「愛の機械の恩寵」の検討から始まった。参加者たちは、彼の何世紀もの進歩を圧縮するという予測に批判的に取り組んだ。医療や貧困緩和における潜在的な利益は関心を呼んだが、グループは透明性と説明責任がAI開発の基盤となる柱として機能しなければならないことを強調した。しかし、システムがより複雑で自律的になるにつれて、これらの原則を維持することはますます困難になっている。
特に示唆的だったのは、ラボメンバーがChatGPTの自画像機能での経験を共有した瞬間だった。哲学的で個人的な話題でChatGPTと関わっていた彼女のボーイフレンドは、視覚情報を共有したことがないにもかかわらず、驚くほど正確な視覚表現を受け取った。対照的に、ChatGPTを純粋に機能的な目的でのみ使用していた彼女が同じ機能を要求したとき、システムは彼女に全く似ていない男性の画像を生成した。この顕著な違いは、AIシステムに埋め込まれたジェンダーバイアスと、相互作用パターンに基づいて異なる反応を示すことを明らかにし、これらのシステムがエンコードし永続化する価値観について深い疑問を提起した。
会話は知性そのものの根本的な問いへと発展した。参加者たちは、AI能力を測定するために使用する指標と定義が、人間の認知を特徴づける感情的知性、文化的知恵、文脈的理解など、人間の知性と知恵の全範囲を適切に捉えているかどうかを検討した。先住民AIの概念は特に示唆に富む話題として浮上した。参加者たちは、市場中心の西洋的枠組みではなく、先住民の価値観と知識体系に基づいてAI開発がどのように異なって見えるかを探った。しかし、実践的な課題は保持される。この議論はAIシステムにおける価値の整合性に関するより広範な問題につながった。グループは、整合性が普遍的な合意を前提としており、誰の価値観がこれらのシステムにエンコードされ、誰がこれらの決定を下すのかという根本的な問題を提起することを認識した。
ポール・ブルームの道徳的AIに対する反論は、整合された人工知能の楽観的なビジョンに対する対抗点を提供した。参加者たちは、私たちに害を与えないほど安全なAIシステムを望む一方で、人間の価値観を超越する可能性のある道徳的判断を機械が下すという考えに同時に抵抗するというパラドックスについて議論した。この緊張は、知的システムとの関係を定義する安全性と自律性の間の複雑な交渉を浮き彫りにした。AIの影響力の増大に対する懸念にもかかわらず、参加者たちは人間の主体性と創造的な抵抗のための空間も特定した。議論は、ユーザーがAIツールの意図的で創造的な使用を通じて道徳的主体性を維持できる方法を強調した。
セッションは、AIがもたらす課題が技術的問題をはるかに超えて、人間の価値観、文化的多様性、人間の主体性の未来に関する根本的な問題にまで及ぶという認識で締めくくられた。これには継続的な対話、批判的な省察、そしてすべての技術開発において人間の尊厳と文化的多様性を中心に据えるコミットメントが必要である。アンディ・クラークの「生まれながらのサイボーグ」で示された、人間が本質的に柔軟で、ツールや技術を組み込むように設計されたオープンシステムであるという見解を受け入れるならば、おそらくAIは人間性への脅威ではなく、その次の表現を表しているのかもしれない。それは、私たちがこの認知的パートナーシップをどのように協働的に形作るかという問題を提起している。