2024.Mar.28
REPORTS2022年度第9回BAIRAL研究会
「行為者性の共創――ソーシャルロボットの倫理的な設計の実践に向けて」報告
大月希望(B’AIリサーチ・アシスタント)
・日時:2023年2月3日(金)16:00-17:30
・場所:Zoomミーティング
・言語:日本語
・ゲストスピーカー:水上拓哉(特定国立研究開発法人理化学研究所 革新知能統合研究センター 特別研究員、東京大学大学院情報学環客員研究員)
・モデレーター:大月希望(B’AI リサーチ・アシスタント)
(イベントの詳細はこちら)
2023年2月3日(金)、B’AIグローバル・フォーラムのリサーチ・アシスタントが主催する研究会「BAIRAL」の2022年度第9回がオンラインで開催された。今回は、特定国立研究開発法人理化学研究所 革新知能統合研究センター 特別研究員、東京大学大学院情報学環客員研究員の水上拓哉さんをお招きし、「行為者性の共創――ソーシャルロボットの倫理的な設計の実践に向けて」というテーマでお話しいただいた。
社会におけるソーシャルロボットの利用が身近になりつつあり、様々な活用がなされているが、その発言や振る舞いによってユーザが受ける過度な感情的影響が倫理的課題として指摘されている。水上さんの発表では、ソーシャルロボットという人工的に作られた「行為者性(agency)」をどのように理解し設計するべきかという哲学的な問題について、技術哲学やAI倫理における行為者性をめぐる論争を批判的に検討した。
水上さんはまず、ソーシャルロボットを工学的な意味で自立的な振る舞いをする技術的な人工物で、何らかの社会的な役割を持つことを目的に開発されたものをソーシャルロボットと定義した。そこにはいわゆるbotも含み、ソーシャルな役割を持つようなロボットあるいはAIをソーシャルロボットと呼ぶ。加えて、ソーシャルロボットはそれ自体の機能よりも、ロボットの外見や発言、ジェスチャーといった合図を私たち人間が読み取り、私たちと同様に社会的存在として見なす(Media Equation)ことによって「ソーシャル」になるという点を指摘した。
次に、ソーシャルロボットの発言が倫理的問題を引き起こす可能性があり、責任の所在が不明確であることをチャットボットの事例を挙げて説明した。ソーシャルロボットの道徳的な影響力は、設計者の元々の設計行為や設計意図だけに還元することができず、コントロールが難しい。その背景として、対話システムのアーキテクチャが辞書型から生成ベースになり、設計者が想定していなかった返答が可能になったこと、先述したようにソーシャルロボットがソーシャルな存在であるためにはユーザの想像力や認知が重要になること、ユーザの属する文化的背景がそれぞれ異なっていることが挙げられる。このように道徳的影響力がネットワーク的に構成されるため、設計者の道徳的責任をどう考えるかが課題となっている。設計者側の話では、ソーシャルロボットがなぜ道徳的重要性をもつのか、設計者側がどこまで道徳的責任を取るべきなのかが分からず、開発の萎縮にもつながりかねない状況にあるという。水上さんはそうした状況を憂慮し、技術哲学の観点からソーシャルロボットの行為の捉え方の説明や開発の提案ができればという思いから研究を行っている。
技術哲学では、技術的人工物が「道徳的行為者」として理解可能であるかを議論している。最近の技術哲学では、技術が実際にもつ能力ではなく、技術が人間との関係の中で担う役割に着目するアプローチが用いられる。しかし、関係的アプローチをソーシャルロボットの理解に用いるべきかについて、水上さんは分析の大まかな方向性として重要であるが、道徳的行為者性の解釈に適用することは責任の問題から難しいとしている。代わりに、ソーシャルロボットは小道具であり、ユーザーとの関係の中で虚構的心理を生み出すものと位置付ける、小道具説を提案している。これにより、道徳的責任の帰属の根拠となる人間の行為者性と区別して、ソーシャルロボットの責任の問題を個別に検討できるようになる。
さらに、これまでソーシャルロボットの倫理は、技術哲学や技術倫理の一分野として捉えられ、技術の倫理的アセスメントや、政策、設計指針といった枠組みで考えられてきたが、水上さんはソーシャルロボットについてはロボットを媒介にした遊びを評価の対象とすることを提案した。ソーシャルロボットは単なる技術としてだけでなくフィクション的側面も持つことから、技術評価実践とフィクション作品評価実践の両方の観点からの倫理研究も参照する必要がある。
ディスカッションでは、ソーシャルロボットとの遊びで実際に人間が傷ついた場合にフィクション上の世界と現実世界をどう切り替えるか、その判断を誰がするのか、また判断が恣意的になる可能性について議論がなされた。水上さんは、人間が傷付く場所がフィクション上か現実かは区別すべきとした上で、問題が起きた際はフィクションの世界をオフにして現実世界で対処するが、その切り替えの判断基準は今後の課題であるとした。
また、ロボット倫理学において人間中心の考え方とポストヒューマニズム的な考え方のバランスをどう取るかについても議論された。さらに、技術的・定量的アプローチと人文学的・定性的アプローチの両立は可能かという質問に対しては、別のプロジェクトとして進めることが考えられるとし、スピード感のある技術開発、ワークショップなど様々な評価や手法による試行錯誤が重要であることが説明された。参加者からは、両者とも最終的にはより良いソーシャルロボットを目指す点で方向性は一致しており、高め合っていけるのではないかという感想が聞かれるなど、学際的なテーマに対して活発な議論が行われた。