REPORTS

2023年度第1回BAIRAL研究会
「推測のインターフェイスを実験する――アルゴリズムの遂行に関する研究のためのデザインに基づいたアプローチ」報告

金 佳榮(B’AI Global Forum 特任研究員)

・日時:2023年4月21日(金)15時00分~16時30分
・場所:Zoomミーティング
・言語:英語
・ゲストスピーカー:アルノー・クラース(関西大学 日本学術振興会ポストドクトラル研究員; 東京大学大学院情報学環 客員研究員)
・モデレーター:大月希望(B’AI Global Forum リサーチ・アシスタント)
(イベントの詳細はこちら

2023年4月21日(金)、B’AIグローバル・フォーラムのリサーチ・アシスタントが主催する研究会「BAIRAL」の2023年度第1回がオンラインで開催された。今回は、関西大学日本学術振興会ポストドクトラル研究員で、B’AIの客員研究員でもあるアルノー・クラース氏をゲストスピーカーにお迎えし、「推測のインターフェイスを実験する――アルゴリズムの遂行に関する研究のためのデザインに基づいたアプローチ」というテーマでお話いただいた。

人間とコンピュータの相互作用(Human–Computer Interaction=HCI)とメディア教育の分野で研究をしてきたクラース氏は、今日、人々の情報へのアクセスやメディア体験に大きな影響を及ぼす技術として「推薦システム」に注目する。ユーザーの過去の行動履歴に基づいてその人が好みそうなコンテンツや商品を予測し提示する推薦システムのアルゴリズムは、AmazonやNetflix、Facebook, Instagramなど、多くのデジタル・プラットフォームに導入され、ユーザーの選択を支援すると同時に制約している。クラース氏は、現在、この推薦アルゴリズムを商業的企業だけでなくますます多くの公共メディアが導入しようとしているとし、大きな社会的責任を担う機関でこれらの技術を利用する際には特に社会科学や人文科学がデザインのガイドラインを提供する必要があると主張する。そして、その取り組みの一つとして自身がベルギーの公共メディア会社と協力して開発したニュースプラットフォーム「ALVEHO」を紹介した。

このプラットフォームが同じく推薦アルゴリズムを用いる他のプラットフォームと差別化されるもっとも大きな特徴は、ユーザーがアルゴリズムの働きをコントロールできる点(controllability)である。ALVEHOでは、ユーザーが自身のプロフィールを選択することでどのカテゴリーのニュースに興味があるかを示すことができ、さらに、あまり興味のない特定のカテゴリーをボタン一つで簡単にニュースフィードから除外することもできる。それだけでなく、過去に閲覧した記事との類似性(similarity)や各記事の論調の主観性(subjectivity)のレベルを-10から+10の間で自由に選択することで、アルゴリズムが推薦する記事を自ら調整することもできる。

クラース氏は、推薦アルゴリズムに対するコントロール能力をユーザーに付与することが彼らのメディア実践にどのような影響を与えるかを議論するために、ALVEHOを用いて行った実験を紹介した。コミュニケーション・サイエンス専攻の学生23名に5週間(1週間に最低5日、1日に最低20分)ALVEHOを使わせ、プラットフォームを使用する間のアイトラッキングデータとログデータを分析するとともに、5週間後に参加者一人ひとりとインタビューし、彼らのメディアリテラシーやALVEHOの使用経験について聞くという、量的調査と質的調査の方法を組み合わせた実験だった。その結果、意外なことに、ほとんどの参加者はアルゴリズムのコントロール機能を使わなかったという。クラース氏は、その理由として、情報過多による「認知的過負荷」と参加者たちの普段のメディア利用「習慣」があげられると分析した上で、ユーザーにとって使いやすいインタフェースのデザインやメディアリテラシーを高めるための教育の重要性を強調した。

発表に続く質疑応答のセッションでは、実験の方法論や参加者の属性、ALVEHOの設計について多くの意見及び質問が寄せられ、さらに議論が深まった。その中で特に興味深かったのは、実験参加者とのインタビューから分かってきたという、とても複雑なユーザーの行動についてであった。クラース氏によると、参加者たちは普段FacebookやInstagramなどを使う際に、アルゴリズムからの推薦結果を変えるため、興味もないコンテンツを意識的に見ていたのである。つまり、彼らはアルゴリズムが働くメカニズムを基本的に理解しており、それをコントロールするために意図的に閲覧履歴を操作する努力を普段からしていたにもかかわらず、もっと簡単にボタン一つでそれができるようにデザインされたプラットフォームではその機能を使わなかったということである。その理由としては、実験的な環境ゆえの限界などが指摘できるだろうが、ここで重要なのは、実際ユーザーがアルゴリズムによって自分たちの選択が狭められていることを意識しており、改善を必要としていることが確認できた点なのではないだろうか。

議論の最後にクラース氏は、一般的に自動化の技術や推薦システムは人間の主体性にネガティブな影響を与えると思われがちだが、実際にはユーザーに多様な情報や新しい洞察を提供することで主体性の強化に貢献できる側面も大きいとの見解を示した。彼は、より良い選択肢として、推薦システムを完全に排除するのではなく、アルゴリズムがどこまで決めるかをユーザー自身が決定できるようにすることを提案する。AIをはじめとする最新技術が日常生活の隅々に浸透している現状を考えると、これは確かに現実的で建設的な見解だといえる。クラース氏が繰り返し強調したように、その実践にはデザインベースのアプローチと人文社会科学的な観点からの提言が必要であり、B’AIとしてももっとその点を視野に入れて今後の課題を考える必要があるように思われる。