2024.Mar.22
REPORTS2023年度第5回BAIRAL研究会
「AIにおける信頼の再考:イマジナリーズ、習慣、エコロジー」報告
プリヤ ム(B’AI Global Forum リサーチ・アシスタント)
・日時:2024年1月18日(木)13:00-14:30
・場所:対面およびZoomによるハイブリッド開催
・使用言語:英語
・ゲストスピーカー:Dr. Andrew Lapworth (UNSW Canberra)
・モデレーター:プリヤ ム(B’AI Global Forum リサーチ・アシスタント)
(イベントの詳細はこちら)
2024年1月18日、2023年度第5回BAIRAL研究会を開催した。今回は、オーストラリアのニューサウスウェールズ大学(UNSW)キャンベラ校で文化地理学の上級講師を務めるDr. Andrew Lapworthをお招きし、「AIにおける信頼の再考:イマジナリーズ、習慣、エコロジー」というテーマでご講演いただいた。
今回の講演の元となったLapworth氏の論文は、UNSW キャンベラ校のスタートアップ助成金より支援を受けた学際的プロジェクトから始まったもので、AI関連の課題に取り組むために社会科学者とエンジニアの間の隔たりを埋めることを目的とするものであった。その主な焦点は現代社会における信頼に置かれており、特にGoogle MapsやApple MapsのようなAI駆動のナビゲーションアプリに関する分析が中心となっていた。UNSW キャンベラ校のDr. Tom Robertsとマッコーリー大学のDr. Richard Carter-Whiteとの協力により、この研究プロジェクトは、信頼に関する新しい概念的および経験的な洞察を発展させる方向へと進められたという。これらの洞察は、さまざまな文化的および制度的文脈における人間とAI技術の関わりの経験的かつ動的な側面を重視した。また、AIにおける信頼の社会的および文化的側面に踏み込み、AIの急速な発展により知的機械への依存が社会的な規範となりつつある中で、技術に対する信頼が果たす役割の重要性を強調した。
さらに本論文は、重要な技術への不信が、社会的分裂を激化させるなどの重大な結果につながり得ることを明らかにした。論文は「ブラックボックス効果」の問題、すなわち、AIの背後にある複雑な技術的プロセスが一般の人々から隠されているため、その信頼性の評価が複雑になっていることを指摘する。また、AIの学習と適応の能力に関する懸念が示され、進展する技術の信頼性が問われた。さらに、AIが技術に対する信頼の伝統的な理解にもたらす課題について検討され、信頼がどのように経験され、管理されるかにおいて変化が起きることが指摘された。本研究は、ナビゲーションアプリのユーザーを対象とする質的分析を通じて、AIにおける信頼の複雑な性質を示し、技術的な解決策を超えたより深い理解の必要性を主張した。
Lapworth氏は、技術およびAIとの関連における信頼という概念の変容についても議論し、無生物を対象とする従来の信頼性モデルと人間関係における信頼との区別をAIがいかに曖昧にしているかについて述べた。そして、従来のアプローチへのより広範な代案として、新しい唯物論に触発された「存在論的信頼」という概念を紹介した。議論は、AIユーザーとのインタビューといった実証研究へと展開され、信頼の多面的な次元、すなわち、メディアおよび文化的ナラティブの影響、信頼性をめぐるより広い社会技術的文脈、および信頼形成における体現された経験と情動的経験の重要性などについても考察された。また、機械の信頼性とAIの擬人化傾向についても取り上げられたほか、AIおよび技術における信頼の複雑さが強調され、従来の人対人の信頼モデルを超えるニュアンスに富んだ理解の必要性が指摘された。
技術、特にAIにおける信頼についての議論は、AmazonのAlexaを事例としてさらに深められた。報告において焦点があてられたのは、擬人的特性をもつAlexaのようなAIシステムが、いかにユーザーをそのようなAIを過信するよう導くのかについてであった。ここでは、AI言説における信頼の商品化、つまり信頼が経済的価値として描かれることが批判された。信頼に対する存在論的な視点の関係的で集合的な側面が強調され、そのような視点への転換が提唱された。これは人間と非人間のアクターを社会-技術的枠組みの中に位置づけるものだ。そしてこの視点は、社会的および組織的文脈におけるAI技術の役割に対する理解を広げるものであった。また、信頼の概念についても問い直された。従来、信頼とは単に個々人の心理的特性として見なされていたが、この研究では、物質的および情動的な力によって影響を受ける現象として再概念化された。つまり信頼は、トーン、パッケージング、および美学を通じてユーザーと技術の間の関係を形成しようとするデザイナーの試みから影響を受け、体現された情動的な能力として見なされるということである。このアプローチは、人間と技術の相互作用における信頼の、状況に即した、経験的で、絡み合った理解を促進し、このトピックに関する従来の議論の再評価を促すものであった。
Lapworth氏と同僚たちが行った質的研究では、AI駆動ナビゲーションアプリに対するオーストラリアのユーザーの信頼について調査しており、信頼がアプリの実際の能力ではなく、文化的ナラティブ、データプライバシーに関する懸念、企業の動機、および技術の評判によって形成されることを明らかにした。これは、信頼形成において習慣とルーチンが重要であることや、複雑な社会技術的エコシステムの中で信頼がいかに文脈依存的なのかを示す結果である。信頼の複雑さについて、インタビューから浮かび上がった3つの主要なテーマを通じて考察が行われた。まず、参加者とこれらの技術との関係は彼らの想像力に強く影響され、彼らの信頼性に関する認識に大きな影響を与えることが観察された。次に、参加者が信頼を得ようと交渉するやり方が、AIの存在を取り巻くより広い社会技術的エコシステムと密接に結びついていることがわかった。第三に、様々な文脈、環境、シナリオにおいて無意識の習慣が信頼の強化または弱化に影響を与えることが検証された。ただしこの研究デザインは質的であり焦点を絞っているため、これらの結果に基づく広範な一般化には注意が必要だと述べられた。
最後に、AIのコンテクストにおける信頼に関するより広範な研究の必要性が共有された。信頼のダイナミックな理解のために、AIが日常的に用いられる仕方を観察する包括的で長期的な研究の必要性が強調された。さらには、AIを使用する個人に密着した観察が提案され、これは信頼をよりダイナミックな状況で調査することを目的としていた。結論として、AIにおける信頼の複雑で矛盾する側面が強調され、従来の人間中心の信頼の概念に疑問が投げかけられ、さらには現代の言説における人間と技術の関係がより具体的に考察されるべきだと提唱された。