2023.Oct.10
REPORTS第21回 B’AI Book Club 報告
「ディスカッション:ChatGPTとのコラボレーションによるジャーナリズム、南半球に焦点をあてて」
プリヤ ム(東京大学大学院学際情報学府 アジア情報社会コース 修士課程)
・日時:2023年7月25日(火)13:00-14:30
・場所:ハイブリッド(B ‘AIオフィス&Zoomミーティング)
・言語:英語
・文献:
① Fluid AI Artificial Intelligence, Abhinav Aggarwal, and Raghav Aggarwal (2022) Bridging the AI Gap: Why Some Leaders Create Immense Value Through AI While Others Don't. Independently published.
② John V Pavlik (March 2023) Collaborating with ChatGPT: Considering the Implications of Generative Artificial Intelligence for Journalism and Media Education, Journalism & Mass Communication Educator, 78(1), 84-93.
③ Gregory Gondwe (June 2023) CHATGPT and the Global South: How are journalists in sub-Saharan Africa engaging with generative AI?, Online Media and Global Communication, 2(2), 228-249.
・評者: プリヤ ム(東京大学大学院学際情報学府 アジア情報社会コース 修士課程)
2023年7月25日、B’AI Global Forumのプロジェクトメンバーとその関係者が参加する書評会「B’AI Book Club」の第21回が開催された。この書評会では、私は前述の書籍および論文のレビューを行い、特にジャーナリズムの分野でのChatGPTとのコラボレーションにおけるオーサーシップについて、グローバル・サウスに焦点を当てた議論を行った。
Fluid AI社は、ムンバイを拠点とする、AIとコンピュータ・ビジョン技術を専門とする企業である。書籍『Bridging the AI Gap: Why Some Leaders Create Immense Value Through AI While Others Don’t(AIギャップを埋める:なぜAIを通じて計り知れない価値を生み出すリーダーがいる一方で、そうでないリーダーもいるのか)』は、最適化とデータ主導の意思決定について企業に助言を行う同社の社内AIアルゴリズムによって執筆された。しかし、この本にはデータの偏りや透明性などに関する倫理的な懸念についての議論が欠けており、その点は今回の議論の極めて重要なポイントとなった。開発格差、資源制約、歴史的要因、社会的価値観によって、倫理的懸念の優先順位に違いが生じる可能性がある。そして優先される問題は、地域のニーズや価値観に大きく影響される可能性があると言える。
ジョン・V・パヴリック博士は、ニュージャージー州立大学ラトガース校のジャーナリズム・メディア研究の教授であり、ジャーナリズム、メディア、社会に対する新たな技術の影響について幅広く執筆している。パヴリック博士はOpenAIのChatGPTと共著した2023年の論文で、ジャーナリズムとメディア教育における生成AIの効果について論じている。この論文では、ニュースの収集、制作、配信にAIを採用した最初の報道機関の1つであるAP通信(AP)による生成AIの活用に焦点を当てている。パヴリック博士は、AIが人間のジャーナリストの助けとなる可能性を認める一方で、知識の範囲や深さという点で、AIには限界があることも指摘している。
カリフォルニア州立大学ジャーナリズム学部助教授で、ハーバード大学ソーシャルメディア再起動研究所(RSM)の客員研究員でもあるグレゴリー・ゴンドウェ博士は、アフリカにおける新たなメディア動向と、新しいメディア技術がアフリカのジャーナリズムに与える影響について広範な研究を行ってきた。ゴンドウェ博士の2023年の研究では、誤報、盗用、ステレオタイプ、オンラインデータベースの非代表性などの問題に焦点を当てながら、サハラ以南のアフリカにおける生成AIの使用状況を調査している。この研究はこうした調査を、グローバル・サウスにおけるAIツールの効果的な活用に関するより大きな議論の中に位置づけるものである。また、剽窃や、正確な情報と不正確な情報を区別するモデルの信頼性についても疑問を投げかけている。データベースがまだグローバル・サウスの社会文化環境を十分に認識していないため、誤りや偏りを含むコンテンツが作成される可能性が高い。しかし、ゴンドウェは楽観的でもある。代表となるものがないことで、AIモデルに頼る際により慎重になり、より効果的なジャーナリズムの実践につながる可能性を示唆している。
論文のレビューが終わった後、ディスカッション・セッションではいくつかの重要な質問が出された。まずグローバル・サウスに関する議論は、労働搾取や天然資源搾取を中心に行われることが多いが、生成AIがジャーナリズムの実践に与える影響を探ることで、欧米の価値観に偏ったデータベースの本質に光を当てることができる。またソフトウェア・テクノロジーは、コンテンツ制作のために人々がどのように生成AIツールに関わるかを綿密に調査する必要がある。欧米で開発されたソフトウェアは、不注意にも欧米のイデオロギーを社会に押し付ける可能性があるため、特定の文脈におけるテクノロジーと人間の交差を理解する必要がある。加えて、生成的AIと事前に訓練されたモデルは、コンテンツ作成の効率を高めることができる一方で、基礎となるデータベースがこれらの問題に対処していなければ、ステレオタイプや偏見を増幅させる可能性もある。したがって、AIはデータ分析のような計算タスクに用いるときには価値があるが、コンテンツ作成、特にジャーナリズムにおいては、真の価値を提供するために、コンテンツは最終的に人間によって作られるべきだと考えられる。