REPORTS

第29回 B’AI Book Club 報告:
Wayne Holmes and Kaśka Porayska-Pomsta eds. (2023)The Ethics of Artificial Intelligence in Education: Practices, Challenges, and Debates

プリヤ・ム(B’AI Global Forumリサーチ・アシスタント)

・日時:2024年5月28日(火)13:00-14:30
・場所:ハイブリッド(B'AI オフィス & Zoomミーティング)
・使用言語:英語
・評者:プリヤ・ム(B’AI Global Forum リサーチ・アシスタント)
・書籍:Wayne Holmes and Kaśka Porayska-Pomsta eds. (2023) The Ethics of Artificial Intelligence in Education: Practices, Challenges, and Debates, Routledge.

人工知能(AI)は、学習を強化する有望なツールや方法を提供し、教育環境を急速に変革している。しかし、Wayne Holmes と Kaśka Porayska-Pomstaによる編著 “The Ethics of Artificial Intelligence in Education: Practices, Challenges, and Debates”で強調されているように、これらの進歩には重大な倫理的課題が伴う。今回のレビューでは特に、教育におけるAIの公平性、アルゴリズムの公平性、構造的不公正の問題を掘り下げた第6、7、8章に焦点を当てた。

Kenneth HolsteinとShayan Doroudiによる教育におけるAI(AI in Education, AIED)の公平性に関する章(第6章)では、AIEDシステムが教育における既存の不公平性を悪化させるか緩和するかを検討している。彼らは、社会技術システムの設計、データセットの歴史的不公平性、アルゴリズムの要因、人間とAI の相互作用という4つの重要な視点からこれを検証している。社会技術システムの設計に関しては、テクノロジーへのアクセス格差が大きく、モバイルのみでアクセスできる子供のうち、興味に基づいた学習にインターネットを使用しているのは35%に過ぎないのに対し、デスクトップまたはラップトップでアクセスできる子供は52%である。英語を母国語としない人や文脈的数学の問題に慣れていない人も不利な立場に置かれており、大規模なオンラインでの授業を意味するMOOC(Massive Open Online Courses)は主に社会経済的背景が高い学生によって利用されている。データセットの歴史的不平等は、多くの場合、バイアスを反映して永続化する。これは「早期採用者反復バイアス」と呼ばれる現象であり、社会的不平等の増幅につながる。歴史的バイアスがなくても、機械学習アルゴリズムは本質的に不公平になる可能性があり、特に異なる人口統計グループのデータが異なる場合、また単純なモデルでは学習プロセスの複雑さを正確に捉えられないことがしばしばある。AIツールの設計は、教師のバイアスに異議を唱えたり強化したりして、公平性を促進したり、不公平な慣行を維持したりする可能性がある。これらの不公平に対処するために、HolsteinとDoroudiは、公平な AIED技術をサポートするツールへの投資、その機能と限界を明確に伝えるシステムの設計、公平性に関連する成果をAIEDシステムに組み込むことを提案している。

第7章では、René F. Kizilcec とHansol Leeが、アルゴリズムの公平性がさまざまな教育関係者に与える影響について検討し、AIのプラス面とマイナス面の結果を批判的に分析する必要性を強調している。代表性と一般化可能性は、公平なアルゴリズムを開発する上で大きな課題であり、トレーニングデータでの代表性が不足すると公平性が脅かされ、歴史的に疎外されてきたグループが不利になる。測定中に対処されなかったバイアスがモデルの学習プロセスに入り、「スライス分析」はさまざまなサブグループの精度ギャップを評価するのに役立ち、アルゴリズムの公平性の複雑さに対処する。「ブラックボックス」システムの台頭により、モデル予測の信頼性に関する懸念が生じており、解釈可能な機械学習は透明性と理解しやすいモデルの作成を目指している。人口統計的平等や均等化オッズなど、アルゴリズムの公平性のさまざまな尺度が議論されているが、著者らは、すべてのシステムに適した単一の公平性の定義は存在しないことを強調している。公平性を評価するには、長期的な影響を考慮し、利害関係者間で活発な議論に参加する必要がある。

第8章では、Michael Madaio、Su Lin Blodgett、Elijah Mayfield、Ezekiel Dixon-Románが批判理論を使用して教育AIにおける公平性を探求し、再定義し、より広範な社会歴史的プロセスに対処している。グループの公平性の指標は、交差する抑圧を考慮に入れていないことが多く、教育AIテクノロジーは、アルゴリズムが定量的に公平であっても不正を永続させる可能性がある。歴史的な権力構造はAIテクノロジーに影響を及ぼし、既存の不公平を再現する可能性がある。また、AI主導の教育監視は、他の分野の有害な慣行を教育に持ち込む可能性がある。これらの問題に対処するために、著者らは、過小評価されているデータ サイエンティストをトレーニングし、デザインジャスティスアプローチを採用し、教育AIを根本的に再考して体系的な不公平に対処することを提案している。彼らは、教育研究の優先順位を見直して、正義と公平性に焦点を当てる必要があることを強調している。

“The Ethics of Artificial Intelligence in Education: Practices, Challenges, and Debates”は、教育のためのAIの公平性と公平性を確保することの複雑さを強調している。社会技術的な設計、歴史的およびアルゴリズム的な偏見、構造的な不正義に対処する包括的なアプローチを求めている。より広範な議論と積極的な対策に取り組むことで、関係者は、すべての学習者に公平にサービスを提供する教育AIシステムの作成に向けて取り組むことができ、テクノロジーの進歩が既存の不公平性を永続させるのではなく、より包括的で公正な教育環境を促進することを保証できる。