REPORTS

2022年度第2回BAIRAL研究会
「国際政治とAI:サイバーセキュリティからキラーロボットへ」報告

ノ・ジュウン(2022年度B’AI特任研究員)

・日時:2022年5月26日(木)18時~19時半
・場所:Zoomミーティング
・言語:日本語
・ゲストスピーカー:佐藤 仁(立教大学大学院21世紀社会デザイン研究科 博士後期課程)
・モデレーター:佐野 敦子(B’AIグローバル・フォーラム特任研究員)
(イベントの詳細はこちら

2022年5月26日、B’AIグローバル・フォーラムのリサーチ・アシスタントが主催する研究会「BAIRAL」の2022年度第2回がオンラインで開催された。今回は、立教大学大学院博士課程の佐藤仁氏にお話しを伺った。まず佐藤氏から、軍事分野でのAI活用をめぐる議論をはじめ、AIの軍事利用の各国の状況とキラーロボットに対する規制の現状についてご紹介いただき、その後オーディエンスを交えて関連する話題について議論をおこなった。

軍事分野でのAI活用をめぐる議論について佐藤氏は、AIの軍事利用のすべてが悪いという捉え方もある一方、AIを搭載したロボットの方が人間の軍人よりも向いている業務が多いという意見もあることを紹介した。例えば、危険な(Dangerous、爆弾処理)、汚い(Dirty、危険物処理)、退屈な(Dull、国境警備)、遠い(Distance、地底、海底など人間の行けない所での偵察や攻防)4D業務がある。ロボットの活用で軍人の「人間の安全保障」が確保できる側面と、人間の軍人がリモートでコントロールするよりもAIによる認識の方が精確なことも多い側面も挙げられるという。

一方、AIの軍事利用に対する懸念としては、キラーロボット「自律型殺傷兵器」(LAWS、Lethal Autonomous Weapons Systems)の例が紹介された。LAWSは明確な定義がなく実態がわからない問題点があり、どこまでロボットが自律して判断するのか、人間の介入がどこまで入るのか、などの問題があるという。また、国家やメーカーの意思と関係なくサイバー攻撃によって自律型ロボットに変換・開発される可能性も懸念の一つである。さらに、生体情報に基づいた顔認識技術などを活用したLAWSが特定の民族を検知したら自律的に攻撃して殺害してしまうことに対する懸念もある。

最後に佐藤氏は、このような懸念があるキラーロボットを制限できる規制についての議論や現状について話した。例えば、網膜に損傷を与えて視力を奪うように設計されたレーザー兵器の使用と移譲を全面禁止する国際条約「失明をもたらすレーザー兵器に関する議定書」がLAWSの参考になる。また、大量破壊兵器の規制や国際人道法などで制限できる可能性もあるが、規制などはまだ進んでいないのが現状であると指摘した。

続くディスカッションでは、キラーロボットの規制ついての議論が行われ、実態がわからないためキラーロボットのイメージがつきにくい側面、監視・偵察ドローンの危険性、使用の規制と開発の規制を分ける必要性などが指摘された。