d0iの連絡帳

気がむいたら書く

「トロッコ問題」雑感

ロッコ問題と自動運転という議論がある。例えば完全自動運転自動車とトロッコ問題についてなどが、ちょっとぐぐっただけで目につく。

本来は人間の選択のジレンマについての議論だが、これを援用して、自動運転の問題にした人達がいる。自動運転において、不可避な犠牲が選択可能な時にどのような選択をすべきか? という問題である。例えばMITのMedia LabでもMoral Machineというサービスを立ち上げてこの問題について論じている。

個人的には2つの意味でこの議論はナンセンスだと思っている。

まず、自動運転車を設計するのであれば、そもそも、トロッコ問題にハマるような状況にならないように制御すべきである。トロッコ問題の確率を極小化できれば、工学的には対処の優先度が下がる。

次に、現状の自動運転のモデルは、哲学者や法学者が考えるようなモデルでは構築されていないという現実がある。

ロッコ問題は、ジレンマを提示して「どちらが正しいと思いますか?」と人間の判断を問うてくることに本質がある。ジレンマである以上、どちらが正しいと言えるものではない。どちらに進んでも何らかの損害は被るのである。

そして、そのジレンマに陥った時に自動制御がどのような指針で決定を行うか、あたかも技術者が個別に設計しているかのような、過った前提で議論をする人達がいる。中には、「衝突時の進路設計を隠れて勝手に決めることの方が大問題です。」などと、悪の技術者が社会的議論を待たずに勝手に実装を進めているかのような論陣を展開している法学教授もいる。

では、そのような自動運転向けの「AI」はどのように実装されるのだろうか? これは、基本的にはパスプランニングに加えて、状況の変化に反応するために強化学習のようなものになるだろうか。筆者はこの領域は専門外なので詳細は知らないが、ありがちなAIの出力は、行動計画候補とその重み(確率)の組をいくつか出力するものである。

ここで、トロッコ問題が規定するようなジレンマに陥った場合、のぞましいAIの出力は「ジレンマ」である。つまり、複数の行動計画候補の重みが近い値になってしまい、たまたま少し高い方の行動を選択するか、あるいは重みに応じた乱数により選択を行うか、という結果になる。つまり、のぞましいAIであればあるほど、そういった時の行動は予測不能である。

ここで、「そんな予測不能なAIに自動運転は任せられない」という反論も想定できるが、そもそもジレンマに陥る環境を与えている問題設定がナンセンスなのである。仮に特定の状態に対して答を出したところで、条件設定を変更してよりジレンマ寄りに近付ける論法であるから、この問題は出題側が「無敵」である。

この「無敵の問題」を解かないと自動運転は社会的に認められない、こういった場合の自動運転の決定を社会的合意のもとに透明化すべし、という議論は、少なくとも工学の範囲では、根本からまともな問題設定の体をなしていない。また、仮にこの問題が法学のドメインでは議論として成立するのであるとしても、もっと現実的な問題を論じていただきたいものである。

なお、経済的にはトロッコ問題に対する解は存在する。保険を必須とすることを前提に個々の事故の責任を希薄化すればいい。事故の責任は特定の車種やメーカー毎の保険料率の変化という形で、生産者が間接的に取ることになる。事故の被害者の遺族は誰かに責任を取らせないと気が済まないだろうが、「気が済まない」以上の理由は少なくとも私には思いつかない。

少なくとも

このようなテーマを避けて、衝突時の進路設計を隠れて勝手に決めることの方が大問題です。

・筆者が座長代理を務めた総務省の「AIネットワーク化検討会議」も、第一原則として「透明性」を要求し、第八原則として説明責任も要求し、これらは日本国政府の政策に取り込まれ、かつ先のG7サミットで賛同を得ております。

従って、少なくとも[人権や民主主義を重んじる]先進国(含、日本)に於いては、透明性を欠いたり説明責任を果たせないような衝突時の進路設計を勝手に決めてしまうことはガイドラインに違反します。

(平野教授のサイトより引用、改行は変更)

などといって技術の発展を阻害する「学者」は、人間による事故の責任を少しでも取る気はあるのだろうか。飲酒運転や無謀運転、過労などによる事故は、技術的には減らせるのである。このような状況が見えてきているにも関わらず、機械による事故は一つたりとも許せず、人間による事故はその人間に責任を取らせる、という態度は、少なくとも私には、未来を担うべき学者として責任を果たしているとはとても思えない。


なお、本項は 総務省|「AI開発ガイドライン」(仮称)の策定に向けて整理した論点に関する意見募集 を受けた私的パブリックコメントを考えた際の思考を自分なりにまとめなおしたものであるが、パブリックコメントについてはあくまでも「AI開発ガイドライン」に対するものであることから、こういった形での整理ができていなかった。補足として公開するものである。

蛇足であるが、整理が不十分だが、提出したパブコメは以下に置いてある。

https://www.dropbox.com/s/uqgxpm474plyt5h/%E3%80%8CAI%E9%96%8B%E7%99%BA%E3%82%AC%E3%82%A4%E3%83%89%E3%83%A9%E3%82%A4%E3%83%B3%E3%80%8D%E3%81%AB%E5%AF%BE%E3%81%99%E3%82%8B%E3%82%B3%E3%83%A1%E3%83%B3%E3%83%88%E6%A1%88.pdf?dl=0

当然ですが、本項は私の個人的な意見の表明であり、勤務先とは一切関係ありません。