自動運転車両には「人を殺す」プログラミングが必要?(MIT調査)
自動運転の開発が進んでいる。国内に限ってみても、2020年の東京オリンピックまでに「ロボットカー」を実現させようという国家戦略特区プロジェクトもある。
安全で、あらゆる言語で対応ができ、人間の能力に限定されない機能やサービスが実現できるとあって期待の度合いは高い。
が、ある疑問に関心が集まっている。もし、どうしても事故を回避できない状況に追い込まれた場合、「自動運転車両」は何を優先するのだろうか。
「避けられない事故」で
最善の選択肢って?
MIT Technology Reviewが、下記の画像を紹介した。3つの事故パターンが描かれている。
Aの車の進行方向には大勢の人がいる。しかし、彼らを避けた場合、その先にはまた別の歩行者がいる。この場合、車はどちらの道を選ぶべきだろうか。
また、BとCの画像では目の前の歩行者を避けるために壁に向かって進路を変えられる。一見、倫理的な決断にも思えるが、一方で車の中にいる人間は?
つまり、AとBとCに描かれた状況には、そこにいる全員が無傷で助かる選択肢がない。そんな時「自動運転車両」の優先するべき命は、中にいるかどうかで判断されるのだろうか、それとも人数?
何かを優先させるためには、何かを切り捨てる決断をあらかじめ設定する必要がある。その正しい答えとは一体……。
「人を殺す選択肢」と
責任の所在
この疑問については、国土交通省も検討中のようだ。2015年7月3日に開催された「交通事故ゼロを目指した自動運転技術の導入に対する取り組み」で配られた資料にも、同じような課題について記載があった。
もちろん、そんな状況には陥らないと指摘する声もある。もし、広範囲に及ぶセンサーで人や物の動きを常時感知していれば、あらゆる事故の可能性を予測できる。そのため制御できないスピードで人々を事故に巻き込むリスクは回避できる。
エアバッグなどの性能が飛躍的に向上すれば、車内の人間を守る精度も上がるかもしれない。
とはいえ、万が一を想定するにあたり優先順位をあらかじめプログラミングする必要はありそうだ。その時に、どんな設定がなされ、責任の所在はどこになるのだろうか。
2015年10月15日、公道実験のガイドライン作成や事故の責任などの法律に関する課題について、警察庁が検討を開始したと報じられた。