完全自動車
では、原告側の弁護士として最終弁論を行います。今までの裁判の過程で、被告側の弁護士は、原告の亡夫である笹原氏の運転が異常であったことをしつこいぐらいに述べられてきました。確かに、笹原氏は自動運転を解除して、手動で運転をしていました。その運転が乱暴だったことは記録に残っている通りです。事故の原因が笹原氏の車がセンターラインを越えて相手の車に接近したことにあるのは疑う余地はありません。そのことで争うつもりはないことは、すでに述べております。
笹原氏の運転が適切ではなかったことには、実は、どうでもいいことなのです。事故の検証によって、笹原氏の車が被告側の車によって崖から落とされたことが分かっています。むろん、被告側の弁護士はそのことは十分承知しています。彼が言いたかったのは、事故を起こす状況を作り出してしまったのは、笹原氏の方だということでしょう。
では、私ども原告側は何を訴えようとしているのか。笹原氏の死亡の原因となった事故の相手である被告側の車は、自動運転状態でした。それゆえ、搭乗者に責任はありません。私どもが訴えたいのは自動運転中の車ですが、もちろん車には責任能力はありませんから、その車を作った自動車会社に責任を問おうとしているのです。
むろん、自動運転車だから事故は防げたはずだ、ということで責任を問うているのではありません。自動運転車にしたところで、状況の全てをコントロールできるのではありませんし、今回の事故のように、相手方が手動運転の場合は特に予測が難しいのですから、事故を回避できなかったことは仕方がないともいえます。
問題は、事故がおきたときにどのような行動を取るか、正確には、どのような行動を取るようにプログラムされているか、なのです。
この裁判の過程の中で明らかにされたように、自動運転車のAIは、当然のことですが、搭乗者を守るようにプログラムされています。同時に、事故の相手側に対しても可能な限り被害を最小限にするようにプログラムされています。もちろん、最善なのは絶対に事故を起こさないことでありますが、そこまでは今の技術水準では不可能であるということでした。
さて、裁判の中で私が指摘したのは、もし自動運転車が事態をコントロールしようとするなら、そこには利益相反の問題が生じるということでした。極端な例をあげるなら、当該自動運転車の搭乗者の命と、事故の相手側の命の、どちらかを選択しなければならないとしたら、どうすべきでしょうか。これほど明確ではなくとも、結果としてそのような選択が疑われてしまうケースはいろいろ考えられます。たとえば、事故により当該自動運転車の搭乗員は助かり、相手側が死亡したとしましょう。もう一つの選択肢として、両者とも死亡するというものしかないとすれば、この選択は正当視されるかもしれません。しかし、相手側が無事で自動運転車の搭乗員は死亡するという選択肢がなかったのかという疑問が明確に否定されない限り、命の比較がなされたという非難から免れないのです。
これはよく知られたトロッコ問題と似ていて、しかし非なるものです。トロッコ問題における選択の判断は、自らに関しては状況の変化をもたらしません。――判断の当否という心理的な状況の変化はこうむりますが。いわば、直接的な当事者ではないのです。いま私が取り上げている状況は、当事者として、その判断の結果が直接自らにかかってくる場合なのです。
対歩行者の事故とは違って、自動車どうしの事故の場合には、それぞれの自動車は自らを守るということに専念すればいいのであり、その結果、どちらの搭乗者の被害がより重かったか、あるいは軽かったかは、偶然の作用であり、自動車が責任を問われることはない、と考えていいのでしょうか。もちろん、規則違反の運転が事故を引き起こしたのであれば、その責任を問うことができるでしょう。しかし、両者が規則を守っていたにもかかわらず事故が起こったのならば、つまり、原因が偶然であるならば、結果もまた偶然として受け入れねばならず、因果関係を明確にして責任の所在を明らかにすることはできないのかもしれません。
今回は規則違反があったから、責任の所在は明確だ、と被告側は言いたいのでしょうが、その結論はしばらくお待ちください。
そもそも事故の当事者全員が規則を守っていたならば、事故が起こることはない――全くないとはいいきれないでしょうが、滅多にはないはずです。そういう意味では、事故の責任は事故を起こした者――当然規則違反を犯した者です――に課せられるというのが正当なことであったでしょう。
そうです、正当である、のではなく、正当であった、のです。
手動運転の場合は、事故が起こることを認識できたとしても、運転手のできることはほとんどありませんでした。せいぜいとっさにブレーキを踏むとかハンドルを切るぐらいでしょうが、反応が遅すぎて回避には間に合いません。ましてや、どのような行動をとれば好ましい結果が得られるかというような判断を下す時間は、人間の運転手には持てないのです。
しかし、自動運転車は違います。事故を予測したときに、ある程度のコントロールの余地はあるのです。事態を好ましい方向へ向けることは十分可能なのです。ですから、自動運転車が何をもって好ましい結果と判断するかが、事故の結果を大きく左右するのです。
私は、自動運転車どうしの衝突の例をあげて、このことを説明しようとしました。自動車会社の技術者は明確な回答を避けようとして、はぐらかすような証言をしましたが、いろいろな条件によって様相が異なってくるとはいえ、基本的な構造は変わらないはずです。ここでもう一度それを述べてみます。対向して走ってきた二台の自動運転車がお互いに衝突することを予測したとしましょう。衝突の原因は何でもいいのです。路面が日陰で凍結していたとか、油が流れていたとか、岩が落ちてきたとか、第三の無謀な車の影響とか、つまり事前に予期し得ない突発的な事態によって、衝突が避けられないと認識したとしましょう。ただし、すでに述べているように、衝突の影響については運転操作によってある程度変えられるとします。ここではそれぞれ二つの選択肢によって、四つの結果が生じるとしましょう。選択肢は、そのまま突っ込むか、横を向けるか、という二つです。二台とも正面からぶつかれば、両方の搭乗者は重傷を負いますが命は助かります。二台とも横を向けば、両方の搭乗者のけがの程度は比較的軽くすみます。ところが、一方の車がそのまま突っ込み、もう一方の車が横を向けたならば、前者の搭乗者はほとんど無傷ですみますが、横を向けた車の搭乗者は死亡します。この場合、自動運転車はどのようなプログラムを組めばよいのでしょうか。
むろん、両者が横を向くようにすれば、全体としての人的被害は最小ですみます。では、横を向くようにプログラムしておけばいいのでしょうか。しかし、相手の車が同じように必ず横を向いてくれるという保証はあるでしょうか。もし相手の車がそのまま突っ込んでくれば、横を向いた車の搭乗者は死んでしまいます。
これは囚人のジレンマという状況なのです。相手の車が必ず横をむいてくれるという保証がないのであれば、搭乗者を守るために、そのまま突っ込むというプログラムを採用しなければなりません。当然、相手の車もそういうプログラム組むはずですから、両者は正面衝突をして、両方の搭乗者とも重傷を負います。しかし、死亡するよりはましです。しかも、相手の車が横を向いてくれたなら、こちらの搭乗者は無傷ですむのですから。
この例が荒唐無稽であると、被告側の技術者や弁護士は主張しました。確かに、これとそっくり同じことが起こることはないかもしれません。しかし、似たような状況が起こることは彼らも認めましたし、メーカーとしての立場からは搭乗者を守ることを最優先せざるを得ないことも、彼らは認めました。
ただし、こういう事態を回避するような技術的進歩があることをも彼らは主張しました。自動運転車どうしが情報を交換し合って、お互いにとって最適な操作をするようにするというものです。しかし、お互いにとって最適というのは何を意味するのでしょうか。人的被害の程度を同じにするということでしょうか。しかし、両方が重傷になるという結果と、一方は重傷だが、他方は軽傷ですむというというような結果を比較するとき、どちらがお互いにとって最適でしょうか。むろん、一方を死に至らしめるまでして自分方の安全を考慮するのは行き過ぎでしょう。しかし、けがの程度が異なると予想されるとき、自らの搭乗者にどちらの結果を与えるのかという判断は明らかです。となると、お互いに利害の異なる自動運転車どうしが正しい情報交換をするのかは疑問です。誤った情報を与えるということはしないまでも、情報を隠したり、曖昧にしたりして、自らの搭乗者に有利なように相手を誘導しようとするのではないでしょうか。お互いにそれが分かっているなら、相手の提供する情報は信用せず、自らの搭乗者の安全を第一にして、相手に対する考慮はしないというのが、最適となってしまうでしょう。情報交換は事態を改善するのではなく、むしろ悪化させてしまうかもしれません。
技術者はさらなる技術進歩のことも説明しました。いまや、情報はAIだけが知っているのであり、人間にはアクセスできないようになっている。したがって、あらゆる情報がサーバーに集められ、全ての自動運転車がそこにアクセスして、他の自動運転車の情報を得ている。したがって、個々の自動運転車が情報操作ができるようにはなっていない、と。
なるほど、それなら情報操作はできないのかもしれません。しかし、だからといって、状況が根本的に改善されるわけではありません。自動運転車が自らの搭乗者を優先するという行動に変わりはないのですから。
焦点はそこにあるのです。被告側は企業秘密であるからといって、どのようなプログラムがなされているのかを明らかにしません。彼らが主張するのは、確かに自らの搭乗者の安全を最優先するものの、事故の相手側の当事者のことを全く無視するのではなく、ある程度の配慮をするようになっている、ということでした。事故の当事者の利害がトレードオフになっているとき、すなわち、一方の利益が他方の損害になり、また逆に他方の利益が一方の損害になるとき、一方的に片方の利益を追求するのではなく、ある程度の塩梅をするというのです。これは自動運転車が博愛主義に基づいてプログラムされているのというのではありません。利益の追求には制限があるという社会的な要請を、決して無視しているのではないというアリバイのようなものなのです。しかも、それがどのような程度なのかは不明のままです。
しかも、自動車の搭乗者の情報というのは、事故の補償交渉において有力な武器になります。年齢、性別、収入などは将来の稼得見込み額の算定に重要ですし、家族関係や病歴、健康状態なども補償の重要な要素です。そういう情報を考慮して、当事者の損傷をどのレベルに設定すべきかの判断ができます。どちらの搭乗者にせよ、補償額が相対的に大きい方の損傷を低くすれば、トータルの補償額を抑えることができます。むろん、保険に関する情報も考慮に入ってくるでしょう。保険会社との利害調整も事前になされているのかもしれません。
そういうことからも、自動運転車が自らの搭乗者のみを配慮しているわけではないという被告側の主張にも一理はあるのでしょう。
では、なぜ今回の事故はこんな悲惨な結果となってしまったのでしょう。原告側の車が手動になっていたということが原因でしょうか。被告側の主張はそうでした。しかし、それは被告側の別の主張とは矛盾します。自動運転車がいかに合理的であろうとしても、既に述べたように、それぞれの車の判断が一致すると予測できるのではない限り、各々の車は相手の出方が不明のまま、自らの搭乗者の最善を図ることになるでしょう。それぞれのAIは相手を信頼できず、したがって相手側については相手のAIにまかせて気にしません。いわば、どうなろうと知ったこっちゃない。しかし、一方が手動であるのならば、その車の動きは容易に予測できますし、自動運転車は自らの操作である程度事態をコントロールできるのです。この場合においてこそ、当事者双方をいわば合算した形での損害見込みを考慮して、自動運転車は行動するはずです。
今回の訴訟においては、被告側の隠ぺい体質のため、明らかにならないことが数多くありました。正直な話、私どもの法律事務所は規模が小さいため、調査力も弱く、原告のために十分な証拠を集めることができませんでした。自動運転車に搭載されているAIがどのような情報を持っているのかよく分からないのです。ただ、情報獲得のレベルが格段に進歩しているということのようです。
そこで、ここからは推測もまじってくるのですが、論理的に突き詰めればそう考えざるを得ないということを示して、事故の真相を明らかにしたいと思います。
自動運転車はその車に乗っている人間のデータについて多くの情報をデータベースから得ています。自動車の所有者以外であっても、誰が運転しているか、同乗者は誰かなどは、ドラレコと連動した顔認証によって認識できます。年齢、性別、履歴はもちろん、収入、支出、財産の状況や健康状態などもデータベースにある限り得ているのです。
実は、搭乗者の情報に関しては、医療分野との共有が進んでいるのです。しかし、自動運転であるならば、搭乗者の健康状態は本来問題にはならないはずです。搭乗者が何かで発作を起こして意識不明になろうとも、運転には関係ありません。搭乗者が居眠りをしようと差し支えないのですから。搭乗者の体調は運転に何らの影響を与えないのです。
ただし、逆のことが言えるのです。自動運転が搭乗者の体調にどのような影響を与えるのかということです。これはまず第一に乗り心地ということが考慮されるでしょうが、長期的に見て健康状態にどんな影響を与えるのかということも問題になってきます。そのためには搭乗者に関する健康状態のデータの蓄積が必要になってきます。これはメーカーの防衛上の必要にも合致するのです。たとえば、事故による後遺症が事故前の健康状態と関係づけられることができるかもしれません。たとえ事故でなくとも、その車に乗っていることで何らかの症状や障害が発生したという訴えがあった場合、そういうデータを基に反論できるからです。
当然、AIはデータベースから、他の車の搭乗者の健康状態の情報も得ています。その車が手動運転されていても、自動運転車である限り、そのようなデータにアクセスできるのです。人間である私たちには許されていないことが、AIには可能なのです。AIは守秘義務を完全に履行できると考えられているからです。被告側の車のAIは笠原氏の健康状態に関するデータを得ていたはずですが、それがどのような内容であるかは、私たちには知り得ないのです。
つまり、被告側の車のAIは笠原氏に関するあらゆる情報を持っていたのです。もちろん、笠原氏の車のAIも同様でした。しかし、笠原氏は手動運転に切り替えていたために、笠原氏の車のAIは持っている情報を活用して車を操作することはなかったのです。被告側の車のAIは当然そのことを知っていましたから、状況を支配できるのは自分だけだと理解していました。笠原氏の反応は遅すぎて、何をするにも間に合わないのだから、物理的な運動として扱うことができます。そこで、被告側の車のAIは、その搭乗者と笠原氏の間に、事故による被害の程度をどのように配分するかを判断したはずです。
そのプロセスがどのようなものかは私たちには分かりません。プログラムの内容は分かっていても、それがどのように実行されたのかは、人間にとってはあまりに膨大な過程なので、トレースすることは不可能なのです。私たちはただその結果を受け取って、それを評価し、必要ならばプログラムの修正を試みることができるだけです。その修正も、結果からしか妥当かどうかは判断できないわけです。
それゆえ、被告側の車のAIがどう判断したのかを、正確に再現することは、現実的には不可能と言えるでしょう。ただ、推測はできます。実際にAIがそのようなプロセスを経て結論を得たかどうかは分からないまでも、同等に近い結果を出す判断のプロセスを想定することはできます。厳密なプロセスは違っても、常にほぼ同じ結果を導き出すことができれば、それを等価とみなすことは許されるでしょう。
では、被告側の車のAIはどう判断したのか。ここでいちいち「被告側の車のAI」というのは面倒なので、「彼」という人称を使わせていただきます。「それ」という代名詞にしないのは、私たちからある程度独立した機能を持っているAIには「彼」の方がふさわしく思えるからです。また「彼女」ではなく「彼」を使う理由は特にありません。単なる慣習によるものであって、一般に男性的とされている特性をAIに付与したいがためではありません。
さて、彼はどう判断したのでしょう。人間の命は尊く、何をもってしても代えがたいのであるから、絶対的に尊重しなければならない、とは考えなかったでしょう。もし人間の命に無限大の価値を付与するとすれば、人間の命にかかわる事象については何も判断できなくなります。先ほどのトロッコ問題にしても、一人の人間の命と五人の人間の命の比較はできないでしょう。無限にいくら数をかけても、無限を越えることはできないのですから。もっとも、無限にも大小があるというカントール流の考えをすれば別かもしれません。数学にはくわしくないので、これは的外れな言及かもしれませんが。
現実問題として、私たちは命の値段を決めています。損害賠償によって金額的な評価もしますし、殺人罪の量刑も塩梅しています。ですから、彼も命の評価はするようにプログラムされているのです。逆にいえば、相手側の命の尊重は絶対的なものではなく、その死も選択肢から外されてはいないということなのです。
ただ、年齢とか、職業とか、収入とか、家族関係とか、あるいは健康状態のような、いわば客観的な指標だけでその評価をしているわけではなさそうです。私もいろいろ調べてみたのですが、AIは搭乗者の主観的な状態をも把握するようにプログラムされているようなのです。主観的な状態とは、意図、希望、懸念などの、状況への対応姿勢といったもののようです。
では、笠原氏はどうだったか。データベース上に蓄積された笠原氏についての情報を彼はどう分析し、どう判断したでしょうか。すでに述べたように、彼の思考のプロセスを忠実にたどることはできません。しかし、次のようなことは判断の材料になったはずです。
笠原氏の事業はうまくいっていませんでした。破綻寸前であったのは事実です。笠原氏が将来を悲観していたのは周りの人に認識されていました。精神科の受診歴があり、安定剤の投与も受けていました。笠原氏の無謀運転は、自らの安全や生命についての配慮を失っているものとみなせるのかもしれません。一方で、笠原氏は家族思いであり、その将来に対する責任も感じていました。高額な生命保険の契約をしていたのもその現れと考えられます。
彼は早い段階で笠原氏の車の動きを把握していたはずです。ですから、笠原氏の車をよけるための対応はしていたと思います。安全なところに退避することも可能なはずでした。しかし、いちいちそんなことをしていたら、車を走らせられません。せいぜい、遭遇する場所がカーブのないところになるように操作していたのでしょう。あいにく、そういう場所は少なくて、彼の思い通りにはなりませんでした。事故は彼にとってもとっさの出来事だったのでしょう。
結論を述べます。今回の事故の原因は笠原氏の無謀運転であることは間違いありません。しかし、事故により笠原氏が死亡したのは、偶然の結果ではありません。彼が笠原氏を死に追いやったのです。彼にしてみれば、自らの搭乗者と相手方の車の搭乗者である笠原氏の両者の利益と損失を計り、最適な結果をもたらす行動をとったのです。しかも、この場合は両者の利益はトレードオフの関係にあったのではなかったのでした。彼の考えでは、自らの搭乗者の安全と笠原氏の死は、両方に利益を与えることであり、それ以外の選択はいずれも誰かの利益を損なうことになってしまうのでした。
ところで、私たちにとって彼の選択は想定外でしょうか。必ずしもそうは言いきれないと思います。笠原氏のような立場の人間は自殺を選択することがあるのですから。しかし、笠原氏のような状況にある人間が全て自殺するのではないことも確かです。彼には分からないことでしょうが、客観的には全く絶望的な状況であり、本人も苦悩以外は感じない場合であっても、死が望まれるのは必然ではないのです。彼も認識しているように、主観的な状態は重要です。それが未来を規定するのですから。しかし、主観的な状況というのは、彼がそう望むような、確たるものではありません。人間の主観的な状態というのは気まぐれなのです。それは全く意味のない刺激にも敏感に反応し、世界の構成をあっという間に変えてしまうのです。本人自身にも予測できないのですから、他者がいくら客観的なデータを積み重ねてみてもつかみきれないのです。
ある意味、それが人間の自由なのでしょう。ですから、AIがそれを必然の論理でしばることはできないのです。今回の事故で私たち原告側が主張するのはその一点です。笠原氏はあのような状況でも希望を持てたかもしれない。たとえそれが空しいものだったとしても、それを持つことを拒絶することは誰にもできないのです。たとえ、万能のAIにさえも。