自動運転車は優れた道徳的判断力を発揮するかもしれない

自動運転車は優れた道徳的判断力を発揮するかもしれない
自動運転車のコンセプト

自動運転車やトラックの倫理的指針については、すでに多くのことが書かれています。私自身も昨年、「将来のAppleの自動運転車が非常に誤った判断を下したらどうなるか?」という記事で、この問題のいくつかを考察しました。そこでは、まず第一に、責任問題と政治的問題のいくつかについて言及しました。

自動運転車のコンセプト

今後、生死に関わる道徳的判断の具体的な詳細は、これらの重要な判断を定量化し、ソフトウェアロジックに実装するという困難な課題を突きつけます。社会がもっとじっくり考える時間があれば良いのですが、技術の進歩のスピードを考えると、私たちにはそのための貴重な時間がほとんど残っていません。以下では、この研究を検証し、アシモフのロボット工学三原則のバリエーションを考察することで、この大きな問いを提起したいと思います。

まず最初に強調しておきたいのは、この問題はますます精査されているということです。研究は進められており、大手自動車メーカーに加え、Google、Tesla、そしておそらくAppleの何千人もの自動車エンジニアがこの問題に取り組んでいます。そして、それは非常に興味深いことです。

自動運転車をめぐる倫理的問題については、他の団体も検討を進めています。州政府、連邦政府、保険会社、そして米国自動車技術会も、この問題について検討しているはずです。ですから、私が後ほど提示する空想的な考えは、単に議論を活発化させるためのものです。

以下は、自動運転車のモラルを開発するための、現在候補となっているメカニズムです。

1. 規定された道徳

この問題に対処する方法はいくつかあります。一つは、おそらく最も伝統的で明白な方法でしょうが、人為的なルールを作ることです。しかし、この方法の問題点は、人によって視点が異なるため、すべての人に当てはまる実用的な解決策は存在しないと考える理由があるかもしれないということです。

1942年、著名な科学者であり、生化学の博士号を持ち、SF作家でもあったアイザック・アシモフ博士は、「ロボット工学三原則」を提唱しました。当初の動機は、彼のSF小説の執筆をサポートするためだったと私は認識しています。しかし、今世紀におけるロボットの実用化の実現可能性が現実味を帯びてきたことで、彼の三原則はフィクションの世界から21世紀のロボット開発者にとって真剣な議論の場へと移行しました。

残念ながら、それは400年前のことであり、今では新しいツールや技術的な問題への対処方法が豊富にあります。当時はシンプルで決定的だと思われていたことが、今日では通用しないかもしれません。また、少数の専門家の知恵に頼ることは、現代ではそれほど一般的ではありませんが、それでも貴重な洞察が得られるかもしれません。

2. クラウドソーシング

現代の研究者がこの問題に取り組む方法の一つは、多数の被験者を対象とした状況実験を行い、統計的に妥当な方法で人間の運転者に最も多く見られる道徳観を理解することです。この実験は興味深い結果をもたらす可能性があります。例えば、Scientific American誌の記事「自動運転車は道徳的ジレンマに直面する」では、次のような結果が引用されています。

サイエンス誌の報告書に回答した1,928人の研究参加者のほとんどは、たとえ車両の乗客が死亡することになったとしても、歩行者をはねるのではなく何かに衝突するように車両をプログラムすべきだと考えていると表明した。

しかし、同じ調査の参加者の多くは、そのような車両を購入するという考えに抵抗し、歩行者よりも自分自身の安全を優先する自動運転車に乗ることを好んだ。

人間は必ずしも一貫した方法で価値観を具体化するわけではありません。これについては後ほど詳しく説明します。

同様の論調で、MITテクノロジーレビューに掲載された「なぜ自動運転車は殺人をプログラムしなければならないのか」という記事があります。冷酷に思えるかもしれませんが、これは新たな事実です。問題は「誰が、どのような状況で?」ということです。

3. 道徳エンジン

関連する3つ目の方法は、膨大な数のテストケースの人間シナリオに曝露することで倫理的基盤を構築し、それを実践することを学習できるAIエージェントを構築することです。「自動運転車はいつ乗客を殺すべきか?」という記事もご参照ください。

「ザ・マシン」は一連の倫理的ジレンマから成り立っており、そのほとんどに答えを出すのは私にとって不安なことです。例えば、乗客を乗せていない自動運転車が、信号無視の犬か、あるいは常軌を逸した犯罪者に衝突しそうになったら、どうすればいいのでしょうか?

モラリティエンジンの利点(あるいは欠点、見方によっては)の一つは、自動運転車の判断がソフトウェアにのみ遡ることができることです。これは、機械による生死に関わる判断において、自動車メーカーの従業員が直接的な責任を負わなくて済むことに役立ちます。これは確かに、テクノロジーの新たなトレンドと言えるでしょう。そのメリットは明白です。モラリティエンジンが人間の基準で10万回中99,995回正しい判断を下すのであれば、システム的な故障によって死に至るという極端な損害賠償請求は薄れ、テクノロジーと社会は前進できるのです。

自動運転車のモラルの進化は、おそらく上記の方法2と方法3を組み合わせたものになるでしょう。これは、調査対象者の価値観を反映し、そのモラルをAIエージェントに具体化して、可能な限り最善の働きをする手法です。とはいえ、探求と議論のために、あえて方法1の出発点を提案したいと思います。議論を始める最良の方法は、藁人形を作ることだからです。

ページ2: テストケース – マルテッラロの自動運転車に関する4つの法則

Knowledge Network