【AIと倫理 自動運転の優先順位の付け方】(弁護士 小寺正史)
自動運転の車は,歩行者などの安全に配慮して運転するようにプログラムされるでしょう。したがって,人が飛び出してきた場合,ブレーキをかけ,更に停車できなそうにないと判断すると,ハンドルを切って避けようするでしょう。
また,自動運転の車は当然に乗員の安全に配慮して運転するようにプログラムされるでしょう。鹿が出てきた場合,ハンドルを切って避けようとすると路外へ転落して大怪我をする恐れがある場合には,乗員の安全のためにそのまま進行するでしょう。
ところで,鹿ではなく人が出てきた場合には,どうするでしょうか。歩行者の安全を選択しハンドルを切ると乗員が負傷し,乗員の安全を選択してそのまま進行すると歩行者が負傷します。このような場合にどのようにプログラムすべきかというのは大問題です。
最近読んだ本に,このような問題は,AIと倫理の問題であるとして指摘しています。AIは万能ではなく,人がその価値観,倫理観を示す必要があると言うことです。
思考問題として,下記のようなトロッコの問題が新聞に掲載されていることがあり,読者は悩みます。
しかし,自動運転の車については,結論が必要です。
どうしましょうか。
(トロッコの思考問題)
ブレーキの壊れたトロッコが坂の上から疾走してきて,そのまま進行すると線路上の数人の人が死傷する。
あなたの,目の前に,線路の切替器があり,切り替えれば数人の人は助かる。但し,切り替えた先には一人の人がおり,切り替えると一人の人が死傷する。 このような場合に,あなたはどうしますか。