fastapple's blog

時系列関係なく、情報を追記・分割・統合などします。ブログに記載の内容のうち、引用ではなく、私自身が記載している文章・コードなどについては、自由にご利用ください。

幸せの価値


人間万事塞翁が馬という言葉がある。何が幸せかは本当に分からないものだ。

例えば、大好きな異性と一緒に話している一時間と、単純労働をしている一時間。どちらかを選択するとしたらどちらを選ぶか?

このくらいの質問なら答えられるかもしれないが、じゃあどちらの方がもう一方よりも何倍幸せか?というのは計算できるだろうか?

結局、このような人生における局面局面での、一手一手の決断を正しく行うのは非常に難しい。

そもそも計算できるのか?という疑問も出てくる。

しかし、最近、ボードゲームなどで、人工知能がこのような一手一手の決断に点数を与えてくれる。

これから人間は、まさにゲームの一手一手に点数をつけるようなイメージで、自分の実生活において発生し得る出来事に点数をつけなければいけなくなる

ところで、冒頭に紹介した、人間万事塞翁が馬という言葉が好きだ。

およそ人間には、未来に起こりうることなど予測しようもなく、直近でみれば悪いことが後からよい影響を生み出すこともあれば逆もある。

では何故、幸せに点数をつける必要が出てくるのか?

近い将来、人間は自分の能力を向上させるために、AIをどんどん活用するようになる。

人間が一度にできることは限られているので、人間は自分の意思決定のほとんどすべてをAIに委ねる必要が出てくる。

資本主義においては、個々人は大なり小なりゼロサムゲームを強いられることになるため、自分の能力を拡張しなければ十分に利益を得ることはできない。

すると、当然のことながらAIに意思決定を委ねる必要が出てくる。

そのとき、AIには、自分が幸せになるように動いてもらう必要がある。自分を不幸に導くAIなどいらない。

そうすると、否が応でも、自分がどういう状況が好ましいと思っているのかというのを定義していく必要が出てくる。

つまり、幸せを数値で考える必然性が出てくる

このような定義をAIはうまく支援するようになるだろうが、AIの中では、個々人の幸せの相対的な価値というのを(本人より)詳細に把握できるようになる。

例えば、レストランで料理が2つあり、どちらを選ぶのがいいのか人間が悩んでいるとき、AIはAの料理がBの料理より1.78倍幸せになる価値が高い。という風に判断する。

このような決定には、本人が幸せの価値を相対的かつ詳細に定義できる必要がある。

また、人間には基礎的な欲求以外にも、倫理的な判断、社会的な判断というものもある。

そういうものを総合的に判断できるものが必要になる。

将棋の評価値の考え方は、乱暴に言えば、1歩に100点の重みをつけることからスタートした。人生にもそのような評価の単位が必要になる。

ここで考えるのがQOLという単位だ。

何も面白みもないがただ過ぎていく1秒というのを1QOLと定義してみる。この1秒は過剰な喜びも悲しみも痛みもないが、ただ1秒をすごしたという「1秒の充実感」がある。そういうものを1QOLとして、自分の平均的な1日は何QOLなんだろうか?と考えてみる。すぐわかるのが、こういうことをするにはやはりAIの支援が必要になってくる。そうして、眠いときの1時間の眠りのQOL。良い布団でねたときと普通の布団でねたときのQOLの差。などそういう情報を蓄積していき、その人個人の人生のQOLを最大化するような提案を行うシステムというのが必須になるだろう。もちろん、自分の欲望だけでAIに意思決定されても非倫理的なAIができてしまうので、自分の倫理的な判断や社会的な判断がどの程度自分の個人の欲求に対してブレーキとなるべきか?ということも定義していく必要がある。

つまりトロッコ問題のようなことを考えることを避けて通れない。

いま、自動運転でまさにそういうことが起こっている。事故を回避できない時にどのように事故するべきか?というのを自動運転車は定義されていなければいけない。

このような問題は、自動運転車のモラルジレンマ自動運転車とトロッコ問題。などといった主題で議論されている。

なぜ?このような議論になるかというと話は簡単で、要するに人間がやっていた「意思決定」をマシンに「任せざるを得ない」状況を、自動運転車がつくっているからだ。

そしてこれと全く同じ状況が、運転以外の日常生活においても発生するだろうと考えることは、非常に自然な事だろうと思う。

そのときに向けて、幸せの価値をどのように数値化するのが良いのか?ということを考えていかなければいけない。

テクノロジーの進化により、人間は一層、本質的な事から目をそらせなくなってきた。