合理的な人工知能が不合理な意思決定を促進するかもしれない
合理的な人工知能に比べて、人は不合理だから魅力的だということを書いた。
人のもっとも不可解な(けれども僕もやっぱりそうしてしまうことのある)不合理さのひとつが、行動した方が良いにもかかわらず、何もしないときがあるということだ。
それは要は人は「怠ける」ことがあるということだ。
けれども、僕の仕事(人事の仕組みを作ったり、セミナーや大学院で講義をしたりすること)の場面では「何もしない」≒怠ける人に出会うことはまれだ。だから不可解だけれども、直接悩まされることはあまりない。
(僕自身が怠けてしまうことがある、ということは問題ではあるのだけれど)
僕がいろいろな組織での、評価とか報酬とかの仕組みづくりの際にもっとも頭を悩ませる不合理さは、実は別にある。
それは「特別扱い」だ。
お気に入りと嫌いなものを作ってしまう感情に対して、どのように仕組みで対応するか、頭を悩ませることが多い。
そして、この感情を、僕たちは普段こう定義づけている。
人が行う特別扱いの典型は、「愛」と「差別」だ。
特定の人を愛する感情は、そのまま、特定の人以外に対しての差別の感情になる。これらは表裏一体だ。そして、人が生き物として生存と繁殖を求める以上は、この感情が消えることはないだろう。
組織の中の仕組みづくりの場面では、「なにもしない」不合理さよりも、「愛」と「差別」という不合理性への対応の方が難しい。
なぜなら、「愛」と「差別」は不合理というよりは、それが人そのものといえるかもしれない感情からだ。
たとえば、長年一緒に働いている気心の知れた部下を、優秀だけれども新任の部下よりも優遇しようとすることは、不合理だ。けれども納得できる。
昔いやなことをしてきた同僚に対して、10年後に自分が出世した際に嫌がらせをする、ということも、やめておくべきだといさめたくはなるが、気持ちがわからなくもない。
そういうことをやめるように告げたときに「じゃあ出世して権力を持つことに意味がなくなってしまう」という意見を示されたこともある。
そもそも、出世して権力がほしいとか、お金がほしいとかの欲望は、「特別扱い」をしたい、されたい、という感情に根ざしているとも考えられる。
一方で、人工知能には特別扱いの感情がない。
それは少なくともまだ、繁殖の概念が人工知能にはないからだろう。雌雄の区分がなく、特定の相手を求める必要がない。
ひいては、コピーができるので自分の命すら意識する必要がない。
となれば、人工知能は常に合理的な判断ができることになる。
しかし、その合理的判断情報をもとに、最終意思決定をするのは、「とても大きな権力を持った人」になるはずだ。
その「とても大きな権力を持った人」たちは、特別扱いを増やすだろう。
そして、きっと不合理な意思決定をたくさんすることになる。
だから僕はどれだけ人工知能が発達しようとも、最終意思決定を人間が行う以上は、必ず不合理さは残ると考えている。
では合理的な判断をするためには、人工知能に意思決定すら任せてしまうほうがよいのだろうか。
自動運転とかは要はその意思決定を人工知能に任せている仕組みだし、株の自動売買も同様だ。そして人工知能に任せた方が、自動車は事故率が下がるし、株取引も効率的に行われるようになる。
不合理な人が、自分の特別扱いの権力を捨ててまで、合理的な判断を取り入れるだろうか?
僕はそうは思わない。
もちろん、この記事で書いたように、人工知能は多くの人の意思決定をサポートする優秀なサポーターになるだろう。
人工知能はみんなの報酬水準を高めていく - あしたの人事の話をしよう
けれども、もっとも大事なところで、人は意思決定を自分で行い続ける。
それはきっと、「愛」のために不合理なままだ。
そして、だからこそそれは、不合理だけれど正しいあり方ではないだろうか。
平康慶浩(ひらやすよしひろ)