AIが人間の仕事を奪うかもしれない。
うん、それはもう実際に起きている。
将来は、語学なんて習わなくてもAIが翻訳してくれる。
うん、いまでも稚拙だけどそんな商品もある。
それによって、語学なんて勉強しなくてもいい、なんて話題もある。
それを否定する意見もあるけど、ちょっとピント外れでもある。
AIが反逆して、または結託して、人類の脅威になる。
これはSFの人気テーマだけど、まだまだ想像力が欠けている。
世の中に多いAIに対する大きな誤解の一つは、
"AI(コンピューター)は間違えない"というものだろう。
だが、そう思うのは、想像力が足りてない。
もちろん1+1=2 の様な計算を間違うことはない。
これは人間だって同じこと。
だが 例えば、
AさんとBさんを同じチームに入れたら仕事は上手くいくか?
みたいな問いの場合、とりあえず得られる情報から、
上手くいく確率を推測するしかないわけで、これも人間と同じ事になる。
つまり、推測するしかない未来を言い当てることは、
AIだろうと人間だろうと、確実ではない。
未来予測の分野では、AIだって大いに間違うってこと。
そうなると、地球上のAIが結託する、なんて話はだいぶ怪しくなる。
基礎となる情報の過多、その情報の質によって結果は大きく変わるので、
AI同士でも導き出す結論が異なる、なんてことは当たり前に起きる。
AIが発達すればするほど、高度に人間に近づいた判断ができるだろうけど、
人間に近づけば近づくほど、意見の異なるAIが量産されることになる。
つまりAIと云えど、導き出す結論が多様化する。
人間の場合、多様性は生存戦略でもあり、イノベーションのカギだ。
多様性が、人類の発展に大いに寄与してきた。
人間は、結論を出した後でも、その結果を評価し、さらにより良い結果を求める。
つまり、どんな状況を生み出したとしても、満足することが無い。
だからこそ、多様性を活かし、より良い結論を求め、イノベーションを起こす。
AIの場合はどうだろう?
AIは、自らが出した結論をどう評価するだろう?
AさんとBさんを同じチームにしたら、上手くいかなかった。
次は別のパラメータ(情報)を求め、学習によって、
予測精度を高めることはできるだろう。
上手くいった場合はどうか?
AさんとBさんを同じチームにしたら、上手くいった。
この命題に対しては、これ以上「何か」をする必要がない。
これで「おしまい」である。
ここに人間とAIの大きな差が生まれる。
人間は、例え上手くいったとしても、
次はもっともっと大きな成果を上げたいのだ。
Aさん、BさんのチームにCさんも加えたらどうか?
DさんやEさんも登場させたくなる。
人類の行動は際限の無い、"欲"に突き動かされる。
のどが乾かないAIは、
いつでも安心して水が飲める環境を欲しいとは思わないのだ。
もっと便利に、もっと安心に、もっと幸せに。
人類に課せられた無限の"欲"と多様性がイノベーションを生む。
"欲"のないAIでは、イノベーションを起こすことができない。