Pages

2017/03/01

朝日新聞3月1日記事「AIがAIを作る未来想定」:「・・いずれ自ら考えて行動し人工知能を作る人工知能が登場する・・・」とあり、「だから倫理性を人工知能自身にも」とあるが、その発想には根本的な考えが欠けている気がする



たとえば「ヒトの道徳観(倫理観)や正義感、他者への思いやり等の感情は、自分自身が(正確に言えば自分自身の遺伝子が)より多く増えるうえで有利だったから、今、ヒトの脳に(俗っぽく言えば)本能的に、少なくとも潜在的にはしっかりと、備わっている」と考えられてている(詳しくは下記ののサイトに私が書いています)
www.homo-contribuens.org/wp/wp-content/uploads/2016/04/thesis_taki_003.pdf に私が書いています

道徳観(倫理観)や正義感、他者への思いやり等の感情を生み出す脳内神経回路の遺伝子は、それをもった個体からより多くの個体(主に子ども)を作り、その中に入って広がっていったのだ。

自ら考えて行動し人工知能を作る人工知能が生まれたら、それがディープラーニングなどの機能によって、より多く増える戦略を学んでいくだろう。そうしたら、仮に、人間が倫理観を外部からプログラムしても、それが、彼らの増殖に有利な環境ではなかったら、抑え込まれたり、書き換えられたりして、力を発揮できなくなる可能性が高いと思われる。

重要なことは、各種感情、〇〇観の多くは、ヒトを含めた生物の進化において、いわば、その生物の脳が自ら、自然淘汰という過程を経て内側から出現してきたものなのだ。
自ら学習し、”自らを”作るAIの場合も結局は同じだろう。仮に、外部から倫理観のプログラムを埋め込んでも、それがいつまでも予定通りに作動し続けることはないと考えたほうがいいと思うのだ。