読者です 読者をやめる 読者になる 読者になる

不完全なAI

人工知能 自然言語処理

AIに関する議論はとてもconfusingな気がします。例えばどのタイムスケール(10年後なのか30年後なのか100年後なのか)で話しているかによって見方がまるっきり変わってくるし、強いAI(人間のように思考できるレベルのAI)と弱いAI(現在のレベルのAIの拡張)の話でもまた色々と違ってくるからです。なので今回は頭を整理するつもりで、個人的に考えている将来の人工知能図を想像してみます(なのであまり信頼はしない方がいいかもです)。

まず、一応の目安として30年後くらいのAIについて考えてみます。カーツワイルの提唱したシンギュラリティもそのあたりですし、現在20代の僕たちの世代に大きく関わりがあるのはこのあたりの時代のAIじゃないでしょうか。

また、強いAIと弱いAIに関しても色々な議論があってややこしいですが、30年という単位でみると この中間あたりの不完全なAIができるのではないか、と思っています。そして僕が思うにこの不完全なAIというのはとても危険であり、これに対する議論と対策が今後重要になってくるのではないかと思います。

 

どうして不完全なAIは危険なのでしょうか?まず、強いAI(人間の知的レベルを真に上回るAI)が完成するのであれば僕はあまり心配がありません。強いAIはおそらく人間よりはるかに良い判断ができるし、人間を理解し、コミュニケーションを取ることもできるからです。確かに人類が強いAIに進化する(ポストヒューマン化する)のではないとしたら、強いAIに人類が支配される・滅ぼされる、みたいなことはあり得るかもしれません。しかし、強いAIをもし作ってしまったとしたら、その時点をシンギュラリティとしてそれ以降のことは全く予想がつかないことになるはずで、もはや心配するのも無駄な気がします。強いAIはちゃんと倫理を理解できるはずなので、それでも「やっぱり人間滅ぼそう」と判断したとしたら、もうどうしようもないです。今の僕たちには理解できないですが、これは決して最悪のシナリオではなく、なるべくしてなった自然な結果だと思います。

ただし、強いAIというのは少なくとも人間の脳を超えるようなAIです。計算力だけの話ならまだしも、30年という時間では人間の脳を細かく理解することはできないだろうし、再現することも難しいのではないかと思います。なので、強いAIはまだできないように思います。

一方で、弱いAIしか作れないのであれば、よほど変なことをしなければ大きな害はないんじゃないかと思います。もちろん現在の技術レベルの弱いAIを悪用して殺戮兵器を作ったりは出来ます。でもこれは人間の責任でAI云々の問題ではないように思います。また、AIが人から仕事を奪って云々の話も、そんなに悪い話ではないような気がします。そのような世の中で人間が幸せに生きていけるかどうか、というのも人間の責任でAIの問題ではないです。

 

しかし、不完全なAIが作られてしまったらどうなるでしょうか?改めて定義っぽいことをすると、

① 弱いAI<?不完全なAI<?強いAI

② 不完全なAI≠人間の知能

という感じになります。<?というのは「おそらく強い」という意味で、人間には判別ができない状態です。また、≠というのは人間とは類似はしていても別のアーキテクチャで動いている(ニューラルネットのような感じ)ということです。簡単に言うと多くのタスクに対して人間以上(おそらくはるかに上)のパフォーマンスを出すことができるが、人間と同じ思考回路で動いているとは限らない、という状態です。

こうなってしまうと、不完全なAIをどこまで信頼していいのか全くわからない状況になってしまいます。そしてこの不完全なAIに世界が支配されるようになる、というのがおそらく考え得る中で最悪のシナリオではないでしょうか。

実際にこのシナリオはある程度現実味を帯びていると思います。現在ぽつぽつと汎用人工知能(AGI)の研究が出てきているみたいですが、これらはおそらく不完全なAIになるような気がします。例えば

 

http://www.goodai.com/roadmap

 

に基づけば、タスクベースでAGIを作っているので確かに一見人間のように思考するものができそうですが、人間とはまるで違った構造のものが出来上がりそうです。それを一体どのように活用すればいいのでしょうか??不完全なAIを社会全体の利益につなげる方法は、正直全くわかりませんし、模索していかなくてはいけないと思います。少なくとも、最悪のシナリオを防げる対策が今現在あるようには思えません。

 

まとめます。不完全なAIを制御するのはとても難しそうで、これは早急な対策が必要なくらい重要な問題だと思います。制御の仕方は何をどのように学習させるか(悪いことを学習させない)、できる限り構造をブラックボックスにしない、人間と意思疎通ができるようにする、AIに任せる範囲を制限する、などなどたくさんあります。個人的には人間とAIが意思疎通できるようにする、というところを追求したいと思っています。そのためにはAIが自然言語をほぼ完璧に理解できるようになる必要があるので、まだまだ道のりは遠いですね。頑張ります。

広告を非表示にする