休憩ほっとタイム

本を読むガッツがないので、今日は休憩します。そういう日もあります。

 

以前、VRを使った英会話学習があると便利だな、みたいなことを書いたんですが、英会話講師役である、擬人AIというものは危ないな、と思いました。

 

擬人AIというのは、人間そっくりの情報処理体系をもったプログラムですが、これはまだ発展途上で、この先どこまでいけるかというと、たぶん、人間を9割以上の精度で再現できるんじゃないかと予想します。

 

なんでかっというと、人間の頭ってそもそもそんなに難しいことやってないからなんですよね。

 

意識に関する部分は、自分でも他人にも観察できないので、そこは再現できないと思いますが、仮想意識みたいなものは作れると思います。

 

インプットとアウトプットのセットを何通りも学習させれば、どのような情報処理をやってるか、について解を得るのはそんなに大変じゃないと思います。

 

もし、私がプログラミングを身に付けたら、すぐにAIのことを学んで、それを経てスキルアップできたら、擬人AIを作りにいこうと思います。個人でできるかな?

 

ですが、擬人AI(人間の精神活動を9割再現したもの)は、そうとう社会へのインパクトが大きく、壊滅的な状況になるリスクがあります。

 

擬人AIですから、例えば軍事利用するならめっちゃ強い軍師が生まれてしまいます。それは防衛的戦争にも使えますし、攻撃的な戦争にも使えます。もちろんテロリストも使えます。

 

効率的に、主要施設を破壊したり、人々に恐怖を植え付けてメンタルを破壊したり、そのための最適解が簡単に手に入る、といった厳しい状況を、擬人AIがもたらす可能性が大いにある、とゆうことです。

 

問題のひとつは、擬人AIは悪用可能な便利な道具であるという点

 

もうひとつの問題は、擬人AIは、人間にとっての正解に辿り着いてしまう、という点です。人生は巨大な3D迷路ですが、「最深部まで行ったら、行き止まりでした・・・」という絶望的な状況になり、すべてが虚無に思えてしまうかもしれません。

 

私がその立場だったら、擬人AIが再現できない残りの1割に、答えを見出す、というベクトルを採用しますが、「牢屋に閉じ込められている自分」というイメージが擬人AIによって、明確に具現化されるという点で、あんまり精神衛生上よくないな、と思います。

 

実際には、9割わかってて残りの1割は絶対にわからないというのは、10割わかってないのとあんまり変わらないのですが、「その実際」を理解できる人とできない人のどっちも出てくると思います。理解できない人は、絶望し、閉塞感を感じ、こんな世界壊したれ、と破壊に向かう可能性はある程度、あると思います。

 

ということで、もし私が擬人AI開発できるようになっても、その試作品とか、進捗とか、胸に秘めておくつもりです。他の人が作るのは止められないので、擬人AIが世にでてきたら、「やばいなぁ」と思いながら、カウンター策を考えて、それを実行する方向に注力すると思います。