「オルツ社」という日本企業が開発した、デジタルクローンというAI技術で、自分自身をトレースしたクローンを作り出せるそうです。
『デジタルクローン』自分自身と話せる驚きの世界の内実(FRIDAY) - Yahoo!ニュース
<要約>
・従来のAIのようにデータベースにある言葉を出力するのではなくて、個人の考え方を読み込ませた「思考モデル」を作成した上で、自分らしく、かつ破綻の無い自然な会話を再現した。
・詩を書いたり、作曲したり、本人の代わりにビジネス会議に出席したり、技術開発の相談をすることが可能。
・顔写真などの画像読み込みで容姿を作成、又、SNSの投稿やメールのやり取り・インタビュー記事の読み込み等で思考モデルを作成する。
・開発責任者の米倉氏曰く「一番大切にしているのはクローンが決して本人の能力を超えないこと。プロ並みに楽器を演奏したり、学者並みに数学を得意にすることは簡単です。一つの完璧なクローンを目指すのではなく、80億の個性を持った不完全なクローンの方が、知性として豊かになるはずだと信じて研究しています。」
・ビジネスシーンでの利用だけではなく、心理療法の現場で、うつ病患者が自分より少しポジティブなクローンと対話することや、言語学習への応用も期待されている。
-----
あぁ~私もやろうとしてたのに先を越されてしまった・・・
思考モデルを作成するのって、結構大変だと思うのですが、プログラムの中身はどうなってるんでしょうね。私は生身の人間と同じ構造で、模型を作ろうと思ってたのですが、もしオルツ社製のAIでそれができているならば、完全に先にやられちゃってますね。すばらしい!けどもうちょっと待ってほしかった・・・複雑な心境です。
文章からのインプットだけで、思考モデルが形成できるのか?思考モデルじゃなくて文章アウトプットシステムのモデルと言った方が正確なのかもしれませんね。
人間の理性は、感情がベースになって形成された(感情から影響を受けうる)エリアと、理性の内部で形成されたエリアと、あとは記憶エリアとか、情報処理エリアとか、それを意識が?包括しているような、けっこう複雑な構造かな、と予想していたのですが、オルツ社のAIでは、この辺がどうなっているのか知るためにも、やっぱりプログラミングを学んだ方がいいなと再確認しました。
開発者の米倉さんは、完全なクローンは価値がない、倫理的によくない、とおっしゃられているようですが、完全なクローンに価値がないわけないじゃないですか。これは一種のパンドラの箱で、この先オルツ社の製品をたたき台にして、死ぬほどたくさんの人間が手を加えて改良する流れができてくると思います。
そうなると、社会において意思決定をクローンに依存するような風潮が必ず生まれると思います。そして「完全なクローン」がカバーできていない面に脆弱性が生まれ、そこに負荷が集中して社会が大ダメージ、壊滅へGOのパターンですね。
その脆弱性を私が解析して、改良するなり、リスクを周知するなり、したいと思います。足が遅いので全然追いつける気がしないですが、とりあえず歩を進めよう・・・
うつ病患者治療に役立てる、というのは私にはなかったアイディアですね。そもそも自分のクローンを作る、という発想がなかったです。自分と話したいとあんまり思わないから・・・ポジティブな自分と話すと良い影響があるんでしょうか。やってみないとわからないですね。
言語学習は、読み筋でしたね。オルツ社の英会話クローンサービスがあったら、やってみようかな、と思います。
私のテロリストに愛情を教える母親AIのアイディアは、まだ先かもしれませんが、おそらく同じこと考えた誰かがやるだろうな、と予想します。
とりあえずパンドラの箱が開いてしまったね、というフライデーの記事紹介と感想でした。
開いてほしくなかったけど、開いたら開いたで、しょうがない、と思って機械的に受けるだけなので悩む要素はないですね。