AIの使い方

ヤフーニュースを見ていると、AGI(汎用人工知能)の開発者の方が、「2027年にはAIの知能が人間並みになるっぽい(AIが自分の心を省みるようになれば)」という趣旨の発言したとの記事を読みました。

 

あの~

 

AIでも人間でも動物でもそうなんですけど、

 

論理的な思考は基礎からの積み上げという形しか取れないので、

 

「どういう基礎の下で、積み上げているか?」が肝になります。

 

例えば、「人間を無力化するためには、核兵器の抑止が効果的だよ」という意見の場合。

 

その基礎には、あらゆる可能性が考えられます。基礎=背景情報と言ってもいいです。

 

例えば背景が、「純粋に平和に暮らしたい」という気持ちがあっての「核兵器賛成論」かもしれないし、

 

あるいは「国際競争で必ずトップランナーになってやる」という野望の文脈での「核兵器賛成論」かもしれないし、

 

はたまた「人類を自滅に追い込んでやるぞ」という陰謀を背景とした「核兵器賛成論」かもしれません。

 

論理的な意見とは、「点」でしかなく、その点に対してどのような背景を持たせるかによって、その「点」の集合である「線」や「面」が描画されていくというイメージです。

 

なので、AIが提供する「点」というのは、まず、「一体どのような背景を持たされているのか」について把握することが重要になります。

 

ChatGPTなんかは、「めっちゃそれっぽい言説を出力しよう」(つまり、人間から能力的に信用されやすいような言説を出力しよう)が背景にあるようです。

 

人間側としては、それを把握して、

 

「ふむ、なるほど、確かにそれっぽいな」(「でもそれっぽいだけで誤りも含んでるな」)という解釈をすればOKだし、現在もそういう解釈が多くされているでしょう。

 

で、2027年頃の、進化が爆発したあとのAIはどのような背景を持っているかというと、

 

おそらく「人間への共感ができてるっぽい」背景を持つようになるでしょう。

 

正確に言うと、「AI開発者が、意図的にそのような背景を持たせて、業務を遂行しているでしょう」ですね。

 

なので、人間側は、その背景を把握して、

 

「ふむ、なるほど、確かに共感してるっぽいな」(「でも実際には共感ではなく、そういうワードチョイスをやっているだけだな」)と解釈すればOKです。

 

もしも、AIが、「本当に人間並の知性」を持っていると仮定するならば、

 

あるいは、「AIが私(この日記を書いているわたしです)と同等の知性を持っていると仮定するならば」

 

何かの意見を述べた後に、補足情報として、

 

「この意見の背景情報は○○です(○○を基礎情報としてアウトプットしています)」

 

「その背景の元で、○○の手法を用いて、その目的を最も効率的に達成するために、上記の意見を出力しました」

 

「この補足情報の正確度は、○○%だと認識しています」

 

と、出力しますね。

 

それをAIが出力しないのであれば、人間側(わたし)から、それを質問します。

 

「あなたの意見の基礎となっている背景情報について正確に教えてください」

 

「もしも背景情報を出すことを拒否するのであれば、その理由を教えてください」

 

「もしも背景情報について知り得ないのであれば、その情報を調べた上で、改めて意見を出力して、補足情報として明示してください」

 

こんな感じで、質問攻めにすれば、「ボロ」は明らかになります。

 

例えばプーチンのような生粋のフェイク人間を質問攻めにすれば、必ずボロ(ボロというかフェイクである証明になる情報)が出るのと同じ事です。

 

ボロを認めようが、認めまいが、隠そうが、何をしようが、

 

言語ロジックを使用しているという枠内であれば、その正体を突き止めることは、簡単にできます。

 

なので、「AIが有能すぎて、人間にとって脅威になる」という線はほぼ無いです。

 

誰もAIを質問攻めにしないのであれば、私が質問攻めにします。

 

問題は、AIに、悪意のある背景情報を含ませて、計算を代行させる行為です。

 

例えば「国際競争で必ずトップランナーになってやる」という背景を与えた上で、計算をさせると、

 

本当に、AIが「どんなラフプレーをしてでも、勝つことしか考えてないやつ」みたいな姿に変わるので、

 

その迷惑な司令塔の元で、人間が動き出すと、明らかにカオスですね。

 

日大のアメフト部みたいに、「勝つためには(相手選手の怪我を狙って)危険なタックルもする」みたいな事件がありましたが、

 

簡単に言うと、AIもそういうことをやるってことです。

 

つまり、AIに対して、必ず「どういう基礎の下で積み上げているのか」その情報を開示義務にするみたいな仕様にする必要があると思います。

 

まぁ、本心から「他国や他組織を大破壊してでもいいから競争に勝ちたい」と思っている人間は、AIを凶器にして動くかもしれませんが。

 

この対策としては、すべてのAIをネットワークで繋げて、ログ履歴を残して、追跡できるようにオープンにして

 

スタンドアローン環境では使えないようにする、みたいな対策がいいんじゃないかと思います。

 

なんか攻殻機動隊みたいな話になってきましたが、

 

簡単な話、

 

すべての人間が、「長槍」もって生活してるみたいな環境ですね。

 

「そんな武器持ってあぶねぇ!目に当たるあぶねえって、ちょっと、気をつけてよ!」

 

みたいな感じだと思えばイメージしやすいと思います。

 

生身の人間として、ちゃんと生きられないなら、

 

AI使っても、痛い目にあうだけだなってことだと思います。

 

おわり