ちょっと前のヤフーニュースで、
NTTとあともう他一社の研究グループが
「現時点では人間にはAIを制御できない」
→厳しめの規制が必要
という(あんまり覚えてないので大雑把すぎますが)提言を出したという記事を読みました。
SNSは一般に普及して、皆に「拡声器」機能をもたらしましたが、
AIは一般に普及すると、皆に「長槍」機能をもたらすものだと思っています。
大声で叫び、長い槍をぶんまわす人類が何十億人生まれるということですね。
なので、交通整理ができていない状態で普通にAIをリリースすると、
「野戦」もしくは「攻略戦」が始まり、被害者も出ることでしょう。
そういう意味では、NTT社の「現時点でAIは制御できない」っていうのは、正しくて、
そういうリスクを事前に検討して、考えて、警告を出してくれることはとても助かります。専門家の方々、ありがとうございます!
私もAIのこととか、ぼんやり考えますけど、
影響がとこまで波及するのか、どのくらいのインパクトなのか、副次的に何が起こるのか、
とか細かいところまでシミュレーションしませんので、
リアル志向で、「一体何が起こりうるのか」を計算する人、できる人はとても貴重なキーパーソンだと思います。
AIによる影響の「予測」→「対策」→「実行」のプロセスプログラムが、常駐的に動くような体制を取って頂けると、非常にありがたいです。
私もAIを使うことで、被害に遭う、とか道を踏み外す、とかあんまり見たく有りませんので。
私の考えとしては、
AIは長槍ということなので、
「AI使用目的別規制」が良いと思います。
例えば、「動画生成」と「政治ジャンル」のカップリングを検知して、
「そのカップリングは規制対象ですので、動画データおよび、作成元であるあなた(ユーザー)の個人情報を当局サーバーに送信します。よろしいですか?」
みたいなポップアップを出す、とかの抑止規制ですね。
そうすれば政治家をモデルにしたフェイク動画は、「作れるんだけど」「作者は警察当局にマークされる」→「お縄にかかる」
っていう。
なんかの映画とかをAIで作成するときに、「架空の米大統領」とかの役を出したいときもあるので、
それはいいでしょうと。実際のリアル政治家のフェイク動画はだめでしょうと。
そういう感じで、
基本的には、AIを使用するときにユーザー情報登録して、「誰が」「何の画像・動画を生成したのか」について当局が追跡できるようにするのは必要かなぁと思います。
こういうことを私が考えているのも、
専門家・研究者の方々がAIに対して警鐘を鳴らして頂いたことがきっかけです。
みんなで考えて、長槍をエンタメ分野とかでズンズン楽しく突くことができたらいいなぁと思います。
おわり