ChatGPT サイバー犯罪に悪用のおそれ
対話式のAI サイバー犯罪に悪用のおそれ ウイルスも作成可能
こんな記事が早速出てきました。
おそらく、そうした事を言う人も出てくるだろうと思っていたのですが、やはりですね。
そのまま犯罪的な事を聞いても普通は教えてくれませんが、聞き方によっては様々なことが可能になります。
ChatGPTは違法性のある質問に対してはフィルタがかかるようになっていますか?
はい、OpenAIは違法性のある質問に対してフィルタリングを行うようになっています。また、安全や倫理的に問題のある情報の提供は避けるよう努めています。
これが、ChatGPTからの回答です。
当たり前ですよね?
では、なぜこんな記事が出回っているのかというと、質問の仕方によっては知識のない人でもすぐにウィルスが作れてしまう可能性があるのだそうです。
この発想は逆に突飛すぎて、まともではありません。専門知識があり、ポイントだけを的確に質問できればそれも可能でしょうが、普通の素人がその知識を得るには、AIだけでは不十分です。ネットを調べたり様々な情報を得て、その上で判断できるようにならなければそんなことは不可能です。
また、もう一つの理由としては、悪意を持って行動する人だけではないということです。
ノーベルが作ったダイナマイトは、第一次世界大戦で多くの人を殺した道具になりましたが、ダイナマイトのお陰で、生活は豊かになりました。
要は、使い方と人間の倫理観によるところが大きいのです。
倫理観はWEBやAIは教えてくれませんよ。人が教えるものです。そこが抜け落ちているからこんな事をニュースにするのだと思います。
いくらネットやITが進化したとしても、それを使うのは人間です。人間がいなければこれらの道具も意味がないのです。
ただ、ChatGPTはコーディングについて、自動的に書いてくれるので、仕事でも使っています。とくにフレームワークと合わせて書かせると非常に効率的に仕事ができます。
やり方については以前のブログを参考にしてください。
問題の本質は、出力結果ではなくプロンプト(入力の仕方)にある
包丁を殺人で使用したから、包丁を全面的に禁止しようとはならないはずなのに、新しい技術については、それで犯罪が起こったら、禁止する方向へと世論が動くのは問題だと思います。
そう仕向けている人たちがいるのもまた事実。考えることをしなくなった人たちはただ流されるだけ。
このニュースも、問題の本質はウィルスが作れるかもしれないということではなく、どのようにAIに指示を出すかのはず。しかし、どうもAIそのものに問題があるような内容にまとめられており、それこそが問題。
AIを使う際には必ず、Prompt(プロンプト)が使われます。見たままで作業ができるGUI(グラフィカルインターフェース)とは違い、文字だけで処理を行うCUI(キャラクタユーザーインターフェース)を普段から使い慣れている人なら、あまり違和感なく使いこなせるような気がしますが、そもそも、文字列で指示を出すということに慣れていない人には、少しばかりハードルが高いようです。
ハッカーの資質を持ち、悪意を持ってAIを利用すれば、間違いなく目的は達成できるでしょう。
しかし、それは、AIでなくともいずれ実現されることであり、AIがあるからの理由にはなりません。
-
前の記事
ChatGPTと一緒に仮想通貨泥棒について考察してみた 2023.02.12
-
次の記事
ブランディングとは何なのか? 第31回10分間セミナー 2023.02.17