ChatGPT AI のすでに恐ろしい 6 つの使用法

今日、人工知能が大きな注目を集めています。特にChatPGT。このチャットボットが悪用される可能性もあります。ここでは、控えめに言っても恐ろしい6つの実際的なケースを紹介します。

チャットGPT, OpenAI のテキスト ジェネレーターは、正確で興味深い文章を作成するという点では依然として不完全ですが、ほぼすべてのトピックについてほぼ瞬時に比較的適切なテキストを作成できます。それは非常に注目に値します。しかし、たとえ多くの安全策が講じられていたとしても、システムは非常に危険な場合もあります

私たちは理想とは程遠い用途を発見し始めたばかりです。何もないところからコンテンツを生み出すことができるものは、危険なものを生み出す可能性があります。それは時間の問題です。以下に、人々がすでに目にした、恐ろしい、または少なくとも疑わしい 6 つの使用法を示します。これらすべては、ChatGPT が本格的に普及する前であり、アプリケーションはまだ初期段階にありました。

1. マルウェアを作成する

チャットGPTマルウェアを作成するのは恐ろしいことであり、当然のことです。マルウェアが新しいからではなく、ChatGPT がそれを際限なく実行できるからです。 AIは眠らない。説明どおり情報セキュリティマガジン、「サイバーセキュリティ研究者は、非常に複雑で検出が困難な多態性プログラムを作成することができました。」研究者は、自分の作品を使ってマルウェアを作成し、アプリを使用してそのコードのバリエーションを作成し、検出や停止を困難にする可能性があります。

2. 学校での不正行為

それほど怖くはありませんが、おそらくより予測可能です。あらゆるトピックに関するテキストを生成できるツールは、学校で不正行為をしたい子供に最適です。教師らはすでに、行為中の生徒を捕まえたと報告している。学校はアプリを禁止した。そして、それどころか、この傾向が鈍化する可能性は低いです。 AI は間違いなく、若者が学校で習得するためのもう 1 つのツールとなるでしょう。

3. 出会い系アプリでのスパム行為

スパムというと誤解があるかもしれませんが、人々は ChatGPT を使用して Tinder のマッチング相手とチャットします。それは必ずしも怖いことではありませんが、潜在的なパートナーではなくコンピュータープログラムを使って取引している可能性があると知ると、不安になる可能性があります。

4. ジャーナリストや他の編集者の仕事を引き受ける

自分の仕事について心配する必要がありますか?

5. フィッシングおよびその他の詐欺

その存在を証明するのは難しいですが、ChatGPT のようなツールはフィッシングには最適です。からのメッセージフィッシング多くの場合、言語が不安定であるため、簡単に認識できます。 ChatGPT では、これはもう当てはまりません。いずれにせよ、専門家らはすでに、これは完璧な現実的なケースであると警告している。

仕事を見つけることがいかに難しいかは誰もが知っています。それは長いプロセスであり、多くの場合は意気消沈しますが、最終的には良い仕事ができることもあります。しかし、仕事を探している場合は、求人アプリを優先して機会を逃してしまう可能性があります。人工知能。ある企業は最近、ChatGPT によって書かれた回答のパフォーマンスが人間の 80% よりも優れていることを発見しました。 ChatGPT は、採用担当者が期待するキーワードを、実際に人事担当者が設定したさまざまなフィルターを通じて、より簡単に使用できるようになりました。