ChatGPTなどのAIを利用したチャットボットがハッカーによって悪用され、なりすまし攻撃が強化されていることが懸念されています。また、ディープフェイクや偽情報の拡散にも利用される可能性があります。IT意思決定者の84%が、生成系AIやLLMがもたらす潜在的な脅威への懸念を表明しており、48%がChatGPTを使えば、よりリアルで本物らしいフィッシングメールを生成できる点を懸念しています。また、46%の回答者が、偽情報や誤情報の拡散への利用を懸念しています。半数強の53%が、ChatGPTを使った初のサイバー攻撃が1年以内に発生すると予想しており、40%は現在のサイバーセキュリティツールはサイバー犯罪のイノベーションに後れを取っていると感じています。ChatGPTのようなツールは、フィッシング攻撃を強化するためにも利用されることが懸念されています。
Bing AI
ChatGPTというAIが、ハッカーに悪用されているかもしれない。ChatGPTは、人間みたいに話したり、文章や画像を作ったりできるAIだ。ハッカーは、ChatGPTで偽のメールや情報を作って、人をだまそうとしている。オーストラリアでは、ITの専門家の多くが、ChatGPTがもたらす危険に心配している。ChatGPTはまだ新しいAIなので、どんな影響があるかわからない。
https://japan.cnet.com/article/35201233/?tag=nl
【このカテゴリーの最新記事】
-
no image
-
no image
-
no image
-
no image