ChatGPTは、自然な対話が可能なAIチャットbotであり、企業の情報収集や発信の手段としての活用が模索される一方で、攻撃者もその可能性を注視している。攻撃者がChatGPTに見いだしている可能性の一つは、ChatGPTの社会的な可能性である。つまり、ChatGPTが自然に会話をし、上手に文章を書けることができる点である。例えば、フィッシングメールの文章を書く際には、米国人にとって自然な英語の文章を書くことが難しく、文章中にスペルや文法の不自然さがあるため、フィッシングを見破ることができる。しかし、ChatGPTに文章を書かせると、はるかに自然な文章を生成するため、攻撃者はChatGPTを利用して特定の企業や個人になりすますことができる可能性がある。ChatGPTを利用すれば、巧妙な文章を書くスキルがなくても攻撃を行うことができるため、これが次世代の脅威として注目されている。次回は、ChatGPTなどのAIチャットbotが生み出した文章と人の文章を見分けることができるのかについて、ウィスニエフスキー氏の見解を紹介する。
Bing AIの説明
ChatGPTとは、OpenAIが2022年11月に公開した人工知能チャットボットです。チャットGPTの「人っぽさ」が生む“次世代の脅威”の正体とは、いかにChatGPTを「なりすまし」に悪用するかということです。例えば、ChatGPTを使って、他人の個人情報や口座番号などを聞き出す詐欺や、政治的なプロパガンダやデマを拡散する活動などが考えられます。
ChatGPTのなりすましを防ぐ方法は、まだ完全には確立されていないようです。しかし、ChatGPTが生成した文章を検出するツール「DetectGPT」がスタンフォード大学によって開発されています。DetectGPTは、文章の文法や語彙、文脈などを分析して、ChatGPTの特徴を探します。DetectGPTを使えば、ChatGPTのなりすましを見分けることができるかもしれません。
https://techtarget.itmedia.co.jp/tt/news/2302/27/news11.html#utm_medium=email&utm_source=tt-ent-wednesday&utm_campaign=20230419&utm_content=AL2
【このカテゴリーの最新記事】
-
no image
-
no image
-
no image