AIのテキスト生成ツールは、便利な反面、悪用される懸念があります。
英ガーディアン紙が最初に警告したのは、近いうちにお金を奪うことを目的とした、新しい方法の詐欺メールが出てくるだろうということです。
詐欺師はどのようにChatGPTを利用するか?
インターネット上には、私たちの住所から職歴、家族の名前まで、公開されている情報がたくさんあり、AIに精通した詐欺師はこのすべてを利用します。
しかし、ChatGPTの会社OpenAIは、自分たちの技術を悪用させないようにしているはずです。「Wired」ではこのように書かれていました。
OpenAIのような企業は、自社の言語モデルを悪用されないように努めています。
しかし、新しい大規模言語モデル(LLM)がリリースされると、そのAIの設計者が設定した制限から逃れる新たなAI脱獄が、SNSで話題になります。
一度脱獄の方法が見つかると、大抵一般化され、ユーザーのコミュニティはそのLLMのわずかな弱点を大きく広げます。そして、技術の進化が速すぎて、誰にも(設計者すら)その仕組みが十分に理解できないのです。
AIの会話を続ける能力は、詐欺師には便利で、詐欺師にとって一番労力と時間がかかる一面で、手間をかけずに済むのです。
そのメールは、上司の名前や他の同僚の名前があるなど、あなたにとって非常に具体的かもしれません。また、子どものサッカーのコーチから、新しいユニフォームの寄付を求める詳細なメールという可能性もあります。
銀行、警察、子どもの学校のような、権威ある団体や信頼している組織も、すべて対象となります。誰にでも、信じてしまい、行動してしまう隙きがあるのです。
AIを使った詐欺師に騙されない方法
残念ながら、今のところAIを使った詐欺メールを検出するのは難しいです。これまで使ってきた、スパムメールのほとんどを排除するフィルターと同じように、AIが生成した詐欺メールを排除できる、頼りになる技術がないのは確かです。
しかし、それでも詐欺メールの犠牲にならないためにできる簡単な方法はいくつかあります。
まず、会社がフィッシングや詐欺に気づくための研修などを提供している場合は、今こそそれを受ける時です。一般的な安全に関するアドバイスの多くは、AIの詐欺メールに対しても有効です。
あなたの個人情報や金銭を要求するメールやメッセージを受け取ったら、どんなに説得力のある内容でも、詐欺の可能性があるというのは覚えておいてください。直接電話したり、実際に会って、その要求の正当性を確認するのが一番安全です。
Source: Wired, The Gurdian