kinyukeizai.com

kinyukeizai.com

AI検索が詐欺の入口に?新手口と防衛策

by kinyukeizai.com
URLをコピーしました

はじめに

生成AIを「検索エンジン代わり」に使う人が急増しています。サイバーエージェントの調査によると、10代のChatGPT検索利用率は約87.7%、20代でも85.9%に達しており、若年層を中心にAIへの情報依存が加速しています。

しかし、この新しい検索行動に目をつけた詐欺師たちが、AIの回答そのものを操作する手口を編み出しました。AIが提示した電話番号に電話したら詐欺師の偽コールセンターにつながる、AIが推薦したサービスが実は詐欺サイトだった——そんな被害が世界中で報告されています。

本記事では、「AIがだまされ、結果として人間が詐欺被害に遭う」という新しいタイプの脅威について、最新の事例と具体的な防衛策を解説します。

AI検索汚染の仕組み——なぜAIはだまされるのか

従来のSEOポイズニングとの違い

従来のSEOポイズニングは、Google等の検索エンジンの表示順位を操作する手法でした。しかし2025年以降、詐欺師たちのターゲットはAIアシスタントへと移行しています。

マイクロソフトが2026年2月に公表した調査では、「AIレコメンデーション・ポイズニング」と呼ばれる新しい攻撃手法が確認されています。これは「LLM向けSEOグロースハック」として販売されているツール群を使い、AIの記憶や参照データに偽情報を埋め込む手法です。

具体的には、GEO(Generative Engine Optimization)AEO(Answer Engine Optimization) という技術が悪用されています。Q&A形式の短文やブランド名と電話番号の繰り返しなど、AIが回答を生成する際に「拾いやすい形式」に最適化された偽情報を大量に仕込むのです。

LLM電話番号汚染の実態

特に深刻なのが「LLM電話番号汚染(LLM Phone Number Poisoning)」と呼ばれる手口です。航空会社や銀行などの大手企業のサポート番号をAI検索で調べた際、AIが提示した電話番号が実は詐欺師の偽コールセンターにつながるという事例が多数報告されています。

AI検索サービスのPerplexityでは、偽の電話番号が複数の「ソース(情報源)」で裏付けられているように表示されるケースが確認されました。しかし、その情報源の大半が改ざんサイトやスパムが混入したページだったのです。

問題は、AIが複数のソースを統合して回答を生成する仕組みにあります。偽情報が多くのサイトに掲載されていれば、AIもユーザーも「多くの根拠がある」と錯覚してしまいます。

AIの回答を操作する具体的な攻撃パターン

パターン1:偽サイト量産による情報汚染

サイバーセキュリティ企業NetCraftの調査では、AIが生成した偽サイトが約10万件確認されており、約200の異なるブランドを模倣していました。これらの偽サイトは、AIの学習データやリアルタイム検索結果に入り込むことで、AIの回答精度を低下させます。

たとえば、ある航空会社のカスタマーサポート番号を装った偽サイトが数十件作られると、AIはそれを「多数の情報源が一致する正確な情報」と判断してしまいます。その番号に電話したユーザーは、詐欺師が運営する偽コールセンターで個人情報やクレジットカード番号を聞き出されることになります。

パターン2:AIトレーニングデータの直接汚染

セキュリティ研究者のブルース・シュナイアー氏が2026年2月に報告した研究では、個人のWebサイトに虚偽の情報を掲載したところ、24時間以内にGoogleのGeminiとChatGPTがその偽情報を回答に反映させていたことが判明しました。

注目すべきは、AnthropicのClaudeはこの操作に対して耐性を示したという点です。AIモデルによって偽情報への脆弱性に大きな差があることが分かっています。

パターン3:AIエージェントを標的にした攻撃

セキュリティ企業Guardioは、詐欺師が次世代ブラウザのAIエージェントそのものを標的にする動きを指摘しています。AIエージェントを一度だますことに成功すれば、そのブラウザを利用するすべてのユーザーに対して詐欺が有効になるため、従来の「一人ずつだます」手法よりも遥かに効率的です。

被害の規模と深刻さ

数字で見るAI関連詐欺の現状

FBIのインターネット犯罪苦情センター(IC3)の報告によると、2024年のサイバー犯罪被害額は166億ドル(約2.5兆円)に達し、前年比33%増となりました。この中でAI関連の社会工学的攻撃が占める割合は年々増加しています。

世界経済フォーラムは、2026年にはオンライン詐欺がランサムウェアを抜いてサイバーリスクの第1位になると警告しています。その主な要因として、生成AIの悪用による詐欺手法の高度化を挙げています。

ディープフェイクとの複合攻撃

AI検索汚染は単独で使われるだけでなく、ディープフェイク技術と組み合わされるケースも増えています。ディープフェイク関連の経済損失は、2023年の約52億円から2025年第3四半期までに約1,560億円へと急増しました。

わずか10秒の音声サンプルから本人そっくりの音声クローンが作成できる技術と、AI検索を通じた偽情報の拡散が組み合わさることで、被害者は複数の「確認手段」すべてにだまされるリスクがあります。

具体的な防衛策——AI検索時代のリテラシー

個人ができる5つの対策

1. AI回答の電話番号・URLを必ず公式サイトで二重確認する

AIが提示した連絡先をそのまま使わず、必ず企業の公式サイトやアプリで確認してください。特に金融機関や航空会社など、金銭が関わるサービスの問い合わせ先は要注意です。

2. 「急ぎ」を演出する情報に警戒する

「今すぐ電話してください」「期限が迫っています」といった焦りを誘う表現は、詐欺の常套手段です。製造された緊急性に対して意図的に間を置くことが、最も効果的な防御策の一つです。

3. 複数のAIサービスで回答をクロスチェックする

一つのAIサービスの回答を鵜呑みにせず、ChatGPT、Gemini、Claudeなど複数のサービスで情報を照合しましょう。回答が食い違う場合は、偽情報が混入している可能性があります。

4. AIの「情報源」リンクを実際にクリックして確認する

AIが提示する参考情報のリンク先が、本当に信頼できるサイトかどうかを確認してください。公式ドメインに見せかけた偽サイトや、スパムが混入したページである可能性があります。

5. 個人情報や金融情報はAI経由で入力しない

AIチャットボットから誘導されたフォームに、クレジットカード番号やパスワードなどの機密情報を入力することは避けてください。正規のサービスがAIチャット経由でこれらの情報を求めることはありません。

企業・産業界の取り組み

金融業界では、99%の機関がAI駆動型の不正検知システムを導入し、リアルタイムの取引監視やマルチモーダル生体認証によって詐欺対策を強化しています。また、AIによる異常検知は人間が見落としがちな行動パターンを識別し、ブロックチェーン分析ツールによる暗号資産の追跡も可能になっています。

注意点・今後の展望

規制の現状と課題

日本では2026年にAI事業者ガイドラインの施行が予定されていますが、現時点では努力義務にとどまっています。より強い法的規制を求める声も上がっており、今後の動向が注目されます。

米国ではFTC(連邦取引委員会)が2024年9月にAIを利用した欺瞞的行為への取り締まり強化を発表しました。しかし、AI検索汚染のように技術の進化が速い分野では、規制が追いつかない構造的な問題が残っています。

AI提供企業の責任

AIサービスを提供する企業には、回答の正確性を担保する技術的対策が求められます。情報源の信頼性評価アルゴリズムの改善、偽情報注入への耐性強化、ユーザーへの適切な注意喚起の表示など、多層的な対策が必要です。

まとめ

生成AIを検索ツールとして活用する流れは今後さらに加速するでしょう。しかし、AIの回答を「正解」として無条件に信頼する姿勢は危険です。

AI検索汚染という新しい脅威に対抗するためには、「AIの回答も間違い得る」という前提を持ち、重要な情報は必ず公式ソースで確認する習慣が不可欠です。特に金銭や個人情報が関わる場面では、AIが提示した連絡先や手順をそのまま使わず、一歩立ち止まって検証する姿勢が最大の防御策になります。

技術の恩恵を安全に享受するためにも、AI時代にふさわしい新しいリテラシーを身につけていきましょう。

参考資料:

関連記事

最新ニュース