これまでの災害時にSNSで拡散されたフェイク画像・動画・誤情報の代表的な事例を一覧でまとめると、次のようなものがあります。多くは見た目がリアルで、一見すると本物の映像や写真に見えるため、信じて拡散されやすいという特徴があります。

ハリケーン・洪水関連のフェイク映像
「ハリケーン・サメ」(Hurricane Shark)
- 2011年のハリケーン・アイリーン時に、洪水した道路にサメが泳いでいる画像がSNSで広まった事例。
- 実際は洪水した道路の写真と、別のサメ写真を合成したもので、何度も別の災害時に再投稿されている典型的なフェイクです。
ハリケーン・ヘレーンのAI生成画像
- 2024年、ハリケーン・ヘレーンの被害を扱う投稿に、子どもと子犬が水没した場所にいる合成画像が拡散。画像検証で偽造と確認されました。
ハリケーン・メリッサのAI生成動画
- 2025年、カリブ海を襲ったハリケーン・メリッサの際、ホテルプールをサメが泳ぐAI生成動画や、空港が破壊された映像がSNSで大量にシェアされましたが、全て偽映像と判定されています。
地震・津波に関する偽情報
過去の地震映像を最新災害として拡散
- 2024年の能登半島地震では、過去の地震映像や津波映像を“今回のもの”として投稿する偽情報が多数流れました。例えば、東日本大震災(2011)や熊本地震(2016)の映像が誤用されています。
2025年ロシア沖巨大地震での津波フェイク
- 津波警報が出た際、AI生成や過去映像を使った偽の津波動画・投稿がSNS上で拡散され、公式機関が注意喚起する事態となりました。
台風・水害のフェイク画像
静岡水害のAI生成画像(日本)
- 過去の台風・水害を巡り、AI生成ツールで作った水害画像が「実際の被害」として拡散された例があります。投稿者が後にデマ認めるケースもありました。
山火事・火災関連の偽画像
ハリウッドサイン炎上のAI画像
- 2025年の南カリフォルニアの山火事で、実際には燃えていないハリウッドサインが炎に包まれているAI生成画像が拡散し、誤った不安を広げました。
その他の誤情報・関連フェイク
能登地震での偽救助依頼・陰謀論
- 能登半島地震後には、偽の救助要請や「人工地震」などの陰謀論系のデマ投稿も散見されました。
過去災害の映像・画像を再利用
- 災害時にしばしば見られるのが、昔の動画や別地域の写真を最新の災害と偽る手法。これ自体はAIではなくても、誤解を招く情報として世界的に問題になっています。

まとめ:なぜこれらが広まるのか?
これらの偽情報は次のような特徴があります
- 感情に訴える内容:恐怖、不安、驚きなどを刺激しやすい。
- 見た目がリアル:AIや合成技術の進歩で、一般人が見ても区別が困難。
- 「早く知らせたい」という心理:善意の拡散が誤情報拡大につながるケース。
- 情報の出所が不明確:公式発表前の噂として広がることが多い。
これらの事例は、災害時情報の鮮度が高いと信じやすい社会の現実を示しています。特にAI生成や過去映像・画像の再利用は、見た目が真実らしく見えるため注意が必要です。次のような確認を常に意識することが大切です。
✔ 情報の出所(公式かどうか)
✔ 映像や画像が過去のものではないか
✔ 投稿者の信頼性
✔ 逆画像検索や日時・場所のチェック


