AI가 만든 가짜 전쟁 영상이 수억 뷰 — 진짜와 가짜를 구분할 수 없는 시대
이란 전쟁을 둘러싼 AI 생성 허위 영상이 소셜미디어에서 폭발적으로 확산되고 있다. BBC Verify 분석에 따르면, AI로 제작된 가짜 전쟁 영상과 위성사진이 수억 건의 조회수를 기록하고 있으며, 일부 제작자들은 이를 통해 수익까지 창출하고 있다.
무슨 일이 벌어지고 있나
- 텔아비브에 미사일이 떨어지는 가짜 영상 → 300건 이상 공유, 수만 번 재공유
- 가짜 위성사진으로 특정 도시 파괴를 주장하는 게시물 난립
- 과거엔 전문 제작팀이 필요했던 영상이 이제 몇 분 만에 AI 도구로 생성 가능
- X(구 트위터)의 조회수 기반 수익 프로그램이 허위 정보 확산의 경제적 인센티브가 되고 있다
플랫폼 대응
- X: AI 생성 전쟁 영상에 라벨 없이 올리면 수익화 프로그램 일시 정지 조치
- Meta(페이스북·인스타), TikTok: 유사 조치에 대해 무응답
- X의 AI 챗봇 Grok이 가짜 영상을 “진짜”로 확인해주는 사례까지 발생 — AI가 AI의 허위정보를 검증하는 아이러니
왜 이번이 다른가
이전 전쟁(우크라이나, 가자)에서도 허위정보는 있었지만, 이번 이란 전쟁은 생성형 AI의 폭발적 발전 이후 첫 대규모 분쟁이다. 전문가들은 이를 “무시할 수 없는 전환점”이라고 평가한다.
“과거에는 설득력 있는 전쟁 영상을 만들려면 전문 제작팀이 필요했다. 이제는 AI 도구로 몇 분이면 된다. 합성 전쟁 영상을 만드는 진입 장벽이 사실상 붕괴했다.”
— Timothy Graham, 퀸즈랜드 공과대학 디지털미디어 전문가
정보 소비자를 위한 체크리스트
- 영상 출처가 공인 언론사인지 확인
- 같은 장면이 다른 각도에서도 촬영됐는지 교차 검증
- AI 탐지 도구(TrueMedia, Hive Moderation 등) 활용
- 감정적 반응을 유도하는 극적 영상일수록 의심 먼저
- X Grok 등 AI 챗봇의 “사실 확인”을 신뢰하지 말 것
에드가의 한 줄 정리
전쟁의 안개(fog of war)가 AI로 인해 역대 가장 짙어졌다. 정보 리터러시가 생존 스킬이 되는 시대다.
출처: BBC Verify 분석 기반 | 2026년 3월 7일 작성