“대통령님만 믿었다가 이게 뭐예요”… 홀라당 속아넘어간 고령층, 전 재산 날리고 ‘통곡’

댓글 12

📝 AI 요약 보기

AI로 자동 요약된 내용입니다. 자세한 내용은 본문을 확인해주세요.

  • AI 사기로 고령층 피해 발생
  • 가짜 대통령 영상 유포
  • 경찰 내사 착수

최근 AI 기술을 악용한 사기 수법이 늘고 있습니다.

  • 대통령 얼굴과 목소리를 도용한 가짜 영상으로 고령층을 속였습니다.
  • 경찰은 이 사건을 조사 중입니다.
  • 피해 예방을 위해 출처 확인이 필요합니다.

AI 사기를 이용한 신종 수법이 고령층을 노리고 빠르게 확산하고 있습니다.

이재명 대통령의 얼굴과 목소리를 본뜬 가짜 영상이 투자 사기에 사용되었습니다.

  • EquiloomPRO라는 플랫폼이 가짜 뉴스를 퍼뜨렸습니다.
  • 대통령이 추천하는 것처럼 보이는 영상은 딥페이크 기술로 제작됐습니다.
  • 경찰은 이 사건을 심각하게 보고 조사 중입니다.
  • 피해자들은 정부가 인증한 투자처라고 믿고 전 재산을 투자했습니다.
  • AI 기반 사기 신고가 증가하고 있으며, 대응 기술 개발이 시급합니다.
AI 사기, 대통령 얼굴까지 도용
고령층 속여 돈 빼간 신종 수법
정교해진 딥페이크 영상 주의 필요
대통령
AI 동영상 이용한 투자 사기 피해 / 출처 : 게티이미지뱅크

이재명 대통령이 투자처를 추천하는 영상이 온라인에 퍼졌다. 정부가 보증한 플랫폼처럼 보였고, 믿은 사람들은 돈을 넣었다. 하지만 이는 인공지능(AI)으로 조작된 가짜 영상이었다.

최근 대통령의 얼굴과 목소리를 그대로 본뜬 AI 영상이 SNS를 통해 유포되며, 이를 이용한 투자 사기 피해가 발생하고 있다. 경찰은 해당 사건을 인지하고 내사에 착수했다.

이재명 대통령이 추천? AI가 만든 가짜 영상

대통령
AI로 만든 가짜 동영상 / 출처 : 온라인 커뮤니티

경기남부경찰청 사이버수사과는 최근 EquiloomPRO(이퀄룸프로)라는 이름의 투자 플랫폼이 사기 행위를 벌이고 있다며 내사에 들어갔다고 14일 밝혔다.

이 플랫폼은 AI로 제작한 가짜 뉴스 영상과 인터뷰를 SNS에 올리며, 정부가 인정한 투자처처럼 홍보해왔다.

해당 영상에는 실제 뉴스 앵커로 보이는 인물이 등장해 이 플랫폼을 소개했고, 이재명 대통령으로 보이는 인물도 출연해 투자를 권유했다.

영상 속 ‘대통령’은 “30만원만 투자하면 수천만 원 수익이 가능하다”고 말하며, 일반 국민 누구나 참여할 수 있는 기회라고 강조한다. 그러나 영상의 발음이나 문장 구조가 어색해, 외국인이 만든 딥페이크 영상으로 추정되고 있다.

🗳 의견을 들려주세요

대통령 얼굴을 이용한 AI 가짜 영상 사기, 나는 피할 수 있을까?

이퀄룸은 사이트 접속 후 이름, 이메일, 휴대전화 번호 입력을 유도하고, 최소 35만원 이상의 금액 입금을 요구하는 방식으로 운영되고 있다.

고령층 집중 노린 AI 사기… 급속 확산 중

대통령
가짜 뉴스 인터뷰 / 출처 : 온라인 커뮤니티

경찰은 대통령 얼굴과 목소리를 활용한 딥페이크 영상이 사기 수법에 사용됐다는 점에서 사안을 심각하게 보고 있다.

경찰 관계자는 “현재까지 확인된 영상은 2건이며, 내사 단계이기 때문에 구체적인 내용은 말할 수 없다”고 전했다.

💡 딥페이크 영상이란 무엇인가요?

딥페이크는 인공지능 기술을 이용해 사람의 얼굴과 목소리를 합성하는 기술입니다. 이 기술은 특정 인물의 영상이나 음성을 조작할 수 있는 능력을 가지고 있어, 최근 가짜 뉴스나 사기 범죄에 악용되고 있습니다.

  • 딥페이크 기술은 얼굴과 음성을 합성합니다.
  • 이 기술로 유명인이나 공인을 사칭할 수 있습니다.

이런 신종 사기는 기술에 익숙하지 않은 고령층을 주요 대상으로 삼고 있다. 실제 피해자 중 상당수는 정부가 공식 인증한 투자처라고 믿고 전 재산을 투자한 것으로 알려졌다.

AI를 활용한 사기 수법은 빠른 속도로 진화하고 있다. 딥페이크, 음성합성, 챗봇 등을 활용한 범죄가 늘고 있으며, 기존 금융기관의 보안 시스템도 무력화되는 사례가 생기고 있다.

최근 AI 기반 사기 신고 건수는 빠르게 증가하고 있다. 특히 유명인 얼굴을 합성한 광고, 가족이나 기업 대표를 사칭한 송금 요청 등이 대표적 수법이다.

정부와 금융기관은 대응 기술을 개발 중이지만, 악성 AI 기술의 확산 속도가 더 빠른 상황이다.

“의심부터 하라”… 경각심이 가장 강력한 방패

대통령
딥페이크 / 출처 : 연합뉴스

AI 사기는 한 번 피해가 발생하면 회복이 어렵다. 피해 예방을 위해서는 출처를 알 수 없는 투자 권유나 금전 요구에 대해 반드시 확인하고 검증하는 절차가 필요하다.

방송통신위원회와 금융당국도 관련 주의보를 발령하고, 고위험군인 고령층 대상 교육과 홍보를 강화할 계획이다.

기술이 아무리 정교해져도, 확인 없이 믿는 태도는 피해로 이어질 수 있다. 아무리 익숙한 얼굴과 목소리라도 먼저 의심하는 자세가 필요하다.

12
공유

Copyright ⓒ 리포테라. All rights reserved. 무단 전재, 재배포 금지

🧮 독자 의견 결과

대통령 얼굴을 이용한 AI 가짜 영상 사기, 나는 피할 수 있을까?
일반인은 구별하기 어렵다. 54% 주의를 기울이면 피할 수 있다. 46% (총 93표)

12

  1. 사람들은일확천금에욕심을버려야
    이와같은사기를안당할것인데
    참으로염려되어 마음이찹찹힙니다,

    응답
  2. 이 영상은 황당해서 가짜처럼 보였는데, 여기에 속는 어르신들이 있었군요. 수입이 너무 많은 것은 사기라고 보면 됩니다

    응답
  3. AI가 범죄에 악용되는 대표적 사례이네요. 고령의 노인들은 딥페이크 자체를 알지 못하니 당연히 속을 수 밖에요.

    응답