유튜브와 인스타그램 등 SNS에서 정치 메시지를 퍼뜨리던 일부 계정이 AI로 만든 이미지나 합성 콘텐츠를 활용했다는 의혹이 확산하고 있다. 실제 인물처럼 보이는 사진과 영상을 앞세워 팔로워를 모은 뒤 특정 정치 구호를 반복적으로 노출하는 방식이다.
최근 논란이 된 계정은 'OO조아'라는 이름으로 활동했다. 이 계정은 20대 여성으로 보이는 인물 사진을 올리며 '윤어게인' 등 보수 성향 정치 메시지를 내세웠다. 게시물에는 태극기 집회 현장과 젊은 여성 이미지를 결합한 듯한 사진도 포함됐다.
하지만 이용자들 사이에서는 사진의 손 모양, 얼굴, 배경, 신체 비율 등이 부자연스럽다는 지적이 이어졌다. 실제 인물이 아니라 AI로 만든 이미지이거나 기존 사진을 합성한 것 아니냐는 의혹이 커졌다.
극우 성향 온라인 활동을 추적해 온 황희두 노무현재단 이사는 해당 계정 사례를 공개하며 "AI 기술이 인간의 눈으로 진짜와 가짜를 구분하기 어려운 수준까지 왔다"고 지적했다. 그는 이를 단순한 장난이나 관심 끌기가 아니라 여론을 왜곡할 수 있는 프로파간다 방식으로 봤다.
논란이 커지자 계정 운영자는 자신이 여성이 아니라 남성이라고 밝힌 것으로 전해졌다. 그는 사과문을 통해 정체를 제때 밝히지 못했다며, 배신감을 느낀 이들에게 사과한다는 취지의 입장을 냈다. 현재 해당 계정은 삭제된 상태다.
문제는 특정 계정 하나에 그치지 않는다. AI 이미지 생성 기술이 대중화되면서 실제 존재하지 않는 인물을 앞세운 정치 선전, 허위 여론 조성, 성별·연령을 위장한 계정 운영이 더 쉬워졌다. 알고리즘을 통해 반복 노출될 경우 이용자는 조작 여부보다 익숙함을 먼저 받아들일 수 있다.
황 이사는 앞서 한 항공사 승무원의 사진이 정치 성향 계정에 무단 도용된 사례도 공개한 바 있다. 실제 인물 사진 도용과 AI 생성 이미지가 뒤섞이면 이용자가 진위를 가려내기는 더 어려워진다.
전문가들은 정치 콘텐츠일수록 출처 확인이 필요하다고 본다. 계정의 생성 시점, 과거 게시물, 사진의 원본 여부, 동일 이미지 검색 등을 확인하지 않은 채 공유하면 조작된 이미지가 실제 여론처럼 퍼질 수 있다. 특히 선거 국면에서는 AI로 만든 인물과 메시지가 결합할 경우 허위 정보 확산 속도가 더 빨라질 수 있다.