생성형 AI와 대선: 가짜 정보의 시대, 우리는 무엇을 믿어야 할까?
2024년부터 시작된 글로벌 선거 시즌. 그런데 이번 선거는 뭔가 이전과 다르다. 평소 뉴스를 꼼꼼히 챙겨보는 나조차, 최근 들어 ‘이게 진짜야?’ 싶은 콘텐츠를 자주 마주하게 된다. 영상은 그럴싸하고, 음성은 더더욱 실제 같다. 알고 보니, 이 모든 게 생성형 AI 기술로 만든 가짜 콘텐츠였다.

딥페이크, 선거의 신뢰를 흔들다
특히 기억에 남는 건 올해 초 미국에서 벌어진 사건이다. 조 바이든 대통령의 목소리를 사칭한 AI 음성이 유포되며 큰 논란이 일었다. 처음 들었을 땐 나도 순간 멈칫했다. 진짜 같았다. 하지만 알고 보니, 사실은 완전히 조작된 음성이었다.
이처럼 ‘딥페이크’ 기술은 이제 정치의 중심까지 파고들었다. 정치적 신뢰를 무너뜨리고, 정보의 진위를 흐리는 데 사용되고 있는 현실이 무섭다. 더 이상 단순한 기술적 흥미거리가 아니다. 민주주의의 근간을 뒤흔들 수 있는 강력한 무기가 되어버린 셈이다.
메타의 대응, 그리고 한국도 감시 대상?
최근 보도에 따르면, 메타(Meta)는 AI 생성 콘텐츠의 위험성을 인지하고 적극적인 대응에 나섰다. 흥미로운 건, ‘우선 감시 국가’에 한국이 포함됐다는 점이다. 미국, 인도, EU 등과 함께 우리나라 역시 주요 감시 대상이다.
메타는 이미지, 음성, 영상 등 AI로 생성된 콘텐츠에 'AI 생성'이라는 라벨을 붙이겠다고 발표했다. 선거를 앞두고 집중적인 감시를 예고한 것이다. 이 말은 곧, 한국 역시 글로벌 AI 규제 흐름에서 중요한 관찰국가로 부상하고 있다는 의미다.
한국의 대응: 선거관리위원회의 단호한 입장
그렇다면 우리나라는 어떻게 대응하고 있을까? 중앙선거관리위원회는 이미 명확한 입장을 내놓았다. 생성형 AI를 이용한 선거운동, 특히 딥페이크 음성과 영상의 사용은 철저히 금지되어 있다. 위반 시 강력한 법적 제재도 예고되어 있어, 정치권은 물론 콘텐츠 제작자들까지 긴장하고 있는 분위기다.
규제의 방향성은 분명하다. 공정한 선거를 위해 AI의 무분별한 사용은 절대 용납하지 않겠다는 것이다.
우리는 무엇을 해야 할까?
이런 혼란의 시대에, 결국 중요한 건 ‘우리의 판단력’이다. 나는 요즘 뉴스를 볼 때 한 번 더 확인한다. 이게 진짜인지, 출처는 어디인지, 어떤 의도가 담겨 있는지 말이다.
특히 공신력 있는 채널을 습관처럼 참고하는 일이 정말 중요하다고 느낀다. AI 콘텐츠를 무조건 경계할 필요는 없지만, 그 진위를 분별할 수 있는 눈은 반드시 길러야 한다.
그리고 무엇보다, 미디어 리터러시. 디지털 시대의 시민이라면 기본 소양으로 갖춰야 할 능력이다. 가짜 뉴스에 휘둘리지 않고, 정보의 맥락을 파악할 수 있는 능력. 그게 지금 우리에게 가장 필요한 무기 아닐까?
마무리하며: AI는 도구일 뿐, 방향은 우리가 정한다
AI가 무섭게 진화하고 있는 건 분명한 사실이다. 선거에 활용되든, 악용되든, 그 가능성은 열려 있다.
하지만 나는 믿는다. AI는 결국 ‘도구’일 뿐이라는 걸. 중요한 건, 그 도구를 누가, 어떤 목적을 가지고 사용하는가다.
이 거대한 변화를 앞두고, 우리 유권자 모두가 조금 더 깨어 있어야 할 때다. 기술이 아닌 사람이 중심이 되는 세상, 그것이 우리가 지켜야 할 민주주의 아닐까?