‘가짜 영상 주의보’ 가짜 뉴스 이어 가짜 영상 등장

  • 인쇄하기
  •  크게
  •  작게
  • 페이스북
  • 트위터
보이는 게 전부가 아닌 시대가 왔다. 가짜 뉴스 문제가 해결되기도 전에 가짜 영상이 등장했다. 최근 인터넷상에서 눈과 귀를 완벽히 속이는 ‘가짜 영상 주의보’가 발령됐다.
 
 ▲Bill Hader impersonates Arnold Schwarzenegger [DeepFake] 유튜브 갈무리 ⓒ
데일리굿뉴스

딥페이크 기술로 만든 가짜 영상 등장
 
얼마 전 미국 내를 떠들썩하게 한 영상이 있다. 코난 오브라이언 토크쇼에 나온 코미디언 빌 헤이더의 얼굴이 아널드 슈워제네거의 얼굴로 바뀌는 영상이다. 지난달 유튜브에 게시돼 600만 번 넘게 조회된 이 게시물은 진짜가 아니라 조작된 ‘딥페이크’(deepfacke) 영상이다.
 
‘딥페이크’는 ‘딥러닝(Deep Learning)’과 가짜를 뜻하는 페이크(Fake)의 합성어로 인공지능 기술을 활용해 합성한 영상을 말한다. 헤이더의 영상은 딥페이크 기술 수준이 어느 정도인지 보여준다.
 
실제로 영상을 게시한 체코 출신 그래픽 일러스트레이터는 딥페이크의 위험성을 경고하기 위해 이 영상을 만들었다고 한다. 그는 NBC와의 인터뷰에서 “처음 이 영상을 보고 댓글을 단 사람들의 절반은 조작된 영상이라는 것을 몰랐다”며 “사람들에게 무언가를 믿기 전에 생각하게 하고 싶었다”고 말했다.
 
영상을 본 사람들은 “내 뇌가 속았다” “이 기술은 정말 끔찍하다” “두려워해야 한다. 정말 두려워해야 한다” 등의 반응을 보였다.
 
美 대권에 영향 줄까? 악용 우려 충분
 
미국 내 정치권에서도 딥페이크 영상에 대한 우려의 목소리가 높다. 미국은 2016년 대선 당시 가짜 뉴스로 골머리를 앓았다. 2020년 대선을 앞두고 딥페이크 가짜 영상에 신경을 곤두세우는 이유다.
 
문제는 일반인도 프로그램만 있으면 쉽게 딥페이크 영상을 제작할 수 있단 것이다. 편집된 영상은 진위를 가리기가 어렵다. 딥페이크 영상이 유권자에게 노출될 경우 대선판이 좌지우지 될 가능성이 있다.
 
유명 정치인이나 연예인의 얼굴을 합성해 그럴싸한 영상을 만들 수 있다는 것도 문제다. 유명인들이 등장하는 다른 동영상에서 표정 변화 등의 데이터를 축적해 딥페이크 영상을 만들 수 있다.
 
최근 워싱턴 정가를 시끄럽게 한 낸시 펠로시 하원의장의 영상이 단적인 예다. 펠로시 하원 의장이 술에 취한 것처럼 말하는 영상은 순식간에 보수성향 소셜미디어를 중심으로 확산됐다. 대중들은 이 영상을 보고 펠로시 의장이 술에 취하거나 건강에 이상이 있는 것으로 생각했으나 영상은 조작된 것이었다.
 
이와 관련, 미국 내에선 청문회를 개최했다. 민주당의 애덤 시프 하원 정보위원장은 “미국이 기술적 혁명의 첨단에 서있다”며 “악의적인 인물이 혼란과 분열, 위기를 조장할 수 있다. 특히 이 기술은 대통령 선거를 포함한 선거 운동 전체를 방해할 수 있다”고 말했다. 또한 “가장 심각한 경우는 후보자가 절대 한 적 없는 발언을 하는 딥페이크 동영상”이라고 강조했다.
 
전문가들도 딥페이크에 대해 우려를 표했다. 대니엘 시트런 메릴랜드대 교수는 “딥페이크는 실재적이고 구체적인 해를 끼칠 수 있다”며 “가짜 포르노나 정적을 겨냥한 영상일수도 있고 기업공개에 영향을 미칠 목적의 조작 영상일 수도 있어 불안정한 상황에서 폭력을 부추길 수 있다”고 말했다.
 
 
 


 
저작권자(c) 데일리굿뉴스. 무단전재-재배포금지
댓글작성0 / 최대600바이트(한글300자)선거실명확인
    goodtvICGICGCCMLOVE굿피플KCMUSA기독뉴스GoodPeople아멘넷