유명인 활용한 딥페이크 영상 구분, 기술적으로는 가능하지만 기업 투자가 미지수

딥페이크 학습하기 위해 컴퓨팅 자원 필요 기업에서는 수익성 고려해 주저할 수도 “제도적 뒷받침 있어야 경각심 가질 것”

2024-05-07     우연주 기자
[사진=Unsplash]

유튜브에서 유명인을 내세운 딥페이크 영상(인공지능으로 만든 합성 영상)이 사회적 문제다. 가짜로 만들어진 영상임을 밝혀내는 기술이 이론적으로는 가능하지만, 기업이 이익을 이유로 꺼리낄 수 있다는 관측이 나온다.

정재영 동양대학교 AI빅데이터융합학과 교수는 “딥페이크 영상은 일반 영상에 비해 장면과 장면이 넘어갈 때 자연스럽지 않은 부분이 있다. 면과 면이 어색하게 이어지는 겻”이라며 “머신러닝을 통해 학습한 프로그램이 이런 현상을 잡아내는 것이 이론적으로는 가능하다”고 말했다.

딥페이크를 학습시키기 위해 많은 자원이 필요한 것이 일차적 걸림돌이다.

정 교수는 “알파고가 수많은 기보를 학습했듯이 딥페이크를 알아내기 위해서는 많은 컴퓨팅 자원이 필요하다. 개인이나 작은 기업에서 하기에는 쉽지 않은 규모다”고 말했다.

대규모 투자가 필요한 만큼 기업 입장에서는 수익성 때문에 주저할 수 있다는 추측이 나온다.

정 교수는 “구글(유튜브의 모회사)처럼 규모가 큰 회사라고 해도, 딥페이크를 잡아내기 위해서는 돈을 들여야 한다. 과연 어마어마한 투자를 해서 당장 수익이 될 것인가는 의문이 생길 수 있다”고 말했다.

유튜브는 점진적으로 AI 제작 영상을 허락해 왔다.

지난 2023년 2월 유튜브는 공지사항을 통해 “검색결과 순위 조작을 주목적으로 AI 등 자동화를 사용해 콘텐츠를 생성하는 행동은 스팸 정책 위반이다”면서도 “모든 자동화 사용이 스팸은 것은 아니다. AI는 새로운 수준의 표현력과 창의성을 발휘할 수 있는 능력을 갖추고 있고, 웹용 고품질 콘텐츠를 만들 때도 중요한 도구가 될 수 있다”며 AI로 만들었다는 이유만으로는 영상을 스팸으로 분류하지 않는다고 알린 바 있다.

딥페이크 영상이 문제가 되자 지난 3월 19일(현지 시각) 유튜브는 미 매체 더 버지(The Verge)를 통해 딥페이크 영상 감지 기술에 투자하고 있다고 알렸다.

AI 감지 기술이 효과가 없을 수 있다는 시각도 있다.

더 버지는 지난 2023년 7월 오픈AI가 정확도가 낮다는 이유로 사람의 글을 AI와 구별하는 도구를 중단한 사례를 언급하며 “정부도 아직 AI를 통제하는 방법을 찾지 못했다. 현재로서는 생성 AI 열풍을 시작하는 데 도움을 준 회사조차도 이 모든 것을 어떻게 처리할지에 대한 답을 갖고 있는 사람이 없는 것 같다”고 썼다.

기술이 발전하는 만큼 정부 대응이 빨라져야 한다는 목소리도 나온다.

정 교수는 “딥페이크뿐만 아니라 모든 사회적 문제는 개인의 양심에만 맡길 수 없다. 제도적으로 뒷받침 해 줘야 사람들이 경각심을 갖고 문제를 해결하나갈 수 있다”고 말했다.