유명인 활용한 딥페이크 영상 구분, 기술적으로는 가능하지만 기업 투자가 미지수
딥페이크 학습하기 위해 컴퓨팅 자원 필요 기업에서는 수익성 고려해 주저할 수도 “제도적 뒷받침 있어야 경각심 가질 것”
유튜브에서 유명인을 내세운 딥페이크 영상(인공지능으로 만든 합성 영상)이 사회적 문제다. 가짜로 만들어진 영상임을 밝혀내는 기술이 이론적으로는 가능하지만, 기업이 이익을 이유로 꺼리낄 수 있다는 관측이 나온다.
정재영 동양대학교 AI빅데이터융합학과 교수는 “딥페이크 영상은 일반 영상에 비해 장면과 장면이 넘어갈 때 자연스럽지 않은 부분이 있다. 면과 면이 어색하게 이어지는 겻”이라며 “머신러닝을 통해 학습한 프로그램이 이런 현상을 잡아내는 것이 이론적으로는 가능하다”고 말했다.
딥페이크를 학습시키기 위해 많은 자원이 필요한 것이 일차적 걸림돌이다.
정 교수는 “알파고가 수많은 기보를 학습했듯이 딥페이크를 알아내기 위해서는 많은 컴퓨팅 자원이 필요하다. 개인이나 작은 기업에서 하기에는 쉽지 않은 규모다”고 말했다.
대규모 투자가 필요한 만큼 기업 입장에서는 수익성 때문에 주저할 수 있다는 추측이 나온다.
정 교수는 “구글(유튜브의 모회사)처럼 규모가 큰 회사라고 해도, 딥페이크를 잡아내기 위해서는 돈을 들여야 한다. 과연 어마어마한 투자를 해서 당장 수익이 될 것인가는 의문이 생길 수 있다”고 말했다.
유튜브는 점진적으로 AI 제작 영상을 허락해 왔다.
지난 2023년 2월 유튜브는 공지사항을 통해 “검색결과 순위 조작을 주목적으로 AI 등 자동화를 사용해 콘텐츠를 생성하는 행동은 스팸 정책 위반이다”면서도 “모든 자동화 사용이 스팸은 것은 아니다. AI는 새로운 수준의 표현력과 창의성을 발휘할 수 있는 능력을 갖추고 있고, 웹용 고품질 콘텐츠를 만들 때도 중요한 도구가 될 수 있다”며 AI로 만들었다는 이유만으로는 영상을 스팸으로 분류하지 않는다고 알린 바 있다.
딥페이크 영상이 문제가 되자 지난 3월 19일(현지 시각) 유튜브는 미 매체 더 버지(The Verge)를 통해 딥페이크 영상 감지 기술에 투자하고 있다고 알렸다.
AI 감지 기술이 효과가 없을 수 있다는 시각도 있다.
더 버지는 지난 2023년 7월 오픈AI가 정확도가 낮다는 이유로 사람의 글을 AI와 구별하는 도구를 중단한 사례를 언급하며 “정부도 아직 AI를 통제하는 방법을 찾지 못했다. 현재로서는 생성 AI 열풍을 시작하는 데 도움을 준 회사조차도 이 모든 것을 어떻게 처리할지에 대한 답을 갖고 있는 사람이 없는 것 같다”고 썼다.
기술이 발전하는 만큼 정부 대응이 빨라져야 한다는 목소리도 나온다.
정 교수는 “딥페이크뿐만 아니라 모든 사회적 문제는 개인의 양심에만 맡길 수 없다. 제도적으로 뒷받침 해 줘야 사람들이 경각심을 갖고 문제를 해결하나갈 수 있다”고 말했다.