딥페이크 이미지의 징후는 예전에는 쉽게 알아챌 수 있었지만, 이제는 생성 AI로 인해 우리가 보고 듣는 모든 것에 의문을 갖게 되었습니다. 새로운 AI 모델이 출시될 때마다 가짜 이미지의 징후는 점점 줄어들고 있으며, 혼란을 가중시키기 위해 이제 단 몇 초 만에 딥페이크 동영상, 사랑하는 사람의 음성 복제품, 가짜 기사를 만들 수 있습니다.
AI 딥페이크에 속지 않으려면 딥페이크가 어떤 종류의 위험을 초래하는지 알아두는 것이 좋습니다.
딥페이크의 진화
딥페이크는 실제 생활에서 일어나지 않은 일을 하는 사람의 모습을 보여줍니다. 완전히 가짜입니다. 딥페이크가 인터넷에서 밈이나 농담으로 공유될 때 우리는 웃지만, 딥페이크가 우리를 속이는 데 사용될 때 이를 재미있다고 생각하는 사람은 거의 없습니다.
과거에는 기존 사진을 촬영하고 포토샵과 같은 이미지 편집 소프트웨어에서 수정하는 방식으로 딥페이크가 만들어졌습니다. 하지만 AI 딥페이크는 딥러닝 알고리즘을 사용하여 처음부터 생성할 수 있다는 점에서 차별화됩니다.
메리엄-웹스터 사전 는 딥페이크에 대해 다음과 같이 정의합니다:
누군가가 실제로 하지 않았거나 말하지 않은 일을 하거나 말한 것처럼 보이도록 설득력 있게 변경 및 조작된 이미지 또는 녹음.
그러나 AI 기술의 발전으로 이 정의는 시대에 뒤떨어진 것처럼 보이기 시작했습니다. 이제 딥페이크에는 이미지, 텍스트, 동영상, 음성 복제가 포함됩니다. 때로는 네 가지 AI 생성 모드가 한 번에 모두 사용되기도 합니다.
놀랍도록 빠르고 저렴한 비용으로 사용할 수 있는 자동화된 프로세스이기 때문에 사진, 동영상 또는 오디오 편집 방법에 대해 전혀 알지 못해도 이전에는 볼 수 없었던 속도로 딥페이크를 생성할 수 있는 완벽한 도구입니다.
AI 딥페이크의 큰 위험
이미 수많은 AI 비디오 제너레이터가 존재하며, 수많은 AI 음성 제너레이터도 있습니다. 여기에 GPT-4와 같은 대규모 언어 모델을 추가하면 지금까지 현대 역사상 가장 믿을 수 있는 딥페이크를 만들 수 있는 레시피를 얻을 수 있습니다.
다양한 종류의 AI 딥페이크와 이러한 딥페이크가 어떻게 사용자를 속이는 데 사용되는지 알고 있으면 속지 않는 한 가지 방법이 될 수 있습니다. 다음은 AI 딥페이크 기술이 어떻게 실제 위협이 되는지 보여주는 몇 가지 심각한 사례입니다.
AI 신원 도용
이미 보셨을 수도 있습니다. 도널드 트럼프가 체포되는 이미지와 흰색 패딩 점퍼를 입은 프란치스코 교황의 이미지가 전 세계에 퍼진 최초의 진정한 바이러스성 AI 딥페이크였습니다.
유명한 종교인이 로마의 쌀쌀한 날에 입는 옷을 순진하게 재구성한 것 같지만, 다른 이미지는 법과 관련된 심각한 상황에 처한 정치인을 보여 주지만 실제라고 생각하면 훨씬 더 큰 결과를 초래할 수 있습니다.
지금까지 사람들은 주로 연예인, 정치인, 기타 유명 인물을 대상으로 AI 딥페이크 제작에 나섰습니다. 이는 부분적으로는 유명인의 사진이 인터넷에 많이 올라와 있어 모델 학습에 도움이 되었을 가능성이 높기 때문입니다.
트럼프와 교황 딥페이크에 모두 사용된 Midjourney와 같은 AI 이미지 생성기의 경우, 사용자는 보고 싶은 이미지를 설명하는 텍스트를 입력하기만 하면 됩니다. 키워드를 사용하여 사진이나 포토리얼리즘과 같은 아트 스타일을 지정할 수 있으며, 해상도를 업스케일링하여 결과를 미세 조정할 수 있습니다.
미드저니 사용법을 쉽게 배우고 직접 테스트해 볼 수 있지만, 도덕적 및 법적 이유로 이러한 이미지를 공개적으로 게시하는 것은 피해야 합니다.
안타깝게도 유명인이 아닌 평범한 사람이라고 해서 AI 딥페이크에서 안전하다고 보장할 수는 없습니다.
문제는 AI 이미지 생성기가 제공하는 핵심 기능인 자신의 이미지를 업로드하고 AI로 조작할 수 있는 기능에 있습니다. DALL-E 2의 아웃페인팅과 같은 도구는 텍스트 프롬프트를 입력하고 생성하려는 다른 내용을 설명하면 기존 이미지의 테두리를 넘어 확장할 수 있습니다.
다른 사람이 내 사진으로 이 작업을 수행한다면 흰색 재킷을 입은 교황의 딥페이크보다 훨씬 더 큰 위험이 발생할 수 있습니다. 대부분의 사람들은 일반적으로 좋은 의도로 AI를 사용하지만, 특히 신원 도용의 경우 해를 끼치기 위해 AI를 사용하는 것을 막을 수 있는 제한은 거의 없습니다.
딥페이크 음성 클론 사기
AI의 도움으로 딥페이크는 가짜 음성 클론이라는 우리 대부분이 예상하지 못했던 선을 넘어섰습니다. 사용자가 게시한 TikTok 동영상이나 사용자가 출연한 YouTube 동영상에서 소량의 원본 오디오만 있으면 AI 모델이 사용자의 유일한 목소리를 복제할 수 있습니다.
가족, 친구 또는 동료와 똑같이 들리는 전화를 받는다고 상상하면 기이하면서도 무서운 일이 아닐 수 없습니다. 딥페이크 음성 복제는 미국 연방거래위원회(FTC) 에서 이에 대한 경고를 발령할 정도로 심각한 문제입니다.
음성을 믿지 마세요. 연락한 것으로 추정되는 사람에게 직접 전화하여 내용을 확인하세요. 본인이 알고 있는 전화번호를 사용하세요. 사랑하는 사람과 연락이 닿지 않는다면 다른 가족이나 친구를 통해 연락을 시도하세요.
워싱턴 포스트는 70대 부부가 손자처럼 보이는 사람으로부터 전화를 받은 사례를 에 보도했습니다. 손자는 감옥에 수감 중이었고 보석금이 급히 필요했습니다. 상대가 누구인지 의심할 이유가 없던 부부는 사기범에게 돈을 건네주었습니다.
노년층만 위험에 처한 것은 아닙니다. 가디언은 은행 책임자로 믿었던 사람으로부터 일련의 ‘보이스피싱 전화’를 받고 3,500만 달러 거래를 승인한 은행 책임자의 또 다른 사례를 보도했습니다.
대량 생산된 가짜 뉴스
ChatGPT 과 같은 대규모 언어 모델은 사람과 똑같이 들리는 텍스트를 매우 잘 만들어 내지만, 현재로서는 그 차이를 알아낼 수 있는 효과적인 도구가 없습니다. 가짜 뉴스와 음모론은 잘못된 손에 들어가면 생산 비용이 저렴하고 반박하는 데 시간이 오래 걸립니다.
물론 잘못된 정보를 퍼뜨리는 것은 새로운 일이 아니지만, 2023년 1월에 arXiv 에 게재된 연구 논문 는 AI 도구를 사용하여 생산량을 얼마나 쉽게 확장할 수 있는지에 문제가 있다고 설명합니다. 연구진은 이를 “AI가 생성한 영향력 캠페인”이라고 부르며, 예를 들어 정치인이 정치 캠페인을 아웃소싱하는 데 사용할 수 있다고 말합니다.
둘 이상의 AI 생성 소스를 결합하면 높은 수준의 딥페이크가 만들어집니다. 예를 들어, AI 모델은 도널드 트럼프가 체포되었다는 가짜 이미지와 함께 잘 작성되고 설득력 있는 뉴스 기사를 생성할 수 있습니다. 이렇게 하면 이미지 자체로 공유할 때보다 더 많은 정당성을 부여할 수 있습니다.
가짜 뉴스는 이미지와 글에만 국한되지 않으며, AI 동영상 생성 기술의 발달로 딥페이크 동영상이 더 많이 등장하고 있습니다. 다음은 유튜브 채널 딥페이커리가 게시한 엘론 머스크의 동영상에 로버트 다우니 주니어를 합성한 영상입니다.
딥페이크는 앱을 다운로드하는 것만으로도 간단하게 만들 수 있습니다. TokkingHeads와 같은 앱을 사용하면 정지 이미지를 애니메이션 아바타로 전환할 수 있으며, 사용자가 직접 이미지와 오디오를 업로드하여 사람이 말하는 것처럼 보이게 할 수 있습니다.
대부분의 경우 재미있고 흥미롭지만 문제가 발생할 가능성도 있습니다. 누군가의 이미지를 사용하여 그 사람이 한 번도 말하지 않은 단어를 말한 것처럼 보이게 만드는 것이 얼마나 쉬운지 보여줍니다.
AI 딥페이크에 속지 마세요
딥페이크는 적은 비용과 낮은 수준의 전문 지식이나 컴퓨팅 파워로도 빠르게 배포할 수 있습니다. 딥페이크는 생성된 이미지, 음성 클론 또는 AI가 생성한 이미지, 오디오, 텍스트의 조합의 형태를 취할 수 있습니다.
예전에는 딥페이크 제작이 훨씬 더 어렵고 노동 집약적이었지만, 지금은 수많은 AI 앱이 출시되어 누구나 딥페이크 제작에 사용되는 도구에 액세스할 수 있습니다. AI 딥페이크 기술이 점점 더 발전함에 따라 딥페이크의 위험성을 주의 깊게 살펴볼 필요가 있습니다.