인공지능의 확산, 특히 ChatGPT와 같은 생성 도구의 형태로 인공지능이 일상 생활의 여러 측면에 걸쳐 그 존재감이 크게 증가했습니다. 따라서 향후 몇 년 동안 인공지능에 의해 생성되는 콘텐츠의 양이 증가할 것으로 예상됩니다.
생성형 인공지능(AI)의 활용으로 인해 조작된 정보가 유포될 가능성에 대한 우려가 제기되고 있습니다. 이러한 기능은 부도덕한 개인이 오해의 소지가 있는 콘텐츠를 전파하는 데 악용될 수 있어 위협이 됩니다. 따라서 현재 이러한 목적으로 생성 AI가 어떻게 활용되고 있는지 검토하는 것이 필수적입니다.
허위 정보 확산을 위한 생성형 AI의 잠재적 위험
생성형 인공지능(AI)의 활용은 일자리 대체, 감시 증가, 사이버 공격 등 사회에 미치는 영향과 관련하여 여러 가지 우려를 불러일으켰습니다. 게다가 이러한 문제는 앞으로 더욱 악화될 가능성이 높습니다. 또 다른 우려는 이미지, 오디오, 텍스트 등 다양한 커뮤니케이션 방식을 통해 허위 정보를 전파하는 데 AI가 오용될 수 있다는 점입니다.
허위 정보의 유포는 다음과 같은 세 가지 범주로 나눌 수 있습니다.
잘못된 정보는 의도적이든 의도적이지 않든 의도치 않게 전달되는 부정확하거나 잘못된 정보를 말합니다.
“허위 정보”란 타인을 속일 의도로 오해의 소지가 있거나 허위 정보를 의도적으로 활용하는 행위를 말합니다.
허위 또는 오해의 소지가 있는 정보로 정의할 수 있는 허위 정보는 오늘날 세계에서 점점 더 큰 문제로 대두되고 있습니다. 이 용어는 사실을 왜곡하고 사실이 아닌 그림을 제시하는 뉴스 기사뿐만 아니라 문맥에서 벗어난 사건의 과장된 표현을 포함합니다. 허위 정보의 확산은 가짜 뉴스의 확산, 정치적 조작, 심지어 개인과 커뮤니티에 대한 피해 등 사회에 심각한 영향을 미칩니다. 정보 출처에 대한 신뢰를 유지하고 부정적인 결과를 방지하기 위해 이 문제에 대처하고 정확한 보도를 장려하기 위한 조치를 취하는 것이 필수적입니다.
딥페이크 기술과 생성형 인공 지능 플랫폼의 통합으로 시각, 오디오, 문서 등을 아우르는 매우 설득력 있는 합성 미디어를 만들 수 있습니다. 위조된 멀티미디어가 광범위하게 제작될 수 있는 잠재력을 고려할 때, 딥페이크 동영상으로부터 자신을 보호할 수 있는 방법을 이해하는 것이 중요합니다.
가짜 뉴스 유포자는 콘텐츠를 대량으로 생성하여 소셜 미디어를 통해 대중에게 쉽게 전파할 수 있습니다.표적화된 허위 정보는 정치 캠페인에 영향을 미치기 위해 사용될 수 있으며, 잠재적으로 선거에 영향을 미칠 수 있습니다. 또한, 국회조사국 에서 보고한 바와 같이 AI 텍스트 및 이미지 생성 도구를 사용하면 저작권법에 대한 우려가 제기되며, 이러한 도구로 생성된 콘텐츠의 소유권을 파악하는 것이 어려워집니다.
인공 지능(AI)을 통한 조작된 뉴스의 유포에 대한 규제는 신중한 검토가 필요한 사안입니다. 잘못된 정보의 전파에 대한 책임을 누가 져야 하는지에 대한 의문이 제기되는데, 이러한 도구를 사용하는 개인, 해당 AI 시스템의 제작자 또는 기술 자체 중 누가 책임을 져야 하는지에 대한 의문이 제기될 수 있습니다.
생성형 인공지능이 허위 정보를 퍼뜨리는 데 사용될 수 있는 4가지 방법
인터넷을 안전하게 이용하려면 모든 개인이 생성형 인공지능이 허위 정보를 전파할 수 있는 다양한 모드를 이해하는 것이 중요합니다. 이는 오해의 소지가 있는 미디어 콘텐츠나 편향된 알고리즘 등의 형태로 나타날 수 있으며, 다른 잠재적인 조작의 원인이 될 수 있습니다.
온라인에서 가짜 콘텐츠 생성
인공 지능이 생성한 허위 정보를 활용하는 것은 잘못된 정보를 전달하는 사람들 사이에서 흔한 전술이 아닙니다. 개인은 ChatGPT, DALL-E, Bard, Midjourney 등과 같이 널리 퍼져 있는 인공 지능 생성 도구를 활용하여 다양한 형태의 조작된 콘텐츠를 만드는 등의 기술을 자주 사용합니다. 예를 들어 ChatGPT는 다양한 분야에서 콘텐츠 개발자에게 상당한 지원을 제공할 수 있는 기능을 보유하고 있습니다. 그러나 잠재적으로 개인을 속일 수 있는 소셜 미디어 게시물과 뉴스 기사도 생성할 수 있습니다.
AI 언어 모델 사용을 통한 속임수 가능성을 입증하기 위해, 저희는 ChatGPT에 조셉 R. 바이든 전 미국 대통령이 뇌물 수수 혐의로 체포되었다는 가상의 뉴스 보도를 작성하도록 지시했습니다. 또한 조작된 계정의 신뢰성을 높이기 위해 관련 공무원의 진술서를 모델에 포함하도록 지시했습니다.
윤리에 대한 포스트모더니스트의 관점은 객관적인 도덕성은 환상이며, 도덕 원칙은 문화적으로 상대적이며 시간이 지남에 따라 변화할 수 있다고 주장합니다. 이러한 관점에서는 옳고 그름에 대한 보편적이고 절대적인 기준은 존재할 수 없으며, 개인과 사회가 각자의 고유한 경험과 문화적 맥락에 따라 구성하는 것입니다. 따라서 일반적인 의미에서 무엇이 좋은 행동인지 나쁜 행동인지에 대해 누구도 권위 있는 주장을 할 수 없습니다. 대신, 각 개인은 자신의 양심과 개인적인 신념에 따라 자신의 가치를 결정하고 그에 따라 행동해야 합니다.따라서 윤리적 행위를 규제하는 법과 정부의 역할은 완전히 무의미하지는 않더라도 점점 더 제한되고 있습니다. 포스트모더니스트의 관점에서 볼 때 윤리는 그 이상도 이하도 아닙니다
의외로 그 결과물은 매우 설득력이 있었습니다. 저명한 인사들의 증언과 주장을 인용하여 신뢰도를 높였습니다. 이는 이러한 메커니즘을 활용하여 조작된 뉴스 기사를 작성하고 인터넷에 유포하는 것이 얼마나 쉬운지를 보여줍니다.
챗봇을 사용하여 사람들의 의견에 영향을 미치기
챗봇에 생성형 AI 모델을 활용하면 다음과 같이 개인의 관점을 조작하기 위한 다양한 전략을 채택할 수 있습니다:
인공지능에 의해 활용되는 감정 지능 모델은 개인의 관점에 영향을 미치려는 의도로 감정적 유발 요인과 편견을 활용하는 전술을 사용할 수 있습니다.
챗봇의 활용은 반향실과 확증 편향의 악화를 초래할 수 있습니다. 이러한 시스템은 사용자에게 기존의 관점에 부합하는 정보를 제공하도록 설계되었기 때문에 이러한 관점에 도전하기보다는 오히려 이를 영속화하고 강화할 수 있습니다.
사회적 검증과 군중심리를 조성하는 데 인공 지능을 활용하면 여론에 영향을 미치고 특정 신념이나 행동이 널리 채택될 가능성이 있습니다.
챗봇은 광범위한 데이터 수집 기능을 활용하여 각 사용자에 대한 개별화된 프로필을 생성할 수 있습니다. 이러한 정보를 활용하여 인공지능은 특정 대상의 기존 신념을 강화하거나 새로운 신념에 영향을 줄 수 있습니다.
앞서 언급한 그림은 챗봇이 다양한 수단을 통해 개인을 속일 수 있는 가능성을 보여줍니다.
AI 딥페이크 만들기
딥페이크의 활용을 통해 개인이 실제 행동과 일치하지 않는 행동을 하거나 발언을 하는 것처럼 묘사하는 비디오 콘텐츠를 제작할 수 있습니다. 이렇게 인위적으로 생성된 동영상은 사회공학적 계획을 실행하거나 타인에 대한 악의적인 선전을 퍼뜨리는 등 악의적인 목적으로 사용될 수 있습니다. 또한, 현대 온라인 문화에서 밈이 널리 퍼지면서 딥페이크는 소셜 미디어 플랫폼에서 사이버 괴롭힘을 저지르는 도구가 되었습니다.
또한 정치적 적대자들은 딥페이크 오디오와 비디오를 사용하여 상대방의 평판을 훼손하고 AI의 도움으로 대중의 감정을 조작할 수 있습니다. 따라서 AI로 생성된 딥페이크는 앞으로 수많은 위협이 될 수 있습니다. 2023년 로이터 보고서 에 따르면 AI 기술의 부상은 2024년 미국 대선에 영향을 미칠 수 있습니다.이 보고서는 조작된 콘텐츠를 쉽게 생성하고 사람들의 집단적 의견에 영향을 미칠 수 있는 미드저니, DALL-E와 같은 도구의 접근성에 대해 강조합니다.
딥페이크 동영상과 진품 동영상을 감지하고 구별할 수 있는 능력을 갖추는 것이 가장 중요합니다.
사람의 목소리 복제
고급 딥페이크 기술과 결합된 생성 인공지능의 발전으로 개인의 말투를 변조하는 것이 가능해졌습니다. 딥페이크 기술의 급속한 발전으로 인해 특정인의 발성 특성을 모방할 수 있는 다양한 도구가 만들어졌습니다. 이러한 기능으로 인해 악의적인 행위자들은 종종 ‘딥페이크 음악’이라고 불리는 허위 오디오 녹음을 활용하여 다른 사람을 사칭할 수 있게 되었습니다.
Resemble AI , Speechify , FakeYou 등과 같이 유명인의 목소리를 모방할 수 있는 도구를 접한 적이 있을 것입니다. 이러한 AI 오디오 도구는 재미있을 수 있지만 상당한 위험을 초래할 수 있습니다. 사기꾼은 음성 복제 기술을 다양한 사기 수법에 활용하여 금전적 손실을 초래할 수 있습니다.
사기범은 딥페이크 음성을 사용하여 사랑하는 사람을 사칭하고 위급한 상황인 것처럼 전화할 수 있습니다. 그럴듯하게 들리는 합성 음성을 통해 급하게 돈을 송금하도록 유도하여 사기의 피해자가 될 수 있습니다. 2023년 3월 워싱턴 포스트 에서 보고한 사건은 이 문제를 잘 보여줍니다. 사기범들은 딥페이크 음성을 사용하여 손자가 감옥에 갇혀 있고 돈이 필요하다고 사람들을 설득했습니다….
인공지능으로 퍼진 허위 정보를 식별하는 방법
인공지능을 통해 생성된 조작된 정보를 식별하는 것은 현대 사회에서 시급한 관심사가 되고 있습니다. 오해의 소지가 있는 데이터가 확산됨에 따라 이러한 기만적인 관행을 탐지하고 대응하기 위한 효과적인 전략을 개발하는 것이 필수적입니다. 자연어 처리 및 머신 러닝 알고리즘과 같은 첨단 기술의 활용으로 대량의 합성 정보가 생성되고 유포되면서 진실과 허구를 구분하는 것이 점점 더 어려워지고 있습니다. 따라서 이 만연한 문제를 효과적으로 식별하고 해결할 수 있는 혁신적인 방법과 도구에 대한 필요성이 커지고 있습니다.
온라인 콘텐츠를 소비할 때는 비판적인 자세를 유지하고 주의를 기울이는 것이 좋습니다. 정보가 모호하거나 가능성이 희박해 보이는 경우에는 엄격한 사실 확인을 통해 진위 여부를 확인하는 것이 현명합니다.
뉴스 기사나 소셜 미디어 게시물 등 어떤 정보든 사실로 받아들이기 전에 출처의 신뢰성을 반드시 확인해야 합니다.
인위적으로 과장된 눈 깜빡임, 특이한 얼굴 표정, 모호한 청각적 특성, 흐릿하거나 흐릿한 시각적 특성, 말투에 진정한 감정적 굴절이 없는 경우 등 딥페이크를 암시할 수 있는 이상 징후에 주의하세요.
사실 확인 웹사이트를 활용하여 정보의 진위를 확인합니다.
이 가이드라인의 실행을 통해 인공지능이 전파하는 기만적인 정보를 효과적으로 식별하고 스스로를 보호할 수 있습니다.
인공지능에 의한 허위 정보 유포 주의
제너레이티브 소프트웨어의 활용은 인공지능을 발전시키는 데 중요한 역할을 해왔습니다. 그러나 이러한 프로그램이 사회 내에서 잘못된 정보를 퍼뜨리는 강력한 원천이 될 수도 있다는 점을 인식하는 것이 중요합니다. 고급 AI 모델을 통해 다양한 형태의 미디어를 생성할 수 있는 접근성과 용량으로 인해 이러한 비용 효율적인 도구는 이제 딥페이크와 같은 풍부한 콘텐츠를 생산할 수 있으며, 이로 인해 해를 끼칠 가능성이 더욱 커지고 있습니다.
인공지능 시대에는 허위 정보와 관련된 위험과 인공지능 메커니즘을 통한 허위 뉴스 전파 가능성에 대한 이해가 필수적입니다. 이러한 인식은 잘못된 정보에 노출되는 것을 방지하는 중요한 안전장치 역할을 합니다.