ChatGPT는 사람들이 거의 모든 용도로 사용하면서 기술 업계에 큰 파장을 일으켰습니다. 이 인공지능 기반 챗봇은 스토리를 작성하고, 정보를 제공하고, 텍스트를 번역하는 등의 작업을 수행할 수 있습니다. 하지만 ChatGPT의 기능이 어두운 목적으로 활용될 수도 있을까요? ChatGPT가 바이러스를 작성하는 데 사용될 수 있으며, 만약 그렇다면 이는 사이버 보안에 어떤 의미가 있을까요?
ChatGPT가 바이러스를 작성할 수 있나요?
ChatGPT는 사용자가 제공하는 프롬프트에 따라 작동합니다. 그렇다면 사용자가 ChatGPT에 악성코드를 작성하도록 요청하면 이를 따를 수 있나요?
ChatGPT가 악성코드를 작성할 수 있는 것으로 확인되었습니다. 2023년 1월, 사이버 범죄자들이 악성 프로그램을 만들기 위해 ChatGPT를 사용했다는 이야기가 나왔습니다. 한 해킹 포럼 사용자가 ChatGPT를 사용하여 작성한 파이썬 기반 인포스틸러에 대한 게시물을 업로드했습니다. 인포스틸러는 귀중한 데이터를 유출하기 위해 특별히 설계된 트로이 목마 바이러스 프로그램입니다.
ChatGPT는 현재 매우 인기 있고 사용하기 매우 쉽기 때문에 이는 의심할 여지없이 우려스러운 일입니다.
기록된 미래 보고서 에서는 ChatGPT가 “프로그래밍 능력이나 기술력이 제한적인 위협 행위자의 진입 장벽을 낮춰” 사이버 범죄를 더 쉽게 수행할 수 있게 해준다고 명시했습니다. 이 보고서는 또한 ChatGPT가 “사이버 보안 및 컴퓨터 과학의 기본에 대한 기초적인 수준의 이해만으로도 효과적인 결과를 얻을 수 있다”고 언급했습니다.
또한 레코디드 퓨처는 “사회 공학, 허위 정보, 피싱, 멀버타이징, 돈벌이 사기”를 포함한 다양한 형태의 사이버 범죄에도 ChatGPT가 도움이 될 수 있다고 보고했습니다.
초보 사이버 범죄자에게 바이러스를 작성할 수 있는 기능을 제공하면 많은 사람들이 바이러스를 만들 수 있는 기회가 열리고, 근본적으로 바이러스 생성 프로세스가 자동화됩니다.
그렇다면 ChatGPT는 사이버 보안 위협일까요? 안타깝게도 대답은 ‘예’입니다.
ChatGPT의 한계
챗봇 요청을 통해 ChatGPT 바이러스 코드에 접근할 수는 있지만, 현재로서는 매우 간단한 악성 코드만 작성할 수 있는 것으로 보입니다. 앞서 언급한 레코디드 퓨처 보고서에서는 불법 플랫폼에서 발견된 ChatGPT가 만든 바이러스가 “버그가 있지만 작동한다”고 언급했습니다.
그렇다고 해서 위험이 없다는 것은 아닙니다. 여전히 사이버 범죄자들이 피해자에게 사기를 치고 공격할 수 있는 더 쉬운 경로를 제공할 수 있으며, 해커가 일반적인 방법과 함께 다른 방법을 발견할 수 있습니다.
게다가 ChatGPT나 다른 AI 기반 챗봇이 언젠가 정교한 바이러스를 제작할 수 있는 수준으로 진화할지 여부는 아무도 알 수 없습니다. 이것은 끝이 아니라 시작입니다.
해커들이 ChatGPT를 사용하고 있나요?
ChatGPT가 이미 악의적인 공격자에 의해 악용되고 있는 것은 분명하지만, 현재 그 위협은 상당히 경미한 수준입니다. 그러나 AI가 발전함에 따라 사이버 범죄자들이 더 정교한 챗봇을 사용하여 훨씬 더 위험한 바이러스 프로그램을 만들 수도 있습니다. 안타깝게도 ChatGPT가 대규모 사이버 공격에서 어떤 역할을 하게 될지는 미래가 되어야 알 수 있습니다.