너무 많은 사람들이 무심코 개인 정보를 공유하고 있기 때문에 ChatGPT는 주요 보안 및 개인 정보 보호 문제가 되고 있습니다. ChatGPT는 사용자가 공유하는 모든 개인 데이터를 포함한 모든 대화를 기록합니다. 하지만 OpenAI의 개인정보 보호정책, 서비스 약관, FAQ 페이지를 자세히 살펴보지 않는다면 이 사실을 알 수 없을 것입니다.
자신의 정보를 유출하는 것만으로도 충분히 위험하지만, 거대 기업들이 매일 정보를 처리하는 데 ChatGPT를 사용하고 있다는 점을 고려하면 이는 데이터 유출 재앙의 시작이 될 수 있습니다.
삼성, ChatGPT를 통해 기밀 정보 유출
기즈모도 에 따르면 삼성의 직원이 20일 동안 세 차례에 걸쳐 실수로 ChatGPT를 통해 기밀 정보를 유출한 것으로 나타났습니다. 이는 기업이 개인 정보를 얼마나 쉽게 유출할 수 있는지를 보여주는 한 가지 예일 뿐입니다.
ChatGPT는 개인 정보 보호 문제로 공개적으로 비난을 받고 있는 만큼, 삼성이 이런 일이 일어나도록 방치한 것은 상당한 과실이 아닐 수 없습니다. 일부 국가에서는 개인 정보 보호가 개선될 때까지 자국민을 보호하기 위해 ChatGPT를 금지하기도 했으니, 기업들이 직원들의 사용 방식에 더 주의를 기울일 것이라고 생각할 수 있습니다.
다행히도 삼성의 고객들은 적어도 현재로서는 안전한 것으로 보입니다. 유출된 데이터는 내부 비즈니스 관행, 문제 해결을 위한 일부 독점 코드, 팀 회의록에 관한 것으로 모두 직원이 제출한 것입니다. 그러나 직원이 소비자의 개인 정보를 유출하는 것은 매우 쉬웠을 것이며, 다른 회사에서도 똑같은 일이 벌어지는 것은 시간 문제일 뿐입니다. 이렇게 되면 피싱 사기 및 신원 도용이 크게 증가할 것으로 예상할 수 있습니다.
여기에는 또 다른 위험 요소도 있습니다. 삼성 유출 사건에서와 같이 직원들이 버그를 찾기 위해 ChatGPT를 사용할 경우, 채팅창에 입력하는 코드도 OpenAI의 서버에 저장됩니다. 이는 미출시 제품 및 프로그램 문제를 해결하려는 기업에 막대한 영향을 미치는 보안 침해로 이어질 수 있습니다. 심지어 미출시된 사업 계획, 향후 출시 예정 제품, 프로토타입과 같은 정보가 유출되어 막대한 매출 손실을 초래할 수도 있습니다.
ChatGPT 데이터 유출은 어떻게 발생하나요?
ChatGPT의 개인정보 보호정책 은 사용자의 대화를 기록하고 다른 회사 및 AI 트레이너와 로그를 공유한다는 사실을 분명히 밝히고 있습니다. 누군가(예: 삼성 직원) 대화 상자에 기밀 정보를 입력하면 이 정보가 기록되어 ChatGPT의 서버에 저장됩니다.
직원이 고의로 이런 일을 저질렀을 가능성은 거의 없지만, 바로 그 점이 무서운 부분입니다. 대부분의 데이터 유출은 사람의 실수로 인해 발생합니다. 이는 회사가 직원들에게 AI와 같은 도구 사용의 개인정보 보호 위험에 대해 제대로 교육하지 않았기 때문인 경우가 많습니다.
예를 들어, 대량의 연락처 목록을 채팅에 붙여넣고 AI에 고객의 전화번호를 데이터에서 분리해 달라고 요청하면 ChatGPT는 해당 이름과 전화번호를 기록에 남깁니다. 사용자의 개인 정보는 사용자가 공유하지 않은 회사에서 관리하게 되며, 이러한 회사는 사용자의 개인 정보를 충분히 보호하지 못할 수 있습니다. 데이터 유출 후 자신을 안전하게 지키기 위해 할 수 있는 몇 가지 방법이 있지만, 기업은 유출을 방지할 책임이 있습니다.
이야기의 교훈: ChatGPT에 비밀을 말하지 마세요
수백 가지의 다양한 작업에 ChatGPT를 안전하게 사용할 수 있지만, 기밀 정보 정리는 그중 하나가 아닙니다. 채팅 상자에 이름, 주소, 이메일, 전화번호 등 개인적인 정보를 입력하지 않도록 주의해야 합니다. 실수하기 쉽기 때문에 실수로 입력한 내용이 없는지 확인 메시지가 표시되는지 주의 깊게 확인해야 합니다.
삼성 유출 사건은 ChatGPT 관련 데이터 유출의 위험성이 얼마나 심각한지 잘 보여줍니다. 안타깝게도 AI가 대부분의 비즈니스 프로세스에서 핵심적인 부분이 되면서 이러한 유형의 실수가 더 많이 발생할 것이며, 그 영향은 훨씬 더 커질 것입니다.