ChatGPT 및 Google Bard와 같은 고급 언어 모델의 등장으로 챗봇은 더욱 자연스럽고 인간과 같은 상호작용을 제공할 수 있는 강력한 기능을 통해 새로운 활력을 불어넣었습니다. 최근에 널리 보급되었음에도 불구하고 이러한 AI 기술의 통합은 더욱 풍부하고 맥락에 맞는 대화를 가능하게 함으로써 사용자 경험을 크게 변화시켰습니다.

AI 챗봇의 활용은 전 세계적으로 점점 더 보편화되어 수백만 명의 개인이 서비스를 이용하고 있습니다. 그러나 사용자는 이러한 기술과 상호 작용할 때 발생할 수 있는 잠재적인 개인 정보 보호 위험을 인식하는 것이 중요합니다.

데이터 수집

최신 챗봇은 단순한 인사말보다 더 복잡한 쿼리와 요구를 처리할 수 있도록 진화했습니다. 챗봇은 사용자의 상당한 양의 데이터와 관련된 문의를 이해하고 해결할 수 있는 능력을 갖추고 있습니다. 쿼리는 언뜻 보기에는 간단해 보일 수 있지만, 일반적으로 대화의 범위에만 국한되지 않습니다.

OpenAI의 지원 섹션 에 따르면 사용자는 언제든지 ChatGPT 채팅 로그를 삭제할 수 있으며, 해당 로그는 30일 후에 OpenAI 시스템에서 영구적으로 삭제됩니다. 그러나 유해하거나 부적절한 콘텐츠로 신고된 특정 채팅 로그는 당사가 보관 및 검토할 수 있습니다.

또 다른 인기 AI 챗봇인 클로드도 사용자의 이전 대화를 추적합니다. 고객지원센터 에 따르면 Claude는 “사용자의 제어에 따라 시간이 지남에 따라 일관된 제품 경험을 제공하기 위해 제품에서 사용자의 프롬프트와 출력을 추적”한다고 명시되어 있습니다. 사용자는 Claude와의 대화를 삭제할 수 있으므로 사용자가 대화한 내용을 잊어버릴 수 있지만, 그렇다고 해서 Anthropic이 시스템에서 사용자의 로그를 즉시 삭제하는 것은 아닙니다.

자신의 데이터가 보존되고 있는지 여부가 궁금할 수 있습니다. 또한 ChatGPT와 같은 플랫폼이 사용자 데이터를 운영에 활용하는지에 대한 의문도 제기됩니다.

그러나 이러한 우려는 여기서 끝나지 않습니다.

ChatGPT는 어떻게 학습하나요?

정보를 제공하기 위해 방대한 양의 데이터로 대규모 언어 모델을 학습시킵니다. 사이언스 포커스 에 따르면 ChatGPT-4는 학습 기간 동안 3,000억 단어의 정보를 제공받았습니다. 이것은 백과사전 몇 권에서 바로 가져온 것이 아닙니다. 챗봇 개발자는 인터넷에서 방대한 양의 정보를 사용하여 모델을 학습시킵니다. 여기에는 책, 영화, 기사, 위키피디아 항목, 블로그 게시물, 댓글, 심지어 리뷰 사이트의 데이터도 포함될 수 있습니다.

AI 챗봇 학습을 위한 특정 데이터 소스의 활용은 개별 개발자가 시행하는 개인정보 보호정책의 적용을 받을 수 있습니다.

이 글도 확인해 보세요:  AI 개발이 너무 빠르게 진행되고 있어 일시 중지해야 하는 5가지 징후

수많은 개인이 개인 정보 보호와 관련하여 심각한 우려를 제기하고 신뢰할 수 없다고 주장하며 ChatGPT에 대한 비판을 제기했습니다. 이러한 의견의 배경에는 어떤 이유가 있나요?

제공된 스크린샷에서 알 수 있듯이 ChatGPT-3.5는 교육 과정에서 제품 리뷰 및 기사 댓글과 같은 사용자 생성 콘텐츠에 대한 액세스 권한이 부여되지 않는다는 명확한 입장을 유지하고 있지만, 이 문제에 대해서는 여전히 모호한 부분이 있습니다.

대신 2021년 9월까지 웹사이트, 문헌, 정기 간행물 및 기타 공개적으로 액세스 가능한 서면 콘텐츠 등 인터넷의 다양한 출처에서 파생된 광범위한 텍스트를 활용하여 교육을 실시했습니다.

GPT-4에도 시나리오가 동일하게 적용되나요?

GPT-4에 문의하는 과정에서 OpenAI가 특정 사용자 후기, 개인 정보 또는 해설을 챗봇의 학습 체계에 포함시키지 않았다는 사실을 시스템에서 확인했습니다. 또한 GPT-4는 “주로 문학 작품, 출판물, 온라인 콘텐츠로 구성된 학습 데이터 세트에서 관찰할 수 있는 패턴”에서 답변을 도출한다고 알려주었습니다.

더 자세히 살펴본 결과, GPT-4는 일부 소셜 미디어 콘텐츠가 방대한 데이터베이스에 통합되는 사례가 존재할 수 있다는 점을 인정했지만, 그러한 콘텐츠 제작에 책임이 있는 개인은 영원히 익명으로 남아있어야 한다고 주장했습니다. 특히 GPT-4는 “[그러한 콘텐츠는] 특정 댓글, 메시지 또는 잠재적으로 특정 사용자를 식별할 수 있는 정보를 식별할 수 있는 기능을 가지고 있지 않습니다.”라고 주장했습니다.

GPT-4의 답변에는 OpenAI가 학습 과정에 활용된 모든 데이터 소스의 전체 목록을 제공하지 않았다는 언급도 포함되어 있습니다. 방대한 양의 데이터를 고려할 때 이러한 광범위한 정보를 나열하는 것은 실제로 어려울 수 있지만, 그럼에도 불구하고 이러한 투명성 부족은 이러한 소스의 정확한 성격에 대한 추측과 불확실성의 여지를 남깁니다.

아르스 테크니카 기사 에서 ChatGPT가 “동의 없이 얻은 개인 정보”를 수집한다고 명시되어 있습니다. 같은 기사에서 문맥 무결성이 언급되었는데, 이는 누군가의 정보를 처음에 사용했던 문맥에서만 사용하는 것을 의미하는 개념입니다. ChatGPT가 이러한 맥락 무결성을 위반할 경우, 사람들의 데이터가 위험에 처할 수 있습니다.

이 문제와 관련된 또 다른 중요한 이슈는 개인의 개인 정보를 보호하기 위해 유럽연합에서 시행하는 규제 조치인 일반 데이터 보호 규정(GDPR)을 OpenAI가 준수하는 것과 관련이 있습니다. 이탈리아와 폴란드 등 EU 내 여러 국가가 GDPR 요건 준수에 대한 우려를 바탕으로 ChatGPT에 대한 문의를 시작한 것은 주목할 만한 사실입니다. 한때 이탈리아에서는 개인 정보 침해에 대한 우려로 인해 ChatGPT의 사용이 일시적으로 금지되기도 했습니다.

이 글도 확인해 보세요:  악성코드 생성에 ChatGPT를 사용할 수 있나요?

이전에 OpenAI는 제안된 AI 규제 조치로 인해 유럽연합 탈퇴를 고려했지만, 이후 이 문제에 대한 입장을 재고하고 있습니다.

ChatGPT는 현재 가장 큰 규모의 AI 기반 챗봇 중 하나이지만, 챗봇 개인정보 보호에 관한 우려는 이 특정 플랫폼에만 국한되지 않는다는 점을 인식하는 것이 중요합니다. 실제로 개인이 개인정보 보호 정책이 취약한 의심스러운 챗봇을 사용할 경우, 상호작용이 부적절하게 악용되거나 민감한 정보가 챗봇의 학습 자료에 포함될 가능성이 있습니다.

데이터 도난

다른 디지털 플랫폼과 마찬가지로 챗봇도 사이버 위협에 취약할 수 있습니다. 강력한 보안 조치를 구현하더라도 챗봇 인프라의 취약점을 악용할 수 있는 고급 기술을 가진 해커로부터 완전히 자유로울 수 있는 시스템은 없습니다.

대화형 AI 플랫폼이 개인의 프리미엄 멤버십 상태, 개인 연락처 또는 관련 사안과 관련된 기밀 정보를 보유하고 있는 경우, 사이버 침입에 성공할 경우 이러한 세부 정보가 유출될 잠재적 위험이 있습니다.

실제로 보안 수준이 낮은 챗봇을 사용하면 기업과 개인 사용자 모두에게 상당한 위험을 초래할 수 있습니다. 느슨한 보안 프로토콜로 인해 조직의 네트워크가 취약해지면 민감한 정보가 유출될 수 있습니다. 또한 적절한 인증 메커니즘 없이 이러한 챗봇과 상호 작용하는 개인은 계정이 유출될 위험이 높아집니다.

인공지능 기반 챗봇이 널리 알려지면서 사이버 범죄자들이 이 기술을 불법적인 목적으로 악용하는 경우가 점점 더 많아지고 있습니다. 가짜 ChatGPT 웹사이트와 플러그인의 확산은 2022년 말 OpenAI의 챗봇이 주류 시장에 등장한 이후 관찰된 사기 활동의 증가에 기인한 것으로 볼 수 있습니다.이러한 맥락에서 의심하지 않는 개인이 안타깝게도 이러한 사기의 희생양이 되어 합법적이고 안전한 상호 작용을 가장하여 민감한 개인 정보를 의도치 않게 공개하는 경우가 발생했습니다.

2023년 3월, 인공지능 기술을 통해 다른 사람과의 커뮤니케이션을 용이하게 해준다고 주장하는 사기성 ChatGPT Chrome 확장 프로그램에 대한 All Things N의 신고가 접수된 바 있습니다. 안타깝게도 이 특정 확장 프로그램은 Facebook 로그인 자격 증명을 도용하고 유명 사용자의 민감한 정보에 액세스할 수 있는 사기에 불과한 것으로 밝혀졌습니다. 또한, 이 사례는 진정한 AI 기반 커뮤니케이션 도구를 찾는 순진한 개인을 노린 ChatGPT의 다른 많은 사기성 제품 중 하나에 불과한 것으로 보입니다.

이 글도 확인해 보세요:  제로 트러스트 보안 모델을 도입해야 하는 5가지 이유

바이러스 감염

부도덕한 챗봇을 사용하면 자신도 모르게 악의적인 웹사이트로 연결되는 링크가 제공될 수 있습니다. 챗봇은 매력적인 경품을 제공하겠다며 사용자를 유혹하거나 주장에 대한 출처를 제공할 수 있습니다. 플랫폼 운영자가 불법적인 목적을 숨기고 있는 경우, 악성 하이퍼링크를 통해 악성 소프트웨어와 사기를 전파하는 것이 주된 목적일 수 있습니다.

해커가 평판이 좋은 챗봇 플랫폼에 침투하여 악성 소프트웨어를 배포하는 기능을 악용할 수 있습니다. 챗봇이 사용자들 사이에서 상당한 인기를 누리는 경우, 수많은 개인이 잠재적으로 바이러스의 희생양이 될 수 있습니다. Apple 앱 스토어와 같은 플랫폼에서 ChatGPT를 모방한 위조 애플리케이션이 등장했다는 점에 주목할 필요가 있으며, 타사 애플리케이션을 다운로드하고 상호 작용할 때 주의를 기울이는 것이 중요하다는 점을 강조합니다.

챗봇과 상호작용할 때는 먼저 평판이 좋은 링크 검사 웹사이트를 통해 챗봇이 제공하는 링크의 적법성을 확인하여 주의를 기울이는 것이 좋습니다. 이러한 예방 조치는 시간이 많이 걸리거나 불편해 보일 수 있지만 신뢰할 수 없는 사이트로 인한 잠재적인 보안 위협에 대한 필수적인 보호 장치 역할을 합니다.

챗봇 플러그인 및 확장 프로그램을 설치할 때는 사전에 진위 여부를 철저히 조사하여 주의를 기울이는 것이 중요합니다. 애플리케이션에 대한 조사를 통해 평판을 확인하고 개발자에 대한 신원 조회를 실행하면 잠재적인 보안 위험을 예방하는 데 도움이 될 수 있습니다.

챗봇은 개인 정보 보호 문제에 영향을 받지 않습니다

현재 사용 가능한 많은 디지털 리소스와 마찬가지로 챗봇의 보호 및 기밀 유지와 관련된 잠재적 취약성에 대해 상당한 비판이 있어왔습니다.여기에는 최종 사용자 보호의 필수적인 측면을 소홀히 하는 제공업체에 대한 우려와 사이버 침해 및 사기 활동으로 인한 지속적인 위협이 포함됩니다. 선택한 챗봇 플랫폼에서 수집되는 데이터를 인지하고 이러한 위험을 완화할 수 있는 적절한 보안 프로토콜이 마련되어 있는지 확인하는 것이 필수적입니다.

By 최은지

윈도우(Windows)와 웹 서비스에 대한 전문 지식을 갖춘 노련한 UX 디자이너인 최은지님은 효율적이고 매력적인 디지털 경험을 개발하는 데 탁월한 능력을 발휘합니다. 사용자의 입장에서 생각하며 누구나 쉽게 접근하고 즐길 수 있는 콘텐츠를 개발하는 데 주력하고 있습니다. 사용자 경험을 향상시키기 위해 연구를 거듭하는 은지님은 All Things N 팀의 핵심 구성원으로 활약하고 있습니다.