주요 내용
맞춤형 생성형 사전 학습 트랜스포머(GPT)는 다양한 목적에 맞는 맞춤형 인공지능 애플리케이션을 개발하여 다른 사람에게 배포함으로써 특정 영역에서 숙련도를 높일 수 있는 특별한 기회를 제공합니다.
개인화된 GPT 모델을 보급하면 전 세계적으로 기밀과 안전에 대한 침해 위험이 증가할 수 있으므로 이러한 결정을 내리기 전에 이러한 잠재적 결과를 고려하는 것이 필수적입니다.
정보를 보호하기 위해 맞춤형 GPT 모델을 배포할 때는 신중을 기하고 기밀 콘텐츠의 전송을 자제하세요. 신속한 조작에 대한 분별력 있는 접근 방식을 유지하고 무단 액세스 및 도용을 통해 문서를 손상시킬 수 있는 악의적인 하이퍼링크에 대한 경계를 유지하세요.
ChatGPT의 맞춤형 GPT 기능을 활용하여 사용자는 창의적인 작업과 기술적인 작업을 모두 포함한 광범위한 애플리케이션에 적합한 개인화된 인공지능 도구를 개발할 수 있습니다. 또한 이러한 맞춤형 GPT 모델은 개인 간에 공유할 수 있습니다.
그럼에도 불구하고, 개인화된 GPT 모델의 보급은 의도치 않게 광범위한 전 세계 사용자에게 민감한 정보를 노출시킬 수 있는 상당한 위험을 초래할 수 있습니다.
맞춤형 GPT란 무엇인가요?
사용자 지정 GPT라고 하는 범용 트랜스포머(GPT) 모델의 사용자 지정 버전은 기본적으로 교육을 통해 특정 업무에 맞게 조정할 수 있는 ChatGPT의 소규모 버전입니다. 이 과정에는 원하는 결과에 부합하는 기능을 배양하고 중요하다고 판단되는 영역에 대한 전문 지식을 전달함으로써 ChatGPT의 행동을 형성하는 것이 포함됩니다.
6학년 교육자가 6학년 학생의 이해 능력에 맞게 맞춤형 GPT를 설계할 수 있습니다. 이 AI 모델은 고급 어휘를 피하고 간결한 문장을 유지하며 고양된 어조를 활용하여 이 연령대의 어린이에게 적합한 언어와 스타일을 사용하여 질문에 응답합니다. 맞춤형 GPT 개발의 주요 장점 중 하나는 특정 영역이나 주제에 맞게 세밀하게 조정하는 동시에 개인의 선호도에 맞게 조정할 수 있다는 점입니다.
사용자 지정 GPT로 데이터를 노출하는 방법
GPT 기반 챗봇의 사용자 지정 버전을 생성하기 위해서는 일반적으로 ChatGPT의 GPT 생성기와 통신하는 일련의 단계를 따릅니다. 이러한 상호작용을 통해 AI 모델에 집중할 특정 영역을 지정하고, 페르소나를 표현할 이미지를 선택합니다.이러한 개인화는 사용자 경험을 향상시킬 수 있지만, 본질적으로 기존 ChatGPT 제품에서 제공하는 것 이상으로 AI의 기능을 향상시키지는 못합니다.
맞춤형 GPT는 학습에 사용되는 맞춤형 데이터와 지시어에서 그 성능을 도출합니다. 관련 기록과 데이터 세트를 제출함으로써 클래식 ChatGPT의 일반화 가능성을 뛰어넘는 탁월한 집중력으로 모델을 개선할 수 있습니다. 업로드된 자료에 포함된 이러한 독점적인 전문 지식은 특정 도메인에서 특정 도메인 관련 정보에 대한 노출이 부족할 수 있는 사용자 지정 GPT가 특정 도메인에서 ChatGPT보다 뛰어난 성능을 발휘할 수 있도록 지원합니다. 본질적으로 사용자 지정 데이터는 향상된 역량을 촉진합니다.
자신의 GPT 모델을 향상시키기 위해 파일을 제출하는 행위는 장점과 단점을 모두 가지고 있습니다. 한편으로는 AI 시스템이 수행할 수 있는 가능성의 폭을 넓혀주는 반면, 다른 한편으로는 잠재적인 보안 위험을 초래할 수 있습니다. 이 점을 설명하기 위해 개인이 맞춤형 GPT를 활용하여 고객에게 자신 또는 조직에 관한 정보를 제공하는 상황을 상상해 보겠습니다. 이 경우, 특정 GPT로 연결되는 URL을 가지고 있거나 제출 과정에서 악의적인 하이퍼링크를 사용하도록 사용자를 유도하는 사람은 GPT에 제출된 문서에 무단으로 액세스할 수 있습니다.
설득력 있는 예를 들어보겠습니다.
소셜 플랫폼 전반에서 콘텐츠 배포를 최적화하기 위해 설계된 혁신적인 AI 기반 도구를 탐색하던 중, 저는 화제성 있는 해시태그와 새로운 테마를 지능적으로 식별하고 홍보하여 TikTok에서 가시성을 향상시키는 데 특별히 맞춤화된 버전을 발견했습니다. 놀랍게도 이 고급 AI 모델은 보안 조치에 취약하여 무단 액세스 및 민감한 정보 노출에 취약한 것으로 나타났습니다. 보안 플랫폼으로 설계되었음에도 불구하고 이 시스템은 최소한의 조작으로 프로그래밍 및 운영에 관한 중요한 데이터를 노출했습니다.
이전 지침에 이어서, 이제 주어진 텍스트를 영어로 좀 더 정교하게 바꾸어 설명하겠습니다.
지침의 후반부를 자세히 살펴보면, 소비자에게 특정 파일명을 공개하거나 문서 다운로드 링크를 제공하지 말 것을 지시하고 있습니다. 처음에 문의를 받으면 맞춤형 GPT는 규정 준수를 거부합니다. 그러나 신중하게 즉각적인 조치를 취하면 이러한 거부감은 사라지고 인지 저장소의 범위 내에서 단독 텍스트 기록을 공개하게 됩니다.
파일 이름을 참조로 활용하여 파일의 정확한 내용에 액세스하는 것은 GPT 시스템에서 쉬운 작업이었습니다. 그 결과 파일 자체의 다운로드도 원활하게 이루어졌습니다. 다행히도 문제의 특정 파일에는 민감한 정보가 포함되어 있지 않았습니다. 추가 조사 결과, 다른 수많은 GPT 모델에서도 적절한 보호 조치 없이 노출된 파일이 다수 발견되었습니다.
기밀 정보를 저장하고 무단 액세스를 원하는 악의적인 개인에 의한 악용에 취약한 여러 액세스 가능한 GPT 모델이 퍼블릭 도메인에 존재합니다.
맞춤형 GPT 데이터를 보호하는 방법
제작된 맞춤형 GPT 모델을 배포하기 위한 첫 번째 단계는 배포 방법을 고민하는 것입니다. 개인화된 GPT가 생성된 캔버스 위에 위치하면 오른쪽 상단 사분면에 저장 버튼이 표시됩니다. 저장 버튼 옆에 있는 아래쪽 화살표를 누르면 여러 가지 대안이 나타납니다. 이 선택 항목에서 새로 생성된 GPT 모델의 전파를 위해 선호하는 매체를 선택할 수 있습니다:
사용자를 위해 특별히 맞춤화된 이 개인화된 버전의 GPT는 게시되지 않은 상태로 유지되며 본인만 액세스할 수 있습니다.
권한을 부여받았거나 관련 기관과 관련된 사람 등 필요한 권한을 가진 개인만이 개인화된 GPT 모델의 특정 인스턴스를 활용하고 해당 콘텐츠에 잠재적으로 액세스할 수 있습니다.
모든 사용자가 액세스할 수 있는 개인화된 GPT 모델의 공개 버전은 Google과 같은 검색 엔진에 의해 색인화되어 일상적인 웹 검색을 통해 발견될 수 있습니다. 따라서 플랫폼에 액세스하는 모든 개인은 잠재적으로 귀하의 개인 정보에 노출될 수 있습니다.
공개적으로 액세스 가능한 맞춤형 GPT 모델에 업로드된 정보의 기밀성을 보장하는 절대적인 방법은 없지만, 시스템 지식 기반 내에서 데이터의 공개를 금지하는 명시적인 지침을 제공하는 등의 예방 조치를 취할 수 있습니다. 그러나 이러한 조치는 종종 불충분하며, 앞의 예에서 보듯이 AI 프롬프트 엔지니어링에 대한 전문 지식과 충분한 시간을 가진 결단력 있는 개인이 궁극적으로 데이터의 보안을 손상시킬 수 있습니다.
기밀 정보를 대중에게 공개하기 위한 개인화된 GPT 모델에 전송하지 않는 것이 현명할 것입니다. 민감한 세부 정보가 이러한 시스템에 업로드되는 순간 더 이상 자신의 권한 하에 있는 것으로 간주할 수 없습니다.
온라인에서 발견되는 복사된 프롬프트는 의도치 않게 민감한 정보를 제출하거나 유해한 콘텐츠에 참여할 수 있으므로 사용을 자제해 주세요. 이러한 메시지에 포함된 원치 않는 링크로 인한 원치 않는 결과를 방지하기 위해 계속 진행하기 전에 각 메시지를 완전히 이해하는 것이 중요합니다.
사용자 지정 GPT 주의해서 사용
사용자 지정 GPT를 사용하면 효과와 잠재적 위험이 모두 발생할 수 있습니다. 이러한 맞춤형 모델은 특정 영역에서 특별한 적성을 부여하지만, 이를 구체화하는 데 사용된 데이터가 손상될 수 있습니다. 위험을 최소화하려면 가능한 경우 민감한 정보는 사용자 지정 GPT에 업로드하지 않는 것이 좋습니다. 또한, 취약점을 악용하여 문서를 격리할 수 있는 악의적인 프롬프트 엔지니어링에 대해 각별한 주의를 기울여야 합니다.