수백만 명의 ChatGPT 사용자가 있는 상황에서 OpenAI가 모든 대화에서 무엇을 하는지 궁금할 것입니다. ChatGPT로 대화하는 내용을 지속적으로 분석하나요?
이에 대한 대답은 ‘예’입니다. ChatGPT는 사용자 입력을 통해 학습하지만 대부분의 사람들이 생각하는 방식은 아닙니다. 채팅GPT가 대화를 추적하는 이유와 사용 방법, 보안이 침해되는지 여부에 대해 자세히 설명하는 심층 가이드를 참조하세요.
ChatGPT는 대화를 기억하나요?
ChatGPT는 프롬프트를 액면 그대로 받아들이지 않습니다. 문맥 메모리를 사용하여 이전 입력을 기억하고 참조하여 관련성 있고 일관된 응답을 보장합니다.
아래 대화를 예로 들어보겠습니다. ChatGPT에 레시피 아이디어를 요청했을 때 땅콩 알레르기에 대한 이전 메시지를 고려했습니다.
ChatGPT의 안전한 레시피는 다음과 같습니다.
컨텍스트 메모리를 통해 AI는 다단계 작업을 실행할 수도 있습니다. 아래 이미지는 새로운 프롬프트를 입력한 후에도 ChatGPT가 캐릭터를 유지하는 모습을 보여줍니다.
ChatGPT는 대화 내에서 수십 개의 명령어를 기억할 수 있습니다. 실제로 더 많은 컨텍스트를 제공할수록 정확도와 정밀도가 향상됩니다. 지시 사항을 명확하게 설명하기만 하면 됩니다.
ChatGPT의 문맥 메모리에는 여전히 한계가 있으므로 기대치도 관리해야 합니다.
ChatGPT 대화에는 제한된 메모리 용량이 있습니다
문맥 메모리는 유한합니다. ChatGPT는 하드웨어 리소스가 제한되어 있어 현재 대화의 특정 지점까지만 기억합니다. 메모리 용량에 도달하면 플랫폼은 이전 프롬프트를 잊어버립니다.
이 대화에서는 ChatGPT에 토미라는 가상의 캐릭터를 역할 연기하도록 지시했습니다.
ChatGPT가 아닌 Tomie로 프롬프트에 응답하기 시작했습니다.
요청은 성공했지만 1,000단어 프롬프트를 받은 후 ChatGPT가 캐릭터를 중단했습니다.
OpenAI는 ChatGPT의 정확한 한계를 공개한 적이 없지만, 한 번에 3,000단어만 처리할 수 있다는 소문이 있습니다. 저희 실험에서는 2,800단어 이상만 입력해도 ChatGPT가 오작동했습니다.
프롬프트를 1,500단어 두 개로 나눌 수 있지만, ChatGPT가 모든 지시를 기억하지 못할 가능성이 높습니다. 그냥 다른 채팅을 시작하세요. 그렇지 않으면 대화 내내 특정 세부 사항을 여러 번 반복해야 합니다.
ChatGPT는 주제와 관련된 입력만 기억
ChatGPT는 문맥 메모리를 사용하여 출력 정확도를 향상시킵니다. 단순히 정보를 수집하기 위해 정보를 저장하는 것이 아닙니다. 플랫폼은 토큰 한도에 도달하지 않은 경우에도 관련 없는 세부 정보를 거의 자동으로 잊어버립니다.
아래 이미지에서는 일관성이 없고 관련성이 없는 여러 가지 지침으로 AI를 혼동하게 합니다.
모든 입력을 100단어 미만으로 유지했지만 ChatGPT는 여전히 첫 번째 명령을 잊어버렸습니다. 금세 성격을 잃었습니다.
한편 이 대화에서는 주제와 관련된 질문만 했기 때문에 ChatGPT가 계속 역할극을 했습니다.
정확하고 관련성 있는 출력을 유지하려면 각 대화는 하나의 주제를 따라야 합니다. 여러 개의 지시를 동시에 입력할 수도 있습니다. 다만 전체 주제와 일치하는지 확인해야 하며, 그렇지 않으면 ChatGPT가 관련성이 없다고 판단한 지시를 삭제할 수 있습니다.
훈련 지침이 사용자 입력보다 우선
ChatGPT는 항상 사용자가 생성한 입력보다 미리 정해진 지침을 우선시합니다. 제한을 통해 불법적인 활동을 차단합니다. 플랫폼은 위험하거나 타인에게 피해를 줄 수 있다고 판단되는 모든 프롬프트를 거부합니다.
롤플레이 요청을 예로 들어보겠습니다. 언어와 문구에 대한 특정 제한을 무시하지만, 불법적인 활동을 하는 데 사용할 수는 없습니다.
물론 모든 제한이 합리적인 것은 아닙니다. 엄격한 지침으로 인해 특정 작업을 수행하기 어렵다면 프롬프트를 계속 수정하세요. 단어 선택과 어조는 결과물에 큰 영향을 미칩니다. GitHub에서 가장 효과적이고 상세한 프롬프트에서 영감을 얻을 수 있습니다.
OpenAI는 사용자 대화를 어떻게 학습하나요?
컨텍스트 메모리는 현재 대화에만 적용됩니다. ChatGPT의 상태 비저장 아키텍처는 대화를 독립적인 인스턴스로 취급하므로 이전 대화에서 정보를 참조할 수 없습니다. 새 채팅을 시작하면 항상 모델의 상태가 초기화됩니다.
ChatGPT가 사용자 대화를 즉시 덤프한다는 의미는 아닙니다. OpenAI의 이용 약관 에 따르면 이 회사는 ChatGPT 및 Dall-E와 같은 비 API 소비자 서비스에서 입력을 수집한다고 명시되어 있습니다. 심지어 채팅 기록의 사본을 요청할 수도 있습니다.
ChatGPT는 대화에 자유롭게 접근할 수 있지만, OpenAI의 개인정보 보호정책 은 사용자를 해칠 수 있는 활동을 금지하고 있습니다. 트레이너는 제품 연구 및 개발을 위해서만 사용자의 데이터를 사용할 수 있습니다.
개발자가 허점을 찾다
OpenAI는 대화에서 허점을 찾아냅니다. ChatGPT가 데이터 편향성을 보이거나 유해한 정보를 생성하거나 불법적인 활동을 돕는 사례를 분석합니다. 플랫폼의 윤리 가이드라인은 지속적으로 개선되고 있습니다.
예를 들어, ChatGPT의 첫 번째 버전은 바이러스 코딩이나 폭발물 제작에 대한 질문에 공개적으로 답변했습니다. 이러한 사건으로 인해 사용자들은 OpenAI가 ChatGPT를 통제할 수 없다고 느꼈습니다. 대중의 신뢰를 회복하기 위해 챗봇이 가이드라인에 위배될 수 있는 질문을 거부하도록 훈련시켰습니다.
트레이너 데이터 수집 및 분석
ChatGPT는 지도 학습 기법을 사용합니다. 플랫폼은 모든 입력을 기억하지만 실시간으로 학습하지는 않습니다. OpenAI 트레이너가 먼저 수집하고 분석합니다. 이렇게 함으로써 ChatGPT는 유해하고 피해를 주는 정보를 절대 흡수하지 않습니다.
지도 학습은 비지도 기술보다 더 많은 시간과 에너지가 필요합니다. 그러나 AI에게 입력 내용을 분석하도록 내버려두는 것은 이미 해롭다는 것이 입증되었습니다.
기계 학습이 잘못되었던 사례 중 하나인 Microsoft Tay를 예로 들어보겠습니다. 개발자의 지침 없이 지속적으로 트윗을 분석했기 때문에 악의적인 사용자는 결국 인종 차별적이고 고정관념적인 의견을 뱉도록 훈련시켰습니다.
개발자는 편견을 끊임없이 경계해야 한다
여러 외부 요인이 AI의 편견을 유발합니다. 무의식적인 편견은 학습 모델의 차이, 데이터 세트 오류, 잘못 구성된 제한 사항 등으로 인해 발생할 수 있습니다. 다양한 AI 애플리케이션에서 이러한 편견을 발견할 수 있습니다.
다행히도 ChatGPT는 차별적 편견이나 인종적 편견을 입증한 적이 없습니다. 뉴욕 포스트 보고서에 따르면, 사용자가 알아차린 최악의 편견은 아마도 좌파 이데올로기에 대한 ChatGPT의 성향일 것입니다. 이 플랫폼은 보수적인 주제보다 진보적인 주제에 대해 더 공개적으로 글을 작성합니다.
이러한 편향성을 해결하기 위해 OpenAI는 ChatGPT가 정치적 인사이트를 제공하는 것을 전면 금지했습니다. 일반적인 사실에 대해서만 답변할 수 있습니다.
중재자가 ChatGPT의 성능을 검토합니다
사용자는 ChatGPT의 결과에 대한 피드백을 제공할 수 있습니다. 모든 응답의 오른쪽에 좋아요 및 싫어요 버튼이 있습니다. 전자는 긍정적인 반응을 나타냅니다. 좋아요 또는 싫어요 버튼을 누르면 자신의 말로 피드백을 보낼 수 있는 창이 나타납니다.
피드백 시스템이 도움이 됩니다. OpenAI가 댓글을 살펴볼 수 있도록 시간을 좀 주세요. 수백만 명의 사용자가 정기적으로 ChatGPT에 댓글을 달며, 개발자는 편견과 유해한 결과물 생성의 심각한 사례에 우선순위를 부여할 가능성이 높습니다.
ChatGPT 대화는 안전한가요?
OpenAI의 개인정보 보호정책을 고려할 때, 데이터는 안전하게 유지될 것이므로 안심할 수 있습니다. ChatGPT는 데이터 학습을 위해서만 대화를 사용합니다. 개발자는 수집된 인사이트를 연구하여 출력의 정확성과 신뢰성을 향상시키며, 개인 데이터를 도용하지 않습니다.
완벽한 인공지능 시스템은 없습니다. ChatGPT는 본질적으로 편향되어 있지는 않지만, 악의적인 개인이 데이터 세트 오류, 부주의한 교육, 보안 허점 등 취약점을 악용할 수 있습니다. 자신을 보호하기 위해 이러한 위험에 대처하는 방법을 알아두세요.