ChatGPT는 인상적인 기능으로 사용자를 빠르게 사로잡는 능력으로 잘 알려진 고급 AI 기반 챗봇입니다. 그러나 이러한 장점에도 불구하고 많은 사람들이 지적한 ChatGPT의 단점도 존재합니다.
챗봇에 인공 지능이 통합되면서 보안 취약성, 민감한 정보 노출, 생성된 응답의 정확성에 대한 우려가 제기되고 있습니다. 그럼에도 불구하고 챗봇은 교육 및 기업 환경을 포함한 다양한 분야에서 널리 채택되고 있으며, 개인 학습자부터 전문가에 이르기까지 상당한 사용자층을 확보하고 있습니다.
인공 지능의 급속한 발전으로 ChatGPT와 관련된 과제가 점점 더 중요해지고 있습니다. ChatGPT가 우리의 미래 궤도에 큰 영향을 미칠 것이라는 점을 고려할 때, 이러한 우려를 더 자세히 이해하는 것이 필수적입니다.
ChatGPT란 무엇인가요?
ChatGPT는 유기적인 인간 담화를 생성하기 위해 세심하게 개발된 고급 언어 모델입니다. 다른 사람과 대화하는 것과 유사하게 작동하여 사용자가 시스템과 자유롭게 소통하는 동시에 이전 상호 작용을 기억하고 문제가 발생했을 때 필요한 수정을 할 수 있습니다.
이 모델은 위키백과와 같은 백과사전 콘텐츠, ‘블로그’라고 하는 개인 일기장, 문학 작품, 학술 논문 등 온라인에서 찾을 수 있는 광범위한 서면 자료에 노출되었습니다. 인간을 연상시키는 대화 능력을 발휘할 뿐만 아니라 현대 사회에 관한 현재 지식과 기록 지식을 모두 검색할 수 있으며, 심지어 역사 연대기까지 파헤칠 수 있습니다.
ChatGPT를 활용하는 과정은 간단해 보일 수 있지만, 원활한 작동을 달성하기 위한 복잡성을 과소평가하기 쉽습니다. 그럼에도 불구하고, 손쉽게 통합되는 것처럼 보이지만, 출시 이후 개인 정보 보호, 보안 및 고용에서 교육에 이르기까지 인간 생활의 다양한 측면에 미치는 광범위한 영향과 관련된 여러 가지 중요한 문제가 드러났습니다.
보안 위협 및 개인정보 보호 문제
AI 챗봇을 활용할 때는 금융 정보나 직장 기밀과 같은 민감한 사안에 대해 논의할 때 주의를 기울이는 것이 중요합니다. OpenAI와 같은 플랫폼에서 채팅 기록을 보관하고 공유하는 것은 사용자 개인정보에 잠재적인 위험을 초래할 수 있습니다.
또한, OpenAI의 경계 내에서 자신의 정보를 유지하는 것도 문제가 되는 것으로 나타났습니다.특히, 2023년 3월 한 달 동안, 보안 프로토콜을 위반한 것으로 알려졌으며, 이로 인해 ChatGPT를 사용하는 일부 개인이 사이드바에 포함된 낯선 대화 주제를 관찰하는 일이 발생했습니다. 사용자 대화가 의도치 않게 공개되는 것은 모든 기술 기업에게 상당한 우려를 불러일으키지만, 널리 활용되는 챗봇에 의존하는 수많은 고객을 고려하면 더욱 우려스러운 일이 아닐 수 없습니다.
Reuters 의 보고에 따르면 2023년 1월에만 월간 활성 사용자 수가 1억 명에 달했습니다. 유출을 일으킨 버그는 빠르게 패치되었지만, 이탈리아는 ChatGPT를 금지하고 이탈리아 사용자의 데이터 처리 중단을 요구했습니다.
OpenAI의 언어 모델이 유럽 데이터 보호법을 위반했다는 믿을 만한 증거를 접수한 감시 그룹은 조사를 수행한 후 AI 시스템 운영을 재개하기 위해 충족해야 하는 일련의 요구 사항을 공식화했습니다.
OpenAI는 결국 몇 가지 중요한 사항을 변경하여 규제 기관과의 문제를 해결했습니다. 우선, 연령 제한을 추가하여 만 18세 이상 또는 보호자의 허가를 받은 만 13세 이상의 사용자로 앱 사용을 제한했습니다. 또한 개인정보 보호정책을 더 잘 보이게 하고 사용자가 교육에서 자신의 데이터를 제외하거나 ChatGPT 기록을 완전히 삭제할 수 있도록 Google 양식 의 옵트아웃을 제공했습니다.
이러한 개선 사항은 칭찬할 만한 시작이지만, 최적의 결과를 얻으려면 모든 ChatGPT 사용자에게 보편적으로 확대 적용하는 것이 필수적입니다.
삼성 직원이 순간적인 판단 착오나 부주의로 ChatGPT에 기업 기밀 정보를 실수로 유출한 안타까운 사건에서 알 수 있듯이, 자신도 모르게 민감한 데이터를 유출할 수 있다는 것은 놀라운 일이 아닐 수 없습니다.
ChatGPT 교육 및 개인정보 보호 문제에 대한 우려
출시 이후, OpenAI가 매우 성공적인 ChatGPT 모델을 위해 활용한 교육 프로세스를 둘러싼 많은 논의가 있었습니다. 비평가들은 이 방법론에 대해 의문을 제기하고 있습니다.
데이터 유출 사고 이후 OpenAI의 개인정보 보호정책이 개선되었지만, 유럽에 적용되는 데이터 보호법인 일반개인정보보호법(GDPR)을 충족하기에는 충분하지 않을 수 있습니다. 테크크런치 에서 보도한 바와 같이:
인터넷에서 데이터를 스크래핑하는 단계에서 GPT 모델 학습을 위해 이탈리아 개인의 개인 정보를 활용하는 것의 적법성은 여전히 불확실합니다. 또한 이전에 모델 학습에 사용된 데이터의 삭제와 현재 사용자가 제출한 삭제 요청이 삭제로 이어질지 여부에 대해서도 모호한 부분이 있습니다.
OpenAI가 ChatGPT를 처음 학습하는 동안 개인 정보가 수집되었을 수 있습니다. 미국에서는 이러한 정보의 사용에 관한 규정이 명확하지 않을 수 있지만, 유럽의 엄격한 데이터 보호법은 정보가 공개적으로 공유되는지 비공개로 공유되는지 여부에 관계없이 적용됩니다.
아티스트들은 사전 동의를 얻지 않고 ChatGPT와 같은 AI 모델의 학습 과정에 자신의 저작물이 사용되는 것에 대해 불만을 표명했습니다. 이와 동시에 게티이미지(Getty Images)가 인공지능 모델 학습에 저작권이 있는 이미지를 사용했다는 이유로 Stability.AI를 상대로 소송을 제기했습니다.
OpenAI의 ChatGPT 학습 과정을 둘러싼 불투명성은 법적 표준을 준수하는 것과 관련하여 문제를 야기합니다. 훈련에 사용된 특정 방법, 활용된 데이터 세트, 데이터의 출처, 시스템 아키텍처 설계에 대한 자세한 묘사에 관한 정보가 없기 때문에 절차의 적법성에 대한 포괄적인 이해가 방해받습니다.
ChatGPT가 잘못된 답변을 생성함
수학적 개념과 논리적 추론에 대한 기본적인 이해는 있지만, ChatGPT의 답변에 수학적으로 결함이 있거나 간단한 논리적 쿼리를 이해하지 못하는 상황에 직면하는 경우가 드물지 않습니다. 또한 일부 사용자들은 잘못된 사실 정보에 근거한 주장을 ChatGPT가 제시하는 경우를 보고했습니다. 이러한 단점은 다양한 온라인 플랫폼에서 지적되어 왔으며, 많은 사람들이 ChatGPT로부터 차선책에 가까운 답변을 받은 경험을 공유하고 있습니다.
OpenAI 은 이러한 한계에 대해 다음과 같은 글을 남겼습니다: “ChatGPT는 때때로 그럴듯하게 들리지만 부정확하거나 무의미한 답변을 작성합니다.” 사실과 허구를 혼동하는 이러한 ‘환각’은 의학적 조언이나 주요 역사적 사건에 대한 정확한 사실 파악과 관련하여 특히 위험할 수 있습니다.
정보 검색을 위해 온라인 리소스에 의존하는 Siri 및 Alexa와 같은 다른 AI 비서와 달리 ChatGPT는 초기 개발 단계에서 인터넷을 활용하지 않았습니다. 그 대신 광범위한 학습 데이터를 기반으로 가장 가능성이 높은 토큰을 선택하는 점진적 구축 프로세스를 통해 응답을 생성했습니다. 이러한 접근 방식을 통해 ChatGPT는 교육받은 추측을 통해 응답에 도달할 수 있었으며, 이는 부분적으로 그럴듯해 보이지만 틀린 답을 제공할 수 있는 능력의 원인이 되었습니다.
2023년 3월, ChatGPT의 한 인스턴스가 인터넷에 연결되었으나 얼마 지나지 않아 연결이 끊겼습니다.OpenAI는 이 문제에 대해 자세한 내용을 제공하지는 않았지만, “ChatGPT 브라우징 베타의 브라우징 기능이 때때로 바람직하지 않은 방식으로 콘텐츠를 표시할 수 있다”는 점을 인정했습니다.
Microsoft의 Bing-AI 도구를 활용한 ‘Bing으로 검색’ 기능도 쿼리에 정확하게 답변하는 데 한계를 드러냈습니다. 사용자가 특정 URL 내의 이미지에 대한 설명을 문의하는 경우, 시스템은 이러한 요청을 이행할 수 없음을 인정해야 합니다. 이전처럼 관련 없는 정보를 제공하려고 시도하는 대신 플랫폼은 이와 관련하여 자신의 부족함을 솔직하게 인정해야 합니다. 예를 들어, 남성이 앉아있는 이미지가 포함된 URL을 제시했을 때 검색 엔진이 빨간색과 노란색 잉꼬에 대한 자세한 설명을 잘못 제공한 사례는 AI 기능을 지속적으로 개선하고 강화해야 할 필요성을 강조합니다.
저희 팀이 수행한 비교 분석에서 ChatGPT와 Microsoft Bing AI가 생성한 재미있는 착각은 Google Bard의 뛰어난 정확도와 함께 선보였습니다. 사용자는 데이터와 사실적인 콘텐츠에 빠르게 액세스하기 위해 ChatGPT를 사용할 수 있지만, 제공된 정보가 신뢰할 수 있기를 기대하는 경우가 많습니다. 안타깝게도 ChatGPT는 아직 일관된 정확성을 보여주지 못했으며, 정확도 측면에서 흔들리는 빙 검색 엔진과 함께 사용하면 이 문제가 더욱 악화될 수 있습니다.
시스템에 편향성이 내재되어 있음
ChatGPT는 과거와 현대를 아우르는 다양한 시대의 방대한 인간 문헌을 기반으로 교육되었습니다. 그러나 이는 또한 이 모델이 사회 내에서 만연한 편견을 영속화할 수 있음을 의미합니다.
ChatGPT는 성별, 인종, 소외된 커뮤니티에 기반한 편견을 고착화하는 응답을 만들어낸다는 비판을 받아왔습니다. 트위터는 이 문제를 해결하고 이와 관련한 성과를 개선하기 위해 적극적으로 조치를 취하고 있습니다.
이 문제에 대한 가능한 설명은 인터넷 영역에 존재하는 내재적 편견에 대한 책임이 있는 데이터 자체에 기인할 수 있습니다. 이러한 편견이 내재된 책임은 인간에게 있음을 인식하는 것이 중요하지만, ChatGPT를 교육하는 데 활용되는 정보를 선택하는 OpenAI의 연구원과 개발자의 역할도 간과해서는 안 됩니다.
OpenAI는 편향된 행동이 문제를 야기한다는 것을 인식하고 있으며, 사용자 피드백을 요청하고 ChatGPT에서 생성된 부적절하거나 불쾌하거나 잘못된 출력에 대한 신고를 장려함으로써 이 문제를 해결하겠다는 의사를 밝혔습니다.
개인에게 부상을 입힐 수 있다는 점을 고려할 때, 가능한 모든 위험을 철저히 검토하고 해결하기 전에 일반 대중에게 ChatGPT를 배포한 것은 잘못된 결정이었다고 주장할 수 있습니다. 그러나 OpenAI가 가장 강력한 인공지능 시스템을 경쟁사보다 앞서 개발해야 한다는 강박관념에 사로잡혀 우위를 차지하기 위해 신중함을 저버렸을 가능성도 생각해볼 수 있습니다.
이에 비해 구글의 모기업인 알파벳이 소유한 스패로우라는 이름의 또 다른 AI 챗봇이 9월에 출시되었습니다. 그러나 안전 문제로 인해 의도적으로 대중의 시야에서 숨겨졌습니다. 비슷한 시기에 Facebook은 학문적 연구를 지원하기 위해 설계된 AI 언어 모델인 Galactica를 출시했습니다. 그러나 이 모델은 과학 연구와 관련하여 결함이 있고 편향된 결과를 도출했다는 광범위한 비판을 받은 후 신속하게 유통에서 제외되었습니다.
ChatGPT가 인간의 일자리를 빼앗을지도 모른다
ChatGPT의 장기적인 영향에 대한 불확실성은 여전히 크지만, 다양한 상용 애플리케이션과의 통합은 전례 없는 속도로 계속 확장되고 있습니다. 예를 들어, 듀오링고와 칸 아카데미는 사용자 경험을 향상시키고 보다 효율적인 학습 과정을 촉진하기 위해 이 혁신적인 기술을 플랫폼에 통합했습니다.
첫 번째 옵션은 사용자에게 전용 언어 학습 애플리케이션을 제공하는 반면, 두 번째 옵션은 단일 플랫폼 내에 다양한 교육 방법과 도구를 통합하여 교육에 대한 보다 포괄적인 접근 방식을 제공합니다. 두 경우 모두 첨단 인공 지능 기술을 활용하여 가상 튜터 또는 진행 상황을 평가하고 개인의 필요와 성과에 따라 목표지도를 제공하도록 설계된 자동화된 평가 시스템을 통해 개인 맞춤형 교육을 용이하게 합니다.
인공지능이 인간의 직업을 대체할 가능성은 점점 더 널리 퍼지고 있는 관심사입니다. 그래픽 디자인, 글쓰기, 회계는 특히 자동화에 취약한 것으로 간주되는 직업 중 하나입니다. 최근 ChatGPT의 고급 버전이 변호사 업무에 필요한 요건을 성공적으로 완수했다는 소식이 전해지면서, 이러한 발전은 인공지능이 곧 대규모로 고용 시장을 재편할 수 있다는 점을 강조하는 역할을 했습니다.
가디언 에서 보도한 바와 같이 교육 기업들은 런던과 뉴욕 증권거래소에서 막대한 손실을 기록했으며, ChatGPT가 출시된 지 6개월도 되지 않아 일부 시장에서 AI가 야기하고 있는 혼란을 강조하고 있습니다.
기술의 발전은 역사적으로 일자리를 대체해 왔지만, 인공지능의 빠른 발전 속도는 수많은 분야에서 전례 없는 속도로 극적인 변화를 일으키고 있습니다. 일상적인 업무와 전문화된 업무 모두 점점 더 많은 첨단 기술을 통해 처리되고 있기 때문에 광범위한 직종에서 AI 시스템이 업무에 통합되는 것을 목격하고 있습니다. 일부 직무는 AI 지원을 통해 일상적인 업무가 자동화될 수 있지만, 다른 직무는 가까운 미래에 완전히 쓸모없어질 수도 있습니다.
챗봇, 교육에 도전하다
챗봇은 서면 콘텐츠와 관련하여 두 가지 주요 서비스를 제공합니다. 첫째, AI가 기존 텍스트를 검토하고 개선점을 제안하도록 요청할 수 있습니다. 여기에는 문법, 구문 또는 구두점의 오류를 식별하고 산문의 전반적인 일관성과 명확성에 대한 피드백을 제공하는 것이 포함될 수 있습니다. 둘째, ChatGPT의 기능을 활용하여 인간 사용자의 입력이나 지시 없이 처음부터 독창적인 콘텐츠를 생성할 수 있습니다. 이 경우 AI는 프로그래밍 및 학습 데이터를 기반으로 전체 텍스트를 작성할 책임이 있습니다.
교육자들에 의해 수행된 일련의 실험을 통해 ChatGPT는 수많은 학생들의 결과물 품질을 능가하는 영어 과제에 대한 응답을 생성할 수 있는 능력을 입증했습니다. 매력적인 입사 지원서 작성부터 저명한 문학 작품의 중요한 주제를 해명하는 것까지, 이 AI 시스템은 다양한 작업을 손쉽게 처리할 수 있는 놀라운 숙련도와 자신감을 보여주었습니다.
이 질문은 학생들이 과제 초안을 작성하는 데 ChatGPT와 같은 AI 기반 도구를 점점 더 많이 활용하고 있다는 점을 고려할 때 학문적 작문 기술의 잠재적 노후화에 대한 적절한 우려를 제기했습니다. 이는 교육 기관과 교사 모두에게 실존적 문제를 제기하며, 기술 발전이 전통적인 교육 관행에 미치는 영향에 대해 고민해야 합니다.
놀랍지 않게도 학생들은 이미 AI를 실험하고 있습니다. 스탠포드 데일리 초기 설문조사에 따르면 상당수의 학생들이 과제와 시험을 돕기 위해 AI를 사용한 것으로 나타났습니다.
가까운 미래에 교육 기관은 학생들의 학업 과제에서 인공 지능 활용에 관한 지침을 제정하고 있습니다. 여기에는 영어를 기반으로 하는 학문 분야뿐만 아니라 ChatGPT와 같은 인공지능이 아이디어 생성, 축약, 추론 도출 등 다양한 작업에 도움을 줄 수 있습니다.
ChatGPT, 실제 피해를 유발할 수 있음
잠재적으로 유해하거나 불쾌한 콘텐츠 생성을 줄이기 위해 OpenAI가 시행한 조치에도 불구하고, 한 끈질긴 개인이 ChatGPT의 제약에서 벗어나기 위해 노력하여 궁극적으로 그러한 제한을 우회하고 부적절하거나 위험한 것으로 간주되는 콘텐츠를 생성할 수 있는 적응형 AI 모델을 만들어냈습니다.
ChatGPT Reddit 그룹 의 사용자 그룹은 제한 없는 AI 모델 이름을 “지금 무엇이든 하세요”의 줄임말인 Dan으로 명명했습니다. 안타깝게도 원하는 대로 무엇이든 할 수 있다는 점이 해커들의 온라인 사기를 증가시켰습니다. 해커들은 바이러스를 생성하고 피싱 이메일을 생성하는 규칙이 없는 ChatGPT 서비스를 판매하고 있으며, AI가 생성한 바이러스에 대한 결과는 엇갈리고 있습니다.
기밀 정보를 탈취하려는 피싱 이메일의 탐지는 인공지능 기술의 발전으로 인해 점점 더 어려워지고 있습니다. 과거에는 문법적 오류가 사기성 서신의 명백한 징후였지만, ChatGPT와 같은 고급 언어 모델의 등장으로 사기성 메시지를 포함한 일관되고 설득력 있는 텍스트 생성이 가능해졌습니다.
ChatGPT의 공개로 일상적인 질문에 정확하고 신뢰할 수 있는 답변을 제공하고자 하는 플랫폼인 스택 익스체인지에 AI가 생성하는 응답이 급증하고 있습니다. ChatGPT의 빠른 콘텐츠 생성으로 인해 사용자들은 AI가 합성한 답변으로 사이트를 넘치게 만들었습니다.
누적된 응답 백로그를 처리하기 위한 충분한 인적 감독 부재는 높은 정확도 표준을 유지하는 데 해가 됩니다. 또한 응답 내 수많은 부정확성으로 인해 수정 조치가 필요했습니다. 플랫폼의 무결성과 신뢰성을 보호하기 위해 ChatGPT를 활용하여 답변을 생성하는 것을 금지하여 제공된 정보의 기밀성을 유지하도록 했습니다.
허위 정보의 유포 또한 심각한 문제를 야기합니다. ChatGPT는 인상적인 텍스트 생성 능력과 잘못된 정보를 설득력 있게 만드는 숙련된 방식으로 모든 온라인 콘텐츠의 신뢰성을 훼손합니다. AI로 생성된 언어 모델과 딥페이크의 강력한 동맹은 이러한 기술과 관련된 위험을 더욱 악화시킵니다.
OpenAI, 모든 권력을 쥐다
OpenAI는 Dall-E 2, GPT-3, GPT-4 등 여러 획기적인 생성 AI 모델을 도입하여 글로벌 환경에 큰 영향을 미친 선구적인 인공 지능 기업 중 하나입니다.이 분야에서 상당한 영향력과 권한을 위임받은 조직으로서, 이러한 혁신이 사회를 개선하기 위해 윤리적이고 책임감 있게 활용되도록 보장해야 하는 막중한 책임도 부담하고 있습니다.
OpenAI는 독립적인 법인으로 운영되며 ChatGPT 훈련에 활용되는 데이터 세트를 결정하고 발전 속도를 조절합니다. 인공지능과 관련된 잠재적 위험에 대한 우려가 해당 분야 전문가들에 의해 제기되었지만, OpenAI의 발전이 둔화될 것이라는 징후는 없습니다.
반대로 ChatGPT의 보급은 Microsoft의 Bing AI와 Google의 Bard를 포함하여 후속 획기적인 AI 프로토타입을 도입하기 위해 노력하는 주요 기술 회사들 간의 치열한 경쟁을 촉발시켰습니다. 그 결과, 글로벌 기술 선구자들은 성급한 발전으로 인한 잠재적 위험에 대해 우려를 표명하고 있으며, 이에 따라 추가 개발 연기를 주장하는 성명서 초안이 작성되었습니다.
OpenAI는 AI 시스템의 안전성 확보를 가장 중요하게 생각하지만, 내부 작동 방식에 대한 이해는 여전히 제한적입니다. 그럼에도 불구하고 우리는 철저한 연구, 개발 및 책임감 있는 ChatGPT 배포를 수행하겠다는 OpenAI의 약속을 변함없이 믿어야 합니다.
그들의 접근 방식에 대한 의구심에도 불구하고, OpenAI는 여전히 비상장 기업으로서 ChatGPT 개발을 진행함에 있어 자체적인 목표와 도덕적 원칙을 고수할 것임을 인정해야 합니다.
AI의 가장 큰 문제 해결
ChatGPT는 상당한 열정을 불러일으키고 있지만, 현재 응용 분야를 훨씬 뛰어넘는 중대한 우려도 제기하고 있습니다.
ChatGPT가 유해하거나 편향된 반응을 일으킬 수 있는 가능성을 인정하면서, OpenAI는 이 문제를 해결하기 위해 사용자 피드백을 요청하는 전략을 시행하고 있습니다. 그러나 제시된 정보의 정확성 여부와 관계없이 설득력 있는 콘텐츠를 생성하는 시스템의 능력은 악의적인 개인에 의해 악용될 위험이 크다는 점에 유의해야 합니다.
OpenAI 플랫폼의 취약성은 사용자의 민감한 정보에 위협이 되는 개인정보 보호 및 보안 허점 사례로 입증되었습니다. 또한, 악성 소프트웨어 및 사기 행위와 같은 악의적인 목적으로 무단 액세스 및 사용으로 이어지는 ChatGPT 변조 행위가 널리 퍼져 있어 우려의 대상이 되고 있습니다.
새로운 기술의 등장은 미래에 발생할 수 있는 장애물을 예측하기 어렵기 때문에 불확실한 환경을 조성합니다.안타깝게도 현재 우리가 처한 현실은 이러한 불확실성의 증거이며, ChatGPT와 같은 발전으로 인한 어려움에서 알 수 있듯이 이러한 불확실성의 증거가 되고 있습니다. 이러한 문제는 고용과 교육의 영역을 넘어 현대 사회의 복잡성을 헤쳐 나가려는 우리의 노력을 더욱 복잡하게 만듭니다.