OpenAI의 제품이자 다양한 쿼리에 대한 만능 솔루션으로 환영받는 ChatGPT는 간단한 문의와 복잡한 문의를 모두 아우릅니다. 이 AI 챗봇은 의료 상담을 제공할 수 있는 기능을 갖추고 있어 USMLE 표준을 충족시키기에 충분하지만, 종합검진을 위해 의료기관을 방문해야 하는 필요성을 없애기에는 아직 부족합니다.
ChatGPT의 개발은 의료 산업을 획기적으로 혁신할 수 있는 역량을 보유하고 있습니다. 의료 시스템과의 통합은 환자의 의료 접근성을 높이는 동시에 의사의 생산성을 높일 수 있습니다. 그럼에도 불구하고 인공지능에 의존하기 때문에 잠재적 위험에 대한 우려는 타당한 이유가 있습니다.
ChatGPT는 제한된 지식을 가지고 있음
ChatGPT가 어느 정도의 지적 통찰력을 가지고 있다는 것은 인정되지만, 특히 OpenAI가 확인한 바와 같이 2021년 9월 이후에 발생한 사건에 대한 이해는 제한적입니다.
ChatGPT는 웹 검색 엔진이나 외부 네트워크 리소스에 대한 즉각적인 액세스가 부족합니다. 이 시스템은 문학, 웹사이트, 각종 문서 등 다양한 장르를 아우르는 방대한 말뭉치에 의존합니다. AI 시스템은 생성하는 정보에 대한 실제 지식을 보유하지 않고 대신 텍스트 콘텐츠에 대한 노출을 활용하여 일관된 응답을 생성하기 위해 가능한 단어 선택과 문장 구조를 공식화합니다.
따라서 의료 분야의 발전에 관한 최신 정보에 접근할 수 없습니다. 여기에는 돼지의 심장을 인간에게 성공적으로 이식하는 것과 같은 획기적인 성과에 대한 지식이나 의학 분야에서 이루어진 기타 주목할 만한 진전에 대한 지식이 포함됩니다.
ChatGPT가 잘못된 정보를 생성할 수 있음
ChatGPT는 사용자의 질문에 답변할 수 있지만, 답변이 부정확하거나 편향적일 수 있습니다. PLoS Digital Health 연구에 따르면 ChatGPT는 모든 USMLE 시험에서 최소 50%의 정확도로 수행되었습니다. 일부 항목에서는 합격 기준치인 60%를 초과했지만 여전히 오류의 가능성이 있습니다.
따라서 ChatGPT 학습에 활용된 모든 데이터가 검증되고 정확한 것은 아니라는 점에 유의해야 합니다. 이 AI 시스템에서 생성된 응답에는 편견이 있거나 신뢰성이 부족한 출처에서 비롯된 잘못된 정보가 포함될 수 있으며, 이는 정확성이 가장 중요하고 부주의로 인해 사망 등 심각한 결과를 초래할 수 있는 의료와 같은 영역에서 오래된 정보 또는 잘못된 정보를 제공하는 등의 잠재적인 결과를 초래할 수 있습니다.
ChatGPT는 자율적으로 정보를 조사하거나 검증할 수 없으므로 진실과 거짓을 구분할 수 없습니다. 이러한 한계는 기존 데이터와 알고리즘에만 의존하여 응답을 생성하기 때문에 설계에 내재되어 있습니다. 사람의 감독과 검증에 대한 의존도는 JAMA와 같은 저명한 의학 출판물에서 제시하는 가이드라인에 의해 더욱 강조되는데, 이 가이드라인은 저널에 게재되는 논문에는 인간 저자만 기고할 수 있도록 규정하고 있습니다. 이러한 제약을 고려할 때 사용자는 엄격한 사실 확인 조치를 통해 ChatGPT 결과의 정확성을 지속적으로 평가할 것을 권장합니다.
ChatGPT는 사용자를 물리적으로 검사하지 않음
의학적 상태의 판단은 주관적인 증상에만 국한되지 않습니다. 의료 전문가는 환자의 신체 평가를 통해 질병의 본질과 정도에 대한 귀중한 이해를 얻을 수 있습니다. 현재 환자를 진단하는 과정에는 의료 기술과 고전적인 오감의 활용이 모두 포함됩니다.
ChatGPT는 종합적인 신체 검사를 수행하거나 가상 상담을 통해 의학적 평가를 제공할 수 없다는 점에 유의하는 것이 중요합니다. 사용자가 설명하는 증상에 반응할 수는 있지만, 이 정보만으로는 신뢰할 수 있는 진단을 내리기에는 불충분합니다. 신체 검사가 이루어지지 않으면 오진이나 필수 진단 절차가 소홀해질 위험이 높아지며, 이는 잠재적으로 환자의 건강에 악영향을 미칠 수 있습니다. 따라서 가능하면 항상 자격을 갖춘 의료 전문가의 철저한 대면 검진을 받아야 합니다.
ChatGPT는 잘못된 정보를 제공할 수 있음
메릴랜드 대학교 의과대학 에서 유방암 검진에 대한 ChatGPT의 조언에 대한 최근 연구 에서 다음과 같은 결과를 발견했습니다:
메릴랜드대학교 의과대학 진단방사선과 및 핵의학과 부교수인 폴 이(Paul Yi, M.D.)는 이전의 경험에 비추어 볼 때 ChatGPT가 자신의 주장을 뒷받침하기 위해 가상의 학술지나 보건 기관을 만들어내는 경향이 있다고 밝혔습니다.
ChatGPT는 무의식이라는 주제를 다룬 사실적인 텍스트 모음을 요청하는 등 일련의 실험을 거쳤습니다. 이 과정에서 구스타프 쿤 박사가 저술한 “무의식의 힘”이라는 제목의 인위적인 출판물을 만들어냈지만, 이는 본질적으로 허위임이 밝혀졌습니다.
이 출판물의 성격에 대해 문의한 결과, 해당 단체는 자체적으로 제작한 가상의 책이라고 알려왔습니다.ChatGPT는 특별히 자세한 내용을 요청하지 않는 한 학술 논문이나 책의 진위 여부에 관한 어떠한 정보도 공개하지 않는다고 밝혔습니다.
ChatGPT는 AI 언어 모델일 뿐
언어 모델의 작동은 환자의 신체 상태를 평가하는 대신 이전에 학습한 텍스트 데이터의 저장 및 적용을 기반으로 합니다. 이러한 모델은 인간을 모방한 언어적으로 건전한 반응을 생성할 수 있지만 다른 인공 지능 프로그램에서 발견되는 것과 유사한 몇 가지 결함을 여전히 나타냅니다.
ChatGPT는 의사를 대체할 수 없습니다
의료 서비스는 인간 의사가 가장 잘 관리하며, 의사의 전문 지식은 최종 진단 및 치료 계획을 세우는 데 필수적인 요소로 남아 있어야 합니다. 의학적 조언을 구할 때는 ChatGPT의 권고에 따라 자격을 갖춘 의료 전문가와 상담하는 것이 좋습니다.
인공지능 기반 도구인 ChatGPT는 의료 상담 예약, 환자 치료 촉진, 건강 기록 관리에 활용될 수 있습니다. 그러나 의사의 전문적인 판단과 정서적 지원을 대체하기에는 역량이 부족합니다.
자신의 신체적 또는 정신적 건강을 진단하거나 관리하기 위해 인공지능 기반 의료기기를 과도하게 신뢰하지 않는 것이 바람직합니다.