콘텐츠 제작에 ChatGPT를 활용하는 것은 그 효율성으로 인해 콘텐츠 제작자들 사이에서 인기가 높아졌지만, 다른 첨단 기술과 마찬가지로 인공지능 언어 모델의 오용 가능성도 고려해야 합니다.
인공지능을 경솔한 목적으로 활용할 경우 법적 문제, 부정적인 평판, 부정확한 결과 등 심각한 결과를 초래할 수 있으므로 잠재적 영향을 과소평가해서는 안 됩니다. 이러한 함정을 피하기 위해 콘텐츠 제작자가 ChatGPT를 사용할 때 흔히 사용하는 부적절한 관행에 대해 자세히 알아보겠습니다.
ChatGPT에 지나치게 의존하지 마세요
ChatGPT의 첫 사용자는 이전에는 오랜 시간이 걸리던 작업을 이제 놀라울 정도로 신속하게 수행할 수 있기 때문에 그 속도에 감탄하게 될 것입니다. 계속 사용하면 이 플랫폼에 대한 의존도가 점점 더 높아져 조사나 문의 없이도 사소한 조정이 이루어질 수 있습니다.
이러한 현상을 AI에 대한 과도한 의존이라고 하며, 빠르게 결과물을 만들어야 하는 크리에이터에게는 유혹적인 길일 수 있습니다. 그러나 AI 과의존에 대한 Microsoft의 문헌 검토 에서는 AI에 지나치게 의존하면 잘못된 결과를 받아들일 수 있다고 경고합니다.
CNET 논란을 예로 들어보겠습니다. CNET은 “CNET 머니 스태프”라는 별 볼일 없는 바이라인으로 AI가 작성한 금융 설명 기사를 게시했습니다. 안타깝게도 미래주의 은 AI가 작성한 기사에서 눈에 띄는 오류를 발견했습니다. 이 매체는 끔찍한 재정 조언을 게시하고 값싼 콘텐츠를 대량 생산하여 수익을 위해 구글 검색 결과를 조작하는 행태를 고발했습니다.
CNET이 처한 곤경의 정확한 원인은 확실하지 않지만, 인공지능에 대한 과도한 의존과 인공지능의 능력에 대한 부당한 신뢰의 희생양이 되었을 가능성이 있습니다. 이번 사태는 인공지능 시스템의 자동화된 결과물을 지나치게 신뢰하는 것에 대한 경각심을 일깨우는 계기가 될 것입니다.
ChatGPT는 오래된 정보를 제공할 수 있다는 점에 유의하시기 바랍니다. ChatGPT의 지식 차단 시점은 2021년 9월로 가장 최근이지만, 이를 통해 얻은 정보는 항상 확인하는 것이 좋습니다.
OpenAI의 CEO인 샘 알트먼은 ABC 뉴스 비디오 인터뷰 에서 사용자가 ChatGPT의 “환각 문제”에 대해 더 주의해야 한다고 언급하기도 했습니다. 지어낸 아이디어를 사실인 것처럼 자신 있게 말할 수 있습니다. CNET과 같은 단 한 번의 사건으로 인해 신뢰할 수 있는 출처로서의 신뢰도가 손상될 수 있습니다.
특히 그 타당성을 면밀히 검토하는 데 필요한 전문 지식이 부족한 경우 ChatGPT의 답변을 맹목적으로 신뢰하게 될 수 있으므로, ChatGPT의 결과를 받아들이는 것은 신중하게 이루어져야 합니다. 또한 개인은 ChatGPT의 답변이 자신의 선입견과 일치하는 경우 다른 견해를 찾는 것을 간과할 수 있으며, 이는 잠재적으로 부적절한 결정으로 이어질 수 있습니다. 이러한 곤경을 피하기 위해서는 사실을 확인하고, 다양한 관점을 모색하고, 전문가의 조언을 구하는 것이 필수적입니다.
콘텐츠 제작에 ChatGPT를 활용할 때는 AI로 인한 환각의 개념을 숙지하는 것이 중요합니다. 생성된 콘텐츠의 정확성과 신뢰성을 보장하기 위해서는 AI 환각의 사례를 식별하고 진정한 아이디어와 구별할 수 있어야 합니다. AI는 창작 과정을 크게 향상시킬 수 있는 잠재력을 가지고 있지만, 인간의 판단력과 상상력을 완전히 대체해서는 안 됩니다. 오히려 인간의 사고를 보완하고 증강하는 것이 그 목적이 되어야 합니다.
ChatGPT에 리서치 링크를 요청하지 마세요
ChatGPT에 리서치 목적으로 인터넷 링크를 요청하면 제공된 정보가 정확하지 않거나 검색어와 관련이 없을 수 있으므로 만족스러운 결과를 얻을 가능성이 매우 낮습니다.
ChatGPT의 응답 정확도를 평가하기 위해 일련의 테스트를 실시했습니다. 이 특정 평가를 위해, 저희는 성장 소설 작품을 집필한 영국 청년 판타지 작가와 관련된 JSTOR 연구 논문 목록을 AI에 제공하도록 요청했습니다. 이후 ChatGPT는 제목, 권수, 페이지 번호, 저자 등의 세부 정보를 포함한 5개의 리소스를 제공했습니다.
초기 검사 결과, 제공된 목록은 합법적인 것으로 보입니다. JSTOR 논문의 제목은 학문적으로 엄격하며 “하이브리드 정체성 구축”, “샐리 그린의 하프 배드 트릴로지의 인종과 국적” 등의 문구가 포함되어 있습니다. 그러나 Google 검색을 통해 자세히 살펴본 결과, 제공된 링크의 대다수가 잘못되어 오류 페이지 또는 엉뚱한 곳으로 연결되는 것으로 나타났습니다. 또한 링크 중 하나는 전혀 결과를 생성하지 못했습니다.
“ChatGPT에 보다 집중된 주제를 제공하면 성능이 향상되는지 확인하기 위해 실험을 진행했습니다. 지정된 주제는 ‘영국 청년 및 성장 소설 속 여주인공 묘사에 대한 문학적 분석’이었습니다. 이 장르에 속하는 관련 소설에 대한 비평적 분석을 제공해 달라고 요청했습니다.
ChatGPT에서 받은 답변은 작가 이름과 간결한 설명과 함께 5개의 문학 작품 열거였습니다.그럼에도 불구하고 언급된 모든 작품은 부지런한 검색을 통해 온라인에서 찾을 수 없었습니다.
콘텐츠에 대한 더 깊은 이해를 위해 추가 소스 제공을 요청했습니다. 안타깝게도 앞서 언급한 인공지능 언어 모델인 ChatGPT는 인터넷 검색 기능이 탑재되어 있지 않다는 이유로 거절했습니다. 그럼에도 불구하고 일부 참고 문헌 데이터를 제공했지만, 2004년부터 2018년까지의 참고 문헌의 진위 여부는 확인할 수 없었습니다.
ChatGPT는 제공한 정보에 대한 검증 가능한 출처를 제공하라는 요청에도 불구하고 제공을 거부했습니다. 대신 웹 검색 기능이 없는 참고 문헌 목록을 제공했지만 정보가 부정확했습니다.
OpenAI 의 최신 ChatGPT 릴리스 노트에 따르면 이제 웹 브라우징 기능이 있습니다. 그러나 이러한 기능은 아직 모든 사용자에게 배포되지 않았습니다. 또한 TechCrunch 에서 지적한 것처럼 전문가가 검색 엔진 결과를 조작할 수 있기 때문에 ChatGPT의 결과가 반드시 인터넷에서 최고라고 할 수는 없습니다.
이 문제를 피하기 위해서는 다음과 같은 조치를 취해야 합니다:
리서치를 수행할 때 보다 평판이 좋고 신뢰할 수 있는 출처를 활용하는 것을 고려하세요.
⭐ 학술 연구를 위해 출처가 필요한 경우 Google Scholar 또는 AI 연구 도우미인 Elicit 을 확인하세요.
결과를 철저히 평가하고 참고할 결과를 선택할 때 신중을 기해야 합니다.
직장 내 인맥을 ChatGPT로 대체하지 마세요
ChatGPT에 조언을 구하고 대화를 나누다 보면 인간과 같은 자질을 가진 것으로 착각할 수 있습니다. 이는 유용한 제안을 제공하고 대화를 나눌 수 있는 능력 때문일 수 있습니다.
다양한 작업에서 도움을 제공하도록 학습된 AI 언어 모델입니다. 관련 심리 이론과 전략에 대한 이해를 바탕으로 직장 내 스트레스를 관리하고 번아웃을 예방하는 방법에 대한 지침을 제공할 수 있습니다.
ChatGPT가 사람이 작성한 것처럼 보이는 응답을 생성할 수 있지만 이러한 응답은 실제로는 알고리즘 프로세스의 산물이라는 점에 유의해야 합니다. 이 프로그램은 이전 입력과 출력을 분석하여 대화의 다음 토큰이 무엇인지 예측하지만, 이것이 의식이나 자유 의지가 있다는 것을 의미하지는 않습니다.
즉, ChatGPT는 직장에서의 인간 관계와 협업을 대체할 수 없습니다. 하버드 대학교의 일과 웰빙 이니셔티브 에 따르면 이러한 인간관계는 웰빙을 개선하고 직장 스트레스로부터 보호하는 데 도움이 됩니다.
최첨단 기술 기기를 활용하는 기술적 숙련도를 갖추는 것도 중요하지만, 동료와의 원만한 대인관계를 형성하는 것의 중요성을 간과해서는 안 됩니다. 사회적 유대감을 형성하기 위해 ChatGPT와 같은 인공지능 프로그램에만 의존하기보다는 동료들과 효과적으로 소통하고 협업에 가장 적합한 사람을 파악하여 자신의 관계 능력을 개발하고 향상시키는 것이 필수적입니다.
비효율적인 프롬프트 제공 금지
자료를 생성하는 동안 ChatGPT에서 최적의 결과물을 도출하는 데 어려움을 겪는 이유는 적절한 지침이 부족하고 컨텍스트가 불충분하기 때문일 수 있습니다. 그러나 구체적인 지침과 컨텍스트를 제공함으로써 플랫폼의 기능을 효율적으로 활용하고 원하는 결과를 얻을 수 있습니다.
아래 예시에서는 해커눈 에 대한 Eric Allen의 흥미로운 블로그를 요약하는 데 ChatGPT의 도움을 요청했습니다. 이 긴 글은 알렌이 ChatGPT에서 AI 프롬프트를 개선하여 BeatBrain이라는 음악 추천 시스템을 만드는 과정을 설명합니다.
Allen의 특정 기사에 익숙하지 않았지만, 링크를 제시하고 요약 요청을 받았을 때 ChatGPT는 잠시 정확도가 떨어지는 경험을 했으며, 이는 GPT-3 기술을 활용하여 AI로 제작된 음악을 생성하는 회사 BeatBrain의 설립자가 앞서 언급한 개인이 아닌 실제로 Allen 씨라는 것을 나타냅니다.
여러 부분으로 구성된 접근 방식을 활용하여 텍스트의 일부를 복사하여 붙여넣고 각 저온 살균 후 간결한 요약문을 요청하는 방식으로 ChatGPT를 용이하게 만들었습니다. 특정 사례에서 ChatGPT는 요약이 아닌 발언을 제공했지만 다른 쿼리로 안내하여 작업을 정확하게 완료할 수 있도록 했습니다.
본 사례는 길고 전문적인 내용을 요약하기 위한 목적으로 ChatGPT 활용에 대한 숙련도를 습득하기 위해 수행을 통해 학습하는 연습으로 구성되었습니다. ChatGPT를 사용하는 능력을 향상시키는 데 도움이 되는 다양한 온라인 리소스가 있지만, 본 실습을 통해 실제로 그 과정을 익힐 수 있었습니다.
제안된 프롬프트를 활용한다고 해서 환각에 대한 면책이 보장되는 것은 아니지만, 그럼에도 불구하고 신뢰할 수 있는 결과를 도출하는 데 도움이 될 수 있습니다. 또한, 깃허브에서 제공되는 가장 효과적인 ChatGPT 프롬프트를 숙독하면 성공적인 프롬프트 사례에 대한 추가 인사이트를 얻을 수 있습니다.
ChatGPT 기능을 최대한 활용하되, 한계에 유의하세요
ChatGPT는 비교할 수 없는 수준의 편의성과 실용성을 제공하지만, 이를 활용하려면 신중함과 책임감이 필요합니다. ChatGPT에 지나치게 의존하면 출력의 정확성과 효율성이 저하될 수 있으므로 이를 피해야 합니다. 대신 다른 연구 도구로 사용법을 보완하고, 작업 그룹 내에서 대인 관계를 강화하고, 효과적인 프롬프트를 만드는 기술을 습득하여 ChatGPT가 제공하는 이점을 최대한 활용해야 합니다.
ChatGPT는 신중하게 사용해야 하는 강력한 도구입니다. 그 기능을 인식하고 감사하는 동시에 제약 조건도 인정하는 것이 중요합니다. 약점을 피하면서 강점을 활용하면 노력의 전반적인 가치를 향상시키는 의미 있고 상상력이 풍부한 결과물을 만들 수 있습니다.