인공 지능 분야가 어지러울 정도로 빠른 속도로 발전하고 있는 가운데, 새로운 경쟁자가 이 분야에 뛰어들 태세를 갖추고 있습니다. 기술 분야의 억만장자 엘론 머스크가 제안한 AI 챗봇인 TruthGPT가 온라인에서 많은 화제를 불러일으키고 있습니다.
하지만 TruthGPT란 무엇일까요? 엘론 머스크는 왜 이 챗봇을 만들려고 할까요? 그리고 우리가 이미 가지고 있는 AI 도구와 어떻게 다를까요?
TruthGPT란 무엇인가요?
TruthGPT는 진실과 안전에 특히 중점을 두고 ChatGPT 및 Bard와 같은 기존 모델의 문제점을 해결하기 위해 제안된 AI 모델입니다. 엘론 머스크에 따르면, TruthGPT는 우주의 본질을 이해하고 인간을 우주의 중요한 구성 요소로 보기 때문에 인류를 파괴할 가능성이 낮은 “최대한의 진실을 추구하는” AI가 될 것이라고 합니다.
최대 진리 추구 AI? 우주의 본질을 이해하나요?
머스크의 설명이 정확히 무엇을 만들려고 하는지 명확하지 않더라도 용서할 수 있습니다. 하지만 애초에 왜 우주선을 만들려고 하는지 살펴보면 그가 무슨 말을 하는지 더 잘 이해할 수 있을 것입니다.
엘론 머스크는 왜 트루스GPT를 구축할까요?
폭스 뉴스 과의 인터뷰에서 Elon Musk는 사람들이 정보를 얻기 위해 점점 더 의존하고 있는 새로운 도구인 AI 챗봇을 통해 거대 AI 기업이 편견과 허위 정보를 퍼뜨릴 수 있다는 우려를 표명했습니다. 또한 엘론 머스크는 AI가 인류에 미치는 위협에 대해 언급하며 AI 시스템이 우리의 일상생활을 통제할 수 있는 시나리오인 AI 종말의 가능성을 강조했습니다.
엘론 머스크는 AI 안전과 허위 정보 방지를 위해 충분한 노력을 기울이지 않는 OpenAI와 Google과 같은 기업을 지적하며, 제3의 세력인 TruthGPT를 제안했습니다. SpaceX와 Tesla의 CEO인 머스크는 구글의 Bard와 OpenAI의 ChatGPT에 대항할 수 있는 TruthGPT를 만들고자 합니다. 이 아이디어는 제공하는 정보에서 가능한 한 진실성을 유지하려고 노력하는 AI 모델을 만드는 것입니다.
최근 강력한 AI 모델(특히 GPT-4보다 더 강력한 모델)의 개발을 중단할 것을 촉구하는 공개 서한을 작성한 엘론 머스크는 AI가 너무 빠르게 움직이고 있다고 생각합니다. 그는 AI가 “통제권을 장악”하기 전에 속도를 늦추고 AI 안전에 대한 접근 방식을 재평가해야 한다고 믿습니다. TruthGPT는 오늘날의 AI 시스템에서 이 두 가지 핵심 문제를 해결할 수 있는 대규모 언어 모델(LLM)입니다.
TruthGPT는 어떤 모습일까요?
TruthGPT가 어떻게 생겼는지에 대한 첫 번째 힌트는 이름에서 찾을 수 있습니다. “GPT”가 붙는 것을 고려할 때, TruthGPT는 ChatGPT와 유사한 아키텍처를 가질 가능성이 높습니다. 엘론 머스크는 OpenAI와 ChatGPT의 GPT 모델을 구축한 팀을 구성하는 데 도움을 주었다는 사실을 기억하세요.
또한 GPT의 아키텍처가 기술적, 상업적 성공을 거둔 것으로 입증된 만큼 다른 경로를 추구하는 것은 시간과 비용이 너무 많이 소요될 가능성이 높습니다. 엘론 머스크가 최대한 빠른 시일 내에 최첨단 AI와 대등하게 맞설 수 있는 무언가를 만들려면 시간이 부족할 수밖에 없습니다. 따라서 너무 과대포장하지 마세요. 트루스GPT는 우리가 이미 사용하고 있는 AI 도구와 크게 다르지 않을 수 있습니다.
AI 모델의 정확도, 즉 엘론 머스크의 용어로 ‘진실성’은 학습 데이터와 학습 알고리즘에 따라 크게 달라집니다. TruthGPT의 학습 데이터가 어떻게 조달되는지는 정확히 알 수 없지만, 가능한 한 “진실한” LLM을 구축할 수 있는 최상의 기회를 얻으려면 Elon Musk의 TruthGPT는 “진실한 출처”의 데이터를 우선순위에 두어야 할 것입니다. 하지만 이것이 바로 문제입니다. 진실은 매우 주관적인 개념입니다. 저에게 진실인 것이 여러분에게는 진실이 아닐 수도 있습니다.
그렇다면 최대한의 진실을 추구하는 AI라는 아이디어가 과연 실용적일까요?
TruthGPT 구축이 큰 도전인 이유
GPT와 같은 대규모 언어 모델이 어떻게 작동하는지 이해하면 항상 정확하다는 것이 비현실적이라는 것을 알 수 있습니다. 일반적으로 인터넷 데이터의 대규모 데이터 세트에 대해 학습하는 경우, 그 중 상당수는 예상대로 잘못된 정보일 수 있으며, LLM은 사실과 허구를 구분할 수 있는 비활성화된 방법이 없습니다.
가장 좋은 개입은 일반적으로 언어 모델에 무엇이 좋은 행동이고 무엇이 나쁜 행동인지 가르치려고 하는 인간 트레이너의 개입입니다. 하지만 인간 트레이너는 편견이 있습니다. 편견은 AI 모델에 전달되어 “최대한의 진실을 추구하는 AI”의 전체 목적을 무력화시킵니다. 여기서 말하는 편견은 특정 사람이나 다른 사람에 대한 노골적인 편견이나 편견을 말하는 것이 아닙니다. 언어, 상황, 과제 등을 해석하는 방식에 대한 보다 미묘한 편견이 프로세스에 스며든다는 것입니다. 결국 인간은 인간이니까요.
물론 정확도는 알고리즘 측면에서도 다룰 수 있습니다. 하지만 알고리즘과 상관없이 언어의 모호성은 여전히 AI 모델의 정확성에 큰 문제가 되고 있습니다. 인간조차도 문장이나 구의 의미를 정확하게 해석하는 데 어려움을 겪을 때가 많으며, 이는 잘못된 정보로 이어집니다. AI 모델의 경우 모호성은 잘못된 해석으로 이어져 부정확한 결과를 초래할 수 있습니다.
머스크에게 TruthGPT는 진실을 전달하는 데 적합한 AI 모델을 구축할 수 있는 기회로 보입니다. 자신의 편견을 도입하지 않고 어떻게 그렇게 할 수 있을지는 완전히 다른 질문이며, 효과적으로 대화의 시작점으로 돌아갑니다. 무엇이 편향된 것인지 아닌지에 대한 머스크의 의견은 ChatGPT를 훈련하고 감독한 사람들과 어떻게 다를까요?
TruthGPT는 흥미로운 가능성인가?
엘론 머스크의 TruthGPT 계획은 고귀하고 칭찬할 만해 보입니다. 그러나 부정확성 발생률이 미미한 AI 모델을 구축하는 것은 어려운 작업입니다.
로켓 과학을 이해한 기술 억만장자가 이런 종류의 일을 해낼 수 있으리라 기대하지만, 말처럼 쉬운 일도 있습니다.