빠른 링크
주요 내용
구글은 최근 Gemini 1.5로 알려진 광고 플랫폼의 업데이트 버전을 출시했으며, 이는 Claude 및 ChatGPT와 같은 시장의 다른 유사한 도구와 차별화되는 놀라운 기능을 자랑합니다. 특히, 이 새로운 버전에는 100만 개의 토큰 컨텍스트 창이 추가되어 보다 포괄적인 분석과 더 나은 타겟팅 광고 캠페인이 가능해졌습니다.
확장된 컨텍스트 프레임워크는 머신러닝 알고리즘의 효율성을 크게 향상시키면서 오산을 최소화할 수 있지만, 그렇다고 해서 반드시 성과를 보장하지는 않습니다.
Gemini 1.5에서 더 넓은 컨텍스트 창을 구현하면 정확도를 크게 높이고 실수를 최소화하며 이해도를 심화할 수 있는 잠재력이 있습니다.
Google의 Gemini 플랫폼의 최신 버전인 1.5 버전은 ChatGPT, Claude 및 기타 다양한 AI 기반 챗봇과 같은 경쟁사의 기능을 능가하는 인상적인 100만 개의 토큰 컨텍스트 창을 자랑합니다.
제안된 개선 사항은 상당한 발전을 의미하는 것으로 보이며, 이는 Gemini를 다른 시스템과 차별화할 수 있는 잠재력을 가지고 있습니다. 이 개선 사항의 전체 범위를 이해하는 데는 몇 가지 어려움이 있을 수 있지만, Gemini의 확장된 컨텍스트 창이라는 개념은 흥미롭고 잠재적으로 가상 비서의 환경을 변화시킬 수 있습니다.
컨텍스트 창이란 무엇인가요?
AI 모델은 아이디어를 설명하거나 구절을 압축하는 등 사용자 문의를 처리할 때 미리 정해진 제약 조건이 있어 답변을 생성하는 동안 고려할 수 있는 정보의 양이 제한됩니다. 검토할 수 있는 텍스트의 범위와 관련된 이러한 제한을 ‘문맥 창’이라고 합니다.
고려해야 할 또 다른 관점으로는 쇼핑 목록 없이 슈퍼마켓을 방문하는 경우를 들 수 있습니다. 이 시나리오에서는 쇼핑 과정에서 기억하는 범위가 “맥락 창”을 나타냅니다. 기억을 떠올릴 수 있는 용량이 클수록 구매 결정에서 오류를 피할 수 있는 가능성이 높아집니다. 따라서 인공지능 시스템의 컨텍스트 윈도우 크기는 사용자에게 최적의 결과를 제공하는 데 필요한 모든 필수 정보를 보유하는 능력과 직접적인 관련이 있습니다.
Anthropic의 클로드 2.1은 현재 널리 사용되는 인공지능 모델 중 가장 넓은 컨텍스트 창을 자랑하며, 그 크기는 20만 토큰에 달합니다.반면, GPT-4 Turbo는 128만 개의 토큰으로 약간 더 작은 창을 제공합니다. 하지만 최근 구글은 기존 제품보다 크게 개선된 전례 없는 100만 개의 토큰 컨텍스트 창을 제공하는 Gemini 1.5를 곧 출시할 예정이라고 발표했습니다. 그럼에도 불구하고 이러한 대규모 컨텍스트 윈도우의 중요성은 여전히 불분명하며, 그 실제 가치와 AI 성능에 미치는 잠재적 영향에 대한 추측이 이어지고 있습니다.
Gemini 1.5의 컨텍스트 창이 중요한 이유
기본적으로 클로드 AI는 약 15만 단어로 구성된 책 전체를 쉽게 처리할 수 있는 인상적인 200만 개의 컨텍스트 창을 자랑합니다. 이는 의심할 여지 없이 놀라운 성과입니다. 반면에 구글의 제미니 1.5는 최대 70만 개의 단어를 동시에 처리할 수 있는 엄청난 용량을 보유하고 있습니다.
ChatGPT나 Gemini와 같은 AI 챗봇이 ‘컨텍스트 창’이라고 하는 대량의 입력 데이터를 처리할 수 있는 범위는 기본 모델의 용량에 따라 제한될 수 있습니다. 따라서 대화가 이 한도를 초과하여 봇이 정확한 응답을 제공하기 위해 전체 대화 내용을 다시 참조해야 하는 경우 효과적인 수행에 어려움을 겪을 수 있습니다.
시네마틱 작품의 전체 시간 중 일부만 본 후 종합적인 요약을 제공하려고 하면 불완전하고 오해의 소지가 있는 내러티브 설명이 될 가능성이 높습니다. 이 시나리오는 문맥 이해가 부족하고 지식 기반이 제한되어 있어 정확한 인사이트를 제공하지 못하는 인공지능 챗봇의 한계와 유사합니다. 따라서 이러한 시스템에서 생성되는 출력은 정보에 기반한 분석보다는 추측에 의한 추측을 특징으로 하는 일종의 ‘환각’과 유사할 수 있습니다.
응답을 생성하기 위해 AI 모델을 활용할 때는 대화의 더 넓은 맥락을 고려하는 것이 필수적입니다. 이러한 모델은 대화의 전체 맥락을 고려하여 적절하고 충분한 정보를 바탕으로 답변을 제공합니다. 이러한 접근 방식은 단순히 많은 양의 데이터를 시스템에 입력하는 것을 넘어 시스템이 작동하는 더 큰 대화 프레임워크를 포괄합니다.
단일 세션 내에서 여러 응답을 주고받는 등 소규모로 AI 언어 모델과 대화하는 경우에도 이러한 상호 작용의 축적은 “컨텍스트 창”을 구성하는 데 기여합니다. 이는 시스템이 과거의 대화 내용을 기억하고 참조할 수 있게 해주는 메커니즘입니다. 그러나 이 메모리 용량의 한계를 초과하여 모델이 이전에 논의된 주제를 간과하는 것처럼 보이는 경우가 있을 수 있습니다.
주변 상황에 대한 깊은 이해가 필요한 작업을 처리할 때 광범위한 문맥 참조 프레임의 활용은 가장 중요한 의미를 갖습니다. 예를 들어, 긴 문서를 간결하게 요약하거나, 복잡한 문의에 답하거나, 생성된 담화 내에서 매끄러운 내러티브를 유지하는 것 등은 모두 광범위한 문맥 창이 중추적인 역할을 하는 예입니다. 5만 단어에 달하는 방대한 양의 문학 작품을 작성하는 동시에 스토리라인의 일관성을 유지하는 것이 목표라면 더 넓은 문맥 창을 갖춘 언어 모델을 사용하는 것이 필수적입니다. 또한 1시간 분량의 동영상 파일에서 제기된 쿼리를 해석하고 응답할 수 있는 모델을 원한다면 다시 한번 더 광범위한 컨텍스트 창이 필수적입니다.
간단히 말해, Gemini 1.5에서 제공하는 확장된 컨텍스트 창은 인공 지능 모델의 성능을 크게 향상시켜 환각을 줄이고 정확도와 지침 준수 능력을 모두 개선할 수 있는 잠재력을 가지고 있습니다.
제미니 1.5는 기대에 부응할까요?
Gemini 1.5는 계획대로 개발이 진행된다면 성능 면에서 현재의 모든 AI 모델을 능가할 잠재력을 가지고 있습니다. 하지만 신뢰할 수 있는 AI 시스템을 만들려고 시도했다가 실패한 구글의 전력을 고려할 때 신중할 필요가 있습니다. 단순히 모델의 컨텍스트 창을 늘린다고 해서 성능이 향상되는 것은 아닙니다.
출시 후 오랜 기간 동안 Claude 2.1의 200만 컨텍스트 윈도우를 활용하면서, 윈도우 확대를 통해 컨텍스트 감도를 높이는 것이 특정 측면에서는 유리할 수 있지만, 기본 핵심 모델 내의 결함이 궁극적으로 지나치게 확장된 컨텍스트 범위와 관련된 문제를 악화시킬 수 있다는 사실을 깨닫게 되었죠.
구글 제미니 1.5가 판도를 바꿀 수 있을까요? 현재 소셜 미디어에는 Gemini 1.5에 대한 얼리 액세스 사용자들의 호평이 가득합니다. 하지만 대부분의 별점 5점 리뷰는 급하게 작성되거나 단순화된 사용 사례에서 비롯된 것입니다. Gemini 1.5의 실제 성능을 확인하려면 Google의 Gemini 1.5 기술 보고서 [PDF]를 참조하세요. 이 보고서에 따르면 ‘통제된 테스트’ 중에도 모델이 컨텍스트 창 크기 내에서 문서의 작은 세부 사항을 모두 검색하지 못하는 것으로 나타났습니다.
100만 개의 토큰 컨텍스트 창을 달성하는 것은 분명 놀라운 기술력을 보여주는 것이지만, 주어진 텍스트에 대한 정확한 정보를 일관되게 제공할 수 없다면 그 유용성은 떨어집니다. 실제로 이러한 불완전성은 생성된 응답의 정확성을 떨어뜨리고 부당한 추측을 초래할 수 있습니다.