생성형 인공지능(AI)은 특정 맥락에서 점점 더 관련성이 높아지고 있지만, 소셜 미디어라는 특정 영역에서 그 존재감이 커지고 있다는 사실은 의외로 다가올 수 있습니다. 이 영역에는 개인정보 보호와 사용자 이익 문제가 포함되며, 이것이 바로 소셜 플랫폼이 생성형 AI를 우선시해서는 안 된다고 생각하는 이유 중 하나입니다.

1 대부분의 일반 사용자는 생성형 인공지능을 사용하고 싶지 않을 것이다

ChatGPT와 마이크로소프트 코파일럿이 생성형 인공지능을 대중화했지만, 많은 사람들이 소셜 미디어 상호작용을 위한 도구로 이를 활용하지는 않을 것으로 보입니다. 지인이나 가족 등 개인적인 관계에 대한 관찰에 따르면 이러한 기술은 주로 학업 지원, 문의에 대한 솔루션 제공 및 기타 유사한 목적으로 사용됩니다.

메타 AI를 사례로 살펴볼 수 있습니다. 이 플랫폼에서는 면접 준비, 인공 지능 아트 생성 등의 기능을 사용할 수 있습니다. 그러나 개인적인 선호도를 고려할 때, 저는 이러한 목적으로 Facebook을 사용하지 않을 것이며, 따라서 기능의 특정 측면은 불필요한 것으로 보입니다.

챗봇이 유용성을 가질 수 있다고 주장할 수 있지만, 챗봇의 잠재적인 단점에 대해서는 나중에 설명하겠습니다.

2 진정성을 제거할 수 있는 생성형 AI

소셜 미디어 플랫폼이 항상 진정성을 보장하지는 않지만, 소셜 미디어를 활용하면 자신의 생각과 감정을 즉각적으로 전달할 수 있다는 이점이 있습니다. 실제로 트위터에서 근무하는 동안 저는 떠오르는 생각을 신속하게 전파하는 데 큰 즐거움을 느꼈습니다.

고급 생성 인공지능은 문법적 실수를 최소화하여 소셜 미디어 콘텐츠 제작을 향상시키는 동시에 창의성을 위한 새로운 길을 열어줄 수 있는 잠재력을 가지고 있습니다. 하지만 참여 유도 마케팅에 사용될 가능성으로 인해 소셜 플랫폼과의 통합에 대한 우려도 있습니다.또한, 이미 다양한 소셜 미디어 플랫폼에서 진실과 허구의 구분이 모호해지고 있는 환경에서 AI의 사용은 진실과 허구의 경계를 더욱 모호하게 만들 수 있습니다.

3 더 나은 생성형 AI 도구 존재

과거에 저는 소셜 미디어 플랫폼이 모든 새로운 기술에 적응하려고 하기보다는 한 가지 측면에 집중했으면 좋겠다고 말한 적이 있습니다. 이러한 현상은 숏폼 동영상 콘텐츠의 등장으로 분명해졌으며, 최근에는 인공지능을 통해 이러한 현상이 복제되는 것을 목격하고 있습니다. 그러나 각 TikTok 모방 업체가 오리지널 플랫폼의 본질을 재현하는 데 실패한 것처럼, 소셜 미디어 기업도 ChatGPT와 같은 플랫폼과 경쟁할 수 없다고 생각합니다.

이 글도 확인해 보세요:  창의적인 직업도 AI로부터 안전하지 않은 이유

정보를 수집하거나 시각적 콘텐츠를 생성하는 데 생성형 인공지능을 활용하기 위해 저는 페이스북이나 인스타그램과 같은 플랫폼 방문을 자제하고 있습니다.ChatGPT의 효과에 대한 확신으로 인해 현재 가장 신뢰할 수 있고 유능한 도구라고 믿으며 구독을 유지하고 있습니다. Meta AI와 같은 대체 옵션이 무료로 제공되더라도 저는 대신 ChatGPT의 무료 반복을 선택할 것입니다.

생성 인공지능을 활용하면 디지털 플랫폼에 대한 사용자 참여가 확대될 수 있지만, 이러한 장기간의 상호작용이 의미 있거나 보람 있는 경험으로 이어질지는 불확실합니다.

메타 인공지능을 비활성화하는 것은 불가능할 수 있지만, 뮤트하는 것은 사용자가 선택할 수 있는 옵션입니다. 메타 AI를 뮤트하는 데 관심이 있는 사용자를 위해 이 과정에 필요한 단계를 간략하게 설명하는 종합 가이드를 준비했습니다.

4 잠재적인 개인정보 보호 영향

소셜 미디어 플랫폼에서의 개인정보 보호 문제는 악명 높은 케임브리지 애널리티카의 사례에서 알 수 있듯이 새로운 문제가 아닙니다. 또한 인공 지능은 시간이 지남에 따라 더욱 심화될 수 있는 개인정보 보호 문제를 제기합니다. 사실, 생성형 인공지능의 등장으로 이러한 위험이 더욱 악화될 가능성도 있습니다. 오픈 소스 챗봇이 운영 과정에서 민감한 백엔드 정보를 실수로 노출하는 경우가 그러한 사례 중 하나입니다.

개인은 Copilot이나 ChatGPT와 같은 애플리케이션 내에서 인공지능 기반 대화 에이전트의 활용을 잘 받아들일 수 있지만, 소셜 네트워킹 플랫폼의 영역에서는 불안감이 높아지는 경향이 있습니다. 특정 개인 데이터가 다른 맥락에서 인공지능 챗봇과 상호 연결되기는 하지만, 이러한 연결의 범위는 소셜 미디어 플랫폼에 존재하는 것과 비교하면 그 정도가 미미합니다.

오늘날의 환경에서 정보 보안을 유지하는 것이 걱정되신다면 걱정하지 마세요. 인공지능의 부상 속에서 개인정보를 안전하게 보호할 수 있는 몇 가지 권장 사항을 정리했습니다.

5 잘못된 정보를 확산시킬 수 있는 인공지능

2016년 미국 대통령 선거와 코로나19 팬데믹의 전 세계적 확산은 소셜 미디어에만 의존해 정보를 전파할 때 발생할 수 있는 함정을 가슴 아프게 일깨워줍니다. 트위터나 페이스북과 같은 플랫폼이 잘못된 정보와 관련된 문제로 어려움을 겪어왔다는 것은 잘 알려진 사실이며, 이는 인공 지능 기술의 등장으로 인해 더욱 악화될 수 있습니다.

이 글도 확인해 보세요:  트위터 블루를 구독하지 말아야 하는 5가지 이유

인공지능 시스템은 과거에 허위 정보 유포로 인해 비판에 직면한 적이 있습니다. 예를 들어, 2024년 4월에는 NBA 선수 클레이 톰슨이 기물 파손 행위에 연루되었다고 잘못 주장한 Grok AI에 대한 혐의가 제기된 바 있습니다.

사용자에게 정보 확인에 대한 책임을 묻는다는 개념에 대해서는 많은 논쟁이 있을 수 있지만, 소셜 미디어를 사용하는 많은 사람들이 그러한 작업을 수행하지 않을 가능성이 높다는 현실을 인정하는 것이 중요합니다. 따라서 이는 소셜 미디어 플랫폼이 운영 과정에서 해결하고 고려해야 할 유효한 문제입니다.

인터넷상의 허위 정보에 대응하기 위해 보다 적극적인 접근 방식을 채택하고자 한다면, 소셜 플랫폼에서 조작된 뉴스 기사에 대응하는 전략에 대한 첨부된 튜토리얼을 검토해 보시기 바랍니다.

6 대부분의 사용자는 생성 인공지능 사용법을 모름

ChatGPT와 같은 도구를 사용한 실험을 통해 생성 인공지능의 복잡성이 밝혀졌습니다. 이 과정은 단순히 프롬프트를 제공하는 것으로 끝나는 것이 아니라 만족스러운 결과를 얻기 위해 관련 세부 사항을 신중하게 지정하는 등 수많은 반복을 통해 세밀하게 다듬어야 합니다.

시간이 지남에 따라 인공지능의 발전은 의심할 여지없이 개선되겠지만, 대다수의 사용자가 생성 AI를 최대한 활용할 수 있을지는 여전히 불확실합니다. 또한 이러한 기술을 사용하는 것이 수동으로 콘텐츠를 제작하는 것보다 더 많은 노력이 필요하다고 인식하는 사람들도 있을 수 있습니다.

인기 소셜 미디어 플랫폼의 근본적인 측면은 광범위한 사용자층을 확보하고 있다는 점이며, 따라서 일반 사용자들이 제너레이티브 인공지능에 어느 정도 친숙해져야 널리 채택될 수 있습니다.

생성 인공지능을 활용하는 데는 부인할 수 없는 가치가 있지만, 저는 소셜 미디어 플랫폼이 상당한 수익을 내지 못하는 방향으로 상당한 자원을 소비하고 있을 수 있다고 생각합니다. 그 대신, 저는 이러한 플랫폼이 기본 서비스와 기능을 향상시키는 데 더 많은 관심을 기울이는 것이 더 나은 서비스를 제공할 수 있다고 생각합니다. 이들이 생성 AI에 대한 연구를 계속 진행하기 위해서는 내재적인 한계도 해결해야 할 것입니다.

By 최은지

윈도우(Windows)와 웹 서비스에 대한 전문 지식을 갖춘 노련한 UX 디자이너인 최은지님은 효율적이고 매력적인 디지털 경험을 개발하는 데 탁월한 능력을 발휘합니다. 사용자의 입장에서 생각하며 누구나 쉽게 접근하고 즐길 수 있는 콘텐츠를 개발하는 데 주력하고 있습니다. 사용자 경험을 향상시키기 위해 연구를 거듭하는 은지님은 All Things N 팀의 핵심 구성원으로 활약하고 있습니다.