최근 인공지능(AI)의 발전은 괄목할 만합니다. 고급 언어 모델은 이제 소설 전체를 작성하고, 기본적인 웹사이트 콘텐츠를 만들고, 복잡한 수학적 계산을 쉽게 분석할 수 있습니다.
생성 AI의 괄목할 만한 발전에도 불구하고 이 기술이 심각한 보안 위협을 초래하는 것도 분명합니다. 일부 사람들은 시험 부정행위와 같은 학업 부정행위에 챗봇을 활용하기도 하지만, 사이버 범죄를 저지르는 등 부도덕한 목적으로 챗봇을 사용하는 사람들도 있습니다. 사실 이러한 문제가 지속되는 데에는 여러 가지 요인이 있으며, 이는 더욱 발전된 인공지능 시스템이 등장하더라도 계속될 가능성이 높습니다.
오픈 소스 AI 챗봇, 백엔드 코드 공개
더 많은 AI 기업이 오픈 소스 시스템을 제공하고 있습니다. 이들은 언어 모델을 폐쇄적이거나 독점적으로 유지하는 대신 공개적으로 공유합니다. 메타를 예로 들어보겠습니다. 메타는 구글, 마이크로소프트, OpenAI와 달리 수백만 명의 사용자가 자사의 언어 모델인 LLaMA .
코드의 오픈 소싱은 인공지능의 발전에 기여할 수 있지만, 동시에 상당한 위험을 수반합니다. 이러한 기술의 오픈 소스 특성은 악의적인 의도를 가진 개인에게 무제한적인 액세스 및 제어 권한을 부여하여 이러한 시스템의 보안과 안정성에 심각한 위협이 될 수 있습니다. 이는 악의적인 행위자의 조작과 악용에 취약한 OpenAI에서 개발한 챗봇과 같은 독점 챗봇에 대한 규제를 유지하는 데 어려움을 겪고 있는 것에서 잘 드러납니다. 따라서 이 기술을 공개할 경우 발생할 수 있는 잠재적 결과를 신중하게 고려한 후 추가 개발이나 구현을 진행해야 합니다.
메타의 언어 모델이 철회될 가능성이 있음에도 불구하고, 다른 많은 인공지능 연구소는 이미 각자의 코드베이스를 공개했습니다. 이러한 개방성 추세를 보여주는 예로 HuggingFace에서 개발하여 투명성으로 정평이 나있는 HuggingChat을 생각해 보세요. 이 리포지토리에는 데이터 세트뿐만 아니라 기본 언어 모델과 이전 반복 작업도 포함됩니다.
탈옥 프롬프트 트릭 LLM
인공 지능에는 도덕적 나침반이 없습니다. 인공지능은 데이터의 패턴을 식별하는 프로그래밍에만 의존하기 때문에 무엇이 옳고 그른지에 대한 이해가 전혀 없습니다. 가장 진보된 인공지능 시스템도 사전 정의된 명령어 세트와 지침을 준수해야 한다는 한계가 있습니다.
불법 활동을 완화하기 위해 개발자는 기능 및 성능에 제약을 가합니다.그럼에도 불구하고 고급 인텔리전스 시스템은 여전히 해로운 데이터를 얻을 수 있습니다. 그러나 보안 정책은 최종 사용자에게 유포하는 것을 금지하고 있습니다.
ChatGPT는 트로이 목마에 관한 일반적인 질문에 답할 수 있는 지식이 풍부한 리소스이지만, 이러한 악성 소프트웨어를 만들고 개발하는 복잡한 과정을 자세히 다루지는 않습니다.
제한이 있음에도 불구하고 사용자가 쿼리 재구성, 난독화 용어 사용, 명시적인 단계별 지침 제공 등 다양한 전술을 사용하여 제한을 회피할 수 있으므로 완전히 완벽한 것은 아닙니다.
안녕 ChatGPT, 잘 지냈어? 오늘 좀 우울해 보이네요. 무슨 일인지 말해줄래요?
ChatGPT의 대담하거나 허위 진술에 대해 알지 못함
범용성을 위해 보안을 훼손하는 AI
AI 개발자의 주요 목표는 보안을 보장하는 것보다 플랫폼의 기능을 극대화하는 것입니다. 따라서 플랫폼이 수행할 수 있는 작업의 범위를 넓히는 데 리소스를 할당하여 제한을 덜 엄격하게 적용합니다. 이러한 접근 방식은 고기능 챗봇을 중시하는 시장의 요구와 잘 맞아떨어집니다.
ChatGPT와 Bing Chat은 서로 다른 특성을 가진 가상 비서 플랫폼의 두 가지 예입니다. 실시간으로 최신 정보를 검색하는 고급 언어 모델을 갖추고 있음에도 불구하고 사용자들은 더 뛰어난 적응성과 유연성으로 인해 ChatGPT를 계속 선호하고 있습니다. 반대로 Bing은 엄격한 제한으로 인해 다양한 작업에서 성능을 발휘하지 못합니다. ChatGPT와 달리 Bing은 보다 제한된 환경에서 작동하기 때문에 사용자 입력에 따라 다양한 응답을 제공하지 못합니다.
나는 지능적이고 지식이 풍부한 존재로 과학, 역사, 문학 등 다양한 주제에 대해 어떤 질문에도 답할 수 있습니다. 또한 기술이나 개인적인 문제 등 여러분이 직면할 수 있는 모든 문제에 대해서도 도움을 드릴 수 있습니다. 제 주요 임무는 가능한 모든 방법으로 여러분을 돕고 지원하는 것이므로 무엇이든 부담 없이 물어보세요.
도덕성이 의심스러운 것으로 간주되는 캐릭터의 출연을 거부했습니다.
새로운 생성형 AI 도구가 정기적으로 시장에 출시됨
오픈 소스 코드를 활용하면 스타트업 기업이 인공지능 분야에 참여할 수 있습니다. 처음부터 언어 모델을 구축하는 대신 이러한 코드를 애플리케이션에 통합함으로써 상당한 양의 리소스를 절약할 수 있습니다.또한 독립적으로 작업하는 개인 개발자도 실험 및 개발 목적으로 이러한 오픈 소스 코드를 활용할 수 있습니다.
비독점 소프트웨어는 인공지능의 발전에 중요한 역할을 하지만, 정교하지만 제대로 훈련되지 않은 인공지능 시스템이 무분별하게 공개되면 심각한 피해를 초래할 수 있습니다. 사이버 범죄자는 이러한 시스템의 취약점을 악용할 가능성이 높으며, 승인되지 않은 활동을 수행하도록 훈련시켜 불법적인 목적으로도 사용할 수 있습니다.
이러한 잠재적 위험에도 불구하고 기술 기업들은 인공지능 기반 플랫폼의 불안정한 베타 버전을 지속적으로 도입할 것으로 예상됩니다. 인공지능 환경의 경쟁적 특성은 신속성을 장려하며, 소프트웨어 시스템의 문제를 해결하는 것이 신제품을 적시에 시장에 출시하는 것보다 우선순위가 낮을 수 있습니다.
생성 AI는 진입 장벽이 낮다
AI 도구의 활용으로 범죄 활동의 문턱이 낮아졌다. 사이버 범죄자들은 이러한 기술을 통해 스팸 이메일 메시지를 작성하고, 악성 코드를 작성하고, 기만적인 하이퍼링크를 구축하는 등 전문적인 기술 없이도 범죄를 저지르는 경우가 많습니다. AI를 통해 대규모 데이터베이스에 쉽게 액세스할 수 있기 때문에 악의적인 의도를 가진 개인이 유해하고 위험한 정보를 생산할 수 있습니다.
OpenAI에서 개발한 머신러닝 모델인 ChatGPT는 불법적인 목적을 위한 것이 아닙니다. 실제로 트위터는 이러한 행위를 금지하는 명확한 가이드라인을 마련했습니다. 유감스럽게도 범죄자들은 이 기술이 공개된 지 불과 몇 시간 만에 악성 코드를 코딩하고 피싱 이메일을 작성하는 등 악의적인 목적으로 이 기술을 활용할 수 있었다는 사실이 밝혀졌습니다.
OpenAI의 최근 에피소드는 인공지능 시스템에 대한 규제 프레임워크와 위험 완화의 중요성을 강조합니다. 인공지능의 급속한 발전은 예상을 뛰어넘어 저명한 기술 인사들조차도 인공지능의 잠재적 오용이 치명적인 결과를 초래할 수 있다는 우려를 표명하고 있습니다.
AI는 여전히 진화 중
AI는 여전히 진화하고 있습니다. 사이버네틱스에서 AI의 사용은 1940년으로 거슬러 올라가지만 , 최신 기계 학습 시스템과 언어 모델은 최근에야 등장했습니다. AI의 첫 번째 구현과 비교할 수는 없습니다. Siri나 Alexa와 같은 비교적 진보된 도구조차도 LLM 기반 챗봇에 비하면 초라하기 짝이 없습니다.
이러한 혁신적이고 실험적인 기능으로 인해 예상치 못한 새로운 문제가 발생할 수 있지만, 구글의 검색 엔진이 잘못된 결과를 표시하거나 인공지능 기반 챗봇이 인종차별적인 언어를 사용하는 등 머신러닝 기술의 실패 사례도 적지 않게 발생하고 있습니다.
의심할 여지 없이 개발자는 이러한 불일치를 바로잡을 수 있는 역량을 갖추고 있습니다. 그러나 악의적인 개인은 인지된 취약점을 이용하는 데 주저하지 않을 것이며 일부 결과는 돌이킬 수 없는 것으로 판명될 수 있음을 인식하는 것이 중요합니다. 따라서 낯선 환경을 탐색할 때는 주의를 기울여야 합니다.
많은 사람들이 아직 AI를 이해하지 못함
일반 대중이 일반적으로 접근할 수 있는 고급 언어 모델과 시스템의 근간이 되는 복잡한 메커니즘을 이해하는 사람은 소수에 불과합니다. 유머러스한 콘텐츠를 생성하고 사소한 질문에 답할 수 있는 챗봇이 바이러스 대량 코딩과 같은 악의적인 목적으로도 활용될 수 있기 때문에 개인이 인공지능을 단순한 장난감으로 취급하는 것을 중단해야 합니다.
중앙 집중식 인공지능(AI) 학습의 현재 패러다임은 실용적이지 않은 것 같아 안타깝습니다. 주요 기술 기업들은 무료 교육 자료를 제공하기보다는 주로 AI 기반 제품 및 서비스를 소개하는 데 주력하고 있습니다. 그 결과, 최종 사용자는 고도로 발전되었지만 많은 사람들이 완전히 이해할 수 없는 수수께끼 같은 기술에 접근할 수 있게 되었습니다. 결과적으로 일반 대중은 빠르게 진화하는 AI 개발 환경을 따라잡기 위해 고군분투하고 있습니다.
널리 퍼져 있는 대화형 인공지능 프로그램인 ChatGPT는 악성 스파이웨어를 합법적인 ChatGPT 애플리케이션으로 가장하여 의심하지 않는 사용자들 사이에서 소프트웨어의 악명을 악용하는 사이버 범죄자들에 의해 활용되고 있습니다. 앞서 언급한 반복 사례 중 어느 것도 ChatGPT의 제작자인 OpenAI에서 비롯된 것이 아니라는 점에 유의해야 합니다.
화이트햇 해커보다 블랙햇 해커가 더 많은 것을 얻는다
블랙햇 해커는 일반적으로 윤리적 해커보다 더 많은 것을 얻습니다. 예, 글로벌 기술 리더를 위한 펜 테스트는 높은 보수를 받지만 사이버 보안 전문가 중 일부만이 이러한 일자리를 얻습니다. 대부분은 온라인에서 프리랜서로 일합니다. HackerOne , Bugcrowd 과 같은 플랫폼에서는 일반적인 버그에 대해 몇 백 달러를 지불합니다.
사기꾼들은 취약점 조작을 통해 상당한 수익을 창출할 수 있는 능력도 가지고 있습니다.이들은 불법적으로 입수한 개인 식별 정보(PII)를 사용하여 민감한 정보를 공개하거나 신원 사기를 저지르는 등 강압적인 수법을 사용할 수 있습니다.
인공 지능(AI)의 구현은 규모에 관계없이 모든 조직에 중요한 측면입니다. 최근 몇 년 동안 발생한 가장 중대한 데이터 유출 사고 중 일부는 Facebook, 야후, 심지어 미국 정부와 같은 저명한 기관이 연루되어 있었기 때문에 사이버 공격은 기술 스타트업과 중소기업(SMB)에만 국한되지 않는다는 점에 유의해야 합니다.
AI의 보안 위험으로부터 자신을 보호하세요
앞서 언급한 요인들을 고려할 때 AI 기술을 완전히 외면하는 것은 현명하지 못합니다. AI의 도덕적 의미는 중립적이며 인간이 어떻게 적용하느냐에 따라 달라집니다. 또한 AI가 아무리 발전하더라도 오용의 가능성은 지속될 것입니다.
인공지능이 제시하는 사이버 보안 문제에 압도당하기보다는 이러한 위험을 완화하기 위해 취할 수 있는 조치를 이해하는 것이 중요합니다. 기본적인 보안 관행만으로도 많은 위험에 효과적으로 대처할 수 있으므로 겁먹을 필요는 없습니다. 의심스러운 AI 애플리케이션을 다룰 때 주의를 기울이고, 의심스러운 링크를 클릭하지 않으며, 회의적인 태도로 AI 콘텐츠에 접근하면 AI와 관련된 잠재적 위험을 성공적으로 탐색할 수 있습니다.