지난 몇 년 동안만 해도 AI 기능은 비약적으로 발전했습니다. 오늘날 우리는 AI를 사용하여 예술을 창작하고, 이야기를 쓰고, 세상에 대해 배우는 등 다양한 작업을 할 수 있습니다. 하지만 이 모든 것이 너무 빨리 진행되고 있는 것은 아닐까요? AI가 너무 빠르게 발전하고 있으며, 이를 시사하는 징후는 무엇일까요?
사람들이 AI에 대해 우려하는 이유는 무엇인가요?
2023년 3월 말, 미래생명연구소에서 “거대한 AI 실험을 멈춰라: 공개 서한” 이라는 제목의 문서가 공개되었습니다. 이 문서에는 OpenAI의 최신 AI 기반 챗봇인 GPT-4의 정교함을 넘어서는 AI 개발에 반대하는 주장이 담겨 있었습니다.
이 문서에는 “인간과 경쟁할 수 있는 지능을 갖춘 AI 시스템은 사회와 인류에 심각한 위험을 초래할 수 있다”며 “강력한 AI 시스템은 그 효과가 긍정적이고 위험을 관리할 수 있다는 확신이 있을 때에만 개발되어야 한다”고 적혀 있습니다.
스티브 워즈니악, 엘론 머스크 등 기술 분야의 저명한 인사들이 이 서한에 서명하며 AI 개발을 중단할 것을 촉구했습니다. AI 개발 중단을 촉구하는 이 서한은 AI가 얼마나 위험해지고 있는지, 그리고 인간의 삶에 얼마나 위협이 되는지에 대한 의문을 제기하고 있습니다.
그렇다면 AI가 너무 빠르게 발전하고 있다는 신호는 무엇일까요?
인간과의 경쟁
우리는 이미 수많은 시나리오에서 기술이 인간 노동자를 대체하는 것을 보아왔습니다. 패스트푸드점에 가면 컴퓨터 화면을 통해 주문할 수 있고, 식료품을 사러 갈 때는 자동화된 시스템을 통해 계산할 수 있습니다. 이는 빠르고 편리한 옵션일 수 있지만, 다양한 산업 분야에서 자동화가 활발해지면서 사람에 대한 필요성은 점점 줄어들고 있습니다.
바로 여기서 문제가 시작됩니다. 물론 사람들은 스스로를 부양하기 위해 일을 해야 하지만, 자동화의 부상은 이를 훨씬 더 어렵게 만들고 있습니다. 특히 음식 서비스, 생산 및 소매업과 같은 최저임금 근로자의 경우 더욱 그렇습니다. 주문 확인, 물건 픽업, 청소와 같은 기본적인 작업은 모두 기계가 수행할 수 있습니다. AI의 통합은 곧 이러한 기술을 위해 더 이상 작업자가 필요하지 않을 수도 있음을 의미합니다.
FormStack 에 따르면 76%의 기업이 일상적인 워크플로우를 표준화하거나 자동화하는 데 자동화를 사용하고 있다고 합니다. 또한 Zapier 는 근로자의 94%가 자신의 업무에 반복적이고 시간이 많이 걸리는 작업이 포함된다고 답했으며, 모든 산업에서 AI 기반 자동화가 전 세계 인력의 대다수가 될 수 있다고 보고했습니다.
인간의 게으름 부추기기
AI의 주요 이점 중 하나는 수많은 작업을 간소화할 수 있다는 것입니다. 하지만 이러한 편리함은 게으름으로 이어지기 쉽습니다. 그리고 어떤 경우에는 이미 그런 경우도 있습니다.
ChatGPT를 예로 들어보겠습니다. 에세이 작성, 주제 조사, 농담 만들기, 텍스트 번역 등 다양한 작업을 ChatGPT를 사용하여 수행할 수 있습니다. 작업을 빠르게 실행할 수 있는 서비스가 있으면 좋지만, 자칫 자만에 빠질 수도 있습니다. 이런 식으로 노력과 창의성을 저해하는 것은 분명 인류 전체에 부정적인 영향을 미칠 수 있으며, 이것이 바로 많은 사람들이 인공지능에 대해 걱정하는 주요 이유입니다.
우리는 현대에 AI 기반 서비스에 너무 익숙해져서 자연스럽게 많은 신뢰를 갖게 되었습니다. 예를 들어 Microsoft의 가상 비서인 Cortana는 머신 러닝과 AI를 사용하여 사용자의 명령을 수행합니다. Apple의 Siri를 비롯한 다른 많은 가상 비서들도 AI를 사용하여 작동합니다.
이 기술을 신뢰하는 것이 안전할 수도 있지만, 특히 AI가 아직 개발 단계에 있다는 점을 고려할 때 실제로는 알 수 없습니다.
가짜 정보의 확산
이미지 출처: Deep Homage/ Flickr
주류 영역에서 AI는 예술, 이미지, 동영상을 제작하는 능력으로 많은 악명을 얻었습니다. AI 기반 서비스는 예술 창작에 사용될 수 있을 뿐만 아니라 특히 논란이 되고 있는 딥페이크라는 미디어 형식도 만들 수 있습니다. 딥페이크는 사람의 얼굴이 다른 사람의 신체에 겹쳐진 동영상입니다.
꽤 재미있게 들리지만 매우 쉽게 오용될 수 있습니다.
유명인이나 정치인이 딥페이크를 통해 엄청나게 음란하고 부적절한 말을 하는 것처럼 보이는 동영상이 이미 수천 개나 있습니다. 일부 딥페이크는 매우 쉽게 식별할 수 있지만, 일부는 매우 정교하여 진짜인지 아닌지 구분하기 어렵습니다. 이런 경우 사람들은 공인이 실제로는 전혀 하지 않은 말을 했다고 생각할 수 있습니다.
이로 인해 사람들은 이러한 동영상에 대해 의견을 제시하여 온라인에서 잘못된 정보가 확산되는 데 기여하게 됩니다.
뿐만 아니라 인공지능 기반 챗봇도 사용자에게 잘못된 정보를 제공할 수 있습니다. ChatGPT, Boost.AI, Drift와 같은 챗봇은 사용자에게 많은 정보를 제공할 수 있지만, 이 정보가 항상 정확한 것은 아닙니다. 가디언 에서 논의한 바와 같이, AI 챗봇은 사용자에게 진실된 정보를 제공하기 위해 노력하지 않기 때문에 가짜 뉴스가 그 틈새를 비집고 들어와 사용자에게 전달될 수 있습니다.
바이러스 생성
2023년 초, 악의적인 행위자가 ChatGPT를 사용하여 바이러스를 생성한다는 뉴스가 유포되기 시작했습니다. 사이버 분석 업체인 Check Point Research는 해킹 포럼에서 개인들이 ChatGPT를 사용하여 바이러스를 만들 때의 이점에 대해 논의하고 있다는 사실을 발견했습니다. 포럼 게시물의 작성자는 ChatGPT를 사용하여 파이썬으로 작성한 인포스틸러를 공유하여 다른 악의적인 공격자들이 챗봇을 사용하여 바이러스를 만들도록 장려했습니다.
바이러스 프로그램은 코딩이 필요하며, 특히 제작자가 기존 프로그램의 템플릿을 사용하지 않는 경우 시간이 많이 소요될 수 있습니다.
ChatGPT를 사용하면 악의적인 공격자가 바이러스 제작 과정을 간소화할 수 있을 뿐만 아니라 기술에 익숙하지 않은 사람들도 바이러스를 제작할 수 있습니다. AI의 정교함이 계속 발전함에 따라 바이러스 백신 탐지, 인증, 방화벽 및 기타 보호 조치를 우회할 수 있는 매우 정교한 바이러스를 만들 수 있을 것입니다.
규제 부족
기술 업계에서 흔히 발생하는 문제는 블록체인 기반 플랫폼 및 AI 제품과 같은 최신 서비스에 대한 규제가 부족하다는 것입니다. 규제의 부재는 일부에서는 좋은 점으로 간주될 수 있지만, 불법적인 관행으로 이어질 수도 있습니다.
규제가 부족하면 AI를 이용한 사기와 사이버 범죄가 증가할 수 있을 뿐만 아니라 연구자들이 AI 기술을 개발하는 방식도 심각한 국경을 넘기 시작할 수 있습니다. AI를 다룰 때 반드시 고려해야 할 윤리적 고려사항이 있습니다. 시스템이 너무 의식이 강해질 수 있나요? AI가 인간의 삶에 어떤 영향을 미칠까요? 이런 식으로 AI를 활용해야 할까요? 질문 목록은 끝없이 이어집니다.
규제가 없다면 일부 기업이 도덕적 경계를 넘나들기 시작할 수 있으며, 이는 결과적으로 더 많은 대중에게 매우 나쁜 소식이 될 수 있습니다.
AI는 빠른 속도로 발전하고 있으며 분명히 위험을 초래합니다
AI의 잠재력이 방대하다는 것은 부인할 수 없지만, 이를 적절히 활용하여 상황이 통제 불능 상태가 될 가능성을 줄여야 합니다. 우리는 이미 AI가 악의적으로 사용되는 것을 보았기 때문에 이 문제가 앞으로 어떻게 발전할지 알 수 없습니다. 시간이 지나면 AI가 우리 세상에 축복이 될지 저주가 될지 알 수 있으며, 지금 AI를 다루는 방식이 이러한 결과에 영향을 미칠 것입니다.