저명한 인공지능 전문가들과 기술 기업들이 인공지능의 발전이 가속화되는 것에 대해 다시 한 번 우려를 표명하며 인류에게 재앙을 가져올 수 있다고 경고했습니다.
잠재적인 핵 교착 상태, 병원성 전염병 발생, 허위 정보 유포, 통제되지 않은 인공지능 등 다각적인 위험이 존재하며, 이는 각각 인류 종의 지속에 임박한 위험을 초래할 수 있습니다.
이러한 경고문 중 상당수가 인공지능 발전을 주도하고 조직 내에서 인공지능 기반 도구와 소프트웨어를 홍보하는 개인에게서 나온다는 점을 간과해서는 안 됩니다.
기술 기업과 AI 과학자들이 AI 위험에 대해 경고하는 이유는 무엇일까요?
2023년 5월 30일, 개발자와 엔지니어를 포함한 350여 명의 인공지능 전문가들이 AI가 인류에 미칠 잠재적 위험에 대한 우려를 표명하는 선언문에 공동 서명했습니다.
치명적인 전염병, 핵무기와 관련된 글로벌 분쟁 등 다른 재앙적 사건과 동등한 수준으로 인공지능이 인류의 지속적인 존재에 미칠 잠재적 위협에 대처해야 할 필요성을 인식하는 것이 시급합니다.
Safe.ai 성명서 의 서명자에는 OpenAI의 샘 알트만, 구글 딥마인드의 데미스 하사비스, 앤트로픽의 다리오 아모데이, 튜링상 수상자인 제프리 힌튼과 요슈아 벤지오(같은 상을 수상한 얀 르쿤은 서명하지 않음) 등이 포함되어 있습니다. 이 목록은 AI 개발 분야의 거의 모든 인물, 즉 AI를 선도하는 사람들이 모여 AI가 인류에게 재앙을 불러올 수 있다고 경고하고 있습니다.
핵 적대감의 유령과 글로벌 보건 위기의 위협. 핵 분쟁의 가능성도 우려를 불러일으키지만, 많은 사람들에게는 광범위한 전염병의 가능성이 더 즉각적이고 명백한 위험으로 다가옵니다.
그러나 AI 관련 건강 문제를 일으킬 수 있는 것은 전 세계적인 팬데믹만이 아닙니다. 가디언 은 광범위한 사용 전에 확인하지 않으면 인간에게 영향을 미칠 수 있는 몇 가지 다른 AI 건강 문제를 보고합니다. 한 가지 예는 “피부가 어두운 환자의 혈중 산소 수치를 과대평가하여 저산소증을 제대로 치료하지 못하는” AI 기반 산소포화도 측정기 사용과 관련된 것입니다.
기술 선구자들이 모여 인공지능 발전의 일시적 중단 또는 철저한 재평가를 주장하는 것은 전례가 없는 일이 아닙니다.2023년 3월 초, 엘론 머스크와 다른 저명한 AI 전문가들은 AI의 발전을 촉진하기 위한 추가 규제 조치가 마련될 때까지 AI의 발전을 유예해야 한다는 유사한 호소를 지지했습니다.
AI의 위험은 무엇인가요?
특히 이 특정 시나리오에서 AI를 둘러싼 주요 위험은 인간의 능력을 능가하는 첨단 AI 기술의 출현으로 인해 이러한 시스템이 통제 불가능해져 궁극적으로 인류의 존재 자체에 위협이 되는 경우를 중심으로 전개됩니다. 이러한 이야기는 공상과학 문학에서 종종 묘사되곤 하지만, 현대에 이르러서는 현실적인 우려가 되고 있습니다.
참조할 수 있는 방대한 양의 데이터를 보유한 대규모 언어 모델의 발전과 인터넷에 대한 접근성 및 현대사에 대한 이해도가 높아짐에 따라 AI 연구자들 사이에서 이러한 기술 발전과 관련된 잠재적 위험에 대한 우려가 촉발되었습니다. 실제로 OpenAI의 CEO인 샘 알트먼은 이러한 위험을 완화하기 위한 적절한 조치가 취해지지 않으면 상황이 “상당히 잘못될” 가능성이 있다고 말합니다.
정부는 위험을 막기 위해 AI 개발을 어떻게 규제하고 있나요?
2023년 5월 첫 주에 샘 알트먼이 제기한 것처럼, 고도로 강력한 인공지능 모델의 발전과 관련된 위험을 통제하고 최소화하기 위해서는 정부 기관의 규제 개입이 중요합니다.
유럽연합은 역내 인공지능 발전을 위한 보다 강력한 법적 구조를 구축하기 위한 조례인 인공지능법을 발표했으며, 이는 국경을 넘어선 영향도 미칩니다. 처음에 OpenAI의 공동 최고경영자인 알트먼은 조직을 EU에서 탈퇴하겠다고 위협했지만, 나중에 이러한 입장을 철회하고 이전에 요청한 가이드라인을 준수하겠다고 인정했습니다.
앞서 언급한 고려 사항에도 불구하고 인공 지능의 발전과 적용에 대한 통제권을 행사하는 것이 필수적입니다.
인공지능이 인류를 종말시킬 것인가?
이 주제를 둘러싼 담론은 첨단 인공지능(AI) 시스템의 잠재적 능력에 관한 여러 가지 추측을 낳았습니다. 이는 빠르게 진화하는 기술에 부과되는 규제 조치의 실현 가능성과 지속 가능성에 대한 의문을 제기합니다. 업계는 전례 없는 속도로 발전하고 있으며, 매일 새로운 개발이 등장하고 있어 효과적인 제어 메커니즘을 구축하는 작업이 더욱 복잡해지고 있습니다.
인공지능의 잠재력과 궁극적인 궤적에 대해서는 어느 정도 불확실성이 존재합니다. 일부 사람들은 인공 일반 인공지능의 출현에 대한 두려움에서 알 수 있듯이 인공지능이 인간의 지배자 역할을 맡을 가능성을 상상하는 반면, 다른 사람들은 기본적인 산술 문제를 해결하지 못하고 완전 자율 주행 차량의 지속적인 개발 단계에서 예시되는 현재의 인공지능의 한계를 암시합니다.
인공지능(AI)에 대한 더 엄격한 규제를 주장하는 사람들의 관점과 의견을 단순한 추측으로 간과하거나 무시해서는 안 됩니다. 이러한 지지자들은 우리 사회의 발전 궤도를 형성하는 데 중요한 역할을 하므로 귀를 기울여야 합니다.