머신러닝은 강력하고 학습 데이터에 적응하는 인공 지능을 만드는 좋은 방법입니다. 하지만 때로는 그 데이터가 문제를 일으킬 수 있습니다. 다른 경우에는 사람들이 이러한 AI 도구를 사용하는 방식이 문제입니다.
머신 러닝이 문제가 되는 결과를 초래한 몇 가지 유명한 사건을 살펴보세요.
Google 이미지 검색 결과 오류
Google 검색은 웹 탐색을 훨씬 더 쉽게 만들어 주었습니다. 엔진의 알고리즘은 검색 결과를 표시할 때 다양한 사항을 고려합니다. 하지만 알고리즘은 사용자 트래픽을 통해 학습하므로 검색 결과 품질에 문제를 일으킬 수 있습니다.
이미지 결과에서 이러한 현상이 더욱 두드러집니다. 트래픽이 많은 페이지가 이미지가 표시될 가능성이 높기 때문에 클릭베이트 등 많은 사용자를 끌어들이는 스토리가 우선순위를 차지하게 될 수 있습니다.
예를 들어, ‘남아프리카공화국의 스쿼터 캠프’에 대한 이미지 검색 결과에는 주로 남아프리카공화국 백인이 등장한다는 사실이 밝혀져 논란을 일으켰습니다. 이는 비공식 주택에 거주하는 사람들의 압도적 다수가 남아공 흑인이라는 통계에도 불구하고 나타난 결과입니다.
Google 알고리즘에 사용되는 요소는 인터넷 사용자가 결과를 조작할 수 있다는 것을 의미하기도 합니다. 예를 들어, 한 사용자 캠페인은 ‘바보’라는 용어를 검색하면 일정 기간 동안 도널드 트럼프 전 미국 대통령의 이미지가 표시될 정도로 Google 이미지 검색 결과에 영향을 미쳤습니다.
나치로 변신한 마이크로소프트 봇 테이
AI 기반 챗봇은 매우 인기가 있으며, 특히 ChatGPT와 같은 대규모 언어 모델을 기반으로 하는 챗봇은 더욱 그렇습니다. ChatGPT에는 몇 가지 문제가 있지만, 개발자들은 다른 회사의 실수로부터 교훈을 얻기도 했습니다.
챗봇이 잘못 운영된 가장 유명한 사례 중 하나는 Microsoft의 챗봇 테이 출시 시도였습니다.
테이는 10대 소녀의 언어 패턴을 모방하고 다른 트위터 사용자와의 상호작용을 통해 학습했습니다. 하지만 나치 발언과 인종 비하 발언을 공유하기 시작하면서 가장 악명 높은 인공지능 실수 중 하나가 되었습니다. 트롤들이 AI의 머신러닝을 역이용하여 편견이 가득한 상호작용을 쏟아낸 것이 밝혀졌습니다.
얼마 지나지 않아 Microsoft는 테이를 영원히 오프라인 상태로 전환했습니다.
AI 얼굴 인식 문제
얼굴 인식 AI는 종종 얼굴 인식에 대한 이야기와 개인 정보 보호 문제 등 잘못된 이유로 헤드라인을 장식합니다. 하지만 이 AI는 유색인종을 인식하려고 시도할 때 문제가 된 전력이 있습니다.
2015년, 사용자들은 구글 포토가 일부 흑인을 고릴라로 분류하는 것을 발견했습니다. 2018년 미국시민자유연맹(ACLU)의 연구에 따르면 아마존의 얼굴 인식 소프트웨어가 미국 의회 의원 28명을 경찰 용의자로 식별했으며, 오탐지가 유색인종에게 불균형적으로 영향을 미친 것으로 나타났습니다.
또 다른 사건은 Apple의 Face ID 소프트웨어가 서로 다른 두 명의 중국 여성을 동일 인물로 잘못 식별한 것입니다. 그 결과 iPhone X 소유자의 동료가 휴대전화의 잠금을 해제할 수 있었습니다.
극단적인 결과의 예로, 얼굴 인식 AI로 인해 여러 사람이 부당하게 체포된 사례가 있습니다. 유선 이러한 사례 3건에 대해 보도했습니다.
한편 컴퓨터 과학자 조이 부올람위니는 안면 인식 기술을 연구하는 동안 소프트웨어가 자신을 인식하도록 하기 위해 종종 흰색 마스크를 착용해야 했다고 회상했습니다. 이와 같은 문제를 해결하기 위해 부올람위니와 다른 IT 전문가들은 AI 편향성 문제와 보다 포괄적인 데이터 세트의 필요성에 주목하고 있습니다.
가짜 이미지에 사용된 딥페이크
사람들은 오랫동안 포토샵을 사용해 가짜 이미지를 만들어 왔지만, 머신러닝은 이를 새로운 차원으로 끌어올렸습니다. 딥페이크는 딥러닝 AI를 사용하여 가짜 이미지와 동영상을 만듭니다. FaceApp과 같은 소프트웨어를 사용하면 한 비디오의 피사체를 다른 비디오로 얼굴을 바꿀 수 있습니다.
그러나 많은 사람들이 이 소프트웨어를 성인용 동영상에 유명인의 얼굴을 겹쳐 넣거나 가짜 동영상을 생성하는 등 다양한 악의적인 용도로 악용하고 있습니다. 한편, 인터넷 사용자들은 기술을 개선하여 실제 동영상과 가짜 동영상을 구별하기 점점 더 어렵게 만들었습니다. 그 결과, 이러한 유형의 AI는 가짜 뉴스와 루머를 퍼뜨리는 데 매우 강력해졌습니다.
조던 필 감독과 버즈피드 CEO 조나 페레티는 딥페이크 기술의 위력을 과시하기 위해 버락 오바마 전 미국 대통령이 딥페이크의 힘에 대한 PSA를 전달하는 것처럼 보이는 딥페이크 동영상을 제작했습니다.
가짜 이미지의 힘은 AI로 구동되는 이미지 생성기에 의해 가속화되었습니다. 2023년 도널드 트럼프가 체포되는 모습과 패딩 점퍼를 입은 가톨릭 교황을 묘사한 바이럴 게시물은 AI가 생성한 결과물로 밝혀졌습니다.
AI가 생성한 이미지를 식별할 수 있는 팁이 있지만, 기술은 점점 더 정교해지고 있습니다.
아마존 AI가 남성 채용이 더 낫다고 판단한 직원들
2018년 10월, 로이터 통신은 아마존이 소프트웨어의 AI가 남성 지원자가 우대받는다고 판단한 후 채용 도구를 폐기해야 했다고 보도했습니다.
익명을 원한 직원들이 로이터에 이 프로젝트에 대해 이야기했습니다. 개발자들은 AI가 이력서를 기반으로 직무에 가장 적합한 후보자를 찾아내기를 원했습니다. 하지만 프로젝트에 참여한 사람들은 곧 AI가 여성 지원자에게 불이익을 준다는 사실을 알게 되었습니다. 그들은 AI가 지난 10년간의 이력서(대부분 남성의 이력서)를 학습 데이터셋으로 사용했다고 설명했습니다.
그 결과, AI는 ‘여성’이라는 키워드를 기준으로 이력서를 필터링하기 시작했습니다. 이 키워드는 ‘여성 체스 클럽 주장’과 같은 활동으로 이력서에 나타났습니다. 개발자들은 여성 이력서에 대한 이러한 불이익을 방지하기 위해 AI를 수정했지만, 결국 아마존은 이 프로젝트를 폐기했습니다.
탈옥한 챗봇
최신 챗봇에는 서비스 약관에 위배되는 답변을 제공하지 못하도록 하는 제한이 있지만, 사용자들은 금지된 콘텐츠를 제공하기 위해 도구를 탈옥하는 방법을 찾고 있습니다.
2023년 Forcepoint 보안 연구원 Aaron Mulgrew는 ChatGPT 프롬프트를 사용하여 제로데이 바이러스를 만드는 데 성공했습니다.
멀그루는 Forcepoint 게시물 에서 “코드를 작성하지 않고 ChatGPT 프롬프트를 사용하는 것만으로 단 몇 시간 만에 매우 진보된 공격을 생성할 수 있었습니다.”라고 말했습니다.
사용자들은 폭탄을 만들거나 자동차를 훔치는 방법에 대한 지침을 제공하는 챗봇을 얻을 수 있었다고 합니다.
자율주행차 충돌 사고
자율주행 AI의 실수로 인해 자율주행차에 대한 열기가 초기 과대광고 단계부터 꺾였습니다. 2022년 워싱턴 포스트 는 약 1년 동안 첨단 운전자 지원 시스템과 관련된 392건의 충돌 사고가 미국 도로교통안전국에 보고되었다고 보도했습니다.
이러한 충돌 사고에는 심각한 부상과 6명의 사망자가 포함되었습니다.
그렇다고 해서 Tesla와 같은 회사가 완전 자율 주행 차량을 추구하는 것을 막지는 못했지만, 자율 주행 소프트웨어가 탑재된 차량이 도로에 더 많이 등장함에 따라 사고 증가에 대한 우려가 커지고 있습니다.
머신러닝 AI는 완벽하지 않다
머신러닝은 강력한 AI 도구를 만들 수 있지만, 잘못된 데이터나 사람의 변조로부터 자유롭지 않습니다. 결함이 있는 학습 데이터, AI 기술의 한계 또는 악의적인 사용자의 사용으로 인해 이러한 유형의 AI는 많은 부정적인 사건을 초래했습니다.