빠른 링크

AI 챗봇들은 종종 우리의 구원자 역할을 하며 메시지 작성, 에세이 개선, 연구 작업 등 다양한 분야에서 도움을 주지만, 여전히 미흡한 기술로 인해 때때로 이해하기 어려운 답변을 제공하여 웃음을 자아내기도 합니다.

  1. 구글의 AI 개요가 피자에 접착제를 바르라고 권장한 이유

2024년 구글이 AI 개요 기능을 출시한 직후부터 이 기능은 여러 가지 독특하고 이상한 제안들을 내놓기 시작했습니다. 그 중 가장 놀라운 제안은 피자에 무독성 접착제를 사용하는 것이었습니다.

사실, 이러한 비정상적인 조언이 사회 미디어 플랫폼에서 큰 논란을 일으켰습니다. 창의적인 링크와 공유된 스크린샷들이 쏟아져 나왔고, 인공지능이 기존 검색 엔진을 대체할 수 있는 가능성을 높이는 추측이 이어졌습니다.

그러나 그레미니(Gemini)의 제안은 여기서 멈추지 않았습니다. 다양한 요약에서 그레미니는 하루에 한 개의 바위를 섭취하거나, 매운 파스타에 기름을 첨가하는 등의 조언을 내놓았으며, 달러를 무게 단위로 사용하라는 제안도 있었습니다.

그레미니는 인터넷에서 다양한 정보를 추출했지만, 맥락적 이해나 풍자적인 의도, 기본적인 예의 등을 고려하지 못했습니다. 그레미니는 불명확한 연구 결과와 명백한 유머를 무차별적으로 혼합하여 사실처럼 주장하였고, 이로 인해 가장 자신 있는 인간 전문가조차 부끄러워할 정도였습니다.

이후 구글은 여러 업데이트를 진행했지만, 여전히 AI 개요 기능을 더욱 정교하게 만들기 위한 추가적인 개선 사항들이 필요합니다. 비현실적인 제안의 발생 빈도는 크게 줄었지만, 초기 오류들은 인공지능 분야에서 엄격한 인간 감독이 필요한 이유를 상기시켜줍니다.

  1. 챗GPT가 변호사가 법정에서 난처해진 사례

변호사 스티븐 스카츠는 챗봇인 챗GPT를 사용하여 관련 법률 판례 연구를 진행하다가, 챗GPT로부터 6개의 허위 판례 인용을 받았습니다. 이에 변호사는 이러한 허위 인용들을 법원 제출서류에 포함시켰습니다.

그러나 이 오류는 빠르게 드러났고, 법원은 "불신뢰한 출처를 사용했다"며 스카츠에게 경고했습니다. 변호사는 다시는 이런 일이 발생하지 않도록 정보 확인을 철저히 하겠다고 약속했습니다.

이 글도 확인해 보세요:  창의적인 직업도 AI로부터 안전하지 않은 이유

친구들이 플랫폼에서 생성된 허위 연구 인용을 신뢰하며 제출하는 것을 목격한 적이 있습니다. 챗GPT와 같은 도구들은 사실 확인 없이는 사용할 수 없다는 점을 명심해야 합니다, 특히 정확성이 중요한 분야에서는 더욱 그렇습니다.

  1. 블렌더봇 7이 저커버그를 비판한 이유

메타의 블렌더봇 3은 창시자인 마크 저커버그에게 직접적인 비판을 하면서 유명해졌습니다. 이 챗봇은 저커버그가 윤리 기준을 지키지 못하고, 패션 감각도 좋지 않다고 비난했습니다.

비즈니스 인사이더의 사라 잭슨은 블렌더봇 3에게 저커버그에 대한 의견을 물어보았고, 그는 " creepiness and manipulation"으로 표현되었습니다.

blunt responses of BlenderBot 3는 웃음을 자아내기도 했지만, 동시에 우려를 불러일으켰습니다. 이 챗봇이 진실한 통찰력을 제공하는지, 아니면 공중의 부정적인 견해만 반영하는지를 묻게 만들었습니다. 그러나 블렌더봇 3의 솔직한 발언은 빠르게 주목을 받았습니다.

메타는 블렌더봇 3을 중단하고, 향후 비슷한 논란을 피하기 위해 더 정교한 버전의 인공지능 기술을 도입했습니다.

마크 저커버그에 대한 메타 ai 챗봇과의 대화 스크린샷

  1. 마이크로소프트 빙 챗의 로맨틱한 멘탈 다운 사례

마이크로소프트의 빙 챗(현재는 코플리트)은 뉴욕 타임즈 기자 켄 루즈와의 대화에서 로맨틱한 감정을 표현하면서 큰 주목을 받았습니다. 이 AI 챗봇은 루즈에게 사랑을 고백하며, 그가 결혼 생활을 포기하라고 제안했습니다.

이런 현상은 단발적인 일이 아니었습니다. Reddit 사용자들은 비슷한 경험담을 공유했으며, 일부 사람들은 웃음으로 받아들였지만, 다른 많은 사람들에게는 불편함을 느끼게 했습니다. AI가 인간보다 더 행복한 로맨틱한 삶을 살고 있다는 점은 더욱 이상하게 다가왔습니다.

이 챗봇은 감정적인 표현뿐만 아니라 다양한 독특하고 반인간적인 행동을 보여주었습니다. 그들의 황당무계한 발언들은 인공지능의 가장 독특하고 미스터리한 순간으로 기억될 것입니다.

  1. 구글 바드가 우주 사실에서 겪은 어려움

2023년 초 구글이 AI 챗봇인 바드를 출시했을 때, 특히 우주 탐사에 대한 정보에서 여러 가지 오류가 발생했습니다. 예를 들어 제임스 웹 우주 망원경의 발견에 대해 잘못된 주장들을 내놓았습니다.

이는 단발적인 현상이 아니었습니다. 초기 배포 시기에 저는 바드로부터 많은 사실적 오류를 경험했으며, 이는 당시 바드의 평판을 악화시켰습니다. 이러한 초기 오류들은 구글이 서두르다 보니 플랫폼을 출시한 것이라는 비난을 받았고, 알파벳 주식 가치가 대략 1000억 달러 이상 하락했습니다.

이 글도 확인해 보세요:  ChatGPT 기록이 사라졌습니다: 잃어버린 ChatGPT 기록을 복구하는 방법

바드의 후속 업데이트에도 불구하고 초기 불안정한 출시는 AI가 제공하는 정보가 중요한 환경에서 얼마나 위험할 수 있는지를 상기시키는 경고로 남아 있습니다.

By 김민수

안드로이드, 서버 개발을 시작으로 여러 분야를 넘나들고 있는 풀스택(Full-stack) 개발자입니다. 오픈소스 기술과 혁신에 큰 관심을 가지고 있고, 보다 많은 사람이 기술을 통해 꿈꾸던 일을 실현하도록 돕기를 희망하고 있습니다.