주요 내용

자율주행 차량에는 머신 비전 시스템을 통해 주변 환경을 인식할 수 있는 고급 시각 기능이 탑재되어 있습니다. 이를 통해 이러한 지능형 기계는 다른 차량, 보행자, 교통 신호 및 차선 표시와 같은 다양한 요소를 식별하여 실시간으로 내비게이션 및 안전에 대한 정보에 입각한 결정을 내릴 수 있습니다.

자율주행 차량에서 머신 비전을 활용하려면 시각 데이터를 수집하고 즉시 분석하며 의사 결정을 위해 모양과 개체를 인식하도록 설계된 이미징 시스템, 분산 컴퓨팅 리소스 및 인공 지능 기술의 조합이 필요합니다.

완전 자율 주행 차량의 개발은 정확한 물체 분류, 차선 및 신호 감지, 표지판 식별, 교통 패턴 이해 등을 가능하게 하는 머신 비전 기능에 크게 의존합니다. 인공 지능, 에지 컴퓨팅, 카메라 시스템의 지속적인 발전으로 가까운 미래에 상당한 진전을 기대할 수 있습니다.

자율 주행 차량의 개념은 오랫동안 사람들의 관심을 끌었습니다. 아직 완전 자율 주행 자동차는 없지만, 현재 자동 조향, 차선 변경, 주차, 주변 교통 상황을 인식하는 어댑티브 크루즈 컨트롤과 같은 기능을 수행할 수 있는 첨단 운전자 지원 시스템(ADAS)이 장착된 차량이 있습니다.

자율주행 차량은 첨단 운전자 지원 시스템(ADAS)을 지원하기 위해 다양한 센서에 의존하며, 시각적 인식은 주변 요소의 위치와 환경을 식별, 인식 및 추정하는 주요 방법으로 사용됩니다. 머신 비전이 없다면 어댑티브 크루즈 컨트롤과 오토파일럿 기능이 탑재된 차량은 거의 불가능할 것입니다.

머신 비전이란?

머신 비전은 기계가 주변 환경의 시각 정보를 인식하고 식별할 수 있도록 하는 것으로, 컴퓨터 비전이라는 광범위한 영역에 속하는 전문 분야입니다. 이 분야는 특히 정확하고 효율적인 물체 인식을 통해 로봇 및 자율 주행 차량을 포함한 자동화 시스템의 기능을 다양한 산업 목적으로 활용하는 데 중점을 둡니다.

머신 비전의 현재 상태는 딥러닝 기술, 특히 컨볼루션 신경망(CNN)을 활용하는 인공 지능을 사용하여 다양한 조건에서 물체를 정확하게 식별할 수 있는 탄력적이고 다재다능한 모델을 개발합니다.이러한 발전 덕분에 제조, 농업, 로봇 공학 및 자동차 분야를 포함하여 신뢰성 향상이 요구되는 산업의 다양한 애플리케이션에서 머신 비전을 구현할 수 있게 되었습니다.

이 글도 확인해 보세요:  ChatGPT를 사용하여 팟캐스트 스크립트를 작성해봤더니? 결과는 이렇습니다.

머신 비전은 자율 주행 자동차에서 어떻게 작동할까요?

카메라 어레이, 데이터 처리를 위한 엣지 컴퓨팅, 분석 및 의사 결정을 위한 인공 지능 알고리즘. 이러한 요소를 통합함으로써 자율주행차는 시각적 입력을 통해 주변 환경을 인식하고, 고급 계산 기술을 사용하여 이 정보를 분석하고, 다양한 도로변 특징과 잠재적 위험을 인식할 수 있습니다. 각 구성 요소를 자세히 살펴보면 상호 의존적인 기능에 대한 통찰력을 얻을 수 있으며, 이를 통해 머신 비전 기능이 탑재된 자율 주행 자동차의 작동을 종합적으로 파악할 수 있습니다.

카메라 시스템

머신 비전 작동은 주어진 환경과 관련된 시각 데이터 수집을 담당하는 카메라 시스템의 활용에 따라 좌우됩니다. 자율주행 차량은 주행 중 안전성과 효율성을 높이기 위해 차량 외부의 다양한 지점에 여러 대의 카메라를 배치하여 광범위한 시각 데이터를 수집할 수 있습니다.

상보성 금속 산화막 반도체(CMOS) 및 전하 결합 소자(CCD). 자율주행 차량의 경우 빠른 판독 속도, 강력한 온보드 전자 장치, 병렬 처리 능력으로 인해 CMOS가 자주 선택되지만, 특정 조명 시나리오에서 노이즈나 왜곡에 취약할 수 있습니다. 이러한 문제를 해결하기 위해 대체 조명 설정, 디지털 야행성 비전, 이미지 필터링과 같은 전략을 사용하여 최적의 조명 수준이 아닌 환경에서 작동할 때 CMOS 센서의 성능을 향상시킬 수 있습니다.

여러 시각 입력을 결합한 스테레오스코픽 비전은 자율주행 차량이 특정 간격으로 배치된 카메라를 활용하여 깊이와 입체감을 인식할 수 있게 해줍니다. 이를 통해 차량은 삼각 측량 계산을 통해 물체까지의 거리를 추정할 수 있습니다.

입체시, 즉 양안 시력을 통해 깊이를 인지하는 능력은 인간이 두 눈을 가지고 있기 때문에 가능합니다. 이 현상을 시연하려면 한쪽 눈을 감고 작업 공간에서 항목을 선택하면 됩니다. 물체 옆에 손을 대고 손과 물체의 가장자리 사이의 간격을 추정하여 거리를 측정합니다. 양쪽 눈을 다시 뜨기 전에 잠시 동안 이 자세를 유지합니다. 양쪽 눈을 동시에 사용할 때와 한 쪽 눈만 사용할 때 깊이 인식의 차이를 관찰합니다.

에지 컴퓨터

자율주행 차량은 정보를 수집하는 카메라 시스템을 사용하며, 자동차에 내장된 에지 프로세서가 이러한 입력을 동시에 처리하여 주변 환경에 대한 즉각적인 업데이트를 제공합니다. 기존의 머신 비전 애플리케이션은 클라우드 컴퓨팅을 활용하여 비용을 절감할 수 있지만, 이 기술에 필요한 계산을 완료하기 위해 클라우드만 사용하는 경우에도 자율 주행 차량을 인터넷에 연결하는 것과 관련된 위험은 과도한 것으로 간주됩니다.

엣지 컴퓨팅 시스템을 활용하여 수신 데이터를 처리하면 지연 문제를 완화하고 정보가 실시간으로 신속하게 처리 및 전송되도록 보장할 수 있습니다. 자율주행차와 같은 자율 주행 차량의 경우, 이러한 시스템에는 텐서 코어 및 쿠다 코어를 포함한 NVIDIA에서 제공하는 것과 같은 인공 지능 지원 그래픽 프로세서가 통합된 특수 하드웨어가 장착되어 있습니다.

이 글도 확인해 보세요:  창의적인 직업도 AI로부터 안전하지 않은 이유

AI 알고리즘

머신 비전은 카메라로 캡처한 시각 정보를 정확하게 식별하기 위해 오랫동안 알고리즘에 의존해 왔습니다. 이제 인공 지능은 자율 주행 차량이 물체, 표지판, 차선 표시, 교통 신호를 더욱 정확하게 인식할 수 있도록 지원하는 기존 머신 비전 기술의 향상된 대안으로 활용되고 있습니다. 현재 딥 러닝, 신경망, 컨볼루션 신경망 등 가장 널리 채택된 알고리즘을 포함하여 다양한 AI 알고리즘이 자율 주행 차량의 학습에 활용되고 있습니다.

YOLO는 차량의 시야 내에 있는 물체를 식별하고 추적할 수 있는 실시간 물체 감지 알고리즘으로, 한 번만 바라보는 것을 의미합니다. 이 시스템은 물체를 효율적이고 정확하게 식별하여 운전자에게 주변 환경에 대한 중요한 정보를 제공함으로써 전반적인 주행 경험을 향상시킵니다.

SIFT는 Scale-iCar와 같은 자율 주행 차량에서 환경 내의 특정 특징을 식별하고 인식하는 프로세스를 용이하게 하기 위해 사용하는 계산 도구입니다. Scale-iCar의 특징 변환으로 알려진 이 기술은 시각 데이터에서 차량 주변에 존재하는 여러 요소를 구별하는 데 활용할 수 있는 핵심 정보를 추출하는 데 사용됩니다. 이를 통해 차량은 주변에 위치한 중요한 랜드마크 및 기타 관련 물체를 인식하면서 복잡한 환경을 보다 효과적으로 탐색할 수 있습니다.

방향성 그라디언트 히스토그램(HOG)은 객체 인식 시스템에 일반적으로 사용되는 특징 추출 기법입니다.이미지 내에서 국부적인 패턴과 그라데이션 정보를 식별하여 물체나 장면을 정확하게 식별하는 데 중점을 둡니다.

TextonBoost는 시야 내의 텍스처 패턴을 복잡하게 분석하여 물체 감지를 향상시키는 고급 컴퓨터 비전 기술입니다.

AdaBoost는 데이터 분류 작업에 사용되는 강력한 알고리즘으로, 여러 약한 분류기의 집합적 강점을 활용하여 전방 도로의 물체 및 잠재적 위험에 대해 매우 정확한 예측을 생성합니다.

자율주행차에서 머신비전의 중요성

이미지 출처: Automobile Italia/ Flickr

자율주행차가 환경에 대한 정보를 수집하는 주요 수단으로서 머신비전에 대한 의존도는 차량 자율성 척도에서 레벨 1 이상의 자동화 수준을 달성할 수 있는지 여부를 결정하는 데 매우 중요합니다. 이 기술이 없으면 복잡한 시나리오를 탐색하는 능력이 심각하게 제한되고 완전 자율 주행으로 나아가는 데 장애가 될 수 있습니다.

이 글도 확인해 보세요:  스팸이란 무엇이며 어떻게 이런 이름이 붙었나요?

머신비전의 발전으로 자율주행 차량은 도로 위의 물체를 정확하게 분류하고, 차선과 신호를 감지하고, 표지판을 식별하고, 교통 흐름의 패턴을 인식할 수 있게 되었습니다.

현재 수많은 자율 주행 자동차가 라이다, 레이더, 소나 등 다양한 감각 장치를 활용하고 있지만, 주변 환경을 식별하고 사물을 인식하며 도로의 표지판과 교통 신호의 중요성을 이해하는 데는 대부분 기계 인식에 의존하고 있습니다. 이러한 추가 센서는 기계의 인식을 향상시키고 개인, 생물 및 재산의 보안을 더욱 보장하는 역할을 할 뿐입니다.

실제로 머신 비전은 다른 장치의 추가 감각 입력에 의존하지 않고 자율적으로 작동할 수 있으므로 자율 주행 기능을 제공할 수 있습니다. 예를 들어, Tesla는 최근 오토파일럿 시스템의 주요 데이터 소스로 머신 비전을 독점적으로 활용하도록 자율 주행 차량을 업데이트하여 레이더 기술이 필요하지 않게 되었습니다.

이러한 관찰이 대체 감각 양식의 가치를 훼손하지는 않지만, 그럼에도 불구하고 자율주행 차량의 핵심 구성 요소로서 머신비전의 중요성과 잠재력을 강조합니다.

자율주행차에서 머신비전의 미래

머신비전의 발전은 자율주행차의 실현을 위한 길을 열었으며, 자율주행차는 인간의 능력에 필적하는 정확도로 주변 환경을 인식할 수 있게 되었습니다.아직 극복해야 할 장애물이 많지만 머신 비전의 통합으로 차량 안전과 내비게이션이 크게 개선된 것은 분명한 사실입니다. 인공지능, 엣지 컴퓨팅, 이미징 기술의 지속적인 발전은 자율주행 차량의 성능을 향상시켜 더 높은 수준의 자율성을 달성할 수 있도록 촉진할 것입니다.

By 최은지

윈도우(Windows)와 웹 서비스에 대한 전문 지식을 갖춘 노련한 UX 디자이너인 최은지님은 효율적이고 매력적인 디지털 경험을 개발하는 데 탁월한 능력을 발휘합니다. 사용자의 입장에서 생각하며 누구나 쉽게 접근하고 즐길 수 있는 콘텐츠를 개발하는 데 주력하고 있습니다. 사용자 경험을 향상시키기 위해 연구를 거듭하는 은지님은 All Things N 팀의 핵심 구성원으로 활약하고 있습니다.