• 제목/요약/키워드: vision camera

검색결과 1,372건 처리시간 0.025초

White striping degree assessment using computer vision system and consumer acceptance test

  • Kato, Talita;Mastelini, Saulo Martiello;Campos, Gabriel Fillipe Centini;Barbon, Ana Paula Ayub da Costa;Prudencio, Sandra Helena;Shimokomaki, Massami;Soares, Adriana Lourenco;Barbon, Sylvio Jr.
    • Asian-Australasian Journal of Animal Sciences
    • /
    • 제32권7호
    • /
    • pp.1015-1026
    • /
    • 2019
  • Objective: The objective of this study was to evaluate three different degrees of white striping (WS) addressing their automatic assessment and customer acceptance. The WS classification was performed based on a computer vision system (CVS), exploring different machine learning (ML) algorithms and the most important image features. Moreover, it was verified by consumer acceptance and purchase intent. Methods: The samples for image analysis were classified by trained specialists, according to severity degrees regarding visual and firmness aspects. Samples were obtained with a digital camera, and 25 features were extracted from these images. ML algorithms were applied aiming to induce a model capable of classifying the samples into three severity degrees. In addition, two sensory analyses were performed: 75 samples properly grilled were used for the first sensory test, and 9 photos for the second. All tests were performed using a 10-cm hybrid hedonic scale (acceptance test) and a 5-point scale (purchase intention). Results: The information gain metric ranked 13 attributes. However, just one type of image feature was not enough to describe the phenomenon. The classification models support vector machine, fuzzy-W, and random forest showed the best results with similar general accuracy (86.4%). The worst performance was obtained by multilayer perceptron (70.9%) with the high error rate in normal (NORM) sample predictions. The sensory analysis of acceptance verified that WS myopathy negatively affects the texture of the broiler breast fillets when grilled and the appearance attribute of the raw samples, which influenced the purchase intention scores of raw samples. Conclusion: The proposed system has proved to be adequate (fast and accurate) for the classification of WS samples. The sensory analysis of acceptance showed that WS myopathy negatively affects the tenderness of the broiler breast fillets when grilled, while the appearance attribute of the raw samples eventually influenced purchase intentions.

과적 화물차 단속을 위한 Mask-RCNN기반 축조작 검지 기술 개발 (Development of Mask-RCNN Based Axle Control Violation Detection Method for Enforcement on Overload Trucks)

  • 박현석;조용성;김영남;김진평
    • 한국ITS학회 논문지
    • /
    • 제21권5호
    • /
    • pp.57-66
    • /
    • 2022
  • 도로관리청은 고속도로 진·출입 톨게이트 및 본선에 저속 WIM 또는 고속 WIM을 설치하여 과적차량을 단속하고 있으나, 근래 과적 화물차가 가변축을 불법 조작하여 도로관리청의 과적차량 단속시스템을 지능적으로 회피하는 운행이 증가하고 있다. 과적 검문소 진입 시에는 차축을 모두 내려 정상 통과하고 본선 주행 시에는 가변축을 불법으로 들어 축하중 10톤을 초과하여 과적 운행하는 방식이다. 이에 본 연구는 도로변에 차량 옆면 촬영 카메라를 설치하여 도로 주행 중인 화물차의 가변축 상태를 검지하는 기술을 개발하였다. 과적차량 검문소의 계중정보 연계 시 검문소 진출 후 차축을 들어 과적 운행하는 차량을 단속할 수 있는 기반기술이다. 제안기술은 제2서해안고속도로 송산마도IC~마도JC 구간 노변에서 취득된 영상을 학습데이터로 가공하고 Mask RCNN 알고리즘을 활용하여 타이어를 인식하였으며 인식된 타이어들을 배열하고 높이차를 측정하는 방식으로 타이어의 들림 여부를 판단하였다.

원거리 차량 추적 감지 방법 (Methodology for Vehicle Trajectory Detection Using Long Distance Image Tracking)

  • 오주택;민준영;허병도
    • 한국도로학회논문집
    • /
    • 제10권2호
    • /
    • pp.159-166
    • /
    • 2008
  • 최근 교통감시시스템은 실시간의 영상검지시스템(VIPS)을 가장 선호하고 있으며, 그 수요는 매년 증가하고 있는 추세이다. 일반적으로 영상검지시스템은 공간기반의 검지알고리즘을 사용하고 있으며, 교통량, 속도, 점유율 등의 교통정보를 제공하고 있다. 현재 전 세계적으로 이미 상용화되어 있는 대부분의 영상검지시스템들은 Tripwire기반의 검지영역 내 차량의 존재유무를 판단하여 교통정보를 수집하는 알고리즘으로 구성되어 있으나, 개별차량에 대한 걸지는 불가능한 한계를 갖고 있다. 반면 개벽차량의 추적시스템은 보다 구체적인 공간적 교통정보를 제공할 수 있어 사고검지, 급차선 변경 등 교통정보를 보다 다양화 할 수 있다는 장점이 있으나 추적길이가 불과 100미터이내이면, 그 이상 관측하기 위해서는 운영자가 카메라를 줌인을 하여 영상을 확대하여야 한다. 따라서 본 논문에서는 차량 추적의 효과를 높이기 위해서 기존의 100미터 이내 추적거리를 여러 대의 CCTV시스템을 이용하더라도 200미터이상으로 확대함으로써 사고 또는 비정상적 차량흐름을 검지할 수 있는 알고리즘을 제안한다.

  • PDF

스테레오 시각과 Kalman 필터링을 이용한 강인한 3차원 운동추정 (Robust 3-D Motion Estimation Based on Stereo Vision and Kalman Filtering)

  • 계영철
    • 방송공학회논문지
    • /
    • 제1권2호
    • /
    • pp.176-187
    • /
    • 1996
  • 본고는 로보트 팔의 선단에 부착된 카메라에 의하여 촬영된 일련의 스테레오 영상을 이용하여 운동물체의 3차원 자세 (위치와 방향)를 정확히 추정하는 방법을 다룬다. 본고는 이미 발표된 바 있는 연구결과를 확장한 것으로서[1], 2차원 영상의 측정잡음 뿐만아니라[1], 또한 로보트 팔의 죠인트 각도의 랜덤잡음이 함께 존재할 경우 world 좌표계 (또는 로보트 기지좌표계)를 기준으로 한 운동물체의 3차원 자세의 추정에 중점을 둔다. 이를 위하여, 다음 사항에 근거하여 선형 Kalman 필터를 유도한다. (1) 2차원 영상의 측정잡음이 3차원 공간으로 전파되는 것을 분석함으로써, 이에 기인한 물체좌표계의 방향오차를 카메라 좌표계를 기준으로 하여 모델링한다; (2) 죠인트 각도 오차에 의한 로보트 선단좌표계의 방향오차를 (1)의 결과와 결합하여 extended Jacobian matrix를 유도한다; 그리고 (3) 본질적으로 비선형인 물체의 회전운동을 quaternion을 도입함으로써 선형화 한다. 운동 파라메터는 추정된 quaternion으로부터 반복 최소자승 방법을 이용하여 계산된다. 모의실험 결과, 추정오차가 상당히 감소되고, 실제의 운동 파라메터가 참 값으로 정확히 수렴함을 알 수 있다.

  • PDF

K-Means 클러스터링을 적용한 향상된 CS-RANSAC 알고리즘 (Improved CS-RANSAC Algorithm Using K-Means Clustering)

  • 고승현;윤의녕;;조근식
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제6권6호
    • /
    • pp.315-320
    • /
    • 2017
  • 이미지를 기반으로 하는 증강현실 시스템에서 가상의 객체를 실제 영상에 저작할 때 생기는 이질감을 줄이기 위해서는 실제 영상에 저작된 가상객체의 방향과 위치에 대해 정확하게 추정을 해야 하며, 이때 호모그래피를 사용한다. 호모그래피를 추정하기 위해서는 SURF와 같은 특징점을 추출하고 추출된 특징점들을 통해 호모그래피 행렬을 추정한다. 호모그래피 행렬의 추정을 위해서 RANSAC 알고리즘이 주로 사용되고 있으며, 특히 RANSAC에 제약 조건 만족 문제(Constraint Satisfaction Problem)와 여기에 사용되는 제약조건을 동적으로 적용하여 속도와 정확도를 높인 DCS-RANSAC 알고리즘이 연구되었다. DCS-RANSAC 알고리즘에서 사용된 이미지 그룹 데이터는 수동적인 방법을 통해 직관적으로 분류되어 있지만 특징점 분포 패턴이 다양하지 않고, 이미지들을 정확하게 분류하기가 어려워서 이로 인해 알고리즘의 성능이 저하되는 경우가 있다. 따라서 본 논문에서는 K-means 클러스터링을 적용하여 이미지들을 자동으로 분류하고 각 이미지 그룹마다 각기 다른 제약조건을 적용하는 KCS-RANSAC 알고리즘을 제안한다. 제안하는 알고리즘은 머신러닝 기법인 K-means 클러스터링을 사용하여 전처리 단계에서 이미지를 특징점 분포 패턴에 따라 자동으로 분류하고, 분류된 이미지에 제약조건을 적용하여 알고리즘의 속도와 정확도를 향상시켰다. 실험 결과 본 논문에서 제안하는 KCS-RANSAC이 DCS-RANSAC 알고리즘에 비해 수행시간이 약 15% 단축되었고, 오차율은 약 35% 줄어들었으며, 참정보 비율은 약 14% 증가되었다.

비교정 영상 시퀀스로부터 3차원 모델링을 위한 프로젝티브 재구성 방법 (Projective Reconstruction Method for 3D modeling from Un-calibrated Image Sequence)

  • 홍현기;정윤용;황용호
    • 대한전자공학회논문지SP
    • /
    • 제42권2호
    • /
    • pp.113-120
    • /
    • 2005
  • 비교정 영상 시퀀스(un-calibrated sequence)로부터 대상 장면을 재구성하는 연구는 컴퓨터 비젼에서 중요한 주제이다. 3차인 정보론 유클리드 공간에서 재구성하기 위해 프로젝티브(projective) 재구성이 선행되며, 이는 병합(merging)방법과 분해 (factorization)방법으로 나뉜다. 분해방법은 카메라 투영행렬과 3차원 구조정보를 한 번에 계산하기 때문에 계산속도가 빠르며, 병합방법의 단점인 오차의 누적 문제를 해결할 수 있다. 그러나 사용되는 일치점(correspondence)이 모든 영상 시퀀스에 존재한다는 가정으로 인해 긴 시퀀스에 적용하기 어렵다. 본 논문에서는 영상 시퀀스를 몇 개의 그룹으로 나누고 각 그룹을 분해 법으로 프로젝티브 재구성을 한 다음, 하나의 프로젝티브 공간으로 다시 구성하는 새로운 방법을 제안하였다. 시퀀스에서 그룹을 결정하기 위해 매칭점의 개수, 평면사영변환(homography) 오차, 영상 내 매칭점의 분포를 함께 고려했으며, 병합방법에 비해 카메라 파라미터의 오차 누적이 적고 계산속도면에서도 우수함을 실험을 통해 확인하였다.

일정간격의 두 능동마커를 이용한 저가형 단안 PSD 모션캡쳐 시스템 개발 (Development of a Low-cost Monocular PSD Motion Capture System with Two Active Markers at Fixed Distance)

  • 서평원;김유건;한창호;유영기;오춘석
    • 전자공학회논문지SC
    • /
    • 제46권2호
    • /
    • pp.61-71
    • /
    • 2009
  • 본 논문에서는 가정용 게임에 적용 가능한 저가이면서 컴팩트한 모션캡쳐 시스템을 목표로 하고 있다. 현재 영화나 게임에 이용되는 모션캡쳐 시스템은 장비가 크고 상당히 고가이기 때문에 간단한 가정용 게임에는 적용하기 어렵다. 요즘 흔히 사용되는 USB CCD카메라를 이용한 모션캡쳐 게임은 속도가 느리고 2차원 인식만 하는 단점을 가지고 있다. 하지만 최근 연구에서 저가이면서 속도가 빠른 PSD센서를 이용하여 3차원 측정이 가능한 시스템을 구현할 수 있게 되었다. 2차원 측정이 가능한 PSD센서를 이용한 3차원 모션캡쳐 시스템에는 2개 이상의 PSD를 사용하는 스테레오 비전 기반의 PSD 모션캡쳐 시스템과 빛의 세기와 거리와의 관계를 이용하여 하나의 PSD만으로도 3차원 측정이 가능한 광량보정 기반의 단일 PSD 모션캡쳐 시스템 등이 소개되었다. 하지만 현재 개발된 두 시스템을 가정용 게임에 적용하기에는 다음과 같은 문제가 있다. 두 개 이상의 PSD 센서를 사용해야 하기 때문에 고가이고 복잡하다. 광량보정 기반의 단일 PSD 모션캡쳐 시스템의 경우에는 측정된 마커의 광량을 이용하여 거리를 계산하기 하기 때문에 거리측정을 위해 전방향으로 균일한 광량을 가지는 마커를 만들어야 하므로 매우 어렵다. 따라서 본 논문에서는 이러한 문제를 해결한 새로운 접근방법을 소개하고자 한다. 일정한 거리에 떨어져 있는 두 개의 마커가 광학적 특성만 동일하다면 두 마커 사이의 상대적 광량차이를 이용하여 3차원 측정을 할 수 있다는 것이다. 결과적으로 저가이며, 빠르고, 컴팩트하고, 광각이며, 게임에도 적용가능한 단일 PSD 모션 캡쳐 시스템을 개발했다. 이 개발된 시스템이 애니메이션이나 영화, 게임에도 사용되어질 것으로 기대한다.

홈 웰니스 로봇의 사물인터넷 기반 지능형 자기 위치 및 자세 제어 (IoT Based Intelligent Position and Posture Control of Home Wellness Robots)

  • 이병수;현창호;김승우
    • 전기전자학회논문지
    • /
    • 제18권4호
    • /
    • pp.636-644
    • /
    • 2014
  • 본 논문에서는 스마트 홈 환경 내에서 웰니스 로봇의 이동을 위한 로봇의 사물인터넷 기반 지능형 자기위치인식 및 자세제어 방법을 제안한다. 먼저, 자기위치인식 방법은 스마트 홈, 홈 환경 내 위치하고 있는 물체, 홈 웰니스 로봇 간의 사물인터넷을 기반으로 하는 방법을 제안한다. 스마트 홈에 RF태그를 설치하고 환경 내 물체에 RF 리더를 내장하여 환경 내 물체의 절대좌표 정보를 획득하고, 물체와 홈 웰니스 로봇간 블루투스 통신을 이용하여 물체의 절대좌표 정보를 홈 웰니스 로봇에 제공한 후, 홈 웰니스 로봇에 장착되어 있는 스테레오 카메라를 통해서 물체를 기준으로 한 홈 웰니스 로봇의 상대 좌표를 알아내어 로봇의 스마트 홈 환경에서의 자기위치인식을 한다. 둘째로, 홈 웰니스 로봇의 물체 접근을 위한 비전센서 기반의 퍼지 자세 제어 방법을 제안한다. 홈 웰니스 로봇의 정면에 장착된 스테레오 카메라를 기준으로 물체까지의 깊이 정보를 추출하고 영상의 중앙을 기준으로 틀어진 각을 계산하여 물체와 홈 웰니스 로봇 정면과의 각도차를 알아낸다. 얻은 정보를 퍼지 순람표(Look-Up table)로 작성하여 물체에 접근하기 위한 홈 웰니스 로봇의 자세제어를 하도록 한다. 이렇게 제안한 각각의 자기위치인식 및 자세제어 방법의 성능은 실제 구축한 스마트 홈 환경과 웰니스 로봇을 가지고 실험하여 확인한다.

센서 융합을 이용한 이동 로봇의 물체 검출 방법 (Object Detection Method on Vision Robot using Sensor Fusion)

  • 김상훈
    • 정보처리학회논문지B
    • /
    • 제14B권4호
    • /
    • pp.249-254
    • /
    • 2007
  • 본 논문에서는 초음파 및 적외선 센서와 무선 카메라를 장착한 소형 이동 로봇의 물체 검출 방법을 제시한다. 전방 물체의 존재 여부를 판단하기 위해, 초음파 센서는 초음파 발생 신호의 귀환시간, 적외선 센서는 감지한 적외선 아날로그신호의 양, 카메라는 영상 데이터 중 물체의 특징 등을 추출하여 그 결과를 융합함으로써 물체의 유무 또는 이동 로봇과 물체와의 거리를 판단하여 로봇의 움직임을 제어하는데 사용한다. 초음파와 적외선 센서는 물체의 유무와 물체의 대략의 거리를 예측하는 1차 센서로 사용되며 거리 계산결과와 실제 거리 값과의 오차는 5%이내이다. 영상처리에 의해 2차의 섬세한 물체 검출 및 추적을 수행하여 최종적으로 센서 융합에 의한 물체 검출율을 개선하였다. 영상처리방법은 물체와 배경 및 유사잡음들과의 강인한 분리를 위하여 고유색상정보와 움직임 정보 등의 사전정보를 활용하였으며, 형태의 변화가 수반되는 경우에도 유연한 대처능력을 갖도록 하기 위해 시그니처를 이용한 영역분할 방법을 통해 모든 후보영역내의 물체의 존재를 확인하고 목표 물체영역만을 검출하였다. 세가지 센서에 의한 대상 물체 검출 결과의 합은 최종적인 검출을 결정하는데 확률적 근거로 활용되며 각 개별 센서를 사용한 경우보다 최소 7% 이상의 검출율이 개선되었다.

이미지 인식을 이용한 비마커 기반 모바일 증강현실 기법 연구 (Non-Marker Based Mobile Augmented Reality Technology Using Image Recognition)

  • 조휘준;김대원
    • 융합신호처리학회논문지
    • /
    • 제12권4호
    • /
    • pp.258-266
    • /
    • 2011
  • 증강현실 기술이 많이 보편화 되고 사용 양태가 다양화됨에 따라 적용되는 분야 및 범위 또한 우리 생활 곳곳에서 쉽게 나타나고 볼 수 있게 되었다. 기존의 카메라 비전 기반 증강현실 기법들은 현실 세계의 실제 정보 이용 보다는 마커를 이용한 기술을 더 많이 사용하였다. 이러한 마커 인식을 통한 증강현실 기법은 그 응용 범위가 제한적이고 사용자가 해당 서비스 응용 프로그램에 몰입하는데 적절한 환경을 제공하는데 한계가 존재한다. 본 논문에서 스마트 모바일 단말 기반 증강현실 기술 구현을 위해 단말 장치에 내장된 카메라와 이미지 처리 기술을 활용하여 어떠한 마커도 없는 상태에서 사용자가 현실세계의 영상으로부터 객체를 인식하고 해당 객체에 연결된 3D 컨텐츠와 관련 정보를 현실 세계의 영상에 추가되게 함으로써 서비스가 구현되는 증강현실 가술을 제시하였다. 이미지로부터의 객체 인식은 미리 등록되어 있는 창조용 정보와 비교하는 과정을 통해 진행되었으며 이 과정에서 스마트 모바일 장치의 특성을 고려하여 구동 속도 향상을 목표로 유사도 측정을 위한 연산량을 줄이도록 하였다. 또한 3D 컨텐츠가 단말 화면상에 출력된 후 사용자는 스마트 모바일 장치를 이용한 터치 이벤트를 통해 상호작용이 가능하도록 설계되었다. 이 후 사용자의 선택에 따라 웹 브라우저를 통하여 객체와 연관된 정보를 얻을 수 있도록 하였다. 본 논문에 묘사된 시스템을 이용하여 기존 기술과의 객체 인식 및 동작 속도, 정확도, 인식 오류 검출 정도 등의 성능 차이를 비교 분석하였고 그 결과를 제시함으로써 스마트 모바일 환경에 적합한 증강현실 기법을 소개하고 실험을 통해 검증하고자 하였다.