• 제목/요약/키워드: 블랍 분석

검색결과 9건 처리시간 0.025초

3차원 깊이 정보 기반의 감시카메라 영상 분석 (Image Analysis for Surveillance Camera Based on 3D Depth Map)

  • 이수빈;서용덕
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2012년도 하계학술대회
    • /
    • pp.286-289
    • /
    • 2012
  • 본 논문은 3차원 깊이 정보를 이용하여 감시카메라에서 움직이는 사람을 검출하고 추적하는 방법을 제안한다. 제안하는 방법은 GMM(Gaussian mixture model)을 이용하여 배경과 움직이는 사람을 분리한 후, 분리된 영역을 CCL(connected-component labeling)을 통하여 각각 블랍(blob) 단위로 나누고 그 블랍을 추적한다. 그 중 블랍 단위로 나누는 데 있어 두 블랍이 합쳐진 경우, 3차원 깊이 정보를 이용하여 두 블랍을 분리하는 방법을 제안한다. 실험을 통하여 제안하는 방법의 결과를 보인다.

  • PDF

실루엣과 특징 파라미터를 이용한 사람 행동 분석 (Analysis of Human Activity Using Silhouette And Feature Parameters)

  • 김선우;최연성;양해권
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.923-926
    • /
    • 2011
  • 본 연구에서는 움직이는 물체가 있는 비디오에서 검출된 전경 영상(실루엣)을 토대로 사람을 추적하고 추적된 사람의 실루엣 형상을 통하여 활동성을 인식하는 실시간 감시 시스템에 적용 가능한 사람의 행동을 인식하고 분석하고자 한다. 전경에서 블랍(사람)을 검출하는 방법은 기존에 연구했던 차영상을 이용하였고, 검출된 블랍을 대상으로 사람임을 판단하고 사람인 경우 검출된 블랍의 실루엣을 이용한 기존의 자세 추정 기법에 추가적으로 4가지 특징들을 추가하여 사람의 행동을 분석한다. 각 파라미터들은 임계치를 통하여 구분하였다. 본 논문에서는 사람의 행동은 크게 네 가지의 경우로 {Standing, Bending/Crawling, Laying down, Sitting} 분류한다. 제안된 특징 파라미터들을 추가한 방법은 기존의 실루엣 기반의 자세 추정 기법만을 사용하는 것보다 좀더 높은 인식율을 보여주었다.

  • PDF

블랍 크기와 휘도 차이에 따른 결함 가능성을 이용한 TFT-LCD 결함 검출 (A TFT-LCD Defect Detection Method based on Defect Possibility using the Size of Blob and Gray Difference)

  • 구은혜;박길흠
    • 한국산업정보학회논문지
    • /
    • 제19권6호
    • /
    • pp.43-51
    • /
    • 2014
  • TFT-LCD 영상은 다양한 특성의 결함을 포함하고 있다. 배경 영역과의 휘도 차이가 커서 육안으로 식별 가능한 결함부터 휘도 차이가 매우 적어서 육안 검출이 어려운 한도성 결함까지 포함한다. 본 논문에서는 휘도 차이를 이용하여 결함 영역에 포함될 확률이 높은 결함 화소부터 순차적으로 단계를 진행하면서 결함 후보 화소를 검출하고, 검출된 후보 화소를 블랍으로 구성하여 블랍의 크기와 주변 영역과의 휘도차이를 이용한 기법을 통해 최종적으로 결함 영역과 잡음을 구분하여 검출하는 알고리즘을 제안한다. 제안한 알고리즘의 타당성을 확인하기 위해 다양한 결함을 포함하는 영상에 대한 실험 결과를 살펴봄으로써 신뢰도 높은 결함 검출 결과를 입증하였다.

움직임 벡터와 GPU를 이용한 인간 활동성 분석 (Analysis of Human Activity Using Motion Vector and GPU)

  • 김선우;최연성
    • 한국전자통신학회논문지
    • /
    • 제9권10호
    • /
    • pp.1095-1102
    • /
    • 2014
  • 본 논문에서는 실시간 감시 시스템에서 인간의 활동성을 분석하기 위하여 움직임 벡터를 사용하며, 고속연산에 GPU를 활용한다. 먼저 가장 중요한 부분인 전경으로부터 적응적 가우시안 혼합기법, 두드러진 움직임을 위한 가중치 차영상 기법, 움직임 벡터를 이용하여 인간이라고 판단되는 블랍을 검출하고, 추출된 움직임 벡터를 이용하여 사람의 활동성을 분석한다. 본 논문에서는 사람의 행동을 크게 {Active, Inactive}, {Position Moving, Fixed Moving}, {Walking, Running}의 세 가지 메타 클래스로 분류하고 인식하였다. 실험을 위해서 약 300개의 상황을 연출하였으며, 약 86%~98% 의 인식률을 보였다. 또한 $1920{\times}1080$ 크기 영상에서 CPU 기반은 4.2초 정도 걸렸는데, GPU 기반에서는 0.4초 이내로 빨라진 결과를 얻었다.

움직임 벡터를 이용한 사람 활동성 분석 (Analysis of Human Activity Using Motion Vector)

  • 김선우;최연성;양해권
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국해양정보통신학회 2011년도 추계학술대회
    • /
    • pp.157-160
    • /
    • 2011
  • 본 논문에서는 실시간 감시 시스템에서 녹화 도중에 검출된 움직임 벡터를 이용하여 사람의 활동성을 인식하고 분석하고자 한다. 전경에서 블랍(사람)을 검출하는 방법은 기존에 연구했던 차 영상을 이용하였고, MPEG-4 동영상 녹화 시 EPZS(Enhanced Predictive Zonal Search)에서 검출되는 움직임 벡터의 값을 이용하였다. 본 논문에서는 사람의 행동을 크게 세 가지의 {Active, Inactive}, {Moving, Non-moving}, {Walking, Running} 메타 클래스로 분류하고 인식하였다. 각 단계에서는 단계별 임계값을 이용하여 구분하였다. 실험을 위해서 약 150개의 상황을 연출하였으며, 실험 영상에서 각 단계를 구분하는데 약 86% ~ 98% 까지의 높은 인식률을 보였다.

  • PDF

제스처 인식 모듈을 이용한 대규모 멀티 인터랙티브 디스플레이 시스템 (large-scale interactive display system using gesture recognition module)

  • 강맹관;김정훈;조성현;주우석;윤태수;이동훈
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 추계학술발표대회
    • /
    • pp.803-806
    • /
    • 2010
  • 본 논문에서는 스크린을 터치를 하지 않고 또한 스크린의 영역의 크기에 상관없이 제스처를 이용하여 인터랙션이 가능한 제스쳐 인식 모듈을 이용한 대규모 멀티 인터랙티브 디스플레이 시스템을 제안한다. IR laser를 이용하여 인터랙션 영역을 생성하고 band pass filter를 장착한 적외선 카메라를 이용하여 인터랙션 영역 안의 영상을 획득한다. 획득되어진 영상은 제안하는 영상처리모듈을 이용하여 이진화->블랍-라벨링 과정을 거쳐 잡음을 제거한 후 인터랙션 영역 안에서 이루어지는 인터랙션 좌표를 획득한 후 Packet으로 저장한다. 저장 된 Packet은 네트워크 통신 시스템을 이용하여 Server로 보내어지고 Server에서는 메타포분석모듈을 이용하여 분석하여 결과를 메타포이벤트로 저장한 후 콘텐츠에 보낸다. 콘텐츠에서는 받은 메타포이벤트에 따라서 콘텐츠 결과를 보여 줌으로써 스크린을 터치 하지 않아도 터치 인터랙션이 가능하며 스크린 영역에 제한 없이 많은 사용자가 동시에 사용이 가능한 시스템 사용이 가능하도록 한다. 본 시스템은 향후 보다 다양한 인터랙션과 시스템 크기의 확장으로 보다 많은 사용자가 동시에 사용가능하며 다양한 인터랙션을 사용할 수 있는 인식 디바이스로써 활용이 가능하다.

저해상도 손 제스처 영상 인식에 대한 연구 (A Study on Hand Gesture Recognition with Low-Resolution Hand Images)

  • 안정호
    • 한국위성정보통신학회논문지
    • /
    • 제9권1호
    • /
    • pp.57-64
    • /
    • 2014
  • 최근 물리적 디바이스의 도움 없이 사람이 시스템과 인터랙션 할 수 있는 인간 친화적인 인간-기계 인터페이스가 많이 연구되고 있다. 이중 대표적인 것이 본 논문의 주제인 비전기반 제스처인식이다. 본 논문에서 우리는 설정된 가상세계의 객체와의 인터랙션을 위한 손 제스처들을 정의하고 이들을 인식할 수 있는 효과적인 방법론을 제안한다. 먼저, 웹캠으로 촬영된 저해상도 영상에서 사용자의 양손을 검출 및 추적하고, 손 영역을 분할하여 손 실루엣을 추출한다. 우리는 손 검출을 위해, RGB 공간에서 명암에 따라 두개의 타원형 모델을 이용하여 피부색을 모델링하였으며, 블랍매칭(blob matching) 방법을 이용하여 손 추적을 수행하였다. 우리는 플러드필(floodfill) 알고리즘을 이용해 얻은 손 실루엣의 행/열 모드 검출 및 분석을 통해 Thumb-Up, Palm, Cross 등 세 개의 손모양을 인식하였다. 그리고 인식된 손 모양과 손 움직임의 콘텍스트를 분석해서 다섯 가지 제스처를 인식할 수 있었다. 제안하는 제스처인식 방법론은 정확한 손 검출을 위해 카메라 앞에 주요 사용자가 한 명 등장한다는 가정을 하고 있으며 많은 실시간 데모를 통해 효율성 및 정확성이 입증되었다.

자연스러운 손 추출 및 추적 (Natural Hand Detection and Tracking)

  • 김혜진;곽근창;김도형;배경숙;윤호섭;지수영
    • 한국HCI학회:학술대회논문집
    • /
    • 한국HCI학회 2006년도 학술대회 1부
    • /
    • pp.148-153
    • /
    • 2006
  • 인간-컴퓨터 상호작용(HCI) 기술은 과거 컴퓨터란 어렵고 소수의 숙련자만이 다루는 것이라는 인식을 바꾸어 놓았다. HCI 는 컴퓨터 사용자인 인간에게 거부감 없이 수용되기 위해 인간과 컴퓨터가 조화를 이루는데 많은 성과를 거두어왔다. 컴퓨터 비전에 기반을 두고 인간과 컴퓨터의 상호작용을 위하여 사용자 의도 및 행위 인식 연구들이 많이 행해져 왔다. 특히 손을 이용한 제스처는 인간과 인간, 인간과 컴퓨터 그리고 최근에 각광받고 있는 인간과 로봇의 상호작용에 중요한 역할을 해오고 있다. 본 논문에서 제안하는 손 추출 및 추적 알고리즘은 비전에 기반한 호출자 인식과 손 추적 알고리즘을 병행한 자연스러운 손 추출 및 추적 알고리즘이다. 인간과 인간 사이의 상호간의 주의집중 방식인 호출 제스처를 인식하여 기반하여 사용자가 인간과 의사소통 하는 것과 마찬가지로 컴퓨터/로봇의 주의집중을 끌도록 하였다. 또한 호출 제스처에 의해서 추출된 손동작을 추적하는 알고리즘을 개발하였다. 호출 제스처는 카메라 앞에 존재할 때 컴퓨터/로봇의 사용자가 자신에게 주의를 끌 수 있는 자연스러운 행동이다. 호출 제스처 인식을 통해 복수의 사람이 존재하는 상황 하에서 또한 원거리에서도 사용자는 자신의 의사를 전달하고자 함을 컴퓨터/로봇에게 알릴 수 있다. 호출 제스처를 이용한 손 추출 방식은 자연스러운 손 추출을 할 수 있도록 한다. 현재까지 알려진 손 추출 방식은 피부색을 이용하고 일정 범위 안에 손이 존재한다는 가정하에 이루어져왔다. 이는 사용자가 제스처를 하기 위해서는 특정 자세로 고정되어 있어야 함을 의미한다. 그러나 호출 제스처를 통해 손을 추출하게 될 경우 서거나 앉거나 심지어 누워있는 상태 등 자연스러운 자세에서 손을 추출할 수 있게 되어 사용자의 불편함을 해소 할 수 있다. 손 추적 알고리즘은 자연스러운 상황에서 획득된 손의 위치 정보를 추적하도록 고안되었다. 제안한 알고리즘은 색깔정보와 모션 정보를 융합하여 손의 위치를 검출한다. 손의 피부색 정보는 신경망으로 다양한 피부색 그룹과 피부색이 아닌 그룹을 학습시켜 얻었다. 손의 모션 정보는 연속 영상에서 프레임간에 일정 수준 이상의 차이를 보이는 영역을 추출하였다. 피부색정보와 모션정보로 융합된 영상에서 블랍 분석을 하고 이를 민쉬프트로 추적하여 손을 추적하였다. 제안된 손 추출 및 추적 방법은 컴퓨터/로봇의 사용자가 인간과 마주하듯 컴퓨터/로봇의 서비스를 받을 수 있도록 하는데 주목적을 두고 있다.

  • PDF

GrabCut을 이용한 IR 영상 분할 (IR Image Segmentation using GrabCut)

  • 이희열;이은영;구은혜;최일;최병재;류강수;박길흠
    • 한국지능시스템학회논문지
    • /
    • 제21권2호
    • /
    • pp.260-267
    • /
    • 2011
  • 본 논문은 GrabCut 알고리듬을 기반으로 적외선(infrared; IR) 영상에서 물체를 배경으로부터 분할하는 방법을 제안한다. GrabCut 알고리듬은 관심 있는 물체를 둘러싸는 윈도우가 필요하며, 이는 사용자가 설정한다. 그렇지만 이 알고리듬을 영상 시이퀀스에서 물체인식에 적용하려면 윈도우의 로케이션이 자동으로 결정되어야만 한다. 이를 위해서 본 논문에서는 Otsu 알고리듬으로 한 영상에서 관심은 있으나 알져지지 않는 물체를 적당히 분할하고 블랍 해석을 통해 윈도우를 자동으로 로케이션한다. 그랩 컷 일고리듬은 관심있는 물체와 배경의 확률분포를 추정해야한다. 이 경우에 관심 있는 물체의 확률분포는 자동으로 로케이션된 윈도우 내부의 화소들로부터 추정하고, 배경의 확률 분포는 물체의 윈도우를 둘러싸고 면적은 동일한 영역으로부터 추정한다. 다양한 IR 영상에 대한 분할 실험을 통해 제안한 분할 방법이 IR 영상의 분할에 적합함을 보이고, 기존의 IR 영상 분할 방법과의 비교 및 분석을 통해 제안 알고리듬이 우수한 분할 성능을 보임을 증명한다.