• 제목/요약/키워드: Foreground extraction

검색결과 62건 처리시간 0.028초

전경영상에서 단일 객체의 관심 영역 추출을 위한 방법 (Extraction of Region of Interest for Individual Object from a Foreground Image)

  • 양휘석;황용현;조위덕;최유주
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2010년도 춘계학술발표대회
    • /
    • pp.478-481
    • /
    • 2010
  • 컴퓨터 비전에서 객체의 인식, 추적에 앞서 배경으로부터 전경을 분리하는 배경차감 기법과 분리된 전경에 대한 관심 영역(ROI)을 추출하는 것은 일반적인 방법이다. 하지만 전경을 정확히 분리하지 못하면 개별 객체의 관심영역(ROI) 역시 잘못 추출되는 문제가 발생된다. 본 논문에서는 정확하지 않은 전경 분리로 부터 발생되는 개별 객체에 대한 분산된 관심영역을 병합하는 방법을 제안한다. 본 방법은 배경과 분리된 전경에서 한 객체의 일정 거리 이내에 있는 다른 객체를 가상으로 병합하는 단계, 워터쉐드 분할 알고리즘을 적용하는 단계를 거쳐 다시 블럽 레이블링을 수행한다. 제안 방법을 통하여 배경 모델에서 분리된 개별 객체의 병합된 관심영역을 제공한다. 실험에서 기존의 일반적인 블럽 레이블링 방법만을 적용하여 추출한 전경영역과 제안하는 방법에 의한 전경영역을 비교하여 배경 모델에서 분리된 개별 객체의 관심영역이 효과적으로 추출되는 것을 보인다.

고정 카메라 기반 비디오 모니터링 환경에서 딥러닝 객체 탐지기 결과를 활용한 실시간 전경 및 시설물 추출 (Real-Time Foreground and Facility Extraction with Deep Learning-based Object Detection Results under Static Camera-based Video Monitoring)

  • 이나연;손승욱;유승현;정용화;박대희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.711-714
    • /
    • 2021
  • 고정 카메라 환경에서 전경과 배경 간 픽셀값의 차를 이용하여 전경을 추출하기 위해서는 정확한 배경 영상이 필요하다. 또한, 프레임마다 변화하는 실제 배경과 맞추기 위해 배경 영상을 지속해서 갱신할 필요가 있다. 본 논문에서는 정확한 배경 영상을 생성하기 위해 실시간 처리가 가능한 딥러닝 기반 객체 탐지기의 결과를 입력받아 영상 처리에 활용함으로써 배경을 생성 및 지속적으로 갱신하고, 획득한 배경 정보를 이용해 전경을 추출하는 방법을 제안한다. 먼저, 고정 카메라에서 획득되는 비디오 데이터에 딥러닝 기반 객체 탐지기를 적용한 박스 단위 객체 탐지 결과를 지속적으로 입력받아 픽셀 단위의 배경 영상을 갱신하고 개선된 배경 영상을 도출한다. 이후, 획득한 배경 영상을 이용하여 더 정확한 전경 영상을 획득한다. 또한, 본 논문에서는 시설물에 가려진 객체를 더 정확히 탐지하기 위해서 전경 영상을 이용하여 시설물 영상을 추출하는 방법을 제안한다. 실제 돈사에 설치된 카메라로 부터 획득된 12시간 분량의 비디오를 이용하여 실험한 결과, 제안 방법을 이용한 전경과 시설물 추출이 효과적임을 확인하였다.

Image-based Extraction of Histogram Index for Concrete Crack Analysis

  • Kim, Bubryur;Lee, Dong-Eun
    • 국제학술발표논문집
    • /
    • The 9th International Conference on Construction Engineering and Project Management
    • /
    • pp.912-919
    • /
    • 2022
  • The study is an image-based assessment that uses image processing techniques to determine the condition of concrete with surface cracks. The preparations of the dataset include resizing and image filtering to ensure statistical homogeneity and noise reduction. The image dataset is then segmented, making it more suited for extracting important features and easier to evaluate. The image is transformed into grayscale which removes the hue and saturation but retains the luminance. To create a clean edge map, the edge detection process is utilized to extract the major edge features of the image. The Otsu method is used to minimize intraclass variation between black and white pixels. Additionally, the median filter was employed to reduce noise while keeping the borders of the image. Image processing techniques are used to enhance the significant features of the concrete image, especially the defects. In this study, the tonal zones of the histogram and its properties are used to analyze the condition of the concrete. By examining the histogram, the viewer will be able to determine the information on the image through the number of pixels associated and each tonal characteristic on a graph. The features of the five tonal zones of the histogram which implies the qualities of the concrete image may be evaluated based on the quality of the contrast, brightness, highlights, shadow spikes, or the condition of the shadow region that corresponds to the foreground.

  • PDF

캐릭터 객체의 변환을 이용하는 입체 동영상 콘텐츠 제작 (Producing Stereoscopic Video Contents Using Transformation of Character Objects)

  • 이관욱;원지연;최창열;김만배
    • 방송공학회논문지
    • /
    • 제16권1호
    • /
    • pp.33-43
    • /
    • 2011
  • 3D 디스플레이의 급격한 공급으로 다양한 3D 입체 콘텐츠의 제작이 요구되고 있다. 3D 콘텐츠의 제작 방법으로는 일반적으로 스테레오 카메라로 입체물을 제작할 수 있지만, 기존 2D 콘텐츠에서 입체영상물을 제작하는 기법도 중요한 기술이다. 이러한 2D 콘텐츠의 변환작업을 통한 3D 영상물 제작은 3D 변환 분야에서 활발히 진행되고 있다. 그러나 단순히 한 장의 영상을 3D로 변환하는 것은 콘텐츠의 실감을 전달하지 못한다. 본 논문에서는 기존의 2D 영상에 존재하는 객체에 생명력을 불어넣어, 그림속이 객체가 살아나 움직이는 새로운 애니메이션 콘텐츠 제작 방법을 제안한다. 또한 3D 디스플레이에서 시청이 가능하도록 입체영상으로 제작된다. 입력영상이 주어지면 배경영상, 전경객체 마스크, 배경 깊이맵, 객체 깊이맵을 생성한다. 각 전경객체의 이동, 회전, 및 줌을 통해 생동감있는 객체를 구현하며, 변환된 객체의 깊이맵 및 배경영상을 이용하여 실감있는 입체영상을 제작한다. 실험영상은 신윤복의 단오풍정 및 픽사의 애니메이션 UP의 클립영상을 이용하여 3D 입체영상으로 구현하였다.

혼합분류기 기반 영상내 움직이는 객체의 혼잡도 인식에 관한 연구 (A Study on Recognition of Moving Object Crowdedness Based on Ensemble Classifiers in a Sequence)

  • 안태기;안성제;박광영;박구만
    • 한국통신학회논문지
    • /
    • 제37권2A호
    • /
    • pp.95-104
    • /
    • 2012
  • 혼합분류기를 이용한 패턴인식은 약한 분류기를 결합하여 강한 분류기를 구성하는 형태이다. 본 논문에서는 고정된 카메라를 통해 입력된 영상을 이용하여 특징을 추출하고 이것들을 이용한 약한 분류기의 결합으로 강한 분류기를 만들어 낸다. 제안하는 시스템 구성은 차영상 기법을 이용해서 이진화된 전경 영상을 얻고 모폴로지 침식연산 수행으로 얻어진 혼잡도 가중치 영상을 이용해 특징을 추출하게 된다. 추출된 특징을 조합하고 혼잡도를 판단하기 위한 모델의 훈련 및 인식을 위한 혼합분류기 알고리즘으로 부스팅 방법을 사용하였다. 혼합 분류기는 약한 분류기의 조합으로 하나의 강한 분류기를 만들어 내는 분류기로서 그림자나 반사 등이 일어나는 환경에서도 잠재적인 특징들을 잘 활용할 수 있다. 제안하는 시스템의 성능실험은 "AVSS 2007"의 도로환경의 차량 영상과 철도환경내의 승강장 영상을 사용하였다. 조명변화가 심한 야외환경과 승강장과 같은 복잡한 환경에서도 시스템의 우수한 성능을 보여주었다.

유전자 알고리즘 기반의 비지도 객체 분할 방법 (Unsupervised Segmentation of Objects using Genetic Algorithms)

  • 김은이;박세현
    • 전자공학회논문지CI
    • /
    • 제41권4호
    • /
    • pp.9-21
    • /
    • 2004
  • 본 논문은 동영상내의 객체를 자동으로 추출하고 추적할 수 있는 유전자 알고리즘 기반의 분할 방법을 제안한다. 제안된 방법은 시간 분할과 공간 분할로 이루어진다. 공간 분할은 각 프레임을 정확한 경계를 가진 영역으로 나누고 시간 분할은 각 프레임을 전경 영역과 배경 영역으로 나눈다. 공간 분할은 분산 유전자 알고리즘을 이용하여 수행된다. 그러나, 일반적인 유전자 알고리즘과는 달리, 염색체는 이전 프레임의 분할 결과로부터 초기화되고, 동적인 객체 부분에 대응하는 불안정 염색체만이 진화연산자에 의해 진화된다. 시간 분할은 두 개의 연속적인 프레임의 밝기 차이에 기반을 둔 적응적 임계치 방법에 의해 수행한다. 얻어진 공간과 시간 분할 결과의 결합을 통해서 객체를 추출하고, 이 객체들은 natural correspondence에 의해 전체 동영상을 통해 정확히 추적된다. 제안된 방법은 다음의 두 가지 장점을 가진다. 1) 제안된 비디오 분할 방법은 사전 정보를 필요로 하지 않는 자동 동영상 분할 방법이다. 2) 제안된 공간 분할방법은 기존의 유전자 알고리즘보다 해공간의 효율적인 탐색을 제공할 수 있을 뿐만 아니라, 정확한 객체 추적 메커니즘을 포함하고 있는 새로운 진화 알고리즘이다. 이러한 장점들은 제안된 방법이 잘 알려진 동영상과 실제 동영상에 성공적으로 적용됨을 통해 검증된다.

낮은 피사계 심도의 동영상에서 포커스 된 비디오 객체의 자동 검출 (Automatic Extraction of Focused Video Object from Low Depth-of-Field Image Sequences)

  • 박정우;김창익
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제33권10호
    • /
    • pp.851-861
    • /
    • 2006
  • 영상을 낮은 피사계 심도로 찍는 카메라 기법은 전통적으로 널리 이용되는 영상 취득 기술이다. 이 방법을 사용하면 사진사가 사진이나 동영상을 찍을 때 영상의 관심 영역에만 포커스를 두어 선명하게 표현하고 나머지는 흐릿하게 함으로써 자신의 의도를 보는 이에게의 분명하게 전달 할 수 있다. 본 논문은 이러한 피사계 심도가 낮은 동영상 입력에 대하여 사용자의 도움 없이 포커스 된 비디오 객체를 추출하는 새로운 방법을 제안한다. 본 연구에서 제안하는 방법은 크게 두 모듈로 나뉜다. 첫 번째 모듈에서는 동영상의 첫 번째 프레임에 대해서 포커스 된 영역과 그렇지 않은 흐릿한 부분을 자동으로 구분하여 관심 물체만을 추출한다. 두 번째 모듈에서는 첫 번째 모듈에서 구한 관심 물체의 모델을 바탕으로 동영상 프레임에서의 관심 물체만을 실시간이나 실시간에 가깝게 추출한다. 본 논문에서 제안하는 방법은 가상현실(VR)이나 실감 방송, 비디오 인덱싱 시스템과 같은 여러 응용 분야에 효과적으로 적용될 수 있고, 이러한 유용성은 실험 결과를 통해 보였다.

텍스쳐 기반 BP 신경망을 이용한 위성영상의 도로영역 추출 (Effective Road Area Extraction in Satellite Images Using Texture-Based BP Neural Network)

  • 서정;김보람;오준택;김욱현
    • 융합신호처리학회논문지
    • /
    • 제10권3호
    • /
    • pp.164-169
    • /
    • 2009
  • 본 논문에서는 고해상도 위성영상에 대해서 분할된 후보영역의 텍스처 정보를 기반으로 BP 신경회로망을 이용한 도로영역검출방법을 제안한다. 먼저, N.Otsu가 제안한 히스토그램 기반의 이진화와 열림연산을 수행하여 배경영역으로부터 일차적으로 도로영역인 전경부분을 분할한다. 그리고 전경부분의 색상 히스토그램을 이용하여 주요색상을 추출한 후 ${\pm}25$ 범위 이내에 있는 영역을 도로영역 후보를 검출한다. 마지막으로, 분할된 후보 도로영역에 대해서 동시발생행렬을 이용하여 텍스처 정보를 추출한 후 BP 신경회로망을 이용하여 최종적인 도로영역을 검출한다. 제안한 방법은 도로영역이 일정한 밝기값과 형태를 가진다는 사실에 착안한 것으로, 실험에서 다양한 위성영상들을 대상으로 평균 90% 이상의 검출율을 보여 그 유효함을 보였다.

  • PDF

Android Platform에서의 확장된 TIP 기술 (An Extended TIP Technique for Android Platform)

  • 김영자;이연식
    • 한국인터넷방송통신학회논문지
    • /
    • 제12권1호
    • /
    • pp.57-63
    • /
    • 2012
  • TIP기술은 2차원 그림 또는 한 장의 사진으로부터 기하정보를 추출하여 3차원 입체 효과를 만들어 영상 내부를 내비게이션 할 수 있는 기술로써, 게임, 엔터테인먼트, 교육, 홍보 등 다양한 응용분야에서 활용 가능한 기술이다. 본 논문에서는 android platform상에서의 OpenGL ES Library를 이용하여 확장된 TIP기술 적용 및 구현 방법을 제안한다. 제안 방법은 전경객체의 추출이 어려운 상황을 감안하여 보다 사실적 장면 구성이 용이하도록 사용자의 선택에 의한 소실점을 이용하고, OpenGL ES Library 를 이용하여 3차원 배경 모델을 획득한 후 이미지를 텍스처 매핑하여 3차원 가상공간을 완성한 후 카메라의 시점변환을 통해 이미지 내부를 내비게이션이 가능하도록 한다. 실험영상은 android platform상의 device에서 촬영한 이미지를 사용하여 android 2.1 및 OpenGL ES 1.0기반으로 구축된 제안 기술로 android platform의 스마트 device에서 적은 비용과 시간으로 다양한 응용개발에 적용 가능하도록 구현하였다.

메쉬 및 세선화 기반 특징 벡터를 이용한 차량 번호판 인식 (A Vehicle License Plate Recognition Using the Feature Vectors based on Mesh and Thinning)

  • 박승현;조성원
    • 한국지능시스템학회논문지
    • /
    • 제21권6호
    • /
    • pp.705-711
    • /
    • 2011
  • 본 논문은 산업응용을 목표로 효과적인 차량 번호판 인식 알고리즘을 제안한다. 자동차 이미지를 얻은뒤 캐니 에지 추출(Canny Edge Detecting) 알고리즘을 이용하여 연결된 사각형을 찾아 번호판을 추출한다. 추출된 번호판의 색상 정보를 이용하여 흰색/녹색 번호판을 구분하고, 각 번호판을 OTSU 이진화와 주변 전경 픽셀 전파 알고리즘인 CLNF (CCLUF with NFPP)을 통해 문자를 제외한 잡음을 제거하고 레이블링하여 숫자 및 문자 영역을 분리한다. 분리된 문자 영역은 메쉬 방법 및 세선화 후 X-Y 투영 방법으로 특징 벡터를 추출한다. 추출된 특징 벡터는 역전파 신경망으로 미리 학습된 가중치 값과 비교되며, 최종 문자 인식을 수행한다. 제안된 차량 번호판 인식 알고리즘의 효과적 동작은 실험을 통해 확인하였다.