• 제목/요약/키워드: 프레임 검출

검색결과 838건 처리시간 0.031초

H.263+ 협상모드들의 적응적 선택에 의한 성능개선 (Performance Improvement Using the Adaptive Selection of H.263+ Negotiable Option Modes)

  • 김강욱;황찬식;김남철;고종석
    • 한국통신학회논문지
    • /
    • 제24권10B호
    • /
    • pp.1963-1970
    • /
    • 1999
  • H.263 권고안의 성능을 향상시키고 응용범위를 넓히기 위한 연구가 ITU-T LBC 그룹에서 계속 진행되고 있으며 그 대표적인 것이 H.263+이다. H.263는 기존의 H.263 권고안에 새로운 내용이 추가된 형태의 권고안이다. 본 논문에서는 H.263에 포함된 4개의 협상모드와 H.263+에 새롭게 포함된 5개의 모드를 합한 9개를 H.263+ 협상모드로 규정하고 이들을 영상 클래스별로 실험하여 각 모드의 특성을 분석하였으며 4가지 클래스가 혼합된 영상시퀀스에 대해 장면전환 검출기를 이용해서 9가지 협상모드를 적응적으로 사용하는 방안을 제안하였다. 제안한 방법을 사용한 경우 PSNR 측면에서 기본모드보다 1.6 dB, 협상모드를 고정적으로 사용한 것과 비교해서는 0.4∼1.0 dB 정도의 향상을 가져왔으며 비트효율 면에서도 기본모드보다 프레임당 278 비트, 고정적 협상모드 사용보다 2.6∼180 비트 정도의 감소를 가져왔다.

  • PDF

다중 비주얼 특징을 이용한 어학 교육 비디오의 자동 요약 방법 (Automatic Summary Method of Linguistic Educational Video Using Multiple Visual Features)

  • 한희준;김천석;추진호;노용만
    • 한국멀티미디어학회논문지
    • /
    • 제7권10호
    • /
    • pp.1452-1463
    • /
    • 2004
  • 양방향 방송 서비스로의 전환을 맞아 다양한 사용자 요구 및 기호에 적합한 컨텐츠를 제공하고, 증가하는 방송 컨텐츠를 효율적으로 관리, 이용하기 위해 비디오의 자동 에 대한 요구가 증가하고 있다. 본 논문에서는 내용 구성이 잘 갖추어진 어학 교육 비디오의 자동 에 대한 방법을 제안한다. 내용 기반을 자동으로 생성하기 위해 먼저 디지털 비디오로부터 샷 경계를 검출한 후, 각 샷을 대표하는 키프레임으로부터 비주얼 특징들을 추출한다. 그리고 추출된 다중 비주얼 특징을 이용해 어학 교육 비디오의 세분화된 내용 정보를 결정한다. 마지막으로, 결정된 내용 정보를 기술하는 요약문을 MPEG-7 MDS(Multimedia Description cheme)에 정의된 계층적 (Hierarchical Summary) 구조에 맞추어 XML 문서로 생성한다. 외국어 회화 비디오에 대해 실험하여 제안한 자동 방법의 효율성을 검증하였으며, 제안한 방법이 교육 방송용 컨텐츠의 다양한 서비스 제공 및 관리를 위한 비디오 요약 시스템에 효율적으로 적용 가능함을 확인하였다.

  • PDF

동적 베이스망 기반의 양손 제스처 인식 (Dynamic Bayesian Network based Two-Hand Gesture Recognition)

  • 석흥일;신봉기
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제35권4호
    • /
    • pp.265-279
    • /
    • 2008
  • 손 제스처를 이용한 사람과 컴퓨터간의 상호 작용은 오랜 기간 많은 사람들이 연구해 오고 있으며 커다란 발전을 보이고 있지만, 여전히 만족스러운 결과를 보이지는 못하고 있다. 본 논문에서는 동적 베이스망 프레임워크를 이용한 손 제스처 인식 방법을 제안한다. 유선 글러브를 이용하는 방법들과는 달리, 카메라 기반의 방법에서는 영상 처리와 특징 추출 단계의 결과들이 인식 성능에 큰 영향을 미친다. 제안하는 제스처 모델에서의 추론에 앞서 피부 색상 모델링 및 검출과 움직임 추적을 수행한다. 특징들간의 관계와 새로운 정보들을 쉽게 모델에 반영할 수 있는 동적 베이스망을 이용하여 두 손 제스처와 한 손 제스처 모두를 인식할 수 있는 새로운 모델을 제안한다. 10가지 독립 제스처에 대한 실험에서 최대 99.59%의 높은 인식 성능을 보였다. 제안하는 모델과 관련 방법들은 수화 인식과 같은 다른 문제들에도 적용 가능할 것으로 판단된다.

항공영상으로부터 에지 맵의 체인코드 추적에 의한 선소추출 (Line Segments Extraction by using Chain Code Tracking of Edge Map from Aerial Images)

  • 이규원;우동민
    • 한국지능시스템학회논문지
    • /
    • 제15권6호
    • /
    • pp.709-713
    • /
    • 2005
  • 고해상도의 항공영상으로부터 3차원 와이어프레임(wire-frame) 구성을 위한 새로운 선소 추출 알고리듬을 제안하였다. 본 연구의 목적은 기존의 방식들의 문제점인 라인 불일치 문제, 에지부분의 Blurring 문제 등을 고려하여 보다 정밀하고 효과적인 선소를 추출하는데 있다. 먼저 항공영상으로부터 에지맵을 추출한 후, 에지 점들의 체인 코드 추적을 수행하고 에지강도와 방향성분을 고려한 선소의 추출을 행하였다. 에지맵의 추출은 Smith가 제안한 SUSAN(Smallest Univalue Segment Assimilating Nucleus) 알고리듬을 이용하였다. 제안한 알고리듬은 다음의 4 단계로 구성된다. 에지 맵의 체인코드 추적 결과에 기반하여 비선소 후보점을 감소시키기 위한 수평/수직/대각 성분 제거, 인접점 제거, 각도 일치점 제거, 선소를 이루는 시작점 및 끝점 검출 등의 과정을 통하여 선소추출을 행하였다. 제안한 알고리듬과 기존의 Boldt 알고리듬을 비교한 결과 제안한 알고리듬이 건물을 이루고 있는 주요 선소를 더욱 충실히 찾아냈고 불필요한 선소는 적게 찾아냄을 확인하였다.

다중센서 기반 차선정보 시공간 융합기법 (Lane Information Fusion Scheme using Multiple Lane Sensors)

  • 이수목;박기광;서승우
    • 전자공학회논문지
    • /
    • 제52권12호
    • /
    • pp.142-149
    • /
    • 2015
  • 단일 카메라 센서를 기반으로 한 차선검출 시스템은 급격한 조도 변화, 열악한 기상환경 등에 취약하다. 이러한 단일 센서 시스템의 한계를 극복하기 위한 방안으로 센서 융합을 통해 성능 안정화를 도모할 수 있다. 하지만, 기존 센서 융합의 연구는 대부분 물체 및 차량을 대상으로 한 융합 모델에 국한되어 차용하기 어렵거나, 차선 센서의 다양한 신호 주기 및 인식범위에 대한 상이성을 고려하지 않은 경우가 대부분이었다. 따라서 본 연구에서는 다중센서의 상이성을 고려하여 차선 정보를 최적으로 융합하는 기법을 제안한다. 제안하는 융합 프레임워크는 센서 별 가변적인 신호처리 주기와 인식 신뢰 범위를 고려하므로 다양한 차선 센서 조합으로도 정교한 융합이 가능하다. 또한, 새로운 차선 예측 모델의 제안을 통해 간헐적으로 들어오는 차선정보를 세밀한 차선정보로 정밀하게 예측하여 다중주기 신호를 동기화한다. 조도환경이 열악한 환경에서의 실험과 정량적 평가를 통해, 제안하는 융합 시스템이 기존 단일 센서 대비 인식 성능이 개선됨을 검증한다.

정보은닉을 이용한 동영상 데이터의 전송 오류 보정 (Error Resilient Scheme in Video Data Transmission using Information Hiding)

  • 배창석;최윤식
    • 정보처리학회논문지B
    • /
    • 제10B권2호
    • /
    • pp.189-196
    • /
    • 2003
  • 본 논문에서는 정보은닉을 이용하여 동영상 데이터의 전송오류를 보정하는 방법을 제안하고 있다. 수신단에서 전송오류가 발생한 위치를 구하기 위해 송신단에서는 동영상 데이터의 부호화 과정 동안 마크로 블록 별로 한 비트씩의 데이터를 은닉하여 전송한다. 수신단에서는 복호화 과정 동안 은닉된 정보를 검출하며, 이 정보와 원래 데이터와의 비교에 의해 오류가 발생된 위치를 구하고 이를 보정함으로써 복원된 영상의 화질을 개선하도록 한다. 또한, 은닉된 정보는 동영상 데이터에 대한 저작권 정보로도 활용될 수 있다. 각각 150 프레임씩으로 구성되는 3개의 QCIF 크기의 동영상 데이터에 대한 실험 결과 은닉된 정보가 부호화된 스트림에 미치는 화질의 저하는 미세하며, 수신단에서의 오류를 교정한 결과 잡음이 많은 채널에서는 복원된 영상의 화질을 5dB 가까이 개선할 수 있음을 확인하였다. 또한, 영상의 복원 과정에서 동영상에 대한 저작권 정보도 효과적으로 구할 수 있었다.

동작인식을 위한 배경 분할 및 특징점 추출 방법 (A Background Segmentation and Feature Point Extraction Method of Human Motion Recognition)

  • 유휘종;김태영
    • 한국게임학회 논문지
    • /
    • 제11권2호
    • /
    • pp.161-166
    • /
    • 2011
  • 본 논문에서는 동작인식 위한 정확한 배경 분할 및 특징점 추출 방법을 제안한다. 배경 분할 과정에서는 먼저, HSV 입력 이미지를 RGB 색상 공간에서 HSV 색상 공간으로 변환한 뒤, H와 S 값에 대한 두 개의 임계치를 사용하여 살색 영역을 분할, 프레임간의 차영상을 이용하여 움직임이 있는 영역을 추출한다. 차영상에서 발생하는 잔상 영역을 제거하기 위하여 헤시안 어파인 영역 검출기를 적용하고, 잡음이 제거된 차 영상과 살색 영역의 이진화 영상을 이용하여 사람의 동작이 나타나는 영역을 분할한다. 특징점 추출 과정은 전체 영상을 블록 단위로 나눠서 각 블록 안에서 분할된 영상에 포함되는 픽셀들의 중점을 구하여 특징점을 추출한다. 실험결과 복잡한 환경에서도 정확한 배경 분할과 사용자 동작을 대표하는 특징점 추출이 약 12 fps로 가능함을 알 수 있었다.

컬러와 혈관징후패턴 코드 생성에 의한 공막진단시스템 구현 (Scleral Diagnostic System Implementation with Color and Blood Vessel Sign Pattern Code Generations)

  • 류광렬
    • 한국정보통신학회논문지
    • /
    • 제18권12호
    • /
    • pp.3029-3034
    • /
    • 2014
  • 이 논문은 사람 눈의 공막컬러코드와 공막혈관징후패턴코드 생성에 의한 공막진단시스템 구현에 관한 연구이다. 시스템은 고성능 DSP 영상처리 프로세서를 기반으로 PGC 프로그램어불 게인제어 선처리 및 RISC SD프레임저장 메모리 등으로 구성된다. PGC는 RGB신호를 최적화하고 그래리 영상에서 에지가 검출된다. 판별 및 매칭 처리알고리듬은 공막컬러코드화 및 혈관징후패턴코드 생성을 실행된다. 공막컬러코드는 메모리 맵의 위치에서 YCbCr값을 구하고 허용오차 범위를 적용하여 생성된다. 혈관징후패턴코드는 24시간등분과 13환형등분 구역에 의해 디지털화 되고 중첩매칭과 허용오차 적용에 의해 코드화된다. 실험결과 성능에서 시스템은 40ms로 동작하고 진단오차는 컬러판별이 평균 약20%, 혈관징후패턴 매칭이 약 24%이다. 이 시스템 및 기술은 세분화와 환자데이터베이스화 하면 공막진단 의용시스템으로 사용 할 수 있다.

음원 데이터를 활용한 3D 애니메이션 카메라 아웃포커싱 표현 연구 (A Study on Sound Synchronized Out-Focusing Techniques for 3D Animation)

  • 이준상;이임건
    • 한국컴퓨터정보학회논문지
    • /
    • 제19권2호
    • /
    • pp.57-65
    • /
    • 2014
  • 3D 애니메이션에서 사운드 효과는 몰입감을 증대시키는 주요한 요인이다. 특히 사운드와 영상 사이의 상호작용은 의미의 전달을 극명하게 만드는 하나의 표현방식으로 영상제작에서 여러 가지 방식으로 응용된다. 사운드와 영상의 상호 작용 중에 아웃포커싱 기법은 실사 영상과 3D 애니메이션에서 많이 사용하는 기법으로 정지된 물체에 역동성을 가미할 수 있는 표현 방법이다. 그러나 실사촬영과는 달리 3D 애니메이션의 경우 뮤직비디오나 폭파 장면등에 아웃포커싱을 구현하는 것은 까다로운 작업이다. 더욱이 음원의 리듬에 동기화된 영상효과를 표현하기 위해서는 키프레임 조작을 수동으로 해야 하므로 매우 번거롭다. 본 연구는 음원데이터를 활용하여 영상과 이상적인 결합을 살펴보고 카메라의 피사계 심도를 음원에 동기화시켜 장면을 아웃포커싱하는 새로운 제작 기법을 제안한다.

사운드 데이터의 3D 시각화 방법 (Method for 3D Visualization of Sound Data)

  • 고재혁
    • 디지털융복합연구
    • /
    • 제14권7호
    • /
    • pp.331-337
    • /
    • 2016
  • 본 연구의 목적은 사운드 데이터를 3차원 입체 이미지로 시각화하는 방법을 제공하는 것이다. 사운드 데이터의 시각화는 사운드데이터의 음역채널을 텍스트베이스형태의 스크립트 제작한 후 설정된 알고리즘에 따라 수행한다. 알고리즘은 음역 채널 설정단계, 사운드 시각화용 화면프레임 설정단계, 단위 입체이미지 구현체 특성정보 설정단계, 사운드 데이터 음역 채널 검출단계, 사운드 시각화단계등 총 5단계로 이루어지며, 마우스등의 입력장치로 최소한된 입력신호조작으로 3D 시각화를 수행한다. 일반적인 방법으로 애니메이터가 할 수 없는 양을 가진 사운드 파일을 이용해, 애니메이터가 작업하는 시간과 제시한 연구방법을 이용한 작업시간을 비교하여, 본 연구에서 제시한 3D 시각화 방법이 창의적 예술적 이미지를 제작에 저비용, 고효율 방법임을 부각하였다. 향후, 게임엔진에서 렌더링 과정을 거치지 않는 방법으로 사운드 데이터의 실시간 시각화 방법을 연구할 예정이다.