• Title/Summary/Keyword: 깊이 맵

Search Result 171, Processing Time 0.026 seconds

깊이 맵과 HMM을 이용한 인식 시스템 구현 (Implementation of a 3D Recognition applying Depth map and HMM)

  • 한창호;오춘석
    • 한국인터넷방송통신학회논문지
    • /
    • 제12권2호
    • /
    • pp.119-126
    • /
    • 2012
  • 최근 연구에서 모션 인식을 위해 여러 가지 인식 알고리즘을 사용하였다. 예를 들면, HMM, DTW, PCA 등의 기법을 이용하여 권투 모션을 인식하는 방법을 제시했다. 이러한 방법을 이용하기 위해서 연기자로부터 3차원 데이터를 얻기 위해 액티브 마커를 사용하여 손의 위치를 얻는다. 얻은 2차원 위치 정보는 다시 스테레오 기법을 이용하여 3차원 정보로 전환하여 구한다. 본 논문에서는 3차원 모션 데이터를 얻는 방법을 깊이 맵에 대한 알고리즘을 이용하여 구하였다. 그리고 3차원 위치 데이터 정보의 정확성 나타냈으며, 그리고 모션 동작에 대한 인식을 실험을 하였고, 그 실험 결과에 대해서 언급했다.

학습기반의 객체분할과 Optical Flow를 활용한 2D 동영상의 3D 변환 (2D to 3D Conversion Using The Machine Learning-Based Segmentation And Optical Flow)

  • 이상학
    • 한국인터넷방송통신학회논문지
    • /
    • 제11권3호
    • /
    • pp.129-135
    • /
    • 2011
  • 본 논문에서는 2D 동영상을 3D 입체영상으로 변환하기 위해서 머신러닝에 의한 학습기반의 객체분할과 객체의 optical flow를 활용하는 방법을 제안한다. 성공적인 3D 변환을 가능하게 하는 객체분할을 위해서, 객체의 칼라 및 텍스쳐 정보는 학습을 통해 반영하고 움직임이 있는 영역 위주로 객체분할을 수행할 수 있도록 optical flow를 도입한 새로운 에너지함수를 설계하도록 한다. 분할된 객체들에 대해 optical flow 크기에 따른 깊이맵을 추출하여 입체영상에 필요한 좌우 영상을 합성하여 생성하도록 한다. 제안한 기법으로 인해 효과적인 객체분할과 깊이맵을 생성하여 2D 동영상에서 3D 입체동영상으로 변환됨을 실험결과들이 보여준다.

다시점 카메라와 깊이 카메라를 이용한 고화질 깊이 맵 제작 기술 (High-resolution Depth Generation using Multi-view Camera and Time-of-Flight Depth Camera)

  • 강윤석;호요성
    • 대한전자공학회논문지SP
    • /
    • 제48권6호
    • /
    • pp.1-7
    • /
    • 2011
  • 깊이 카메라는 Time-of-Flight (TOF) 기술을 이용하여 장면 내 물체들의 거리 정보를 실시간으로 측정하며, 측정된 값은 깊이 영상으로 출력되어 양안식 혹은 다시점 카메라와 함께 장면의 고화질 깊이 맵을 제작하는 데 사용된다. 그러나 깊이 카메라 자체가 가지는 기술적 한계로 인하여 영상에 잡음과 왜곡이 포함되어 있기 때문에 이를 효과적으로 제거할 수 있는 기술이 요구되며, 처리 된 깊이 카메라 영상은 다양한 방법으로 색상 영상과 융합되어 장면의 깊이 정보를 생성할 수 있다. 본 논문에서는 이와 같이 다시 점 카메라와 깊이 카메라를 함께 사용하여 고화질의 깊이 정보를 획득할 수 있는 혼합형 카메라 방식의 원리와 깊이 영상 처리 및 깊이 생성을 위한 기술 동향을 설명한다.

텍스처 분석 테이블을 이용한 3D 지형 객체 자동 생성 (Automatic 3D Map-Object Generation Using Texture Analysis Table)

  • 선영범;김태용;이원형
    • 한국멀티미디어학회:학술대회논문집
    • /
    • 한국멀티미디어학회 2003년도 추계학술발표대회(하)
    • /
    • pp.634-637
    • /
    • 2003
  • 본 논문은 지형중심 게임에서 깊이레벨에 기반한 텍스처 분석 테이블(TAT)을 이용하여 높이에 따라 정의된 지형 객체들을 효율적으로 생성 시킬 수 있는 알고리즘을 제안한다. 기존의 방법에서는 맵에디터 상에서 지형의 텍스처와 지형의 사실적 표현을 위해 나무나 바위 등의 지형 객체를 수작업으로 편집하였는데 제안한 알고리즘을 적용하면 깊이 단계별 최소의 지형 텍스처만을 사용하여 매우 다양한 종류의 지형 텍스처를 생성해 낼 수 있으며, TAT로부터 깊이 정보값을 활용하여 자연-객체들(Natural Object)을 자동으로 생성시킬 수 있다. 이로써 게임 지형을 제작하는데 불필요한 작업량을 줄일 수 있으며, 그만큼 인공-객체들(Artificial Obejct)을 생성하는데 많은 시간을 투입할 수 있다.

  • PDF

깊이맵 획득을 위한 가시구조광 캘리브레이션 (Structured lights Calibration for Depth Map Acquisition System)

  • 양승준;추현곤;차지훈;김진웅
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2011년도 추계학술대회
    • /
    • pp.242-243
    • /
    • 2011
  • 구조광을 이용하는 깊이 정보 획득 방법에서 코드화된 패턴의 색상 정보는 촬영된 영상으로부터 패턴을 해석하여 패턴의 위상 변화량으로부터 물체의 깊이 정보를 찾기 위함으로 구조광 패턴들이 대상에 정확하게 투영되는 것이 중요하다. 그러나 프로젝터의 특성에 따라 패턴의 RGB 채널들이 종종 좌표에서 어긋나는 현상이 발생하게 된다. 본 논문에서는 프로젝터의 특성에 따른 컬러 구조광의 캘리브레이션을 위한 방법을 제안한다. 제안하는 방법은 시변화 가시구조광 시스템의 캘리브레이션 과정 중에서 투사된 영상으로부터 RGB 패턴 채널을 추출하고, 추출된 패턴으로부터 각 RGB 채널에 대한 히스토그램을 통하여 패턴 채널이 어느 방향으로 번져 나갔는지를 파악하여 원 패턴에 대한 재정렬을 수행한다. 본 논문의 실험결과에 따르면, 기존의 방법에 비해 간단한 방법으로 가시구조광 패턴에 대한 캘리브레션을 수행할 수 있음을 보여준다.

  • PDF

Multi Sparse Windows 기반의 TAD-Adaptive Census Transform을 이용한 스테레오 정합 알고리즘 (Stereo Matching Algorithm Using TAD-Adaptive Census Transform Based on Multi Sparse Windows)

  • 이인규;문병인
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2015년도 추계학술발표대회
    • /
    • pp.1559-1562
    • /
    • 2015
  • 최근 3 차원 깊이 정보를 활용하는 분야가 많아짐에 따라, 정확한 깊이 정보를 추출하기 위한 연구가 계속 진행되고 있다. 특히 ASW(Adaptive Support Weight)는 기존의 영역 기반 알고리즘의 정확도를 향상시키기 위한 방법으로 많이 이용되고 있다. 그 중에서 ACT(Adaptive Census Transform)는 폐백 영역이나 경계 영역에서 정확도가 낮다는 단점이 있었다. 본 논문에서는 정확한 깊이 맵 (depth map)을 추출하기 위해, 기존의 ACT를 개선한 스테레오 정합 알고리즘을 제안한다. 이는 잡음에 강하고 재사용성이 높은 MSW(Multiple Sparse Windows)를 기반으로, TAD(Truncated Absolute Difference)와 ACT 두 개의 정합 알고리즘을 동시에 사용하여 폐색 영역과 울체의 경계 영역에서 정확도가 낮은 기존의 방법을 개선한다. Middlebury에서 제공하는 영상을 사용한 시뮬레이션 결과는 제안한 방법이 기존의 방법보다 평균적으로 약 1.9% 낮은 에러율(error rate)을 가짐을 보여준다.

편안한 3차원 비디오 시스템을 위한 영상 합성 오류 제거 (View Synthesis Error Removal for Comfortable 3D Video Systems)

  • 이천;호요성
    • 스마트미디어저널
    • /
    • 제1권3호
    • /
    • pp.36-42
    • /
    • 2012
  • 요즘 스마트폰과 스마트 TV와 같은 스마트 기기에 대한 관심이 높아짐에 따라 보다 다양한 기능을 포함하는 영상장치가 주목받고 있다. 특히, 스마트 TV는 3차원 영상을 서비스함에 따라 보다 고화질의 3차원 영상을 효율적으로 부호화하는 것이 중요하다. 최근 MPEG(moving picture experts group) 그룹에서는 다시점 영상과 깊이 영상을 동시에 압축하여 부호화하는 표준화 작업이 진행되고 있다. 제한된 수의 시점을 이용하여 편안한 3차원 입체 영상을 재현하기 위해서는, 충분한 수의 중간시점의 영상을 생성해야 한다. 깊이정보를 이용하여 3차원 워핑을 수행하면 가상시점의 영상을 합성할 수 있는데, 깊이값의 정확도에 따라 화질이 달라진다. 스테레오 정합 기술을 이용하여 깊이맵을 획득할 때 객체의 경계와 같은 깊이값 불연속 영역에서 깊이값 오류가 발생할 수 있다. 이러한 오류는 생성한 중간영상의 배경에 원치 않는 잡음을 생성한다. 본 논문에서는 편안한 3차원 비디오 재현을 위하여 깊이맵을 기반으로 중간시점의 영상을 생성할 때 발생하는 경계 잡음을 제거하는 방법을 제안한다. 중간시점의 영상을 합성할 때 비폐색 영역을 합성한 후 경계 잡음이 발생할 수 있는 영역을 구별한 다음, 잡음이 없는 참조영상으로 대체함으로써 경계 잡음을 제거할 수 있다. 실험 결과를 통해 배경 잡음이 사라진 자연스러운 합성영상을 생성했다.

  • PDF

2D/3D 동영상 변환을 위한 그룹화된 객체별 깊이 정보의 차등 적용 기법 (Applying differential techniques for 2D/3D video conversion to the objects grouped by depth information)

  • 한성호;홍영표;이상훈
    • 한국산학기술학회논문지
    • /
    • 제13권3호
    • /
    • pp.1302-1309
    • /
    • 2012
  • 본 논문은 2D/3D 동영상 변환을 위한 그룹화된 객체별 깊이 정보의 차등 적용 기법에 관한 연구이다. 기존의 깊이 정보 획득 기법 중 움직임 정보를 깊이 정보로써 사용할 때 움직임이 존재하지 않는 객체의 경우 깊이 정보를 획득할 수 없어 해당 객체의 3D 효과를 얻을 수 없는 문제점이 있다. 본 논문에서는 이러한 문제점을 해결하고자 객체와 배경을 추출하고 객체에 움직임 정보를 이용한 깊이 정보를 할당하는 과정을 거친 후, 배경과 깊이 정보가 할당되지 못한 객체에 깊이 단서 중 하나인 상대적 높이 단서를 이용한 깊이 정보를 할당함으로써 모든 객체에서 3D 효과를 얻을 수 있는 기법을 제안한다. 제안한 기법으로 깊이맵을 생성하여 DIBR(Depth Image Based Rendering)으로 3D 영상을 생성하여 확인한 결과 움직임이 없는 객체에서도 3D 효과를 얻을 수 있음을 확인하였다.

깊이 맵 기반의 실시간 가상 영상합성 시스템의 설계 및 구현 (The Design and Implementation of Real-time Virtual Image Synthesis System of Map-based Depth)

  • 이혜미;류남훈;노관승;김응곤
    • 한국전자통신학회논문지
    • /
    • 제9권11호
    • /
    • pp.1317-1322
    • /
    • 2014
  • 영상물을 완성하기 위해서는 실사 배우의 동작을 캡처하여 가상 환경과 합성하는 과정을 거치게 된다. 이때 제작비용의 과다소요 또는 후처리 기술의 부재로 인하여 수작업으로 제작하는 것이 일반적이다. 배우는 크로마키 가상스튜디오에서 상상력에 의존하여 연기를 하게 되는데, 실존하지 않는 물체와의 충돌 및 반응을 고려하여 움직여야 한다. CG를 통한 합성 과정에서 배우의 움직임과 가상 환경이 어긋나는 경우는 원본 영상을 폐기하고, 재촬영해야 하는 문제가 발생한다. 본 논문에서는 재촬영의 비율을 줄이고, 제작기간 단축 및 제작 비용절감을 위한 깊이 기반의 실시간 3D 가상 영상합성 시스템을 제안하고 구현한다. 가상 배경과 3D 모델, 실사 배우를 실시간으로 합성하여 상호간의 충돌이나 반응을 촬영 현장에서 판단할 수 있으므로 배우의 잘못된 위치나 연기를 개선할 수 있게 한다.

복합형 카메라 시스템을 이용한 자율주행 차량 플랫폼 (Autonomous Driving Platform using Hybrid Camera System)

  • 이은경
    • 한국전자통신학회논문지
    • /
    • 제18권6호
    • /
    • pp.1307-1312
    • /
    • 2023
  • 본 논문에서는 자율주행 인지 기술의 핵심 요소인 객체 인식과 거리 측정을 위해 서로 다른 초점거리를 가진 다시점 카메라와 라이다(LiDAR) 센서를 결합한 복합형 카메라 시스템을 제안한다. 제안한 복합형 카메라 시스템을 이용해 장면 안의 객체를 추출하고, 추출한 객체의 정확한 위치와 거리 정보를 생성한다. 빠른 계산 속도와 높은 정확도, 실시간 처리가 가능하다는 장점 때문에 자율주행 분야에서 많이 사용하고 있는 YOLO7 알고리즘을 이용해 장면 안의 객체를 추출한다. 그리고 객체의 위치와 거리 정보를 생성하기 위해 다시점 카메라를 이용해 깊이맵을 생성한다. 마지막으로 거리 정확도를 향상시키기 위해 라이다 센서에서 획득한 3차원 거리 정보와 생성한 깊이맵을 하나로 결합한다. 본 논문에서는 제안한 복합형 카메라 시스템을 기반으로 주행중인 주변 환경을 더욱 정확하게 인식함과 동시에 3차원 공간상의 정확한 위치와 거리 정보까지 생성할 수 있는 자율주행 차량 플랫폼을 제안하였으며, 이를 통해 자율주행 차량의 안전성과 효율성을 향상시킬 수 있을 것으로 기대한다.