• Title/Summary/Keyword: 단일카메라

Search Result 343, Processing Time 0.024 seconds

2D Image-Based Individual 3D Face Model Generation and Animation (2차원 영상 기반 3차원 개인 얼굴 모델 생성 및 애니메이션)

  • 김진우;고한석;김형곤;안상철
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 1999.11b
    • /
    • pp.15-20
    • /
    • 1999
  • 본 논문에서는 사람의 정면 얼굴을 찍은 컬러 동영상에서 얼굴의 각 구성 요소에 대한 특징점들을 추출하여 3차원 개인 얼굴 모델을 생성하고 이를 얼굴의 표정 움직임에 따라 애니메이션 하는 방법을 제시한다. 제안된 방법은 얼굴의 정면만을 촬영하도록 고안된 헬멧형 카메라( Head-mounted camera)를 사용하여 얻은 2차원 동영상의 첫 프레임(frame)으로부터 얼굴의 특징점들을 추출하고 이들과 3차원 일반 얼굴 모델을 바탕으로 3차원 얼굴 특징점들의 좌표를 산출한다. 표정의 변화는 초기 영상의 특징점 위치와 이 후 영상들에서의 특징점 위치의 차이를 기반으로 알아낼 수 있다. 추출된 특징점 및 얼굴 움직임은 보다 다양한 응용 이 가능하도록 최근 1단계 표준이 마무리된 MPEG-4 SNHC의 FDP(Facial Definition Parameters)와FAP(Facial Animation Parameters)의 형식으로 표현되며 이를 이용하여 개인 얼굴 모델 및 애니메이션을 수행하였다. 제안된 방법은 단일 카메라로부터 촬영되는 영상을 기반으로 이루어지는 MPEG-4 기반 화상 통신이나 화상 회의 시스템 등에 유용하게 사용될 수 있다.

  • PDF

A new analysis method of the polished ferrule surface using monocular vision and geometrical relation (단일 카메라와 기하학적 관계를 이용한 새로운 Ferrule면의 가공 정도 분석방법)

  • Kim, Ho-Cheol;Park, Hye-Won;No, Jae-Myeong;Kim, Yong-Dae;Lee, Wang-Heon;Song, Chang-Kyu
    • Proceedings of the KIEE Conference
    • /
    • 2008.10b
    • /
    • pp.296-297
    • /
    • 2008
  • 광섬유를 이용한 광스위치 연결작업에 있어서 페룰(Ferrule)면의 가공정도는 광커넥터 작업의 성패를 자우하는 매우 중요한 요소이다. 종래의 방법에서는 페룰면을 육안 검사나 현미경을 통한 확대 검사등의 방법을 사용하였고 자동화 검사의 경우도 절대적인 평탄도나 진원도를 나타내는 절대적인 값을 제시하고 있지 못한 단점이 있다. 이를 보완하기 위하여 카메라 입력단에 사각형의 기하 구조를 설치하고 이를 기준으로 영상을 전면에서 본 영상으로 변환하여 페룰면의 가공정도를 나타내주는 변수를 추출하는 새로운 방법을 제안하였다. 또한 실제 구현을 통하여 알고리즘의 강인성을 증명하였다.

  • PDF

A Study on tracking of multiple vehicle occlusions in road images using Kalman filter and vehicle feature information (칼만 필터와 차량 특징 정보를 이용한 중첩된 다중 차량 추적에 관한 연구)

  • 강은구;김성동;최기호
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.26 no.4B
    • /
    • pp.491-504
    • /
    • 2001
  • 본 논문은 고정된 카메라를 통해 들어오는 도로연상에서 추적되는 다중 차량들의 겹침(occlusion)발생시 칼만 필터와 차량의 특징정보를 이용하여 개별 차량을 분할하고 추적 가능한 시스템을 제안하고 구현하였다. 다중 차량을 추적할 시 가장 큰 문제점이 되고 있는 차량 겹침을 해결하기 위해 카메라와의 거리를 이용하여 해결하는 방법 3D 모델을 이용하여 해결하는 방법, 겹침 추론 등 차량 겹침을 해결하기 위한 여러 가지 방법들이 제시되고 있다. 그러나 영상에 연속적으로 나타나는 다중 차량의 겹침을 단일 차량으로 인식할 수 는 단점이 있다. 따라서 칼만 필터와 차량의 특징 정보로서 차량의 높이와 넓이의 비, 추적에 사용되는 박스에서 차량과 여백의 비를 이용함으로서 연속적으로 나타날 수 있는 차량 겹침을 분할하고 추적 가능하게 하는 시스템을 구현하고 실험하였다. 본 시스템에서는 256X 256의 크기로 15 frames/sec로 저장된 AVI 파일 형식의 동영상을 사용하여 실험에 이용하였으며, 시내 도로에서의 차량들의 실험 결과 기존의 방법 보다 차량 특징 정보를 이용한 방법이 연속적 겹침에 대한 처리에 우수함을 보였다.

  • PDF

A Recognition Algorithm for Vehicle Road Lanes and Obstacles Based on Single View Geometric Constitution (단일 시선 기하구조 기반 주행차선 및 장애물 인식 알고리듬)

  • 김정현;송성희;정용배;서경호;김태효
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2004.10a
    • /
    • pp.81-84
    • /
    • 2004
  • 본 논문에서는 1대의 CCD카메라로 주행 중 차선과 선행차량을 인식하고 선행차량까지의 거리를 실시간으로 계측하는 알고리즘을 제시하였다. 도로와 카메라간의 기하구조를 분석하여 사영행렬을 추출하였고, 주행 중 차간 거리를 실시간으로 계측하는데 이용하였다. 또한 차선 인식을 위해서 Hough Transform을 적용하여 처리시간을 단축하였다. 도로상의 장애물은 인식된 주행차선 내로 한정하였고 도로 영상에서 수평에지성분을 구한 후 히스토그램 투영을 적용하여 장애물을 검출하였다. 거리가 점차 멀어질수록 계측오차가 증가함을 볼 수 있었으나 기존의 방법에 비하여 주행 중에 운전자가 장애물을 판단하여 제동을 취할 수 있는 정도의 유효한 오차특성을 보였다.

  • PDF

Reconstruction of HDR Environment Map using a Single LDR Environment Map (단일 LDR 환경 맵을 이용한 HDR 환경 맵 복원)

  • Yoo, Jae-Doug;Cho, Ji-Ho;Lee, Kwan H.
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2010.04a
    • /
    • pp.550-553
    • /
    • 2010
  • 최근 영화, 광고 그리고 증강현실과 혼합현실 등 다양한 분야에서 실제 영상에 가상의 객체를 합성하는 기법이 자주 사용되고 있다. 보다 사실적인 합성 결과를 생성하기 위해서는 실제 배경영상의 광원정보를 그대로 적용해야 한다. 이러한 실 세계의 광원 정보를 이용하기 위해서는 HDR(High Dynamic Range) 영상을 생성해야 한다. 일반적으로 HDR 영상을 생성하기 위해서는 고가의 HDR 카메라를 사용하거나 LDR(Low Dynamic Range) 카메라를 사용하여 노출 시간을 달리한 일련의 LDR 영상을 촬영하여 이를 기반으로 HDR 영상을 생성해야 한다. 본 논문에서는 이러한 단점을 보완하기 위해 한 장의 LDR 환경 맵을 HDR 환경 맵으로 복원하는 방법에 대해 제안한다. 제안하는 방법을 통해 LDR 환경 맵을 HDR 환경 맵으로 복원할 수 있으며 결과에서 볼 수 있듯이 HDR 영상을 이용했을 때와 유사한 렌더링 결과를 생성할 수 있다.

A Development of Interactive Tabletop Display System Using Infrared Camera based Tangible Interface (적외선 카메라 기반의 탠저블 인터페이스를 활용한 인터랙티브 테이블탑 디스플레이 시스템 개발)

  • Kim, Minyoung;Park, Kyoung Shin;Cho, Yongjoo
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.238-241
    • /
    • 2009
  • 정보 과학 기술의 발전과 생활 수준의 향상이 가속화되면서 주변 환경을 구성하는 가구나 공간조차도 정보 통신과 컴퓨터 기능이 내재된 인간과 상호작용할 수 있는 개념으로 확장되고 있다. 또한 비즈니스의 규모가 방대해지면서 협업이 필요성이 증가되는 가운데 단일 사용자에게 맞춰진 표준 데스크탑을 대체할 새로운 기기와 인터페이스에 대한 요구가 증가하고 있다. 본 연구에서는 이런 패러다임에 맞춰 선호되고 있는 테이블탑 컴퓨팅을 다수의 LCD와 PC를 포함하는 분산 하드웨어 방식의 고해상도 대형 디스플레이로 구성하고, 다중 사용자의 입력을 동시적으로 처리할 수 있는 적외선 카메라를 활용한 마커 인식 기반의 탠저블 인터페이스를 개발하였다. 그리고 이 시스템에서 동작하는 고해상도 이미지 뷰어와 퍼베이스브 블록 격파 게임 응용프로그램을 구현하였다.

Design Methods for Multi-Target Camera Location Tracking System Using Received Signal Strength of Wireless Signal (무선 신호의 수신 신호 세기를 이용한 다중 목표물 카메라 위치 추적 시스템 설계)

  • Kim, Ho-Keun;Kim, Jin-Woo;Ha, Soon-Hoi
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.04a
    • /
    • pp.119-122
    • /
    • 2011
  • GPS 의 사용이 어렵거나 불가능한 실내 환경 등에서 사물이나 사람의 위치를 카메라가 추적할 수 있도록 하는 문제에 대해 많은 연구가 진행되고 있다. 이를 가능 하도록 하기 위해서는 작은 크기의 이동 장치와 센서 노드간 밀접한 통신이 필수이다. 본 연구에서는 무선 수신/송신 장치인 센서 노드를 이용하여 고정 된 수신-센서 노드와 이동 송신 노드를 이용하여 효율적이고 다수의 목표물을 추적할 수 있는 위치 추적 시스템을 설계하는 기법을 연구하고, 실제 알고리즘을 구성하였다. 그리고 휴대성을 높이고 위치 추적 알고리즘 계산을 효율적으로 할 수 있도록 알고리즘을 SoC(단일칩 시스템, System on Chip)로 설계하여 시스템의 확장성을 확보하는 방법을 제시하고자 한다.

FisheyeNet: Fisheye Image Distortion Correction through Deep Learning (FisheyeNet: 딥러닝을 활용한 어안렌즈 왜곡 보정)

  • Lee, Hongjae;Won, Jaeseong;Lee, Daeun;Rhee, Seongbae;Kim, Kyuheon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2021.06a
    • /
    • pp.271-274
    • /
    • 2021
  • Fisheye 카메라로 촬영된 영상은 일반 영상보다 넓은 시야각을 갖는 장점으로 여러 분야에서 활용되고 있다. 그러나 fisheye 카메라로 촬영된 영상은 어안렌즈의 곡률로 인하여 영상의 중앙 부분은 팽창되고 외곽 부분은 축소되는 방사 왜곡이 발생하기 때문에 영상을 활용함에 있어서 어려움이 있다. 이러한 방사 왜곡을 보정하기 위하여 기존 영상처리 분야에서는 렌즈의 곡률을 수학적으로 계산하여 보정하기도 하지만 이는 각각의 렌즈마다 왜곡 파라미터를 추정해야 하기 때문에, 개별적인 GT (Ground Truth) 영상이 필요하다는 제한 사항이 있다. 이에 본 논문에서는 렌즈의 종류마다 GT 영상을 필요로 하는 기존 기술의 제한 사항을 극복하기 위하여, fisheye 영상만을 입력으로 하여 왜곡계수를 계산하는 딥러닝 네트워크를 제안하고자 한다. 또한, 단일 왜곡계수를 왜곡모델로 활용함으로써 layer 수를 크게 줄일 수 있는 경량화 네트워크를 제안한다.

  • PDF

A palm information-based identity recognition deep learning model using a multi-channel image (멀티 채널 이미지를 이용한 손바닥 정보 기반 신원 인식 딥러닝 모델)

  • Kim, Beomjun;Kim, Inki;Gwak, Jeonghwan
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2022.01a
    • /
    • pp.93-96
    • /
    • 2022
  • 본 논문에서는 카메라 센서만을 이용하여 손바닥 사진을 촬영하고 추출된 데이터들을 합성하여 멀티 채널 이미지를 생성 및 분류 모델에 입력하여 신원을 확인하는 딥러닝 모델을 제안한다. 이 모델은 손바닥 사진이 입력되면 손바닥 및 손금 세그멘테이션을 이용하여 마스크 이미지를 추출하고 단일 채널로 구성된 이미지들을 멀티 채널 이미지로 합성/재구성하여 신원을 분류하는 딥러닝 모델이다. 이는 카메라 센서 외 다른 센서가 필요 없다는 장점을 가지고 있으며, 비접촉 신원 인식 시스템에 적용할 수 있다.

  • PDF

Information Fusion of Cameras and Laser Radars for Perception Systems of Autonomous Vehicles (영상 및 레이저레이더 정보융합을 통한 자율주행자동차의 주행환경인식 및 추적방법)

  • Lee, Minchae;Han, Jaehyun;Jang, Chulhoon;Sunwoo, Myoungho
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.23 no.1
    • /
    • pp.35-45
    • /
    • 2013
  • A autonomous vehicle requires improved and robust perception systems than conventional perception systems of intelligent vehicles. In particular, single sensor based perception systems have been widely studied by using cameras and laser radar sensors which are the most representative sensors for perception by providing object information such as distance information and object features. The distance information of the laser radar sensor is used for road environment perception of road structures, vehicles, and pedestrians. The image information of the camera is used for visual recognition such as lanes, crosswalks, and traffic signs. However, single sensor based perception systems suffer from false positives and true negatives which are caused by sensor limitations and road environments. Accordingly, information fusion systems are essentially required to ensure the robustness and stability of perception systems in harsh environments. This paper describes a perception system for autonomous vehicles, which performs information fusion to recognize road environments. Particularly, vision and laser radar sensors are fused together to detect lanes, crosswalks, and obstacles. The proposed perception system was validated on various roads and environmental conditions with an autonomous vehicle.