• 제목/요약/키워드: Frame Camera

검색결과 613건 처리시간 0.03초

영상회의를 위한 화자 검출 시스템 (Speaker Detection System for Video Conference)

  • 이병선;고성원;권혁봉
    • 조명전기설비학회논문지
    • /
    • 제17권5호
    • /
    • pp.68-79
    • /
    • 2003
  • 본 논문에서는 여러 사람이 참여하는 영상 회의에서 입술 움직임 정보를 이용하여 화자를 검출하는 시스템을 구현하였다. 구현된 시스템은 얼굴색 정보와 형태 정보를 이용하여 각 사람의 얼굴 및 입술 영역을 검출한 후, 입술 영역에서 이전 프레임과의 변화량을 계산하여 화자를 검출한다. 검출된 화자를 클로즈업하기 위하여 두 대의 CCD카메라를 사용하였으며, RS-232C시리얼 포트를 이용하여 PTZ 카메라를 제어한다. 실험 결과 3인 이상의 입력 동영상에서 얼굴의 기울어짐에 무관하게 화자를 검출할 수 있었으며 최초 기준 영상에서 화자를 클로즈업하는데 약 4∼5초 정도의 시간이 소요되었다. 또한 320${\times}$240 크기의 얼굴 영역 화면과 전체적인 배경 화면을 동시에 제공하므로 영상회의 및 인터넷 방송 등과 같은 영상 전송 시스템에서 보다 효율적인 의사 전달이 가능하게 하였다.

개선된 직교분해기법을 사용한 빠른 구조 복원 및 융합 (Fast Structure Recovery and Integration using Improved Scaled Orthographic Factorization)

  • 박종승;윤종현
    • 한국멀티미디어학회논문지
    • /
    • 제10권3호
    • /
    • pp.303-315
    • /
    • 2007
  • 본 논문에서는 비디오에서의 특징점 추적을 통해 얻은 2차원 좌표를 이용하여 3차원 구조를 계산하고 부분적으로 복원된 형상들을 점진적으로 융합하여 전체 형상을 생성하는 기법을 제안한다. 영상의 각 프레임에서 공통적으로 추적된 특징점들을 이용하여 형상을 추정한다. 3차원 좌표 추정 방법으로 개선된 직교분해기법을 사용하였다. 개선된 직교분해기법에서는 3차원 좌표를 복원함과 동시에 카메라의 위치와 방향을 계산할 수 있다. 복원된 부분 형상의 융합을 통해 입체적인 전체 형상을 만든다. 복원된 부분 데이터들의 서로 다른 좌표계를 기준 좌표계로 변환하여 하나의 전체 형상으로 융합한다. 형상 추정 과정과 융합 과정이 통합적으로 수행되며 반복적 최적화 작업을 수행하지 않고 선형적으로 이루어진다. 이는 기존 융합 방법인 ICP(Iterative Closest Point) 방법보다 융합 속도를 향상시켜 빠른 형상 복원이 가능하다. 융합 시간은 평균 0.01초 이내의 수행 속도를 보이며 융합의 오차는 평균 1.0mm 이하의 오차를 보였다.

  • PDF

PIV System for the Flow Pattern Anaysis of Artificial Organs ; Applied to the In Vitro Test of Artificial Heart Valves

  • Lee, Dong-Hyeok;Seh, Soo-Won;An, Hyuk;Min, Byoung-Goo
    • 대한의용생체공학회:의공학회지
    • /
    • 제15권4호
    • /
    • pp.489-497
    • /
    • 1994
  • The most serious problems related to the cardiovascular prothesis are thrombosis and hemolysis. It is known that the flow pattern of cardiovascular prostheses is highly correlated with thrombosis and hemolysis. Laser Doppler Anemometry (LDA) is a usual method to get flow pattern, which is difficult to operate and has narrow measure region. Particle Image Velocimetry (PIV) can solve these problems. Because the flow speed of valve is too high to catch particles by CCD camera, high-speed camera (Hyspeed : Holland-Photonics) was used. The estimated maximum flow speed was 5m/sec and maximum trackable length is 0.5 cm, so the shutter speed was determined as 1000 frames per sec. Several image processing techniques (blurring, segmentation, morphology, etc) were used for the preprocessing. Particle tracking algorithm and 2-D interpolation technique which were necessary in making gridrized velocity pronto, were applied to this PIV program. By using Single-Pulse Multi-Frame particle tracking algorithm, some problems of PIV can be solved. To eliminate particles which penetrate the sheeted plane and to determine the direction of particle paths are these solving methods. 1-D relaxation fomula is modified to interpolate 2-D field. Parachute artificial heart valve which was developed by Seoul National University and Bjork-Shiely valve was testified. For each valve, different flow pattern, velocity profile, wall shear stress and mean velocity were obtained.

  • PDF

Kinect Sensor를 이용한 실시간 3D 인체 전신 융합 모션 캡처 (Realtime 3D Human Full-Body Convergence Motion Capture using a Kinect Sensor)

  • 김성호
    • 디지털융복합연구
    • /
    • 제14권1호
    • /
    • pp.189-194
    • /
    • 2016
  • 최근 카메라, 캠코더 및 CCTV 등의 사용이 활발해지면서 영상 처리 기술의 수요가 급증하고 있다. 특히 키넥트 센서와 같은 깊이(Depth) 카메라를 사용한 3D 영상 기술에 대한 연구개발이 더욱더 활성화되고 있다. 키넥트 센서는 RGB, 골격(Skeleton) 및 깊이(Depth) 영상을 통해 인체의 3D 골격 구조를 실시간 프레임 단위로 획득할 수 있는 고성능 카메라이다. 본 논문에서는 키넥트 센서를 사용하여 인체의 3D 골격 구조를 모션 캡처하고 범용으로 사용되고 있는 모션 파일 포맷($^*.trc$$^*.bvh$)으로 선택하여 저장할 수 있는 시스템을 개발한다. 또한 본 시스템은 광학식 모션 캡처 파일 포맷($^*.trc$)을 자기식 모션 캡처 파일 포맷($^*.bvh$)으로 변환할 수 있도록 하는 기능을 가진다. 마지막으로 본 논문에서는 키넥트 센서를 사용하여 캡처한 모션 데이터가 제대로 캡처되어졌는지 모션 캡처 데이터 뷰어를 통하여 확인한다.

Color Line Scan Camera를 위한 고속 신호처리 하드웨어 시스템 구현 (Implementation of the high speed signal processing hardware system for Color Line Scan Camera)

  • 박세현;금영욱
    • 한국정보통신학회논문지
    • /
    • 제21권9호
    • /
    • pp.1681-1688
    • /
    • 2017
  • 본 논문에서는 FPGA와 Nor-Flash를 사용하여 컬러 라인 스캔 카메라를 위한 고속 신호처리 하드웨어 시스템을 구현하였다. 기존의 시스템에서는 소프트웨어를 기반으로 한 고속 DSP가 적용되어 왔고 주로 RGB 개별 논리에 의해 결함을 검출하는 방법이었지만 본 논문에서는 RGB-HSL 변환기, FIFO, HSL 풀-컬러 결함 디코더 및 이미지 프레임 버퍼로 구성된 하드웨어 기반의 결함 검출기를 제안하였다. 결함 검출기는 RGB에서 HSL로의 색상 공간 변환을 위한 하드웨어 기반 룩업테이블과 4K HSL 풀-컬러 결함 디코더로 구성되어 있다. 또한 단일 라인 데이터 기반의 로컬 픽셀 처리 대신 2차원 배열 구조의 이미지 단위 처리를 위해 라인 데이터 축적용 이미지 프레임을 포함한다. 설계된 시스템을 기존의 곡물 선별기에 적용하여 땅콩을 대상으로 선별해 본 결과 효과적임을 알 수 있었다.

분광특성 분석에 의한 논 잡초 검출의 기초연구 (A Fundamental Study on Detection of Weeds in Paddy Field using Spectrophotometric Analysis)

  • 서규현;서상룡;성제훈
    • Journal of Biosystems Engineering
    • /
    • 제27권2호
    • /
    • pp.133-142
    • /
    • 2002
  • This is a fundamental study to develop a sensor to detect weeds in paddy field using machine vision adopted spectralphotometric technique in order to use the sensor to spread herbicide selectively. A set of spectral reflectance data was collected from dry and wet soil and leaves of rice and 6 kinds of weed to select desirable wavelengths to classify soil, rice and weeds. Stepwise variable selection method of discriminant analysis was applied to the data set and wavelengths of 680 and 802 m were selected to distinguish plants (including rice and weeds) from dry and wet soil, respectively. And wavelengths of 580 and 680 nm were selected to classify rice and weeds by the same method. Validity of the wavelengths to distinguish the plants from soil was tested by cross-validation test with built discriminant function to prove that all of soil and plants were classified correctly without any failure. Validity of the wavelengths for classification of rice and weeds was tested by the same method and the test resulted that 98% of rice and 83% of weeds were classified correctly. Feasibility of CCD color camera to detect weeds in paddy field was tested with the spectral reflectance data by the same statistical method as above. Central wavelengths of RGB frame of color camera were tried as tile effective wavelengths to distingush plants from soil and weeds from plants. The trial resulted that 100% and 94% of plants in dry soil and wet soil, respectively, were classified correctly by the central wavelength or R frame only, and 95% of rice and 85% of weeds were classified correctly by the central wavelengths of RGB frames. As a result, it was concluded that CCD color camera has good potential to be used to detect weeds in paddy field.

스테레오 시각과 Kalman 필터링을 이용한 강인한 3차원 운동추정 (Robust 3-D Motion Estimation Based on Stereo Vision and Kalman Filtering)

  • 계영철
    • 방송공학회논문지
    • /
    • 제1권2호
    • /
    • pp.176-187
    • /
    • 1996
  • 본고는 로보트 팔의 선단에 부착된 카메라에 의하여 촬영된 일련의 스테레오 영상을 이용하여 운동물체의 3차원 자세 (위치와 방향)를 정확히 추정하는 방법을 다룬다. 본고는 이미 발표된 바 있는 연구결과를 확장한 것으로서[1], 2차원 영상의 측정잡음 뿐만아니라[1], 또한 로보트 팔의 죠인트 각도의 랜덤잡음이 함께 존재할 경우 world 좌표계 (또는 로보트 기지좌표계)를 기준으로 한 운동물체의 3차원 자세의 추정에 중점을 둔다. 이를 위하여, 다음 사항에 근거하여 선형 Kalman 필터를 유도한다. (1) 2차원 영상의 측정잡음이 3차원 공간으로 전파되는 것을 분석함으로써, 이에 기인한 물체좌표계의 방향오차를 카메라 좌표계를 기준으로 하여 모델링한다; (2) 죠인트 각도 오차에 의한 로보트 선단좌표계의 방향오차를 (1)의 결과와 결합하여 extended Jacobian matrix를 유도한다; 그리고 (3) 본질적으로 비선형인 물체의 회전운동을 quaternion을 도입함으로써 선형화 한다. 운동 파라메터는 추정된 quaternion으로부터 반복 최소자승 방법을 이용하여 계산된다. 모의실험 결과, 추정오차가 상당히 감소되고, 실제의 운동 파라메터가 참 값으로 정확히 수렴함을 알 수 있다.

  • PDF

VR 영화에서 암묵적 프레임의 존재 (The Existence of Implicit Frames in VR Movies)

  • 김태은
    • 한국콘텐츠학회논문지
    • /
    • 제18권8호
    • /
    • pp.272-286
    • /
    • 2018
  • VR영화는 일반영화에서의 스크린 화면과 관객과의 관계가 전혀 다르게 형성된다. 관객이 곧 카메라가 되고 카메라의 시점의 주체가 되기 때문에 1인칭 시점에 대한 고찰과 서사를 전달하는 프레임의 편집을 대체할 VR영화만의 프레임 이론이 필요하다. VR영화의 서사전달기능을 하는 프레임의 존재를 드러나지 않으면서 상징적 서사기능을 한다는 의미로써 '암묵적'프레임이라 명명하고 이와 관련된 이론적 배경으로 원씬 원컷으로 제작된 쇼쿠로프감독의 <러시아방주>와 외화면적 요소, 제4의 벽의 개념을 가져올 수 있다. VR영화 속 관객은 현존하지만 동시에 화면 안에서 부재하는 역설적인 딜레마를 가지고 서사에 몰입하게 되면서 하이퍼리얼리티를 겪는다. VR영화 공간에서 시선을 움직이는 시선의 블로킹, 실제와 가상사이의 현존을 묶어주는 원격현존의 속성을 지닌다.

눈 깜박임 화소 값 기반의 안면과 홍채영역 영상인식용 모듈설계 (Design of Image Recognition Module for Face and Iris Area based on Pixel with Eye Blinking)

  • 강민구
    • 인터넷정보학회논문지
    • /
    • 제18권1호
    • /
    • pp.21-26
    • /
    • 2017
  • 본 논문에서는 홍채정보로 개인인증을 위한 USB-OTG(Uiversal Serial Bus On-the-go) 영상인식 모듈을 설계한다. 개인인증을 위해 사용자가 스마트 폰 버튼을 누를 필요가 없도록 스마트 기기를 안면주위의 여러 장의 안면영상을 획득 후, 눈 깜박임에 의한 화소 값 차로 안면과 홍채영역을 검색하는 영상인식 알고리듬을 제안한다. 본 연구에서는 인접한 눈을 뜬 영상과 눈을 감은 영상을 감지한 안면과 홍채 영상의 프레임 화소 값의 차이를 사용한다. 또한, 홍채 영역분할에 의한 동공과 홍채영역 위치를 빠르게 찾을 수 방법을 활용한다. 제안한 빠른 홍채영역의 위치탐색은 눈 영역의 적정한 그리드 크기에 의해 결정할 수 있다. 안면과 홍채영역의 제한된 영역을 탐색하는 홍채인식 카메라 모듈의 USB-OTG 인터페이스 통한 인접영상의 프레임 차이에 의해 검출할 수 있도록 설계하였다. 이로서 스마트 디바이스 사용자가 홍채 인식을 위해 눈을 깜빡이지 않고 대기해야 하는 불편함을 제거함으로써 사용자 편의성을 증대시킬 것으로 기대한다.

평행투영 기반의 고해상도 위성영상 에피폴라 재배열 (Epipolar Resampling for High Resolution Satellite Imagery Based on Parallel Projection)

  • 노명종;조우석;장휘정;정지연
    • 대한공간정보학회지
    • /
    • 제15권4호
    • /
    • pp.81-88
    • /
    • 2007
  • 선형 CCD 센서에 의해 획득되는 위성영상의 기하는 프레임 카메라 영상의 기하와는 차이점을 가지고 있다. 이는 각 스캔 선마다 영상의 외부표정요소가 다르기 때문에 발생한다. 따라서 기존의 프레임 영상에 사용되었던 에피폴라 기하와는 다른 기하가 필요하게 된다. 이와 같은 관점에서, 본 연구에서는 대표적인 선형 CCD 센서를 사용하여 촬영된 IKONOS 위성영상을 이용하여 에피폴라 영상을 제작하기 위한 영상 재배열 방법에 대한 연구를 수행하였으며, 영상의 투영조건을 중심투영이 아닌 평행투영으로 간주하여 구성된 2D 부등각 센서모델을 적용하였다. 이센서 모델에 의해 구성된 에피폴라 선식으로부터 유도된 정규 매개변수와 부등각 변환을 적용하여 에피폴라 재배열영상을 제작하였다. 결과로써, 2D 부등각 센서모델의 정확도가 검증되었으며, 제작된 에피폴라 영상을 사용하여 추출된 3차원 위치정확도는 IKONOS의 RFM 위치정확도와 유사하게 도출되었다.

  • PDF