• 제목/요약/키워드: 비디오 카메라

검색결과 578건 처리시간 0.026초

단일 비디오 카메라와 초음파센서를 이용한 스마트 에어백용 승객 감지 시스템 (An Occupant Sensing System Using Single Video Camera and Ultrasonic Sensor for Advanced Airbag)

  • 배태욱;이종원;하수영;김영춘;안상호;송규익
    • 한국멀티미디어학회논문지
    • /
    • 제13권1호
    • /
    • pp.66-75
    • /
    • 2010
  • 본 논문에서는 단일 비디오카메라와 초음파센서를 이용한 스마트 에어백용 승객 감지 시스템을 제안하였다. 승객의 체형과 얼굴 위치를 검출하기 위하여, 실시간 검출이 용이한 얼굴색 및 움직임 정보를 이용한다. 비디오 카메라 영상에서 얼굴색에 해당하는 색차신호 (U/V)의 경계값과 휘도신호 (Y)의 현재 프레임과 이전 프레임간의 차이값을 이용하여 후보 얼굴 블록 영상을 만든 후 모폴로지 및 라벨링 과정을 거쳐 얼굴 위치를 검출한다. 제안한 승객 자세감지 시스템의 성능을 평가하기 위하여 차량 지그에 IEEE 카메라, 초음파 센서 및 적외선 LED를 설치하여 다양한 실험을 수행하였다.

고정 카메라 기반 비디오 모니터링 환경에서 딥러닝 객체 탐지기 결과를 활용한 실시간 전경 및 시설물 추출 (Real-Time Foreground and Facility Extraction with Deep Learning-based Object Detection Results under Static Camera-based Video Monitoring)

  • 이나연;손승욱;유승현;정용화;박대희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.711-714
    • /
    • 2021
  • 고정 카메라 환경에서 전경과 배경 간 픽셀값의 차를 이용하여 전경을 추출하기 위해서는 정확한 배경 영상이 필요하다. 또한, 프레임마다 변화하는 실제 배경과 맞추기 위해 배경 영상을 지속해서 갱신할 필요가 있다. 본 논문에서는 정확한 배경 영상을 생성하기 위해 실시간 처리가 가능한 딥러닝 기반 객체 탐지기의 결과를 입력받아 영상 처리에 활용함으로써 배경을 생성 및 지속적으로 갱신하고, 획득한 배경 정보를 이용해 전경을 추출하는 방법을 제안한다. 먼저, 고정 카메라에서 획득되는 비디오 데이터에 딥러닝 기반 객체 탐지기를 적용한 박스 단위 객체 탐지 결과를 지속적으로 입력받아 픽셀 단위의 배경 영상을 갱신하고 개선된 배경 영상을 도출한다. 이후, 획득한 배경 영상을 이용하여 더 정확한 전경 영상을 획득한다. 또한, 본 논문에서는 시설물에 가려진 객체를 더 정확히 탐지하기 위해서 전경 영상을 이용하여 시설물 영상을 추출하는 방법을 제안한다. 실제 돈사에 설치된 카메라로 부터 획득된 12시간 분량의 비디오를 이용하여 실험한 결과, 제안 방법을 이용한 전경과 시설물 추출이 효과적임을 확인하였다.

투영 텍스처를 이용한 스테레오 비디오 아바타 (A Stereo Video Avatar using Projective Texture)

  • 이선민;박지영;김명희
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제11권4호
    • /
    • pp.34-38
    • /
    • 2005
  • 본 논문에서는 대형 스크린 기반 디스플레이 환경에서 시각 커뮤니케이션 증진을 위한 비디오 아바타 생성 기법에 대하여 소개한다. 일반적으로 대형 스크린 기반 가상 환경에서는 스크린으로 투사되는 빛의 변화 때문에 정적 배경을 보장할 수 없다. 뿐만 아니라 카메라 위치 설정이 자유롭지 못하기 때문에 디스플레이 환경 내에 있는 사용자를 대상으로 비디오 아바타를 생성하기 쉽지 않다. 본 논문에서는 적외선 및 필터를 이용하여 가시광선을 차단함으로써 사용자 영역을 쉽게 정의할 수 있도록 하였고, 나란히 배치된 컬러 영상에 실루엣 마스크를 적합하여 배경이 제거된 사용자 컬러 영상을 추출할 수 있도록 하였다. 또한 생성된 스테레오 비디오 아바타 영상은 투영 텍스처를 이용하여 보정된 후 가상세계에 투사되어 입체 디스플레이 된다. 제안된 기법은 일반적인 카메라를 이용하고 있으며, 간단한 조명 조건만 설정해주면 기존의 대형 스크린 기반 프로젝션 환경을 변형하지 않고도 쉽게 설치하여 사용할 수 있기 때문에 많은 활용도가 있을 것이라 기대된다.

  • PDF

HEVC 기반 3차원 비디오 부호화 기법 성능 분석 (Overview and Performance analysis of the HEVC based 3D Video Coding)

  • 박대민;최해철
    • 한국방송∙미디어공학회:학술대회논문집
    • /
    • 한국방송공학회 2013년도 추계학술대회
    • /
    • pp.186-189
    • /
    • 2013
  • 최근 다양한 3D 콘텐츠들에 대한 사용자의 요구에 따라 HD(High Definition)화질 및 이를 넘어서는 고해상도(FHD(full high definition), UHD(ultra high definition))의 고품질 3D 방송 서비스에 대한 연구가 진행되고 있으며, 차세대 영상 기술로 주목되고 있는 3차원 비디오 기술은 사용자에게 실감 있는 영상을 제공할 수 있다, 하지만 많은 시점을 전부 촬영하는 것은 한계가 있으므로, 카메라의 깊이 정보를 이용하여, 전송하는 시점을 줄이고, 시점영상을 합성함으로써 사용하는 카메라의 수보다 더 많은 시점을 생성하는 방법이 필요하다. 현재 국제 표준화 기구인 MPEG(Moving Picture Experts Group)의 3차원 비디오 부호화(3D Video Coding, 3DVC)에서는 깊이영상을 가지는 3차원 비디오영상에 대한 효과적인 부호화 기술들에 대해 표준화가 진행되고 있다. 이에 본 논문은 HEVC 기반의 3D-HEVC에서 사용하는 표준 기술들에 대하여 소개하고, 현재 사용되고 있는 기술들에 대한 성능 평가를 분석 하였다.

  • PDF

고정 카메라 기반 비디오 모니터링 환경에서 GMM을 활용한 움직인 돼지 탐지 (GMM-based Moving Pigs Detection under Static Camera-based Video Monitoring)

  • 이세준;유승현;손승욱;정용화;박대희
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.860-863
    • /
    • 2021
  • 고정 카메라 환경에서 움직이는 객체만을 탐지하는 것은 비디오 모니터링의 중요한 응용 분야이다. 본 논문에서는 비디오의 특성인 움직임 정보가 포함된 영상에서 GMM을 이용하여 움직인 돼지와 움직이지 않은 돼지의 위치를 대략적으로 구분하고, 추가적인 영상 처리 기법과 딥러닝 기반 객체 탐지기를 적용한 박스 단위 객체 탐지 결과를 활용하여 움직인 돼지의 외곽선을 보정한다. 돈사에서 촬영된 비디오 데이터로 실험한 결과, 제안 방법은 효과적으로 움직인 돼지를 탐지할 수 있음을 확인하였다.

LED 비디오월을 사용하는 방송환경에서 HD 카메라의 적정 초점거리 연구 (A Study on the Adequate HD Camera Focal Length in the Broadcasting Studio using LED Video Wall)

  • 최기창;권순철;이승현
    • 문화기술의 융합
    • /
    • 제8권5호
    • /
    • pp.713-721
    • /
    • 2022
  • LED 비디오월을 방송 현장에서 사용하기 위해서는 몇 가지 알아두어야 할 사항이 있다. 첫째, 픽셀이 촘촘히 배열되어 있기 때문에 짧은 배열 주기로 인한 무아레 현상이 나타날 수 있고, 둘째, 픽셀 간의 거리(픽셀피치)가 촬영하는 카메라 이미지 센서에 기록될 수 있다. 무아레 현상이 발생하거나 픽셀피치가 관찰되게 되면 시청자의 입장에서는 불편함을 느끼게 된다. 무아레 현상은 카메라의 촬영거리나 각도를 조정하면서 감소시킬 수 있지만, 픽셀피치가 이미지 센서에 녹화되는 걸 방지하기 위해서는 LED 비디오월과 카메라와의 거리를 충분히 확보하거나, 거리가 확보된 상태에서도 픽셀피치가 녹화되지 않도록 방송 현장에서 사용되는 줌렌즈의 배율을 적절하게 변화시켜 운용해야 한다. 원하는 화각을 얻기 위해 배율을 변경시켜 초점거리를 변동시키게 되면 의도치 않게 픽셀피치가 녹화되는 결과를 초래할 수 있다. 본 논문에서는 비디오월과의 거리가 충분히 확보된 상태에서 줌렌즈의 배율을 변경하면서 픽셀피치가 관찰되지 않는 범위에 대해 알아보았다. LED 비디오월에 영상을 재생시켜 B4 마운트 줌렌즈를 장착한 HD 카메라와 서버를 사용해 LED 비디오월 상태를 녹화하였고, TV 화면으로 재생하여 픽셀피치가 관찰되는지 확인해 보았다.

2단계 신경망과 계층적 프레임 탐색 방법을 이용한 MPEG 비디오 분할 (MPEG Video Segmentation using Two-stage Neural Networks and Hierarchical Frame Search)

  • 김주민;최영우;정규식
    • 한국정보과학회논문지:소프트웨어및응용
    • /
    • 제29권1_2호
    • /
    • pp.114-125
    • /
    • 2002
  • 본 논문에서는 MPEG 비디오 데이터의 컷(cut)과 디졸브(dissolve)를 검출하여 샷(shot) 단위로 분할하고 각 샷의 카메라 동작 또는 객체 움직임의 형태를 분류하는 방법을 제안하고자 한다. 정확한 샷의 위치와 카메라, 객체의 세분화된 동작을 구별하기 위한 전단계의 연구에서[1] 우선 MPEG 데이터의 I(Intra) 프레임의 DC(Direct Current) 계수를 분석하여 픽처 그룹을 Shot(장면이 바뀐 경우), Move(카메라 동작 또는 객체가 움직인 경우), Static(영상의 변화가 거의 없는 경우)으로 세분화하여 분류하였다. 이 과정에서 2단계 구조의 신경망을 구성하고 여러 종류의 특징을 서로 다른 해상도에서 추출하여 결합시키는 방법을 제안하였다. 다음 단계로 Shot 또는 Move로 분류된 픽처 그룹의 P(Predicted), B(Bi-directional) 프레임을 선별적, 계층적으로 탐색하여 컷의 정확한 발생 위치와 카메라 동작 또는 객체 움직임의 종류를 결정하는 방법을 제안한다. P, B 프레임의 매크로 블록의 종류별 분포를 통계적으로 이용하여 컷의 발생 위치를 검출하여, P, B 프레임의 매크로 블록 종류와 움직임 벡터를 동시에 사용하는 신경망을 구성하여 디졸브, 카메라 동작, 객체 움직임의 종류를 검출한다. 본 논문에서 제안하는 방법은 MPEG 데이터의 압축을 풀지 않은 상태에서 I 프레임의 DC 계수만을 사용하여 픽처 그룹을 분류하며, 분류된 픽처 그룹 내에서 일부의 P, B 프레임만을 계층적으로 선택하여 탐색함으로서 처리 시간을 감소시키고자 하였다. 세 종류의 서로 다른 비디오 데이터를 사용한 실험에서 93.9-100.0%로 픽처 그룹을, 96.1-100.0%로 컷을 검출하였다. 또한 두 종류의 비디오 데이터를 사용한 실험에서 90.13% 및 89.28%의 정확성으로 카메라 동작 또는 객체 움직임을 분류하였다.

구면 PTAM의 구현을 위한 카메라 모델 설계 (Design of Camera Model for Implementation of Spherical PTAM)

  • 김기식;박종승
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 춘계학술발표대회
    • /
    • pp.607-610
    • /
    • 2020
  • 시각적 환경 인식을 위하여 PTAM 연구가 활발히 이루어지고 있다. 최근 모든 방향의 시야각을 제공하는 구면 비디오를 위한 연구로 확장되고 있다. 기존의 구면 SLAM 방법은 Unified Sphere Model을 사용하며 앞면 시야각만 제공할 수 있는 한계가 있다. 본 논문에서는 구면 비디오를 위한 PTAM의 구현을 위한 카메라 모델을 제시한다. 제안된 카메라 모델은 핀홀 투영 카메라에 기반한 듀얼 영상 평면을 사용한다. 제안 방법은 앞면 시야각에 제약되지 않으며 전체 시야각을 지원한다. 또한 구면 바디오의 PTAM 적용 과정에서 평면 연산식을 직접 적용할 수 있는 장점이 있다.

평면을 이용한 이미지 시퀀스에서의 3D 그래픽 정합에 대한 연구 (A Study on 3D Graphics Registration of Image Sequences using Planar Surface)

  • 김주완;장병태
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2003년도 봄 학술발표논문집 Vol.30 No.1 (B)
    • /
    • pp.190-192
    • /
    • 2003
  • 본 논문은 캘리브레이션 정보를 모르는 카메라로부터 얻은 시퀀스 영상에서 공간상에서 평면인 물체의영상 정보를 이용하여 카메라 내부 및 외부 파라미터를 추정하고, 이를 이용하여 가상의 3D 그래픽을 시퀀스 영상에 정합하는 방법을 제안한다. 제안된 방법은 기존의 방법에 비해 손쉽게 이미지에 가상의 3D 그래픽 오브젝트를 정합할 수 있으며, 눈에 보이는 정합오차를 최소화하며 DirectX와 같은 3D 그래픽 툴과 쉽게 연동이 되는 장정이 있다. 본 연구는 비디오와 같은 영상에 3D 영상을 합성하는 대화형 비디오 컨텐트 개발에 활용할 수 있을 것으로 기대된다.

  • PDF

휴대용 공간정보취득 시스템 구축 (Development of a Portable Spatial Information Acquisition System)

  • 이지훈;최경아;이임영
    • 한국GIS학회:학술대회논문집
    • /
    • 한국GIS학회 2010년도 춘계학술대회
    • /
    • pp.296-297
    • /
    • 2010
  • 본 연구는 비디오카메라와 GPS/MEMS IMU를 이용하여 동영상과 위치/자세 데이터를 동시에 취득하는 방법을 제안하고 시스템을 구축하였다. 구축된 시스템에 실시간 영상 georeferencing 알고리즘을 적용한다면 데이터 취득과 동시에 georeferenced 동영상을 획득할 수 있을 것으로 기대된다. 또한 이로부터 신속하게 대상물의 3차원 모델 등의 다양한 공간정보를 구축하여 증강현실 등에 활용될 수 있을 것이다. 향후 정확도 검증을 통해 시스템의 효용성을 입증할 것이다.

  • PDF