• Title/Summary/Keyword: 영상 및 비디오

Search Result 993, Processing Time 0.026 seconds

Implementation of Authentication and Encryption of Multimedia Conference based on H.235 (H.235에 기반한 영상회의 시스템의 인증 및 암호화 구현)

  • 심규복;이건배;성동수
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2001.10a
    • /
    • pp.718-720
    • /
    • 2001
  • 본 논문에서는 ITU-T 영상회의 프로토콜 표준안(H.323)에서 보안 프로토콜로 권고된 H.235를 기반으로 하여 사용자 인증, 비디오 및 오디오 데이터의 암호화, 암호키의 보호에 대하여 구현한다. 인증 방법으로는 패스워드 기반의 대칭키 암호 인증을 사용하고, 비디오 및 오디오 데이터의 암호화에 사용되는 암호키의 보호를 위해서는 DES와 Diffie-Hellman의 키 분배 방법을 사용한다. 또한, DES를 사용한 비디오 및 오디오 데이터의 암호화/복호화를 보여준다.

  • PDF

Transformer-based Self-Referential In-loop Filtering (트랜스포머 기반 자기 참조 인루프 필터링)

  • Lee, Jung-Kyung;Kim, Nayoung;Kang, Je-Won
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2022.06a
    • /
    • pp.71-73
    • /
    • 2022
  • 다양한 미디어 서비스의 발전으로 비디오의 방대한 데이터를 효과적으로 압축할 수 있는 비디오 부호화 표준은 지속적인 발전을 하고 있다. 압축된 데이터를 다시 영상으로 복원하는 비디오 부복호화 과정에서 영상 데이터의 손실이 일어나고 그에 따른 다양한 형태의 열화가 나타나 영상의 화질을 저하한다. 이러한 열화들을 제거하여 원본 이미지에 가깝게 만들기 위해서 인루프 필터 과정을 비디오 부호화 표준에서 포함하고 있다. 이에 최근 영상처리 및 컴퓨터 비전 분야에서는 널리 사용되는 인공 신경망을 적용하여 효과적인 필터링을 하는 방법을 제시한다. 본 논문에서는 비디오 부호화 시 인루프 필터링에서 자기 참조를 통한 화질 개선 방법에 대해 연구하였다. 이를 위하여 트랜스포머 기반의 화질 개선 네트워크를 제안하고 기존 부호화 방법과 비교하였다. 인루프 필터링을 통해 화질을 향상하여 주관적 화질을 개선할 뿐만 아니라 객관적 부호화 효율을 증가시키는 방법을 개발하였다.

  • PDF

UHD Video Transcoding System in Cloud Computing Environment (클라우드 기반 UHD 영상 트랜스코딩 시스템)

  • Moon, Hee-Cheol;Kim, Yong-Hwan;Kim, Dong-Hyeok
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2014.11a
    • /
    • pp.203-205
    • /
    • 2014
  • UHD 영상 콘텐츠는 FHD 영상에 비해 생생하고 더 좋은 고화질의 영상을 제공하지만 영상정보의 데이터 양은 4K UHD 경우 4 배 이상이다. 이러한 초대용량의 UHD 영상을 기존의 병렬/분산 처리를 이용하여 비디오 코딩 한다면 UHD 의 초대용량 특성으로 인하여 연산량 부하가 발생하게 된다. 따라서 UHD 영상은 기존의 분산처리 방식이 아닌 초대용량 데이터를 빠르게 처리 할 수 있는 새로운 분산 처리기술이 필요하다. 본 논문은 UHD 콘텐츠를 빠르게 트랜스코딩 할 수 있는 클라우드 기반 UHD 영상 트랜스코딩 시스템을 제안한다. 본 논문에서 제안하는 UHD 영상 트랜스코딩 시스템은 다음 3 가지 패킷 분석기, 분산 트랜스코더, 스트림 합성기로 구성된다. 패킷 분석기는 입력 영상을 분석하여 오디오와 비디오 스트림을 분할하고 비디오 스트림은 분산처리를 할 수 있도록 영상 패킷을 분할한다. 분산 트랜스코더는 클라우드 환경을 이용하여 분할된 영상 패킷들을 분산 디코드 및 인코드 처리한다. 스트림 합성기는 트랜스코딩이 완료된 비디오 스트림과 패킷 분석기에서 획득하였던 오디오 스트림을 합성하는 기능을 한다. 제시하는 방안을 적용하여 클라우드 기반 영상 트랜스 코딩 시스템을 구현하였으며, 구현된 시스템은 대용량의 UHD 영상을 빠른 속도로 트랜스코딩이 가능하다.

  • PDF

An efficient video multiplexer for the transmission of the DMB multimedia data (DMB 멀티미디어 데이터의 전송을 위한 효율적인 비디오 다중화기)

  • Na Nam-Woong;Baek Sun-Hye;Hong Sung-Hoon
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2003.11a
    • /
    • pp.183-186
    • /
    • 2003
  • DMB(Digital Multimedia Broadcasting)는 유럽의 디지털 오디오 방송규격인 Eureka-147 DAB(Digital Audio Broadcasting) 전송시스템을 기반으로 하여 동영상 및 음성, 문자데이터 등을 포함한 멀티미디어 서비스를 제공하기 위한 새로운 방송표준이다 따라서 DMB 시스템은 Eureka-147 DAB 전송부 이외에 영상 및 음성을 압축하는 미디어압축 (복)부호화부, 압축된 미디어 스트림을 다중화 하는 비디오 (역)다중화부가 추가된 구조를 갖는다. 본 논문은 DMB 표준의 비디오 다중화부의 분석을 통하여 확장된 전송기능 및 높은 전송효율을 제공할 수 있는 새로운 비디오 다중화 구조를 제시한다. 또한 표준 비디오 다중화기와 제안된 비디오 다중화기의 성능평가를 위해 기능적으로 분석하고 시뮬레이션을 통해 전송효율을 측정하였다.

  • PDF

Segmentation and Classification Using Audio and Image Information (오디오와 영상 정보를 이용한 비디오 세그먼테이션 및 크래시피케이션)

  • Jung, Hae-Jun;Jung, Sung-Hwan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2000.10b
    • /
    • pp.891-894
    • /
    • 2000
  • 본 논문에서는 효과적인 내용기반 비디오 검색을 위한 샷 경계 검출, 장면 경계 검출, 그리고 비디오 크래시피케이션 방법을 연구하였다. 먼저, 샷 경계 검출을 위해 칼라 히스토그램과 DCT 변환 계수를 통합하여 사용했다. 그리고 장면 경계 검출을 위해서는 영상 정보뿐만 아니라 오디오 정보를 함께 사용하여 장면 경계를 검출하였다. 또한 비디오 크래시피케이션에서는 장면 경계검출시 추출한 오디오 정보를 이용해 비디오를 내용별로 분류하는 연구를 제안하였다. 뉴스, 광고, 스포츠 등 다양한 3개 분야의 TV 프로그램으로 구성된 약 8,500개 영상 프레임과 약 50,000개의 오디오 프레임을 가진 실험 비디오 데이터베이스를 구성하여 제안된 시스템을 실험하였다. 실험한 결과, 약 88%의 정확도(Precision)를 가지는 장면 경계 검출과 약 85%의 평균 분류율을 보였다.

  • PDF

Overview and Performance analysis of the HEVC based 3D Video Coding (HEVC 기반 3차원 비디오 부호화 기법 성능 분석)

  • Park, Daemin;Choi, Haechul
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2013.11a
    • /
    • pp.186-189
    • /
    • 2013
  • 최근 다양한 3D 콘텐츠들에 대한 사용자의 요구에 따라 HD(High Definition)화질 및 이를 넘어서는 고해상도(FHD(full high definition), UHD(ultra high definition))의 고품질 3D 방송 서비스에 대한 연구가 진행되고 있으며, 차세대 영상 기술로 주목되고 있는 3차원 비디오 기술은 사용자에게 실감 있는 영상을 제공할 수 있다, 하지만 많은 시점을 전부 촬영하는 것은 한계가 있으므로, 카메라의 깊이 정보를 이용하여, 전송하는 시점을 줄이고, 시점영상을 합성함으로써 사용하는 카메라의 수보다 더 많은 시점을 생성하는 방법이 필요하다. 현재 국제 표준화 기구인 MPEG(Moving Picture Experts Group)의 3차원 비디오 부호화(3D Video Coding, 3DVC)에서는 깊이영상을 가지는 3차원 비디오영상에 대한 효과적인 부호화 기술들에 대해 표준화가 진행되고 있다. 이에 본 논문은 HEVC 기반의 3D-HEVC에서 사용하는 표준 기술들에 대하여 소개하고, 현재 사용되고 있는 기술들에 대한 성능 평가를 분석 하였다.

  • PDF

Trend Review of Video Composing System (영상 합성 시스템 동향 분석)

  • Jeon, Mi-Seon;Lee, Man-Jae;Jang, Ho-Uk;Lee, Ui-Taek
    • Electronics and Telecommunications Trends
    • /
    • v.12 no.1 s.43
    • /
    • pp.27-42
    • /
    • 1997
  • 영상 합성 기술이란 영화 및 비디오 제작에 있어 비디오 화면을 다양한 효과를 사용하여 편집하는 기술이다. 비디오 분야에서 디지털 기술이 도입되어 사용된 이 기술은 영상 산업을 급격히 변화시키는 응용 기술의 하나로 본 고에서는 이 분야에서 현재 사용되는 시스템의 특징과 그러한 시스템의 공통된 기술을 분석하여 이 분야의 기술 개발에 활용하고자 한다.

Key Frame Detection and Multimedia Retrieval on MPEG Video (MPEG 비디오 스트림에서의 대표 프레임 추출 및 멀티미디어 검색 기법)

  • 김영호;강대성
    • Proceedings of the Korea Institute of Convergence Signal Processing
    • /
    • 2000.08a
    • /
    • pp.297-300
    • /
    • 2000
  • 본 논문에서는 MPEG 비디오 스트림을 분석하여 DCT DC 계수를 추출하고 이들로 구성된 DC 이미지로부터 제안하는 robust feature를 이용하여 shot을 구하고 각 feature들의 통계적 특성을 이용하여 스트림의 특징에 따라 weight를 부가하여 구해진 characterizing value의 시간변화량을 구한다. 구해진 변화량의 local maxima와 local minima는 MPEG 비디오 스트림에서 각각 가장 특징적인 frame과 평균적인 frame을 나타낸다. 이 순간의 frame을 구함으로서 효과적이고 빠른 시간 내에 key frame을 추출한다. 추출되어진 key frame에 대하여 원영상을 복원한 후, 색인을 위하여 다수의 parameter를 구하고 사용자가 질의한 영상에 대해서 이들 파라메터를 구하여 key frame들과 가장 유사한 대표영상들을 검색한다.

  • PDF

Luminance and Chrominance Compensation of Multiview Video using Histogram Matching (히스토그램 매칭을 이용한 다시점 비디오의 휘도와 색차 성분 보상 기법)

  • Lee, Dong-Seok;Yoo, Ji-Hwan;Yoo, Ji-Sang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.191-194
    • /
    • 2009
  • 본 논문에서는 효율적인 다시점 비디오 부호화를 위해 히스토그램(histogram)을 이용한 다시점 비디오의 휘도(luminance)와 색차(chrominance)성분 보상 기법을 제안한다. 다시점 비디오는 카메라의 기하학적인 위치 차이와 여러 대의 카메라가 동일한 특성을 가지도록 완벽히 조정되지 못함으로 인해 동일한 시간대에 촬영된 인접한 시점 영상 간에 휘도와 색상의 차이가 발생할 수 있다. 이러한 특성은 인접한 카메라로부터 획득된 영상을 참조하여 시점간 움직임 예측 시에 오정합의 원인이 되어 부호화 효율을 떨어뜨리게 된다. 본 논문에서는 효율적인 다시점 비디오 부호화를 위해 시점간의 히스토그램을 비교하여 정합하는 휘도 및 색차 보상 기법을 수행한다. 일정한 시간 대역(time interval)에서 다시점 비디오의 평균 누적 히스토그램을 이용하여 참조 영상을 생성하고 각 시점별로 정합 함수를 통해 다시점 영상 간의 휘도와 색상의 불일치성을 보상한다. 제안하는 조명 보상 기법을 통하여 다시점 비디오 부호화 효율을 높일 수 있었다.

  • PDF

Hydrodynamic scene separation from video imagery of ocean wave using autoencoder (오토인코더를 이용한 파랑 비디오 영상에서의 수리동역학적 장면 분리 연구)

  • Kim, Taekyung;Kim, Jaeil;Kim, Jinah
    • Journal of the Korea Computer Graphics Society
    • /
    • v.25 no.4
    • /
    • pp.9-16
    • /
    • 2019
  • In this paper, we propose a hydrodynamic scene separation method for wave propagation from video imagery using autoencoder. In the coastal area, image analysis methods such as particle tracking and optical flow with video imagery are usually applied to measure ocean waves owing to some difficulties of direct wave observation using sensors. However, external factors such as ambient light and weather conditions considerably hamper accurate wave analysis in coastal video imagery. The proposed method extracts hydrodynamic scenes by separating only the wave motions through minimizing the effect of ambient light during wave propagation. We have visually confirmed that the separation of hydrodynamic scenes is reasonably well extracted from the ambient light and backgrounds in the two videos datasets acquired from real beach and wave flume experiments. In addition, the latent representation of the original video imagery obtained through the latent representation learning by the variational autoencoder was dominantly determined by ambient light and backgrounds, while the hydrodynamic scenes of wave propagation independently expressed well regardless of the external factors.