• Title/Summary/Keyword: 영상 간 변환

Search Result 843, Processing Time 0.03 seconds

A Feasibility Study on Spectrogram-based Deep Learning Approach to Resting State EEG-to-MRI Cross-Modality Transfer (휴식상태 EEG-to-MRI 크로스 모달리티 변환을 위한 스펙트로그램 기반 딥러닝 기법에 관한 예비 연구)

  • Gyu-Seok Lee;Arya Mahima;Wonsang You
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.05a
    • /
    • pp.13-14
    • /
    • 2023
  • 뇌의 전기적 신경활동을 측정하는 뇌전도(EEG)는 저렴하게 취득할 수 있고 높은 시간 해상도를 갖는 반면 공간적 정보를 제공하지는 않는다. 기능적 자기공명영상(fMRI)은 혈류변화를 감지하여 뇌활동을 측정하는 방식으로서 높은 공간 분해능을 갖지만 고가의 비용과 설비를 요구한다. 최근 저렴하게 취득할 수 있는 EEG 데이터로부터 딥러닝을 사용하여 fMRI 합성영상을 생성하는 기술이 제안되었지만, 저주파수 대역에서 EEG와 fMRI 간의 뇌과학적 상관관계를 반영하지는 않는다. 본 연구에서는 휴식상태에서 취득된 EEG 데이터를 스펙트로그램으로 변환한 후 저주파수 특성을 사용하여 fMRI 합성영상을 생성하는 U-net 기반의 크로스 모달리티 변환 모델의 실현가능성을 평가하였다.

A Color Image Coding by Estimating Spectral Correlation Based on Wavelet Transform (웨이블렛 변환 기반 스펙트럴 상관성 추정에 의한 칼라 영상 부호화)

  • Kwak, No-Yoon;Jeong, Dae-Gwon;Hwang, Byong-Won
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.37 no.1
    • /
    • pp.49-58
    • /
    • 2000
  • This paper presents a new color Image coding method which estimates color component Images from luminance image using spectral correlation m wavelet transformed domain More specifically, the wavelet transform is performed to the luminance image(Y), and then, for an efficient quad-tree division to encompass the varying block size, a cost function IS defined using high frequency coefficients generated by wavelet decomposition Next, a scale factor and an offset factor for each the block to minimize the estimation error between luminance image(Y) and R, B Images, are iteratively calculated With respect to the varying block size With associated cost function.

  • PDF

Object-based Conversion of 2D Image to 3D (객체 기반 3D 업체 영상 변환 기법)

  • Lee, Wang-Ro;Kang, Keun-Ho;Yoo, Ji-Sang
    • The Journal of Korean Institute of Communications and Information Sciences
    • /
    • v.36 no.9C
    • /
    • pp.555-563
    • /
    • 2011
  • In this paper, we propose an object based 2D image to 3D conversion algorithm by using motion estimation, color labeling and non-local mean filtering methods. In the proposed algorithm, we first extract the motion vector of each object by estimating the motion between frames and then segment a given image frame with color labeling method. Then, combining the results of motion estimation and color labeling, we extract object regions and assign an exact depth value to each object to generate the right image. While generating the right image, occlusion regions occur but they are effectively recovered by using non-local mean filter. Through the experimental results, it is shown that the proposed algorithm performs much better than conventional conversion scheme by removing the eye fatigue effectively.

Real-time Face Detection and Verification Method using PCA and LDA (PCA와 LDA를 이용한 실시간 얼굴 검출 및 검증 기법)

  • 홍은혜;고병철;변혜란
    • Journal of KIISE:Software and Applications
    • /
    • v.31 no.2
    • /
    • pp.213-223
    • /
    • 2004
  • In this paper, we propose a new face detection method for real-time applications. It is based on the template-matching and appearance-based method. At first, we apply Min-max normalization with histogram equalization to the input image according to the variation of intensity. By applying the PCA transform to both the input image and template, PC components are obtained and they are applied to the LDA transform. Then, we estimate the distances between the input image and template, and we select one region which has the smallest distance. SVM is used for final decision whether the candidate face region is a real face or not. Since we detect a face region not the full region but within the $\pm$12 search window, our method shows a good speed and detection rate. Through the experiments with 6 category input videos, our algorithm shows the better performance than the existing methods that use only the PCA transform. and the PCA and LDA transform.

Mosaic based representations of video sequences using Mellin transform (Mellin 변환을 이용한 동영상 시퀀스의 모자이크 기반 표현)

  • 장영준;하경민;박준희;이병욱;최윤식
    • Proceedings of the IEEK Conference
    • /
    • 2001.09a
    • /
    • pp.739-742
    • /
    • 2001
  • 동영상은 각 프레임 사이에 시간적으로나 공간적으로 많은 양의 정보가 중복되어 있다. 이러한 중복 정보를 줄이는 표현 방법들 중에 하나로, 동영상을 커다란 하나의 영상으로 정합하여 중복 정보를 줄이는 모자이크 기법이 있다. 두 개 이상의 영상을 정합하기 위해서는 영상간의 카메라 파라미터가 필요한데, 본 논문에서는 Mellin 변환을 사용하여 카메라 파라미터를 구하였다. 이때 3차원 공간모델은 직교 투사법을 사용하였으며, 영상의 움직임 모델로는 4개의 파라미터(평행이동, 확대/축소, 회전)를 사용한 어파인 움직임 모델을 사용하였다. 이렇게 구현된 파노라마 영상은 동영상에서 움직이는 물체를 검출하거나 추적하고, 동영상을 편집하는데 응용될 수 있다. 또한 본 연구의 최종 목적인 3D 영상의 배경을 구현하는 데 좀 더 사실적인 영상을 제공할 수 있다.

  • PDF

Integral Image Coding Method for 3D Image (3D 입체 영상을 위한 집적 영상 압축 방법)

  • Jeon, Ju-Il;Lee, Kang-San;Kang, Hyun-Soo
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2009.11a
    • /
    • pp.235-238
    • /
    • 2009
  • 본 논문에서는 집적 영상을 효율적으로 압축하는 방법을 제안한다. 렌즈 어레이를 이용하여 획득되는 집적 영상은 3차원 영상을 기록하고 표현하는 기술 중에 하나이다. 3차원 영상의 복원은 각 요소영상의 해상도에 의해 많은 영향을 받음에 따라 효율적인 집적영상 압축은 매우 중요하다고 할 수 있다. 제안된 방법은 3D 이산 코사인 변환(3D-DCT)를 기반으로 하고 있다. 3D-DCT는 렌즈 어레이로 촬영된 인접 영상들 간의 교차 상관도를 이용하여 영상간 중복성을 줄여 압축 효율을 향상시킬 수 있는 방법이다. 제안방법은 인접 영상들 간의 교차 상관도를 고려하여, 동일 위치의 픽셀들로 $8{\times}8$ DCT블록을 재구성하여 3D-DCT를 수행한다. 제안 방법은 기존의 JPEG이나 기존의 3D-DCT를 이용한 방법과 비교해 더 좋은 성능을 보여준다.

  • PDF

A Realtime Facial Region Extraction by Correlation and Image Enhancement Using illumination Plane (상관도에 의한 실시간 안면 추출과 조명 평면을 이용한 영상 개선)

  • 김도현;강동구;차의영
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2002.10d
    • /
    • pp.508-510
    • /
    • 2002
  • 본 연구에서는 실시간으로 얼굴을 인식, 검증하기 위한 전처리 단계로써 얼굴을 고속으로 추출하고 추출된 영상을 개선하기 위한 효율적인 기법들을 소개한다. 먼저 RGB로 획득되는 영상을 인간의 시각 구조와 유사한 HSI 컬러 모델로 변환하고 여기서 인간의 피부 영역에 해당하는 컬러 분포를 조사하여 대강의 얼굴 영역을 찾고 이 영역을 대상으로 두 개의 가변 템플릿과의 상관도(Correlation)를 이용하여 최적의 얼굴 안면을 찾는다. 보다 나은 얼굴 인식을 위하여 검출된 얼굴 안면 이미지에서 조명 평면(Illumination plane) 이미지를 추출하여 먼저 불균일성을 보정한 다음 평활화(Equalization)를 수행함으로써 영상을 개선한다.

  • PDF

Caricaturing using Local Warping and Edge Detection (로컬 와핑 및 윤곽선 추출을 이용한 캐리커처 제작)

  • Choi, Sung-Jin;Kim, Sung-Sin;Bae, Hyun
    • Proceedings of the Korean Institute of Intelligent Systems Conference
    • /
    • 2003.05a
    • /
    • pp.137-140
    • /
    • 2003
  • 캐리커처의 일반적인 의미는 어떤 사람이나 사물의 특징을 추출하여 익살스럽게 풍자한 그림이나 글이다. 다시 말해, 캐리커처는 사람의 얼굴에서 특징을 잡아 과장하거나 왜곡하여 그린 데생이라고 한다. 컴퓨터를 이용한 기존의 캐리커처 제작방법으로는, 입력 이미지 좌표의 통계적인 차이값을 이용하는 PICASSO System 방법[1], 제작자의 애매한 느낌을 퍼지 논리를 이용하여 표현하는 방법, 이미지를 와핑하는 방법, 여러 단계의 벡터 필드 변환을 이용하는 방법등이 연구되어 왔다. 본 논문에서는 실시간 또는 준비된 영상을 입력으로 받아 저장한 후, 네 단계의 과정으로 처리한 후 최종적으로 캐리커처된 이미지를 생성하게 된다. 각 단계별 처리 내용으로는 첫번째 단계에서는 영상에서 얼굴을 검출하고 두번째 단계에서는 특정 얼굴부위의 기하학적 정보를 좌표값으로 추출한다. 세번째 단계에서는 전 단계에서 얻은 좌표값으로 로컬 와핑 기법을 이용하여 영상을 변환한다. 네 번째 단계에서는 변형된 영상으로 퍼지 논리를 이용하여 보다 개선된 윤곽선 이미지로 변환하여 캐리커처 이미지를 얻는다. 본 논문에서는 영상 인식, 변환 및 윤곽선 검출 및 둥의 여러 가지 영상 처리 기법을 이용하여 기존의 캐리커처 제작 방식보다 간단하고, 복잡한 연산 과정이 없는 캐리커처 제작 시스템을 구현하였다.

  • PDF

Conversion of 2D to 3D image using Object extraction and Non-local filter (객체 추출과 Non-Local 필터를 이용한 2D 영상의 3D 변환)

  • Kang, Keun-Ho;Lee, Wang-Ro;Yoo, Jisang
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2010.11a
    • /
    • pp.184-187
    • /
    • 2010
  • 본 논문에서는 움직임 추정(Motion Estimation, ME), 색상 라벨링(Labeling) 그리고 Non-Local means 필터 등을 이용하여 2D 영상을 3D 입체 영상으로 변환하는 기법을 제안한다. 제안하는 기법에서는 프레임 간의 움직임 추정 방법을 사용하여 물체의 움직임 벡터를 추출하며 색상 라벨링 작업을 통해 세밀한 객체를 추출한다. 객체를 추출한 후 영상을 이동시켜서 우영상을 생성한다. 우 영상을 생성하는 과정에서 채워지지 않은 화소들이 발생하는데 전체 화소의 상관도를 고려하는 Non-local means 필터를 사용하여 이 부분을 처리한다. 생성된 우 영상과 원본 영상인 좌 영상으로 비월주사(interlace)하여 최종 3D 입체 영상을 생성한다.

  • PDF

Video Transcoding Scheme for N-Screen Service Based on Cloud Computing (클라우드 컴퓨팅에서 N-스크린 서비스를 위한 동영상 트랜스 코딩 기법)

  • Lim, Heon-Yong;Lee, Won-Joo;Jeon, Chang-Ho
    • Journal of the Korea Society of Computer and Information
    • /
    • v.19 no.9
    • /
    • pp.11-19
    • /
    • 2014
  • In this paper, we propose a real-time video transcoding scheme for N-Screen service based on cloud computing. This scheme creates an intro-block and several playback blocks by splitting the original video. And there is the first service request, after transmitting the intro-block, transmits the playback blocks that converting the blocks on real-time. In order to completing trans-coding within playback time of each block, we split and allocate the block to node according to performance of each node. Also, in order to provide real-time video playback service, the previous scheme convert original video into all format and resolution. However we show that the proposed scheme can reduce storage usage by converting original video into format with proper resolution suitable to device and platform of client. Through simulation, we show that it is more effective to real-time video playback for N-screen service than the previous method. We also show that the proposed scheme uses less storage usage than previous method.