• Title/Summary/Keyword: RGB 합성방법

Search Result 42, Processing Time 0.028 seconds

An Efficient Hand Gesture Recognition Method using Two-Stream 3D Convolutional Neural Network Structure (이중흐름 3차원 합성곱 신경망 구조를 이용한 효율적인 손 제스처 인식 방법)

  • Choi, Hyeon-Jong;Noh, Dae-Cheol;Kim, Tae-Young
    • The Journal of Korean Institute of Next Generation Computing
    • /
    • v.14 no.6
    • /
    • pp.66-74
    • /
    • 2018
  • Recently, there has been active studies on hand gesture recognition to increase immersion and provide user-friendly interaction in a virtual reality environment. However, most studies require specialized sensors or equipment, or show low recognition rates. This paper proposes a hand gesture recognition method using Deep Learning technology without separate sensors or equipment other than camera to recognize static and dynamic hand gestures. First, a series of hand gesture input images are converted into high-frequency images, then each of the hand gestures RGB images and their high-frequency images is learned through the DenseNet three-dimensional Convolutional Neural Network. Experimental results on 6 static hand gestures and 9 dynamic hand gestures showed an average of 92.6% recognition rate and increased 4.6% compared to previous DenseNet. The 3D defense game was implemented to verify the results of our study, and an average speed of 30 ms of gesture recognition was found to be available as a real-time user interface for virtual reality applications.

Artificial Neural Network Method Based on Convolution to Efficiently Extract the DoF Embodied in Images

  • Kim, Jong-Hyun
    • Journal of the Korea Society of Computer and Information
    • /
    • v.26 no.3
    • /
    • pp.51-57
    • /
    • 2021
  • In this paper, we propose a method to find the DoF(Depth of field) that is blurred in an image by focusing and out-focusing the camera through a efficient convolutional neural network. Our approach uses the RGB channel-based cross-correlation filter to efficiently classify the DoF region from the image and build data for learning in the convolutional neural network. A data pair of the training data is established between the image and the DoF weighted map. Data used for learning uses DoF weight maps extracted by cross-correlation filters, and uses the result of applying the smoothing process to increase the convergence rate in the network learning stage. The DoF weighted image obtained as the test result stably finds the DoF region in the input image. As a result, the proposed method can be used in various places such as NPR(Non-photorealistic rendering) rendering and object detection by using the DoF area as the user's ROI(Region of interest).

Conversion of Image into Sound Based on HSI Histogram (HSI 히스토그램에 기초한 이미지-사운드 변환)

  • Kim, Sung-Il
    • The Journal of the Acoustical Society of Korea
    • /
    • v.30 no.3
    • /
    • pp.142-148
    • /
    • 2011
  • The final aim of the present study is to develop the intelligent robot, emulating human synesthetic skills which make it possible to associate a color image with a specific sound. This can be done on the basis of the mutual conversion between color image and sound. As a first step of the final goal, this study focused on a basic system using a conversion of color image into sound. This study describes a proposed method to convert color image into sound, based on the likelihood in the physical frequency information between light and sound. The method of converting color image into sound was implemented by using HSI histograms through RGB-to-HSI color model conversion, which was done by Microsoft Visual C++ (ver. 6.0). Two different color images were used on the simulation experiments, and the results revealed that the hue, saturation and intensity elements of each input color image were converted into fundamental frequency, harmonic and octave elements of a sound, respectively. Through the proposed system, the converted sound elements were then synthesized to automatically generate a sound source with wav file format, using Csound.

Multi-View Video Composition and Multi-View Viewer (다시점 비디오와 컴퓨터 그래픽스 합성 및 다시점 비디오 뷰어)

  • Kwon, Jun-Sup;Hwang, Won-Young;Kim, Man-Bae;Choi, Chang-Yeol
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2007.02a
    • /
    • pp.3-8
    • /
    • 2007
  • 최근, 실감 영상에 대한 관심과 요구가 증가하면서 신개념 서비스인 3차원 다시점(Multi-view) 방송에 대한 연구가 다양하게 진행되고 있다. 이와 더불어 광고와 게시를 목적으로 입체 영상과 입체 디스플레이 장치의 수요가 증가하고 있어, 앞으로 다시점 영상 콘텐츠와 디스플레이 장치가 활발하게 보급될 전망이다. 다시점 영상 콘텐츠는 제작 단계에서 컴퓨터 그래픽스 객체를 합성하면 보다 목적에 부합하는 콘텐츠를 제작할 수 있다. 본 논문에서는 다시점 카메라로부터 얻은 RGB 텍스쳐 데이터와 깊이 테이터에 컴퓨터 그래픽스 객체를 합성하여 다시점 합성 영상을 생성하는 방법을 제안한다. 또한, 제작된 다시점 합성 영상을 검증하고 재생하는 다시점 비디오 뷰어를 설계, 구현 한다. 가상의 다시점 영상에 그래픽스 객체를 합성하는 방법은 후 합성 기반으로, 임의의 그래픽스 객체 모델을 생성하여 깊이 정보를 부여하고, 가상 시점 영상의 생성과 동일한 방법으로 그래픽스 객체의 각 시점별 영상을 생성한다. 끝으로 깊이정보를 사용하여 가상 시점 영상의 적절한 좌표공간으로 그래픽스 객체를 삽입한다. 그래픽스 합성의 정확성 검증을 위해 다시점 그래픽스 합성 영상을 디스플레이하는 뷰어는 2D 및 입체를 모두 지원하고, view switching, frozen moment, view sweeping 등의 interactive special effect기법과 다양한 포맷의 저장이 가능하다. 또한, 입체 영상의 실험에서는 그래픽 객체의 입체감 조절을 위해 실제 카메라 시점 간에 필요한 중간시점영상의 개수를 결정할 수 있다.

  • PDF

A Search for Red Phosphors Using a Computational Evolutionary Optimization Process (유전알고리즘과 조합화학을 이용한 형광체 개발)

  • 이재문;유정곤;박덕현;손기선
    • Proceedings of the Materials Research Society of Korea Conference
    • /
    • 2003.11a
    • /
    • pp.198-198
    • /
    • 2003
  • LED(Light Emitting Diode)는 전기 신호를 빛으로 신호를 보내고 받는데 사용되는 반도체의 일종으로 가정용 가전제품, 리모컨, 전광판, 각종 자동화 기기등에 사용된다. 3색광 백색 LED는 soft-UV 또는 blue 빛을 내는 device 와 RGB 형광체로 이루어져 있다. 현재 연구중인 3색광 백색 LED는 InGaN 또는 GaN 이 RGB 형광체를 여기 시키는것이 대부분이다. 이러한 경우에 유기물과 무기물 형과체가 백색광을 구현하기 위해 사용된다. 유기물의 경우에는 lift-time 이 짧고, 무기물의 경우에는 유해원소인 S, Cd등이 포함되기 때문에 환경오염이 야기된다. 이러한 단점을 보완하기 위해 진화 최적방법을 이용하여 alkali earth borosilicate ((Eu,Mg,Ca,Sr,Ba)$_{x}$ $B_{y}$ S $i_{z}$ $O_{d}$ ) 계열에 $^{Eu3+}$을 도핑하여 고효율 형광체를 합성하였다.

  • PDF

Development of Image Defect Detection Model Using Machine Learning (기계 학습을 활용한 이미지 결함 검출 모델 개발)

  • Lee, Nam-Yeong;Cho, Hyug-Hyun;Ceong, Hyi-Thaek
    • The Journal of the Korea institute of electronic communication sciences
    • /
    • v.15 no.3
    • /
    • pp.513-520
    • /
    • 2020
  • Recently, the development of a vision inspection system using machine learning has become more active. This study seeks to develop a defect inspection model using machine learning. Defect detection problems for images correspond to classification problems, which are the method of supervised learning in machine learning. In this study, defect detection models are developed based on algorithms that automatically extract features and algorithms that do not extract features. One-dimensional CNN and two-dimensional CNN are used as algorithms for automatic extraction of features, and MLP and SVM are used as algorithms for non-extracting features. A defect detection model is developed based on four models and their accuracy and AUC compare based on AUC. Although image classification is common in the development of models using CNN, high accuracy and AUC is achieved when developing SVM models by converting pixels from images into RGB values in this study.

RGB Composite Technique for Post Wildfire Vegetation Monitoring Using Sentinel-2 Satellite Data (산불 후 식생 회복 모니터링을 위한 Sentinel-2 위성영상의 RGB 합성기술)

  • Kim, Sang-il;Ahn, Do-seob;Kim, Seung-chul
    • Korean Journal of Remote Sensing
    • /
    • v.37 no.5_1
    • /
    • pp.939-946
    • /
    • 2021
  • Monitoring of post wildfire provides important information for vegetation restoration. In particular, remote sensing data are known to provide useful information necessary for monitoring. However, there are insufficient research results which is monitoring the vegetation recovery using remote sensing data. This study is directed to monitoring post-wildfire vegetation restoration. It proposes a method for monitoring vegetation restoration using Sentinel-2 satellite data by compositing Tasseled Cap linear regression trend in a post wildfire study sites. Although it is a simple visualization technique using satellite images, it was able to confirm the possibility of effective monitoring.

Video Browsing Service Using An Efficient Scene Change Detection (효율적인 장면전환 검출을 이용한 비디오 브라우징 서비스)

  • Seong-Yoon Shin;Yang-Won Rhee
    • Journal of Internet Computing and Services
    • /
    • v.3 no.2
    • /
    • pp.69-77
    • /
    • 2002
  • Recently, Digital video is one of the important information media delivered on the Internet and playing an increasingly important role in multimedia. This paper proposes a Video Browsing Service(VBS) that provides both the video content retrieval and the video browsing by the real-time user interface on Web, For the scene segmentation and key frame extraction of video sequence, we proposes an efficient scene change detection method that combines the RGB color histogram with the $x^2$(Chi Square) histogram. Resulting key frames are linked by both physical and logical indexing, This system involves the video editing and retrieval function of a VCR's, Three elements that are the date, the field and the subject are used for video browsing. A Video Browsing Service is implemented with MySQL, PHP and JMF under Apache Web Server.

  • PDF

3D Road Shape Production Technique Using Composition of Laser Data and CCD Image (레이저 데이터와 CCD영상의 합성을 통한 3차원 도로형상 생성기법)

  • Rhee Soo-Ahm;Kim Tae-Jung;Jeong Dong-Hoon;Sung Jung-Gon
    • Proceedings of the KSRS Conference
    • /
    • 2006.03a
    • /
    • pp.15-18
    • /
    • 2006
  • 도로의 정보를 취득하기 위하여 제작된 도로 안정성 조사 분석 차량(RoSSAV)은 도로의 3차원 정보를 취득하는 한 방법으로 레이저 스캐너를 사용한다. 레이저 스캐너로부터 취득된 도로의 3차원 정보는 많은 목적으로 활용할 수 있는 매우 유용한 정보이나, 도로의 3차원 정보를 사용자가 육안으로 확인할 수 있도록 영상으로 편집을 하게 되면, 현실감 있는 영상이 생성되기는 어렵다. 이를 보완하기 위하여 본 연구에서는 레이저 스캐너로부터 얻은 정보와는 별도로 CCD 카메라로 도로 전방 영상을 촬영하였고, 이 두 가지 데이터를 합성하여 현실감 있는 3차원 도로영상을 생성하는 기법을 연구 개발하였다. 레이더 영상과 CCD 영상의 합성은 레이저 데이터가 가지고 있는 3차원의 위치에 해당하는 CCD영상에서의 영상점을 찾아 이 점에서의 RGB 밴드의 밝기값을 찾아내어 이를 레이저 데이터에 기록, 적용시키는 것을 의미한다. 이 방법을 사용하기 위해서는 영상간의 관계모델을 수립할 필요가 있으며, 본 연구에서는 직접선형변환(DLT) 모델을 사용하였다. 이 모델을 이용하기 위해 레이저 데이터를 영상으로 편집하였고 이 영상과 CCD영상과 일치하는 지점을 육안으로 찾아 각 영상별로 DLT센서모델에 필요한 개수의 기준점을 제작하여 실행하였다. 실험 결과 영상은 기준점의 정확도에 따라 약간의 차이는 있으나 합성 전의 레이저 데이터 영상에 비해 실세계에 가까운 색깔을 나타냄이 확인되었다.

  • PDF

Video Camera Characterization with White Balance (기준 백색 선택에 따른 비디오 카메라의 전달 특성)

  • 김은수;박종선;장수욱;한찬호;송규익
    • Journal of the Institute of Electronics Engineers of Korea SP
    • /
    • v.41 no.2
    • /
    • pp.23-34
    • /
    • 2004
  • Video camera can be a useful tool to capture images for use in colorimeter. However the RGB signals generated by different video camera are not equal for the same scene. The video camera for use in colorimeter is characterized based on the CIE standard colorimetric observer. One method of deriving a colorimetric characterization matrix between camera RGB output signals and CIE XYZ tristimulus values is least squares polynomial modeling. However it needs tedious experiments to obtain camera transfer matrix under various white balance point for the same camera. In this paper, a new method to obtain camera transfer matrix under different white balance by using 3${\times}$3 camera transfer matrix under a certain white balance point is proposed. According to the proposed method camera transfer matrix under any other white balance could be obtained by using colorimetric coordinates of phosphor derived from 3${\times}$3 linear transfer matrix under the certain white balance point. In experimental results, it is demonstrated that proposed method allow 3${\times}$3 linear transfer matrix under any other white balance having a reasonable degree of accuracy compared with the transfer matrix obtained by experiments.