• Title/Summary/Keyword: 컬러 모델 생성

Search Result 58, Processing Time 0.024 seconds

Genetic Programming based Illumination Robust and Non-parametric Multi-colors Detection Model (밝기변화에 강인한 Genetic Programming 기반의 비파라미터 다중 컬러 검출 모델)

  • Kim, Young-Kyun;Kwon, Oh-Sung;Cho, Young-Wan;Seo, Ki-Sung
    • Journal of the Korean Institute of Intelligent Systems
    • /
    • v.20 no.6
    • /
    • pp.780-785
    • /
    • 2010
  • This paper introduces GP(Genetic Programming) based color detection model for an object detection and tracking. Existing color detection methods have used linear/nonlinear transformatin of RGB color-model and improved color model for illumination variation by optimization or learning techniques. However, most of cases have difficulties to classify various of colors because of interference of among color channels and are not robust for illumination variation. To solve these problems, we propose illumination robust and non-parametric multi-colors detection model using evolution of GP. The proposed method is compared to the existing color-models for various colors and images with different lighting conditions.

An Algorithm to Transform RDF Models into Colored Petri Nets (RDF 모델을 컬러 페트리 넷으로 변환하는 알고리즘)

  • Yim, Jae-Geol;Gwon, Ki-Young;Joo, Jae-Hun;Lee, Kang-Jai
    • Journal of the Korea Society of Computer and Information
    • /
    • v.14 no.1
    • /
    • pp.173-181
    • /
    • 2009
  • This paper proposes an algorithm to transform RDF(Resource Description Framework) models for ontology into CPN(Colored Petri Net) models. The algorithm transforms the semantics of the RDF model into the topology of the CPN by mapping the classes and the properties of the RDF onto the places of the CPN model then reflects the RDF statements on the CPN by representing the relationships between them as token transitions on the CPN. The basic idea of reflecting the RDF statements on the CPN is to generate a token, which is an ordered pair consisting of two tokens (one from the place mapped into the subject and the other one from the place mapped into the object) and transfer it to the place mapped into the predicate. We have actually built CPN models for given RDF models on the CNPTools and inferred and extracted answers to the RDF queries on the CPNTools.

A Basic Study on the Pitch-based Sound into Color Image Conversion (피치 기반 사운드-컬러이미지 변환에 관한 기초연구)

  • Kang, Kun-Woo;Kim, Sung-Ill
    • Science of Emotion and Sensibility
    • /
    • v.15 no.2
    • /
    • pp.231-238
    • /
    • 2012
  • This study aims for building an application system of converting sound into color image based on synesthetic perception. As the major features of input sound, both scale and octave elements extracted from F0(fundamental frequency) were converted into both hue and intensity elements of HSI color model, respectively. In this paper, we used the fixed saturation value as 0.5. On the basis of color model conversion theory, the HSI color model was then converted into the RGB model, so that a color image of the BMP format was finally created. In experiments, the basic system was implemented on both software and hardware(TMS320C6713 DSP) platforms based on the proposed sound-color image conversion method. The results revealed that diverse color images with different hues and intensities were created depending on scales and octaves extracted from the F0 of input sound signals. The outputs on the hardware platform were also identical to those on the software platform.

  • PDF

Realistic representation based on measured BRDF data (측정 기반 BRDF 데이터를 이용한 실감재질표현 연구)

  • Yoo, Hyun-Jin;Kim, Kang-Yeon;Kim, Hoe-Min;Seo, Myoung-Kook;Ko, Kwang-Hee;Lee, Kwan-H.
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1019-1024
    • /
    • 2007
  • 그래픽스 분야에서 다양한 재질을 사실감 있게 표현하려는 연구가 활발히 진행되고 있는 가운데, 다양한 재질의 반사특성을 측정하는 방법들이 시도되고 있다. 본 연구에서는 디지털 카메라를 이용하여 영상 기반 양방향 반사 분포함수(BRDF: Bidirectional Reflectance Distribution Function)를 획득할 수 있는 측정 시스템을 구축하였다, 이를 통한 BRDF 모델은 경험적(empirical)혹은 물리(physical)기반의 모델에 비해 보다 사실성 높은 표현이 가능하다. 영상 기반으로 양방향 반사 분포함수를 생성하는 과정에서 노출시간을 달리한 여러 장의 영상을 가지고 HDR(High Dynamic Range) 영상을 생성하였다. 또한 원색재현을 위해 표준광원을 사용하고 컬러차트와 회귀분석을 통해 컬러 보정을 수행하였다. 본 연구에서는 플라스틱이나 금속재질같이 불투명한 등방성(isotropic) 재질을 사용하였고, 이러한 재질의 BRDF데이터를 통해 산업제품에서 많이 사용되는 재질의 모델을 보다 실감나게 렌더링(rendering)할 수 있다.

  • PDF

3D Facial Model Expression Creation with Head Motion (얼굴 움직임이 결합된 3차원 얼굴 모델의 표정 생성)

  • Kwon, Oh-Ryun;Chun, Jun-Chul;Min, Kyong-Pil
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.1012-1018
    • /
    • 2007
  • 본 논문에서는 비전 기반 3차원 얼굴 모델의 자동 표정 생성 시스템을 제안한다. 기존의 3차원 얼굴 애니메이션에 관한 연구는 얼굴의 움직임을 나타내는 모션 추정을 배제한 얼굴 표정 생성에 초점을 맞추고 있으며 얼굴 모션 추정과 표정 제어에 관한 연구는 독립적으로 이루어지고 있다. 제안하는 얼굴 모델의 표정 생성 시스템은 크게 얼굴 검출, 얼굴 모션 추정, 표정 제어로 구성되어 있다. 얼굴 검출 방법으로는 얼굴 후보 영역 검출과 얼굴 영역 검출 과정으로 구성된다. HT 컬러 모델을 이용하며 얼굴의 후보 영역을 검출하며 얼굴 후보 영역으로부터 PCA 변환과 템플릿 매칭을 통해 얼굴 영역을 검출하게 된다. 검출된 얼굴 영역으로부터 얼굴 모션 추정과 얼굴 표정 제어를 수행한다. 3차원 실린더 모델의 투영과 LK 알고리즘을 이용하여 얼굴의 모션을 추정하며 추정된 결과를 3차원 얼굴 모델에 적용한다. 또한 영상 보정을 통해 강인한 모션 추정을 할 수 있다. 얼굴 모델의 표정을 생성하기 위해 특징점 기반의 얼굴 모델 표정 생성 방법을 적용하며 12개의 얼굴 특징점으로부터 얼굴 모델의 표정을 생성한다. 얼굴의 구조적 정보와 템플릿 매칭을 이용하여 눈썹, 눈, 입 주위의 얼굴 특징점을 검출하며 LK 알고리즘을 이용하여 특징점을 추적(Tracking)한다. 추적된 특징점의 위치는 얼굴의 모션 정보와 표정 정보의 조합으로 이루어져있기 때문에 기하학적 변환을 이용하여 얼굴의 방향이 정면이었을 경우의 특징점의 변위인 애니메이션 매개변수를 획득한다. 애니메이션 매개변수로부터 얼굴 모델의 제어점을 이동시키며 주위의 정점들은 RBF 보간법을 통해 변형한다. 변형된 얼굴 모델로부터 얼굴 표정을 생성하며 모션 추정 결과를 모델에 적용함으로써 얼굴 모션 정보가 결합된 3차원 얼굴 모델의 표정을 생성한다.

  • PDF

Conversion of Image into Sound Based on HSI Histogram (HSI 히스토그램에 기초한 이미지-사운드 변환)

  • Kim, Sung-Il
    • The Journal of the Acoustical Society of Korea
    • /
    • v.30 no.3
    • /
    • pp.142-148
    • /
    • 2011
  • The final aim of the present study is to develop the intelligent robot, emulating human synesthetic skills which make it possible to associate a color image with a specific sound. This can be done on the basis of the mutual conversion between color image and sound. As a first step of the final goal, this study focused on a basic system using a conversion of color image into sound. This study describes a proposed method to convert color image into sound, based on the likelihood in the physical frequency information between light and sound. The method of converting color image into sound was implemented by using HSI histograms through RGB-to-HSI color model conversion, which was done by Microsoft Visual C++ (ver. 6.0). Two different color images were used on the simulation experiments, and the results revealed that the hue, saturation and intensity elements of each input color image were converted into fundamental frequency, harmonic and octave elements of a sound, respectively. Through the proposed system, the converted sound elements were then synthesized to automatically generate a sound source with wav file format, using Csound.

A Basic Study on the Conversion of Color Image into Musical Elements based on a Synesthetic Perception (공감각인지기반 컬러이미지-음악요소 변환에 관한 기초연구)

  • Kim, Sung-Il
    • Science of Emotion and Sensibility
    • /
    • v.16 no.2
    • /
    • pp.187-194
    • /
    • 2013
  • The final aim of the present study is to build a system of converting a color image into musical elements based on a synesthetic perception, emulating human synesthetic skills, which make it possible to associate a color image with a specific sound. This can be done on the basis of the similarities between physical frequency information of both light and sound. As a first step, an input true color image is converted into hue, saturation, and intensity domains based on a color model conversion theory. In the next step, musical elements including note, octave, loudness, and duration are extracted from each domain of the HSI color model. A fundamental frequency (F0) is then extracted from both hue and intensity histograms. The loudness and duration are extracted from both intensity and saturation histograms, respectively. In experiments, the proposed system on the conversion of a color image into musical elements was implemented using standard C and Microsoft Visual C++(ver. 6.0). Through the proposed system, the extracted musical elements were synthesized to finally generate a sound source in a WAV file format. The simulation results revealed that the musical elements, which were extracted from an input RGB color image, reflected in its output sound signals.

  • PDF

Depth Image Improvement using Estimation of Lost Region (손실된 영역의 복원을 이용한 깊이 영상 개선 기법)

  • Cho, Ji-Ho;Park, Joung-Wook;Chang, In-Yoep;Lee, Kwan-H.
    • 한국HCI학회:학술대회논문집
    • /
    • 2007.02a
    • /
    • pp.481-486
    • /
    • 2007
  • 본 논문에서는 깊이 영상을 개선하는 방법으로 깊이 영상 획득 시 손실된 영역을 복원하는 기법을 제안한다. 대상 객체의 동적인 3차원 정보는 적외선 깊이 센서가 장착된 깊이 비디오 카메라를 통하여 실시간으로 획득한다. 이때, 깊이 비디오뿐만 아니라 각 프레임마다 컬러영상이 동시에 획득된다. 그러나 대상 객체의 일부 또는 전체가 반짝이는 검은 재질로 되어있을 경우, 획득된 깊이 영상에 손실이 발생한다. 특히 방송용 콘텐츠로서 연기자의 3차원 정보를 획득할 때 머리카락 영역이 손실되는 심각한 문제가 발생한다. 이를 해결하기 위해 먼저 컬러 영상을 이용하여 손실된 영역의 위치 정보를 알아낸다. 손실된 영역 내 경계부분의 깊이 정보를 복원한 후 2차 베지어 커브로 보간하여 내부의 깊이 정보를 복원한다. 개선된 깊이 영상을 기반으로 일련의 모델링 과정을 수행하면 보다 자연스러운 3차원 모델을 생성할 수 있다. 생성된 3차원 모델은 실감방송용 콘텐츠로 사용될 수 있으며, 시청자에게 시각상호작용과 촉각상호작용 등 다차원 감각의 상호작용을 제공할 수 있다.

  • PDF

Development of Building 3D Spatial Information Extracting System using HSI Color Model (HSI 컬러모델을 활용한 건물의 3차원 공간정보 추출시스템 개발)

  • Choi, Yun Woong;Yook, Wan Man;Cho, Gi Sung
    • Journal of Korean Society for Geospatial Information Science
    • /
    • v.21 no.4
    • /
    • pp.151-159
    • /
    • 2013
  • The building information should be up-to-date information and propagated rapidly for urban modeling, terrain analysis, life information, navigational system, and location-based services(LBS), hence the most recent and updated data of the building information have been required of researchers. This paper presents the developed system to extract the 3-dimension spatial information from aerial orthoimage and LiDAR data of HSI color model. In particular, this paper presents the image processing algorithm to extract the outline of specific buildings and generate the building polygon from the image using HIS color model, recursive backtracking algorithm and the search maze algorithm. Also, this paper shows the effectivity of the HIS color model in the image segmentation.

An Embedded Information Extraction of Color QR Code for Offline Applications (오프라인 응용을 위한 컬러 QR코드의 삽입 정보 추출 방법)

  • Kim, Jin-soo
    • Journal of the Korea Institute of Information and Communication Engineering
    • /
    • v.24 no.9
    • /
    • pp.1123-1131
    • /
    • 2020
  • The quick-response (QR) code is a two-dimensional barcode which is widely being used. Due to several interesting features such as small code size, high error correction capabilities, easy code generation and reading process, the QR codes are used in many applications. Nowadays, a printed color QR code for offline applications is being studied to improve the information storage capacity. By multiplexing color information into the conventional black-white QR code, the storage capacity is increased, however, it is hard to extract the embedded information due to the color crosstalk and geometrical distortion. In this paper, to overcome these problems, a new type of QR code is designed based on the CMYK color model and the local spatial searching as well as the global spatial matching is introduced in the reading process. These results in the recognition rate increase. Through practical experiments, it is shown that the proposed algorithm can perform the bit recognition rate improvement of about 3% to 5%.