• Title/Summary/Keyword: 이미지변환

Search Result 960, Processing Time 0.026 seconds

Building a fashion platform using 3D conversion based on deep learning and NFT (딥러닝 기반 3D 변환과 NFT를 활용한 패션 플랫폼 구축)

  • Park, Min-Gyu;Kim, Min-Ho;Han, Su-Han;Jung, Dong-Ju;Lee, Byung-Jeong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2022.11a
    • /
    • pp.922-924
    • /
    • 2022
  • 본 연구에서는 2D 이미지 파일을 NFT 3D 패션 아이템으로 변환하여 거래할 수 있도록 한다. 한 장의 2D 이미지가 SMR을 통해 3D 오브젝트로 변환된다. 변환된 오브젝트는 KIP-17 기반의 스마트 컨트랙트를 통해 NFT을 발행할 수 있도록 환경을 구축하고, 최종적으로 NFT를 거래할 수 있는 플랫폼을 제공한다.

Generate Korean image captions using LSTM (LSTM을 이용한 한국어 이미지 캡션 생성)

  • Park, Seong-Jae;Cha, Jeong-Won
    • 한국어정보학회:학술대회논문집
    • /
    • 2017.10a
    • /
    • pp.82-84
    • /
    • 2017
  • 본 논문에서는 한국어 이미지 캡션을 학습하기 위한 데이터를 작성하고 딥러닝을 통해 예측하는 모델을 제안한다. 한국어 데이터 생성을 위해 MS COCO 영어 캡션을 번역하여 한국어로 변환하고 수정하였다. 이미지 캡션 생성을 위한 모델은 CNN을 이용하여 이미지를 512차원의 자질로 인코딩한다. 인코딩된 자질을 LSTM의 입력으로 사용하여 캡션을 생성하였다. 생성된 한국어 MS COCO 데이터에 대해 어절 단위, 형태소 단위, 의미형태소 단위 실험을 진행하였고 그 중 가장 높은 성능을 보인 형태소 단위 모델을 영어 모델과 비교하여 영어 모델과 비슷한 성능을 얻음을 증명하였다.

  • PDF

Analysis of Microwave Image signal Rejection using the Dual Gate FETs (Dual Gate FETs에 의한 마이크로파 이미지신호 제거특성 분석)

  • 심재우;이경보;이강훈;이영철
    • Proceedings of the Korean Institute of Information and Commucation Sciences Conference
    • /
    • 2001.10a
    • /
    • pp.234-237
    • /
    • 2001
  • 본 논문은 마이크로파 수신기시스템에서 발생되는 이미지성분을 효과적으로 제거하기 위해서 Dual Gate FETs을 이용한 이미지 제거 특성을 분석하였다. Dual Gate를 이용한 이미지 제거능력을 모의 실험한 결과 RF신호에 대한 이미지 제거특성은 -32dBc을 보였으며, Dual Gate FETs믹서의 변환이득은 1.7 dBm, 5GHz 발진주파수는 -117.3 dBc/100KHz 임을 확인하였다.

  • PDF

A Robust Real-time Object Detection Method using Dominant Colors in Images (이미지의 주요 색상 정보들을 이용한 실시간 객체 검출 방법)

  • Park, Kyung-Wook;Koh, Jae-Han;Park, Jae-Han;Baeg, Seung-Ho;Baeg, Moon-Hong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.301-304
    • /
    • 2007
  • 자동으로 이미지 안에 존재하는 객체들을 인식하는 문제는 내용 기반 이미지 검색이나 로봇 비전과 같은 다양한 분야들에서 매우 중요한 문제이다. 이 문제를 해결하기 위하여 본 논문에서는 객체의 주요 색상 정보들을 이용하여 실시간으로 이미지 안의 객체들을 인식하는 알고리즘을 제안한다. 본 논문에서 제안하는 방법의 전체적인 구조는 다음과 같다. 처음에 MPEG-7 색상 정보 기술자들 중 하나인 주요 색상 정보 기술자를 이용하여 객체의 주요 색상 정보들을 추출한다. 이 때 이 정보는 가우시안 색상 모델링을 통하여 빛이나 그림자와 같은 외부 환경 조건에 좀 더 강인한 색상 정보로 변환된다. 다음으로 변환된 색상 정보들을 기반으로 주요 객체와 입력 이미지와의 픽셀 값차이를 계산하고, 임계값 이상의 값을 가지는 픽셀들을 제거한다. 마지막으로 입력 이미지에서 제거되지 않은 픽셀들을 기반으로 하나의 영역을 생성한다. 결론으로서, 본 논문에서는 제안된 방법에 대한 실험 평가들을 수행 및 분석하고 몇몇 한계점들에 대해서 알아본다. 또한 이 문제들을 해결하기 위한 앞으로의 연구 계획에 대해서 기술한다.

Super-Resolution Sampling of Image based on Image Feature based Directional Component Analysis (영상특성 분석을 통한 초해상도 영상복원)

  • Ko, Ki-Hong;Kim, Seong-Whan
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.357-360
    • /
    • 2007
  • 초해상도 영상 복원은 저해상도 이미지를 고해상도 이미지로 변환하는 기술이다. 저해상도를 고해상도로 변환 시 정보가 없는 화소에 대한 정확한 화소값을 예측하는 보간법을 이용하게 되며 영상의 스케일링에 따른 앨리어싱 (aliasing) 이 발생하는 문제를 해결해야 한다. 본 논문에서는 Sobel 연산자를 통해 구한 에지 성분의 크기와 방향성을 이용하여, 초해상도 영상의 앨리어싱과 블러링(blurring) 을 줄이는 기법을 제안한다.

Retinex-based Logarithm Transformation Method for Color Image Enhancement (컬러 이미지 화질 개선을 위한 Retinex 기반의 로그변환 기법)

  • Kim, Donghyung
    • Journal of the Korea Academia-Industrial cooperation Society
    • /
    • v.19 no.5
    • /
    • pp.9-16
    • /
    • 2018
  • Images with lower illumination from the light source or with dark regions due to shadows, etc., can improve subjective image quality by using retinex-based image enhancement schemes. The retinex theory is a method that recognizes the relative lightness of a scene, rather than recognizing the brightness of the scene. The way the human visual system recognizes a scene in a specific position can be in one of several methods: single-scale retinex, multi-scale retinex, and multi-scale retinex with color restoration (MSRCR). The proposed method is based on the MSRCR method, which includes a color restoration step, which consists of three phases. In the first phase, the existing MSRCR method is applied. In the second phase, the dynamic range of the MSRCR output is adjusted according to its histogram. In the last phase, the proposed method transforms the retinex output value into the display dynamic range using a logarithm transformation function considering human visual system characteristics. Experimental results show that the proposed algorithm effectively increases the subjective image quality, not only in dark images but also in images including both bright and dark areas. Especially in a low lightness image, the proposed algorithm showed higher performance improvement than the conventional approaches.

Bolt-Loosening Detection using Vision-Based Deep Learning Algorithm and Image Processing Method (영상기반 딥러닝 및 이미지 프로세싱 기법을 이용한 볼트풀림 손상 검출)

  • Lee, So-Young;Huynh, Thanh-Canh;Park, Jae-Hyung;Kim, Jeong-Tae
    • Journal of the Computational Structural Engineering Institute of Korea
    • /
    • v.32 no.4
    • /
    • pp.265-272
    • /
    • 2019
  • In this paper, a vision-based deep learning algorithm and image processing method are proposed to detect bolt-loosening in steel connections. To achieve this objective, the following approaches are implemented. First, a bolt-loosening detection method that includes regional convolutional neural network(RCNN)-based deep learning algorithm and Hough line transform(HLT)-based image processing algorithm are designed. The RCNN-based deep learning algorithm is developed to identify and crop bolts in a connection image. The HLT-based image processing algorithm is designed to estimate the bolt angles from the cropped bolt images. Then, the proposed vision-based method is evaluated for verifying bolt-loosening detection in a lab-scale girder connection. The accuracy of the RCNN-based bolt detector and HLT-based bolt angle estimator are examined with respect to various perspective distortions.

Multiple Seamless Image stitching using Adaptive Dynamic Programming Method (다수의 이미지 정합을 위한 동적 프로그래밍 스티칭 적용)

  • Lee, Younkyoung;Sim, Kyudong;Park, Jong-Il
    • Proceedings of the Korean Society of Broadcast Engineers Conference
    • /
    • 2017.11a
    • /
    • pp.136-138
    • /
    • 2017
  • 본 논문에서는 동적 프로그래밍 스티칭을 이용하여 다수의 이미지를 경계가 보이지 않게 정합하여 고해상도의 이미지를 얻는 방법을 소개한다. 제안하는 방법에서는 수직, 수평방향으로 일정한 간격으로 쵤영한 다수의 지역 이미지와 전체를 촬영한 전역 이미지를 사용해서 각각의 지역 이미지와 전역 이미지의 특징점을 추출하고 이를 매칭하여 호모그래피를 계산한다. 이를 이용하여 정합할 두 지역 이미지간의 호모그래피를 구하고 좌표를 변환한 후 겹치는 영역에 동적 프로그래밍 스티칭 방법을 적용하여 두 이미지를 정합한다. 동적 프로그래밍 스티칭 방법이란 두 이미지를 정합할 때 겹치는 영역의 차이를 계산하고 차이가 가장 적은 픽셀을 경계로 하는 방법이다. 다수의 이미지를 수직방향으로 정합하고 정합된 이미지들을 수평방향으로 정합하여 하나의 고해상도 이미지를 만들 수 있다. 제안하는 스티칭 기법을 적용함으로써 이미지간의 경계가 드러나지 않을 뿐만 아니라 각 픽셀의 세밀한 정보도 유지한 고해상도의 이미지를 획득할 수 있음을 보였다.

  • PDF

Measurement of the Flow Field in a River (LSPIV에 의한 하천 표면유속장의 관측)

  • Kim, Young-Sung;Yang, Jae-Rheen
    • Proceedings of the Korea Water Resources Association Conference
    • /
    • 2009.05a
    • /
    • pp.1812-1816
    • /
    • 2009
  • 이미지 해석에 의한 유속장 측정방법은 유체역학분야에서 지난 30 여년 동안 많이 활용되어온 속도측정 기법으로 오늘날에는 이를 수공학 분야에서 이를 유량측정 등 수리현상 해석에 활용하려는 시도가 다각적으로 이루어지고 있다. 이에 본 연구에서는 이미지 해석에 의한 유속장 측정방법을 용담댐 시험유역에 적용하여 그의 자연하천에서의 적용성을 검토하고자 한다. 이미지 해석에 의한 유속장 측정방법은 PIV(Particle Image Velocimetry)로 통칭되고 있으며, PIV는 seeding, illumination, recording, 및 image processing의 네 가지 요소로 구성된다. seeding을 위해서 유체를 따라 흐를수 있는 작은 입자를 유체에 첨가한다. 유체를 따라 흐르는 입자들의 선명한 이미지를 얻기 위해서illumination이 필요하다. PIV를 이용하여 흐름을 해석하기 위한 illumination은 일반적으로 이중펄스 레이저가 이용된다. 이렇게 유속장 해석을 하려는 유체에 대하여 seeding 및 illumination이 준비되면 단일노출- 다중 프레임법, 혹은 다중노출-단일 프레임법으로 흐름을 recording을 한다. image processing은 이미지를 다운로드하고, 디지타이징 및 화질향상을 하는 전처리(pre-processing), 상관계수의 산정에 의한 유속 벡터의 결정 및 에러 벡터를 제거하고 유속장을 그래프화하는 후처리(post-processing) 과정으로 구성된다. LSPIV(Large Scale PIV)는 PIV의 기본원리를 근거로 하여 기존의 PIV에 비하여 실험실 내에서의 수리모형실험이나 일반 하천에서의 유속측정과 같은 큰 규모$(4m^2\sim45,000m^2$)의 흐름해석을 할 수 있도록 Fujita et al.(1994)와 Aya et al.(1995)이 확장시킨 것이다. PIV와 비교시 LSPIV의 다른 점은 넓은 흐름 표면적을 포함하기 위하여 촬영시에 카메라의 광축과 흐름 사이의 각도가 PIV에서 이용하는 수직이 아닌 경사각을 이용하였고 이에 따라 발생하는 이미지의 왜곡을 제거하기 위하여 이미지 변환기법을 적용하여 왜곡이 없는 정사촬영 이미지로 변환시킨다. 이후부터는 PIV의 이미지 처리 방법이 적용되어 표면유속을 산정한다. 다만 이미지 변환을 PIV 이미지 처리 전에 하느냐 후에 하느냐에 따라 유속장 해석결과에 차이가 있다. PIV의 네가지 단계를 포함하여 LSPIV의 각 단계를 구분하면, seeding, illumination, recording, image transformation,image processing 및 post-processing의 여섯 단계로 나뉘어진다 (Li, 2002). LSPIV를 적용시 물표면 입자의 Tracing을 위하여 자연하천에서 사용하기에 적합한 환경친화적인 seeding 재료인 Wood Mulch를 사용하여 유속을 측정하였다. 적용지점은 용담댐 상류의 동향수위관측소 지점으로 이 지점은 한국수자원공사의 수자원시험유역이 위치하고 있다. 이미지의 촬영은 가정용 비디오 캠코더 (Sony DCR-PC 350)을 이용하여 두 줄기의 흐름에 대하여 각각 약 5분 동안의 영상을 촬영한후 이중에서 seeding의 분포가 잘 이루어진 약 1분간을 추출한후 이를 이용하여 PIV 분석에 이용하였다. 대체적으로 유속장의 계산이 무난하게 이루어지었으나 비교적 수질 상태가 양호하고, 수심이 낮고, 하상재료가 자갈로 이루어져 있어 비슷한 색상의 seeding 재료를 추적하기 어려운 구간이 발생한 부분에서는 유속의 계산이 정확히 이루어지지 않았다.

  • PDF

A Basic Study on the Conversion of Color Image into Musical Elements based on a Synesthetic Perception (공감각인지기반 컬러이미지-음악요소 변환에 관한 기초연구)

  • Kim, Sung-Il
    • Science of Emotion and Sensibility
    • /
    • v.16 no.2
    • /
    • pp.187-194
    • /
    • 2013
  • The final aim of the present study is to build a system of converting a color image into musical elements based on a synesthetic perception, emulating human synesthetic skills, which make it possible to associate a color image with a specific sound. This can be done on the basis of the similarities between physical frequency information of both light and sound. As a first step, an input true color image is converted into hue, saturation, and intensity domains based on a color model conversion theory. In the next step, musical elements including note, octave, loudness, and duration are extracted from each domain of the HSI color model. A fundamental frequency (F0) is then extracted from both hue and intensity histograms. The loudness and duration are extracted from both intensity and saturation histograms, respectively. In experiments, the proposed system on the conversion of a color image into musical elements was implemented using standard C and Microsoft Visual C++(ver. 6.0). Through the proposed system, the extracted musical elements were synthesized to finally generate a sound source in a WAV file format. The simulation results revealed that the musical elements, which were extracted from an input RGB color image, reflected in its output sound signals.

  • PDF