• 제목/요약/키워드: 모델변환

검색결과 2,727건 처리시간 0.036초

공감각인지 기반 근감각신호에서 색·음으로의 변환 시스템 (The System of Converting Muscular Sense into both Color and Sound based on the Synesthetic Perception)

  • 배명진;김성일
    • 한국지능시스템학회논문지
    • /
    • 제24권5호
    • /
    • pp.462-469
    • /
    • 2014
  • 본 논문은 공감각의 공학적인 응용 및 표현방법에 관한 기초연구로서, 인간이 인지할 수 있는 감각들 중 근감각을 시각 및 청각 요소로 변환하는 기본 시스템의 구축을 목표로 한다. 구축방법으로서, 근감각 신호를 3축 가속도 센서 및 2축 자이로센서로부터 계산된 롤(roll), 피치(pitch) 신호를 통하여 근감각 신호 데이터를 획득하고 그 데이터에서 시각적 컬러 정보와 청각적 정보로 변환하는 방법을 제안한다. 롤 신호는 HSI 컬러 모델의 명도(Intensity)와 청각의 요소인 옥타브(Octave)로 변환하고, 피치 신호는 HSI 컬러 모델의 색상(Hue)과 청각의 음계(Scale)에 대응하여 변환한다. 추출된 HSI 컬러모델의 요소성분들을 기반으로 RGB 컬러모델로 변환한 후 실시간 컬러 출력신호를 얻는다. 또한, 청각의 요소인 옥타브 및 음계 성분을 기반으로 MIDI 신호로 변환, 합성한 후 실시간 사운드 출력신호를 얻는다. 실험에서, 신체의 움직임 즉 근감각을 표현하는 롤과 피치 값에서 색과 음 사이의 유사성에 기초한 변환관계에 따라 정상적인 색과 음이 출력되는 것을 확인하였다.

Wavelet 변환과 결합한 잔차 학습을 이용한 희박뷰 전산화단층영상의 인공물 감소 (Artifact Reduction in Sparse-view Computed Tomography Image using Residual Learning Combined with Wavelet Transformation)

  • 이승완
    • 한국방사선학회논문지
    • /
    • 제16권3호
    • /
    • pp.295-302
    • /
    • 2022
  • 희박뷰 전산화단층촬영(computed tomography; CT) 영상화 기술은 피폭 방사선량을 감소시킬 수 있을 뿐만 아니라 획득한 투영상의 균일성을 유지하고 잡음을 감소시킬 수 있는 장점이 있다. 하지만 재구성 영상 내 인공물 발생으로 인하여 화질 및 피사체 구조가 왜곡되는 단점이 있다. 본 연구에서는 희박뷰 CT 영상의 인공물 감소를 위해 wavelet 변환과 잔차 학습(residual learning)을 적용한 콘볼루션 신경망(convolutional neural network; CNN) 기반 영상화 모델을 개발하고, 개발한 모델을 통한 희박뷰 CT 영상의 인공물 감소 정도를 정량적으로 분석하였다. CNN은 wavelet 변환 층, 콘볼루션 층 및 역 wavelet 변환 층으로 구성하였으며, 희박뷰 CT 영상과 잔차 영상을 각각 입출력 영상으로 설정하여 영상화 모델 학습을 진행하였다. 영상화 모델 학습을 위해 평균제곱오차(mean squared error; MSE)를 손실함수로, Adam 함수를 최적화 함수로 사용하였다. 학습된 모델을 통해 입력 희박뷰 CT 영상에 대한 예측 잔차 영상을 획득하고, 두 영상간의 감산을 통해 최종 결과 영상을 획득하였다. 또한 최종 결과 영상에 대한 시각적 특성, 최대신호대잡음비(peak signal-to- noise ratio; PSNR) 및 구조적유사성지수(structural similarity; SSIM)를 측정하였다. 연구결과 본 연구에서 개발한 영상화 모델을 통해 희박뷰 CT 영상의 인공물이 효과적으로 제거되며, 공간분해능이 향상되는 결과를 확인하였다. 또한 wavelet 변환과 잔차 학습을 미적용한 영상화 모델에 비해 본 연구에서 개발한 영상화 모델은 결과 영상의 PSNR 및 SSIM을 각각 8.18% 및 19.71% 향상시킬 수 있음을 확인하였다. 따라서 본 연구에서 개발한 영상화 모델을 이용하여 희박뷰 CT 영상의 인공물 제거는 물론 공간분해능 향상 및 정량적 정확도 향상 효과를 획득할 수 있다.

색상 변환 모델을 이용한 수중 영상의 가시성 개선 (Visibility Enhancement of Underwater Image Using a Color Transform Model)

  • 장익희;박정선
    • 한국전자통신학회논문지
    • /
    • 제10권5호
    • /
    • pp.645-652
    • /
    • 2015
  • 양식장 또는 바다와 같은 수중은 물방울과 다양한 부유물에 의하여 탁도가 높아지므로, 깊이에 따라 빛의 감쇠가 발생하고 부유물에 의한 빛의 산란 효과도 발생한다. 본 논문에서는 이러한 수중 환경에서 획득한 수중 영상의 가시성을 개선하기 위하여, dark channel prior 개념을 이용한 안개 제거 방법과 학습된 색상 변환 모델을 이용하여 색을 복원하는 수중 영상의 가시성 개선 방법을 제안하였다. 색상 변환 모델을 학습하기 위하여 여수와 포항에서 획득한 수중 패턴 영상을 사용하였으며, 제안 방법의 제안된 방법의 성능을 측정하기 위하여 여수, 거문도, 필리핀 등에서 수집한 수중 영상을 사용하여 가시성 개선 실험을 수행하였다. 실험 결과 제안 방법이 다양한 장소에서 수집된 수중 영상의 가시성을 개선시킴을 확인하였다.

웨이블릿 변환 영역에서 영상 잡음 제거를 위한 다중 결정 모델 (Multiple Decision Model for Image Denoising in Wavelet Transform Domain)

  • 엄일규;김유신
    • 한국통신학회논문지
    • /
    • 제29권7C호
    • /
    • pp.937-945
    • /
    • 2004
  • 잡음 제거에 사용되는 이진 결정 모델은 단지 이분적인 구분만을 수행하기 때문에 잡음에 대한 신호의 정확한 비율을 측정하기 어려운 단점이 있다. 이러한 단점을 보완하기 위하여 복잡한 통계 모델 및 다운샘플링이 되지 않은 웨이블릿 변환을 사용하는 것이 일반적이다. 본 논문에서는 잡음 영상에서 잡음의 정도를 측정할 수 있는 다수준 결정 모델을 이용한 잡음 제거 방법을 제안한다. 제안 방법은 잡음에 대한 신호의 비율을 다수준 값의 형태로 계산할 수 있기 때문에 직교 웨이블릿 변환으로 좋은 잡음 제거 성능을 나타낼 수 있다. 모의실험 결과를 통하여 본 논문의 방법이 직교 웨이블릿 변환을 사용한 최신의 잡음 제거 방법보다 PSNR 측면에서 평균적으로 0.ldB 정도 우수한 성능을 나타낸다는 것을 보여준다.

비식별 데이터의 유사성 보존에 관한 연구 (A Study on the Preservation of Similarity of privated Data)

  • 강동현;오현석;용우석;이원석
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2017년도 추계학술발표대회
    • /
    • pp.285-288
    • /
    • 2017
  • 비식별화 모델은 데이터 공유를 위한 모델로 원본데이터를 비식별화 변환 처리하여 개인정보를 보호함과 동시에 분석에 필요한 데이터를 외부에 제공하는 모델로 연구되어 왔다. 변환 방법으로는 삭제, 일반화, 범주화 기술 등이 주로 사용되며 변환 과정 중에는 재식별 가능성을 최소화하기 위해 k-익명성, l-다양성, t-근접성 혹은 differential privacy 등의 프라이버시 모델이 적용되고 있다. 하지만 변환된 비식별 데이터 세트는 필연적으로 원본 데이터 세트와 다른 값을 가지며 이는 결과적으로 최종 분석 결과에 영향을 주게 된다. 이를 위해 두 데이터 세트 간의 차이를 상이도(dissimilarity) 혹은 정보 손실율(information loss)이라는 지표로 측정 하고 있으며 본 지표는 비식별 데이터의 활용성을 평가 하는 데에 매우 중요한 역할을 한다. 본 연구에서는 비식별 데이터와 원본 데이터와 간의 차이를 도메인 기반의 절대적인 기준대비로 표현한 상이도 측정 방법을 제안하며, 그 유효성을 실데이터 기반의 실험을 통해 검증하였다.

오픈신경망 포맷을 이용한 기계학습 모델 변환 및 추론 (Model Transformation and Inference of Machine Learning using Open Neural Network Format)

  • 김선민;한병현;허준영
    • 한국인터넷방송통신학회논문지
    • /
    • 제21권3호
    • /
    • pp.107-114
    • /
    • 2021
  • 최근 다양한 분야에 인공지능 기술이 도입되고, 학계 관심이 늘어남에 따라 다양한 기계학습 모델들이 여러 프레임워크에서 운용되고 있다. 하지만 이러한 프레임워크들은 서로 다른 데이터 포맷을 가지고 있어, 상호운용성이 부족하며 이를 극복하기 위해 오픈 신경망 교환 포맷인 ONNX가 제안되었다. 본 논문에서는 여러 기계학습 모델을 ONNX로 변환하는 방법을 설명하고, 통합된 ONNX 포맷에서 기계학습 기법을 판별할 수 있는 알고리즘 및 추론 시스템을 제안한다. 또한, ONNX 변환 전·후 모델의 추론 성능을 비교하여 ONNX 변환 간 학습 결과의 손실이나 성능 저하가 없음을 보인다.

GAN을 이용한 동영상 스타일 생성 및 합성 네트워크 구축 (A Video Style Generation and Synthesis Network using GAN)

  • 최희조;박구만;김상준;이유진;상혜준
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2021년도 추계학술발표대회
    • /
    • pp.727-730
    • /
    • 2021
  • 이미지와 비디오 합성 기술에 대한 수요가 늘어남에 따라, 인간의 손에만 의존하여 이미지나 비디오를 합성하는데에는 시간과 자원이 한정적이며, 전문적인 지식을 요한다. 이러한 문제를 해결하기 위해 최근에는 스타일 변환 네트워크를 통해 이미지를 변환하고, 믹싱하여 생성하는 알고리즘이 등장하고 있다. 이에 본 논문에서는 GAN을 이용한 스타일 변환 네트워크를 통한 자연스러운 스타일 믹싱에 대해 연구했다. 먼저 애니메이션 토이 스토리의 등장인물에 대한 데이터를 구축하고, 모델을 학습하고 두 개의 모델을 블렌딩하는 일련의 과정을 거쳐 모델을 준비한다. 그 다음에 블렌딩된 모델을 통해 타겟 이미지에 대하여 스타일 믹싱을 진행하며, 이 때 이미지 해상도와 projection 반복 값으로 스타일 변환 정도를 조절한다. 최종적으로 스타일 믹싱한 결과 이미지들을 바탕으로 하여 스타일 변형, 스타일 합성이 된 인물에 대한 동영상을 생성한다.

삼차원 애니메이션 모델의 분할 및 부호화 방법 (Segmentation and Compression Techniques for 3D Animation Models)

  • 안정환;임동근;호요성
    • 대한전자공학회:학술대회논문집
    • /
    • 대한전자공학회 2000년도 제13회 신호처리 합동 학술대회 논문집
    • /
    • pp.353-356
    • /
    • 2000
  • 최근 복잡한 실제 사물을 가상 공간상에 표현하기 위해 삼차원 모델을 많이 이용하고 있다. 기존의 삼차원 데이터 처리는 주로 정지 모델에 대해 기하학 정보와 위상학 정보를 표현하거나 다중 해상도(Level of Details, LOD)로 나타내는데 역점을 두었다. 그러나 네트웍을 통한 가상 공간에서 삼차원 애니메이션에 대한 응용이 점차 늘어남에 따라 이러한 데이터를 효율적으로 압축하여 전송하거나 저장할 필요가 생겼다 본 논문에서는 삼차원 애니메이션 모델의 공간적 또는 시간적 상관 관계를 이용하여 삼차원 모델 정보를 부호화하는 방법을 제안한다. 먼저 주어진 모델의 움직임을 분석하고 이를 (r,θ,ø)의 구 좌표계로 변환한 후 (θ,ø)의 분포에 따라 모델을 분할(Segmentation)한다. 그리고 움직임 벡터는 Affine 변환을 이용하여 삼차원 공간에서의 움직임을 정의한다. Key프레임에 해당하는 정지 모델의 기하학 정보와 위상학 정보를 압축하고, LOD 기술을 적용하여 손실 혹은 무손실로 부호화하여 전송한다. 또한 Key프레임 사이의 화면에서는 선형 또는 비선형 보간법으로 각 분할 부분을 복원하고, 이를 조합하여 전체적인 삼차원 모델을 복원한다.

  • PDF

동적 모델을 이용한 얼굴 영상에서의 관심 영역 추출 (Region-of-Interest Detection from a Facial Image Using Active Model)

  • 이형일;김경환
    • 한국정보과학회:학술대회논문집
    • /
    • 한국정보과학회 2001년도 가을 학술발표논문집 Vol.28 No.2 (2)
    • /
    • pp.343-345
    • /
    • 2001
  • 본 논문에서는 얼굴 인식 시스템에서 정면 얼굴 영상의 관심 영역을 추출하는 효율적인 방법을 소개한다. 얼굴 인식 시스템은 얼굴 요소의 특징 을 이용하여 자동으로 얼굴을 구별하는 시스템이며, 얼굴 요소로는 눈, 코, 입과 눈썹을 주로 사용한다. 본 논문에서는 동적 모델을 이용하여 눈과 입을 관심영역으로 하여 이 영역을 세 단계로 나누어 추출한다. 첫 번째로 전체 얼굴 모델을 이용하여 similarity 변환을 적용하여 얼굴의 대략적인 위치를 찾는다. 두 번째 단계에서는 얼굴 근처에서 각각의 눈, 입 모델을 비선형 변환을 적용하여 정확한 눈과 입을 찾는다. 최종 단계에서는 이렇게 맞춘 모델로부터 전체 모델을 변형시킨 후에 변형전과 후의 적합성을 판단하여 최종 위치를 정한다. 제안한 알고리즘을 130명의 영상에 대하여 적용한 결과 눈을 정확하게 추출한 경우는 120명이고, 입을 정확히 추출한 경우는 119명이었다. 본 논문에서 제안하는 관심 영역 추출 방법은 일반적인 모델 방법에 특정 목적에 적합한 모델을 혼합한 방법으로 일반적인 모델만을 적용한 방법과 프로젝션 분석 등의 특정 목적만을 위한 방법보다 좋은 결과를 얻을 수 있었다.

  • PDF

딥러닝을 활용한 한글문장 OCR연구 (A Study on the OCR of Korean Sentence Using DeepLearning)

  • 박선우
    • 한국정보과학회 언어공학연구회:학술대회논문집(한글 및 한국어 정보처리)
    • /
    • 한국정보과학회언어공학연구회 2019년도 제31회 한글 및 한국어 정보처리 학술대회
    • /
    • pp.470-474
    • /
    • 2019
  • 한글 OCR 성능을 높이기 위해 딥러닝 모델을 활용하여 문자인식 부분을 개선하고자 하였다. 본 논문에서는 폰트와 사전데이터를 사용해 딥러닝 모델 학습을 위한 한글 문장 이미지 데이터를 직접 생성해보고 이를 활용해서 한글 문장의 OCR 성능을 높일 다양한 모델 조합들에 대한 실험을 진행했다. 딥러닝 모델은 STR(Scene Text Recognition) 구조를 사용해 변환, 추출, 시퀀스, 예측 모듈 각 24가지 모델 조합을 구성했다. 딥러닝 모델을 활용한 OCR 실험 결과 한글 문장에 적합한 모델조합은 변환 모듈을 사용하고 시퀀스와 예측 모듈에는 BiLSTM과 어텐션을 사용한 모델조합이 다른 모델 조합에 비해 높은 성능을 보였다. 해당 논문에서는 이전 한글 OCR 연구와 비교해 적용 범위를 글자 단위에서 문장 단위로 확장하였고 실제 문서 이미지에서 자주 발견되는 유형의 데이터를 사용해 애플리케이션 적용 가능성을 높이고자 한 부분에 의의가 있다.

  • PDF