• 제목/요약/키워드: TimeGAN

검색결과 138건 처리시간 0.026초

RawNet3 화자 표현을 활용한 임의의 화자 간 음성 변환을 위한 StarGAN의 확장 (Extending StarGAN-VC to Unseen Speakers Using RawNet3 Speaker Representation)

  • 박보경;박소민;홍현기
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권7호
    • /
    • pp.303-314
    • /
    • 2023
  • 음성 변환(Voice Conversion)은 개인의 음성 데이터를 다른 사람의 음향적 특성(음조, 리듬, 성별 등)으로 재생성할 수 있는 기술로, 교육, 의사소통, 엔터테인먼트 등 다양한 분야에서 활용되고 있다. 본 논문은 StarGAN-VC 모델을 기반으로 한 접근 방식을 제안하여, 병렬 발화(Utterance) 없이도 현실적인 음성을 생성할 수 있다. 고정된 원본(source) 및 목표(target)화자 정보의 원핫 벡터(One-hot vector)를 이용하는 기존 StarGAN-VC 모델의 제약을 극복하기 위해, 본 논문에서는 사전 훈련된 Rawnet3를 사용하여 목표화자의 특징 벡터를 추출한다. 이를 통해 음성 변환은 직접적인 화자 간 매핑 없이 잠재 공간(latent space)에서 이루어져 many-to-many를 넘어서 any-to-any 구조가 가능하다. 기존 StarGAN-VC 모델에서 사용된 손실함수 외에도, Wasserstein-1 거리를 사용하여 생성된 음성 세그먼트가 목표 음성의 음향적 특성과 일치하도록 보장했다. 또한, 안정적인 훈련을 위해 Two Time-Scale Update Rule (TTUR)을 사용한다. 본 논문에서 제시한 평가 지표들을 적용한 실험 결과에 따르면, 제한된 목소리 변환만이 가능한 기존 StarGAN-VC 기법 대비, 본 논문의 제안 방법을 통해 다양한 발화자에 대한 성능이 개선된 음성 변환을 제공할 수 있음을 정량적으로 확인하였다.

생성적 적대 신경망(Generative Adversarial Network)을 이용하여 획득한 18F-FDG Brain PET/CT 인공지능 영상의 비교평가 (Comparative Evaluation of 18F-FDG Brain PET/CT AI Images Obtained Using Generative Adversarial Network)

  • 김종완;김정열;임한상;김재삼
    • 핵의학기술
    • /
    • 제24권1호
    • /
    • pp.15-19
    • /
    • 2020
  • 본 연구는 최근에 활발히 연구되고 있는 딥러닝 기술인 생성적 적대 신경망(GAN)을 핵의학 영상에 적용하여 잠재적으로 유용성이 있는지 확인해보고자 하였다. 본원에서 18F-FDG Brain PET/CT검사를 진행한 30명의 환자를 대상으로 하였고 List모드로 15분 검사한 후 이를 1, 2, 3, 4, 5분 초기획득시간 이미지로 재구성하였다. 이 중 25명의 환자를 GAN모델의 학습을 위한 트레이닝 이미지로 사용하고 5명의 환자를 학습된 GAN모델의 검증을 위한 테스트 이미지로 사용하였다. 학습된 GAN모델에 입력으로 1, 2, 3, 4, 5분의 초기획득 이미지를 넣고 출력으로 15분 인공지능 표준획득 이미지를 획득한 후 이를 기존의 15분 표준획득시간 검사 이미지와 비교 평가하였다. 평가에는 정량화된 이미지 평가방법인 평균제곱오차, 최대신호 대 잡음비, 구조적 유사도 지수를 이용하였다. 평가 결과 초기획득시간 이미지에서 1에서 5분으로 갈수록 실제 표준획득시간 이미지에 가까운 평균제곱오차, 최대신호 대 잡음비, 구조적 유사도 지수 수치를 나타내었다. 이러한 연구를 통해 앞으로 인공지능 기술이 핵의학 분야에서 의료영상의 획득시간 단축과 관련하여 중요한 영향을 미칠 수 있을 것으로 사료된다.

딥러닝 알고리즘 기반의 초미세먼지(PM2.5) 예측 성능 비교 분석 (Comparison and analysis of prediction performance of fine particulate matter(PM2.5) based on deep learning algorithm)

  • 김영희;장관종
    • 융합정보논문지
    • /
    • 제11권3호
    • /
    • pp.7-13
    • /
    • 2021
  • 본 연구는 딥러닝(Deep Learning) 알고리즘 GAN 모델을 기반으로 초미세먼지(PM2.5) 인공지능 예측시스템을 개발한다. 실험 데이터는 시계열 축으로 생성된 온도, 습도, 풍속, 기압의 기상변화와 SO2, CO, O3, NO2, PM10와 같은 대기오염물질 농도와 밀접한 관련이 있다. 데이터 특성상, 현재시간 농도가 이전시간 농도에 영향을 받기 때문에 반복지도학습(Recursive Supervised Learning) 예측 모델을 적용하였다. 기존 모델인 CNN, LSTM의 정확도(Accuracy)를 비교분석을 위해 관측값(Observation Value)과 예측값(Prediction Value)간의 차이를 분석하고 시각화했다. 성능분석 결과 제안하는 GAN이 LSTM 대비 평가항목 RMSE, MAPE, IOA에서 각각 15.8%, 10.9%, 5.5%로 향상된 것을 확인하였다.

CycleGAN을 이용한 야간 상황 물체 검출 알고리즘 (CycleGAN-based Object Detection under Night Environments)

  • 조상흠;이용;나재민;김영빈;박민우;이상환;황원준
    • 한국멀티미디어학회논문지
    • /
    • 제22권1호
    • /
    • pp.44-54
    • /
    • 2019
  • Recently, image-based object detection has made great progress with the introduction of Convolutional Neural Network (CNN). Many trials such as Region-based CNN, Fast R-CNN, and Faster R-CNN, have been proposed for achieving better performance in object detection. YOLO has showed the best performance under consideration of both accuracy and computational complexity. However, these data-driven detection methods including YOLO have the fundamental problem is that they can not guarantee the good performance without a large number of training database. In this paper, we propose a data sampling method using CycleGAN to solve this problem, which can convert styles while retaining the characteristics of a given input image. We will generate the insufficient data samples for training more robust object detection without efforts of collecting more database. We make extensive experimental results using the day-time and night-time road images and we validate the proposed method can improve the object detection accuracy of the night-time without training night-time object databases, because we converts the day-time training images into the synthesized night-time images and we train the detection model with the real day-time images and the synthesized night-time images.

오디오와 이미지의 다중 시구간 정보와 GAN을 이용한 영상의 하이라이트 예측 알고리즘 (Video Highlight Prediction Using GAN and Multiple Time-Interval Information of Audio and Image)

  • 이한솔;이계민
    • 방송공학회논문지
    • /
    • 제25권2호
    • /
    • pp.143-150
    • /
    • 2020
  • 최근 다양한 매체를 통해 폭발적인 양의 콘텐츠가 업로드 되고 있으며 그 가운데 게임과 스포츠 영상은 상당한 비율을 차지한다. 방송사에서는 시청자 편의를 위해 경기 영상 중 흥미를 끄는 장면을 모아 하이라이트 영상을 만들어 제공한다. 그러나 이는 시간과 비용이 많이 소요되는 문제가 있다. 본 논문에서는 게임과 스포츠 경기에서 자동으로 하이라이트를 예측하는 모델을 제안한다. 기존의 방법들이 이미지 정보만을 주로 이용하는데 반해 우리는 오디오와 이미지 정보를 함께 사용하며, 영상의 단기적 전후관계와 중장기적 흐름을 동시에 파악하는 방법을 제시한다. 또한 더 좋은 특징벡터를 찾아내기 위해 GAN을 결합한 모델을 설명한다. 제안하는 모델들은 e스포츠 경기 영상과 야구 경기 영상을 이용하여 평가한다.

소프트웨어 버그 정정에 SeqGAN 알고리즘을 적용 (Applying SeqGAN Algorithm to Software Bug Repair)

  • 양근석;이병정
    • 인터넷정보학회논문지
    • /
    • 제21권5호
    • /
    • pp.129-137
    • /
    • 2020
  • 최근 소프트웨어가 다양한 분야에 적용되면서 소프트웨어 규모와 프로그램 코드의 복잡성이 증가하였다. 이에 따라 소프트웨어 버그의 존재가 불가피하게 발생하고, 소프트웨어 유지보수의 비용이 증가하고 있다. 오픈 소스 프로젝트에서는 개발자가 할당 받은 버그 리포트를 해결할 때 많은 디버깅 시간을 소요한다. 이러한 문제를 해결하기 위해 본 논문은 SeqGAN 알고리즘을 소프트웨어 버그 정정에 적용한다. 자세히는 SeqGAN 알고리즘을 활용하여 프로그램 소스코드를 학습한다. 학습과정에서 공개된 유사 소스코드도 같이 활용한다. 생성된 후보 패치에 대한 적합성을 평가 하기 위해 적합도 함수를 적용하고, 주어진 모든 테스트 케이스를 통과하면 소프트웨어 버그 정정이 되었다고 본다. 제안한 모델의 효율성을 평가하기 위해 베이스라인과 비교하였으며, 제안한 모델이 더 잘 정정하는 것을 보였다.

푸리에 변환 및 이미지 증강을 통한 분류 성능 최적화에 관한 연구 (A Study on Optimization of Classification Performance through Fourier Transform and Image Augmentation)

  • 김기현;김성목;김용수
    • 품질경영학회지
    • /
    • 제51권1호
    • /
    • pp.119-129
    • /
    • 2023
  • Purpose: This study proposes a classification model for implementing condition-based maintenance (CBM) by monitoring the real-time status of a machine using acceleration sensor data collected from a vehicle. Methods: The classification model's performance was improved by applying Fourier transform to convert the acceleration sensor data from the time domain to the frequency domain. Additionally, the Generative Adversarial Network (GAN) algorithm was used to augment images and further enhance the classification model's performance. Results: Experimental results demonstrate that the GAN algorithm can effectively serve as an image augmentation technique to enhance the performance of the classification model. Consequently, the proposed approach yielded a significant improvement in the classification model's accuracy. Conclusion: While this study focused on the effectiveness of the GAN algorithm as an image augmentation method, further research is necessary to compare its performance with other image augmentation techniques. Additionally, it is essential to consider the potential for performance degradation due to class imbalance and conduct follow-up studies to address this issue.

마비성 장폐색환자의 감수로 호전된 증례 (A Clinical Case Study of Paralytic Ileus Patient Improved by Euphorbiae Kansui Radix(Gan-sui))

  • 한경석;박은경;박성식
    • 대한한의학회지
    • /
    • 제21권1호
    • /
    • pp.103-108
    • /
    • 2000
  • Paralytic ileus is one of the gastro-intestinal symptoms of a patient who is in the post-symptom period resulting from stroke. The purpose of this study was to examine the efficacy of Euphorbiae Kansui Radix(Gan-sui) for a patient who has suffered from severe paralytic ileus as post-symptoms caused by 3rd stroke. The subject was a 70-year-old woman who had been troubled with dyspepsia, abdominal flatus and other pains during the past 10 years, and whose symtoms worsened because of her recent 3rd stroke. At the time of admission, she complained of abdominal flatus, conspitation, quadri weakness(Lt>Rt) and dysathria. For the first 10 days after admission, she was treated with Oriental' Western Medicine, which failed to relieve any symptom. However, after taking Euphorbiae Kansui Radix(Gan-sui), gastro-intestinal vermicular movement improved, so the symptoms of abdominal flatus and conspitation disappeared. As a consequence, the accompanying paralytic ileus condition also improved.

  • PDF

Deep Learning based Human Recognition using Integration of GAN and Spatial Domain Techniques

  • Sharath, S;Rangaraju, HG
    • International Journal of Computer Science & Network Security
    • /
    • 제21권8호
    • /
    • pp.127-136
    • /
    • 2021
  • Real-time human recognition is a challenging task, as the images are captured in an unconstrained environment with different poses, makeups, and styles. This limitation is addressed by generating several facial images with poses, makeup, and styles with a single reference image of a person using Generative Adversarial Networks (GAN). In this paper, we propose deep learning-based human recognition using integration of GAN and Spatial Domain Techniques. A novel concept of human recognition based on face depiction approach by generating several dissimilar face images from single reference face image using Domain Transfer Generative Adversarial Networks (DT-GAN) combined with feature extraction techniques such as Local Binary Pattern (LBP) and Histogram is deliberated. The Euclidean Distance (ED) is used in the matching section for comparison of features to test the performance of the method. A database of millions of people with a single reference face image per person, instead of multiple reference face images, is created and saved on the centralized server, which helps to reduce memory load on the centralized server. It is noticed that the recognition accuracy is 100% for smaller size datasets and a little less accuracy for larger size datasets and also, results are compared with present methods to show the superiority of proposed method.

Conditional GAN을 이용한 SAR 표적영상의 해상도 변환 (Resolution Conversion of SAR Target Images Using Conditional GAN)

  • 박지훈;서승모;최여름;유지희
    • 한국군사과학기술학회지
    • /
    • 제24권1호
    • /
    • pp.12-21
    • /
    • 2021
  • For successful automatic target recognition(ATR) with synthetic aperture radar(SAR) imagery, SAR target images of the database should have the identical or highly similar resolution with those collected from SAR sensors. However, it is time-consuming or infeasible to construct the multiple databases with different resolutions depending on the operating SAR system. In this paper, an approach for resolution conversion of SAR target images is proposed based on conditional generative adversarial network(cGAN). First, a number of pairs consisting of SAR target images with two different resolutions are obtained via SAR simulation and then used to train the cGAN model. Finally, the model generates the SAR target image whose resolution is converted from the original one. The similarity analysis is performed to validate reliability of the generated images. The cGAN model is further applied to measured MSTAR SAR target images in order to estimate its potential for real application.