• 제목/요약/키워드: 생성적 적대적 신경망

검색결과 119건 처리시간 0.026초

Generative Adversarial Network를 이용한 카툰 원화의 라인 드로잉 추출 (Extraction of Line Drawing From Cartoon Painting Using Generative Adversarial Network)

  • 유경호;양희덕
    • 스마트미디어저널
    • /
    • 제10권2호
    • /
    • pp.30-37
    • /
    • 2021
  • 최근 웹툰이나 애니메이션을 3D 콘텐츠로 제작하는 사례가 증가하고 있다. 3D 콘텐츠 제작에서 모델링은 반드시 필요하지만 시간이 오래 걸리는 작업이다. 드로잉 기반 모델링을 사용하여 2D 카툰 원화에서 3D 모델을 생성하기 위해서는 라인 드로잉이 필요하다. 하지만 2D 카툰원화는 3D 모델의 기하학적 특성이 표현되지 않고 카툰원화의 제작 기법이 다양하여 일관성 있게 라인 드로잉 추출이 힘들다. 본 연구에서는 generative adversarial network (GAN) 모델을 사용하여 2D 카툰 원화에서 3D 모델의 기하학적 특성을 나타내는 라인 드로잉을 추출하는 방법을 제안하고 이를 실험한다.

데이터 불균형 해소를 위한 유전알고리즘 기반 최적의 오버샘플링 비율 (Optimal Ratio of Data Oversampling Based on a Genetic Algorithm for Overcoming Data Imbalance)

  • 신승수;조휘연;김용혁
    • 한국융합학회논문지
    • /
    • 제12권1호
    • /
    • pp.49-55
    • /
    • 2021
  • 최근에는 데이터베이스의 발달로 금융, 보안, 네트워크 등에서 생성된 많은 데이터가 저장 가능하며, 기계학습 기반 분류기를 통해 분석이 이루어지고 있다. 이 때 주로 야기되는 문제는 데이터 불균형으로, 학습 시 다수 범주의 데이터들로 과적합이 되어 분류 정확도가 떨어지는 경우가 발생한다. 이를 해결하기 위해 소수 범주의 데이터 수를 증가시키는 오버샘플링 전략이 주로 사용되며, 데이터 분포에 적합한 기법과 인자들을 다양하게 조절하는 과정이 필요하다. 이러한 과정의 개선을 위해 본 연구에서는 스모트와 생성적 적대 신경망 등 다양한 기법 기반의 오버샘플링 조합과 비율을 유전알고리즘을 통해 탐색하고 최적화 하는 전략을 제안한다. 제안된 전략과 단일 오버샘플링 기법으로 신용카드 사기 탐지 데이터를 샘플링 한 뒤, 각각의 데이터들로 학습한 분류기의 성능을 비교한다. 그 결과 유전알고리즘으로 기법별 비율을 탐색하여 최적화 한 전략의 성능이 기존 전략들 보다 우수했다.

심층 합성곱 생성적 적대 신경망을 활용한 하악 제1대구치 가상 치아 생성 및 정확도 분석 (Generation of virtual mandibular first molar teeth and accuracy analysis using deep convolutional generative adversarial network)

  • 배은정;임선영
    • 대한치과기공학회지
    • /
    • 제46권2호
    • /
    • pp.36-41
    • /
    • 2024
  • Purpose: This study aimed to generate virtual mandibular left first molar teeth using deep convolutional generative adversarial networks (DCGANs) and analyze their matching accuracy with actual tooth morphology to propose a new paradigm for using medical data. Methods: Occlusal surface images of the mandibular left first molar scanned using a dental model scanner were analyzed using DCGANs. Overall, 100 training sets comprising 50 original and 50 background-removed images were created, thus generating 1,000 virtual teeth. These virtual teeth were classified based on the number of cusps and occlusal surface ratio, and subsequently, were analyzed for consistency by expert dental technicians over three rounds of examination. Statistical analysis was conducted using IBM SPSS Statistics ver. 23.0 (IBM), including intraclass correlation coefficient for intrarater reliability, one-way ANOVA, and Tukey's post-hoc analysis. Results: Virtual mandibular left first molars exhibited high consistency in the occlusal surface ratio but varied in other criteria. Moreover, consistency was the highest in the occlusal buccal lingual criteria at 91.9%, whereas discrepancies were observed most in the occusal buccal cusp criteria at 85.5%. Significant differences were observed among all groups (p<0.05). Conclusion: Based on the classification of the virtually generated left mandibular first molar according to several criteria, DCGANs can generate virtual data highly similar to real data. Thus, subsequent research in the dental field, including the development of improved neural network structures, is necessary.

Pix2Pix의 수용 영역 조절을 통한 전통 고궁 이미지 복원 연구 (A Study on the Restoration of Korean Traditional Palace Image by Adjusting the Receptive Field of Pix2Pix)

  • 황원용;김효관
    • 한국정보전자통신기술학회논문지
    • /
    • 제15권5호
    • /
    • pp.360-366
    • /
    • 2022
  • 본 논문은 흑백 사진으로만 남아 있는 한국의 전통 고궁 사진을 적대적 생성 신경망 기법의 하나인 Pix2Pix를 활용하여 컬러 사진으로 복원하기 위한 학습 모델 구조를 제시한다. Pix2Pix는 합성 이미지를 생성기와 합성 여부를 판정하는 판별기의 학습 모델 조합으로 구성된다. 본 논문은 판별기의 수용 영역을 조절하여 인공지능 모델을 학습하고 그 결과를 고궁 사진이 가지는 특성을 고려하여 분석하는 내용을 다룬다. 기존에 흑백 사진 복원에 사용하는 Pix2Pix의 수용 영역은 주로 고정된 크기로 사용하였으나 이미지의 변화가 다양한 고궁 사진을 복원함에 있어서는 고정된 수용 영역을 일률적으로 적용하기에 적합하지 않다. 본 논문에서는 고궁의 특성을 반영할 수 있는 판별기의 수용 영역을 확인하기 위해 기존의 고정된 수용 영역의 크기를 변화시켜 나타나는 결과를 관찰하였다. 실험은 사전에 준비한 고궁 사진을 기반으로 판별기의 수용 영역을 조정하고 모델의 학습을 진행하였다. 판별기의 수용 영역 변화에 따른 모델의 손실을 측정하고 최종 학습한 학습 모델을 복원 대상 흑백 사진에 대입하여 복원 결과를 확인한다.

생성적 적대 신경망을 이용한 행성의 장거리 2차원 깊이 광역 위치 추정 방법 (Planetary Long-Range Deep 2D Global Localization Using Generative Adversarial Network)

  • 아하메드 엠.나기브;투안 아인 뉴엔;나임 울 이슬람;김재웅;이석한
    • 로봇학회논문지
    • /
    • 제13권1호
    • /
    • pp.26-30
    • /
    • 2018
  • Planetary global localization is necessary for long-range rover missions in which communication with command center operator is throttled due to the long distance. There has been number of researches that address this problem by exploiting and matching rover surroundings with global digital elevation maps (DEM). Using conventional methods for matching, however, is challenging due to artifacts in both DEM rendered images, and/or rover 2D images caused by DEM low resolution, rover image illumination variations and small terrain features. In this work, we use train CNN discriminator to match rover 2D image with DEM rendered images using conditional Generative Adversarial Network architecture (cGAN). We then use this discriminator to search an uncertainty bound given by visual odometry (VO) error bound to estimate rover optimal location and orientation. We demonstrate our network capability to learn to translate rover image into DEM simulated image and match them using Devon Island dataset. The experimental results show that our proposed approach achieves ~74% mean average precision.

GAN을 이용한 달의 영구 그림자 영역 관찰에 관한 연구 (A Study on Observation of Lunar Permanently Shadowed Regions Using GAN)

  • 박성욱;김준영;박준;이한성;정세훈;심춘보
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 춘계학술발표대회
    • /
    • pp.520-523
    • /
    • 2022
  • 일본 우주항공연구개발기구(Japan Aerospace Exploration Agency, JAXA)는 2007년부터 2017년까지 달 탐사선 셀레네(Selenological and Engineering Explorer, SelEnE)가 관측한 데이터를 수집하고, 연구했다. JAXA는 지구 상층 대기에 존재하는 산소가 자기장의 꼬리 부분에 실려 달로 이동한다는 사실을 발견했다. 하지만 이 연구는 아직 진행 중이며 달의 산화 과정 규명에 추가 연구가 필요하다. 본 논문에서는 생성적 적대 신경망(Generative Adversarial Networks, GAN)으로 달 분화구의 영구 그림자 영역을 제거하고, 물과 얼음을 발견하여 선행 연구의 완성도를 향상하고자 한다. 실험에 사용할 모델은 CIPS(Conditionally Independent Pixel Synthesis)다. CIPS는 실제 같은 영상을 고해상도로 합성한다. 합성할 데이터의 최적인 가중치 초기화 및 파라미터 갱신 방법, 활성 함수 조합은 실험을 통해 확인한다. 필요에 따라 앙상블 학습을 할 수도 있다. 성능평가는 FID(Frechet Inception Distance), 정밀도, 재현율을 사용한다. 제안한 방법은 진행 중인 연구의 시간과 비용을 절약하고, 인과관계를 더욱 명확히 밝히는 데 도움 될 수 있다고 사료된다.

딥 러닝 기반 코로나19 흉부 X선 판독 기법 (A COVID-19 Chest X-ray Reading Technique based on Deep Learning)

  • 안경희;엄성용
    • 문화기술의 융합
    • /
    • 제6권4호
    • /
    • pp.789-795
    • /
    • 2020
  • 전 세계적으로 유행하는 코로나19로 인해 많은 사망자가 보고되고 있다. 코로나19의 추가 확산을 막기 위해서는 의심 환자에 대해 신속하고 정확한 영상판독을 한 후, 적절한 조치를 취해야 한다. 이를 위해 본 논문은 환자의 감염 여부를 의료진에게 제공해 영상판독을 보조할 수 있는 딥 러닝 기반 코로나19 흉부 X선 판독 기법을 소개한다. 우선 판독모델을 학습하기 위해서는 충분한 데이터셋이 확보되어야 하는데, 현재 제공하는 코로나19 오픈 데이터셋은 학습의 정확도를 보장하기에 그 영상 데이터 수가 충분하지 않다. 따라서 누적 적대적 생성 신경망(StackGAN++)을 사용해 인공지능 학습 성능을 저하하는 영상 데이터 수적 불균형 문제를 해결하였다. 다음으로 판독모델 개발을 위해 증강된 데이터셋을 사용하여 DenseNet 기반 분류모델 학습을 진행하였다. 해당 분류모델은 정상 흉부 X선과 코로나 19 흉부 X선 영상을 이진 분류하는 모델로, 실제 영상 데이터 일부를 테스트데이터로 사용하여 모델의 성능을 평가하였다. 마지막으로 설명 가능한 인공지능(eXplainable AI, XAI) 중 하나인 Grad-CAM을 사용해 입력 영상의 질환유무를 판단하는 근거를 제시하여 모델의 신뢰성을 확보하였다.

데이터 증강 기반 효율적인 무선 신호 분류 연구 (An Efficient Wireless Signal Classification Based on Data Augmentation)

  • 임상순
    • Journal of Platform Technology
    • /
    • 제10권4호
    • /
    • pp.47-55
    • /
    • 2022
  • 사물인터넷 환경에서는 다양한 무선 통신 기술을 사용하는 기기들이 점점 증가하고 있다. 특히, 다양한 무선 신호 변조 유형을 정확하게 식별하기 위해 효율적인 특성 추출 기법을 설계하고 무선 신호의 종류를 분류하는 것이 필수적이다. 하지만, 실제 환경에서 레이블이 지정된 무선 신호 데이터를 수집하는 것은 쉬운 문제가 아니다. 최근 무선 신호 분류를 위해 딥러닝 기반의 다양한 학습 기법들이 제안되어졌다. 딥러닝의 경우 훈련 데이터셋이 적을 경우 과대적합에 빠질 가능성이 높으며, 이는 딥러닝 모델을 활용한 무선 신호 분류 기법의 성능 저하를 유발한다. 본 연구에서는 다양한 무선 신호들이 존재할 때 분류 성능을 높이기 위해 생성적 적대 신경망 기반 데이터 증대 기법을 제안한다. 분류해야 하는 무선 신호의 종류가 다양할 때 특정 무선 신호를 나타내는 데이터의 양이 적거나 균형이 맞지 않는 경우 제안한 기법을 활용하여 필요한 무선 신호와 관련된 데이터의 양을 증가시킨다. 제안한 데이터 증강 알고리즘의 유효성을 검증하기 위해 무선 신호의 데이터양을 증가시키고 균형을 맞춘 결과를 바탕으로 CNN 및 LSTM 기반 무선 신호 분류기를 구현하여 실험해본 결과 데이터 균형을 맞추지 않았을 때보다 분류 정확도가 높아지는 것을 확인하였다.

딥러닝 기반 손상된 흑백 얼굴 사진 컬러 복원 (Deep Learning based Color Restoration of Corrupted Black and White Facial Photos)

  • 신재우;김종현;이정;송창근;김선정
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권2호
    • /
    • pp.1-9
    • /
    • 2018
  • 본 논문에서는 손상된 흑백 얼굴 이미지를 컬러로 복원하는 방법을 제안한다. 기존 연구에서는 오래된 증명사진처럼 손상된 흑백 사진에 컬러화 작업을 하면 손상된 영역 주변이 잘못 색칠되는 경우가 있었다. 이와 같은 문제를 해결하기 위해 본 논문에서는 입력받은 사진의 손상된 영역을 먼저 복원한 후 그 결과를 바탕으로 컬러화를 수행하는 방법을 제안한다. 본 논문의 제안 방법은 BEGAN(Boundary Equivalent Generative Adversarial Networks) 모델 기반 복원과 CNN(Convolutional Neural Network) 기반 컬러화의 두 단계로 구성된다. 제안하는 방법은 이미지 복원을 위해 DCGAN(Deep Convolutional Generative Adversarial Networks) 모델을 사용한 기존 방법들과 달리 좀 더 선명하고 고해상도의 이미지 복원이 가능한 BEGAN 모델을 사용하고, 그 복원된 흑백 이미지를 바탕으로 컬러화 작업을 수행한다. 최종적으로 다양한 유형의 얼굴 이미지와 마스크에 대한 실험 결과를 통해 기존 연구에 비해 많은 경우에 사실적인 컬러 복원 결과를 보여줄 수 있음을 확인하였다.