• 제목/요약/키워드: Information Processing Model

검색결과 5,455건 처리시간 0.037초

딥러닝 기반 한국어 실시간 TTS 기술 비교 (Comparison of Korean Real-time Text-to-Speech Technology Based on Deep Learning)

  • 권철홍
    • 문화기술의 융합
    • /
    • 제7권1호
    • /
    • pp.640-645
    • /
    • 2021
  • 딥러닝 기반 종단간 TTS 시스템은 텍스트에서 스펙트로그램을 생성하는 Text2Mel 과정과 스펙트로그램에서 음성신호를 합성하는 보코더 등 두 가지 과정으로 구성되어 있다. 최근 TTS 시스템에 딥러닝 기술을 적용함에 따라 합성음의 명료도와 자연성이 사람의 발성과 유사할 정도로 향상되고 있다. 그러나 기존의 방식과 비교하여 음성을 합성하는 추론 속도가 매우 느리다는 단점을 갖고 있다. 최근 제안되고 있는 비-자기회귀 방식은 이전에 생성된 샘플에 의존하지 않고 병렬로 음성 샘플을 생성할 수 있어 음성 합성 처리 속도를 개선할 수 있다. 본 논문에서는 비-자기회귀 방식을 적용한 Text2Mel 기술인 FastSpeech, FastSpeech 2, FastPitch와, 보코더 기술인 Parallel WaveGAN, Multi-band MelGAN, WaveGlow를 소개하고, 이를 구현하여 실시간 처리 여부를 검증한다. 실험 결과 구한 RTF로 부터 제시된 방식 모두 실시간 처리가 충분히 가능함을 알 수 있다. 그리고 WaveGlow를 제외하고 학습 모델 크기가 수십에서 수백 MB 정도로, 메모리가 제한되어 있는 임베디드 환경에 적용 가능함을 알 수 있다.

해외 테스트베드 지역 아리랑 위성 3호 DSM 성능평가 (Performance Evaluation of KOMPSAT-3 Satellite DSM in Overseas Testbed Area)

  • 오관영;황정인;유우선;이광재
    • 대한원격탐사학회지
    • /
    • 제36권6_2호
    • /
    • pp.1615-1627
    • /
    • 2020
  • 본 연구의 목적은 해외 테스트베드 지역에서 제작된 아리랑 3호 DSM의 성능을 비교 분석하는 것이다. 이를 위하여 미국 샌프란시스코 지역을 촬영한 아리랑 3호 in-track(동일 궤도) stereo(입체) 영상을 수집하였다. 촬영된 영상의 스테레오 기하 요소는(B/H, convergence angle 등) 모두 안정적 범위에 있음을 확인하였다. 지상기준점을 이용한 정밀 센서모델링과 DSM 자동 생성 기법을 적용하여, 1 m 해상도의 DSM을 제작하였다. 평가 및 보정을 위한 참조 자료는 Airbus에서 상용 판매하고 있는 1 m 해상도의 Elevation1 DSM 제품과 Compass Data Inc.에서 실측한 0.01 m 이내 정확도의 지상점이다. 아리랑 3호의 정밀 센서 모델링 정확도는 수평 및 수직 방향으로 0.5 m (RMSE) 이내를 나타냈다. 생성된 DSM과 참조 DSM 사이의 difference map을 작성하였을 때, 평균과 표준 편차는 각각 0.61 m와 5.25 m로 유사한 정확도를 나타냈으나, 일부 지역에서는 100 m 이상의 큰 차이를 나타냈다. 이러한 지역은 초 고층 건물의 밀집지역의 폐색 지역에서 주로 나타났다. 향후, 아리랑 3호 tri-stereo 영상의 활용과 다양한 후처리 기법이 개발된다면 보다 향상된 품질의 DSM 생성이 가능할 것으로 판단된다.

필기체 숫자 데이터 차원 감소를 위한 선분 특징 분석 알고리즘 (Line-Segment Feature Analysis Algorithm for Handwritten-Digits Data Reduction)

  • 김창민;이우범
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권4호
    • /
    • pp.125-132
    • /
    • 2021
  • 인공신경망의 계층의 깊이가 깊어지고 입력으로 사용되는 데이터 차원이 증가됨에 신경망의 학습 및 인식에 있어서 많은 연산을 고속으로 요구하는 고연산의 문제가 발생한다. 따라서 본 논문에서는 신경망 입력 데이터의 차원을 감소시키기 위한 데이터 차원 감소 방법을 제안한다. 제안하는 선분 특징 분석(Line-segment Feature Analysis; LFA) 알고리즘은 한 영상 내에 존재하는 객체의 선분(Line-segment) 특징을 분석하기 위하여 메디안 필터(median filter)를 사용한 기울기 기반의 윤곽선 검출 알고리즘을 적용한다. 추출된 윤곽 영상은 [0, 1, 2, 4, 8, 16, 32, 64, 128]의 계수 값으로 구성된 3×3 또는 5×5 크기의 검출 필터를 이용하여 8가지 선분의 종류에 상응하는 고유값을 계산한다. 각각의 검출필터로 계산된 고유값으로부터 동일한 반응값을 누적하여 두 개의 1차원의 256 크기의 데이터를 생성하고 두 가지 데이터 요소를 합산하여 LFA256 데이터를, 두 데이터를 합병하여 512 크기의 LAF512 데이터를 생성한다. 제안한 LFA 알고리즘의 성능평가는 필기체 숫자 인식을 위한 데이터 차원 감소를 목적으로 PCA 기법과 AlexNet 모델을 이용하여 비교 실험한 결과 LFA256과 LFA512가 각각 98.7%와 99%의 인식 성능을 보였다.

한국어 학습 모델별 한국어 쓰기 답안지 점수 구간 예측 성능 비교 (Comparison of Korean Classification Models' Korean Essay Score Range Prediction Performance)

  • 조희련;임현열;이유미;차준우
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권3호
    • /
    • pp.133-140
    • /
    • 2022
  • 우리는 유학생이 작성한 한국어 쓰기 답안지의 점수 구간을 예측하는 문제에서 세 개의 딥러닝 기반 한국어 언어모델의 예측 성능을 조사한다. 이를 위해 총 304편의 답안지로 구성된 실험 데이터 세트를 구축하였는데, 답안지의 주제는 직업 선택의 기준('직업'), 행복한 삶의 조건('행복'), 돈과 행복('경제'), 성공의 정의('성공')로 다양하다. 이들 답안지는 네 개의 점수 구간으로 구분되어 평어 레이블(A, B, C, D)이 매겨졌고, 총 11건의 점수 구간 예측 실험이 시행되었다. 구체적으로는 5개의 '직업' 답안지 점수 구간(평어) 예측 실험, 5개의 '행복' 답안지 점수 구간 예측 실험, 1개의 혼합 답안지 점수 구간 예측 실험이 시행되었다. 이들 실험에서 세 개의 딥러닝 기반 한국어 언어모델(KoBERT, KcBERT, KR-BERT)이 다양한 훈련 데이터로 미세조정되었다. 또 두 개의 전통적인 확률적 기계학습 분류기(나이브 베이즈와 로지스틱 회귀)도 그 성능이 분석되었다. 실험 결과 딥러닝 기반 한국어 언어모델이 전통적인 기계학습 분류기보다 우수한 성능을 보였으며, 특히 KR-BERT는 전반적인 평균 예측 정확도가 55.83%로 가장 우수한 성능을 보였다. 그 다음은 KcBERT(55.77%)였고 KoBERT(54.91%)가 뒤를 이었다. 나이브 베이즈와 로지스틱 회귀 분류기의 성능은 각각 52.52%와 50.28%였다. 학습된 분류기 모두 훈련 데이터의 부족과 데이터 분포의 불균형 때문에 예측 성능이 별로 높지 않았고, 분류기의 어휘가 글쓰기 답안지의 오류를 제대로 포착하지 못하는 한계가 있었다. 이 두 가지 한계를 극복하면 분류기의 성능이 향상될 것으로 보인다.

검증 자료를 활용한 가짜뉴스 탐지 자동화 연구 (A Study on Automated Fake News Detection Using Verification Articles)

  • 한윤진;김근형
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제10권12호
    • /
    • pp.569-578
    • /
    • 2021
  • 오늘날 웹의 발전으로 우리는 각종 언론 매체를 통해 온라인 기사를 쉽게 접하게 된다. 온라인 기사를 쉽게 접할 수 있게 된 만큼 거짓 정보를 진실로 위장한 가짜뉴스 또한 빈번하게 찾아볼 수 있다. 가짜뉴스가 전 세계적으로 대두되면서 국내에서도 가짜뉴스를 탐지하기 위한 팩트 체크 서비스가 제공되고 있으나, 이는 전문가 기반의 수동 탐지 방법을 기반으로 하며 가짜뉴스 탐지를 자동화하는 기술에 대한 연구가 계속해서 활발하게 이루어지고 있다. 기존 연구는 기사 작성에 사용된 문맥의 특성이나, 기사 제목과 기사 본문의 내용 비교를 통한 탐지 방법이 가장 많이 사용되고 있으나, 이러한 시도는 조작의 정밀도가 높아졌을 때 탐지가 어려워질 수 있다는 한계를 가진다. 따라서 본 논문에서는 기사 조작의 발달에 따른 영향을 받지 않기 위하여 기사의 진위 여부를 판단할 수 있는 검증기사를 함께 사용하는 방법을 제안한다. 또한 가짜뉴스 탐지 정확도를 개선시킬 수 있도록 실험에 사용되는 기사와 검증기사를 문서 요약 모델을 통해 요약하는 과정을 추가했다. 본 논문에서는 제안 알고리즘을 검증하기 위해 문서 요약 기법 검증, 검증기사 검색 기법 검증, 그리고 최종적인 제안 알고리즘의 가짜뉴스 탐지 정확도 검증을 진행하였다. 본 연구에서 제안한 알고리즘은 다양한 언론 매체에 적용하여 기사가 온라인으로 확산되기 이전에 진위 여부를 판단하는 방법으로 유용하게 사용될 수 있다.

지반의 불균질성이 GPR탐사 신호에 미치는 영향에 대한 수치해석적 분석 (The Effect of Ground Heterogeneity on the GPR Signal: Numerical Analysis)

  • 이상연;송기일;류희환;강경남
    • 한국지반환경공학회 논문집
    • /
    • 제23권8호
    • /
    • pp.29-36
    • /
    • 2022
  • 최근 지하공간에 대한 개발이 활발히 진행됨에 따라 지중 시설물의 정보에 대한 중요도가 증가하고 있다. 굴착작업을 수행하기 전에 지중 시설물의 위치를 정확히 파악해야 한다. 지표투과레이더(GPR)와 같은 지구물리적 탐사 방법은 지중 시설물을 조사하는데 유용하게 사용된다. GPR은 지반에 전자기파를 송출하며 지반과 다른 매질에 의해 반사되는 신호를 분석하여 지중시설물의 위치와 깊이 등을 파악한다. 그러나 GPR 데이터의 판독은 숙련된 전문가의 주관적 판단에 의존하기 때문에 이를 딥러닝을 통해 자동화하려는 많은 연구가 진행되고 있다. 딥러닝은 학습 데이터가 많을수록 정확한 모델을 만들 수 있으며, 이러한 학습데이터 축적에 있어 수치해석이 좋은 대안이 될 수 있다. 수치해석의 경우 지반의 불균질성을 모사하여 다양한 조건에서의 GPR 탐사 데이터를 생성할 수 있으며, 이를 이용하여 학습모델의 성능을 향상시킬 수 있을 것으로 생각된다. 지반은 불균질하며, GPR 신호는 지반의 다양한 변수로 인해 영향을 받는다. 그러나 이러한 불균질 지반에 대한 연구가 필요한 실정이다. 따라서 본 연구에서는 프랙탈 차원수와 지반의 함수비 범위에 따른 GPR탐사 신호특성을 분석하고 불균질한 지반을 모사하기 위한 입력파라미터에 대한 연구를 수행하였다. 프랙탈 차원수가 2.0을 넘어가면 적합곡선에 대한 오차가 크게 감소하는 것으로나타났다. 그리고 분석의 타당성을 확보하기 위해 함수율의 범위가 0.14 미만이어야 한다.

네트워크 환경에서의 몰입형 상호작용을 위한 딥러닝 기반 그룹 동기화 기법 (Deep Learning Based Group Synchronization for Networked Immersive Interactions)

  • 이중재
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권10호
    • /
    • pp.373-380
    • /
    • 2022
  • 본 논문에서는 네트워크 환경에서 원격사용자들의 몰입형 상호작용을 위한 딥러닝 기반의 그룹 동기화 기법을 제안한다. 그룹 동기화의 목적은 사용자의 몰입감을 높이기 위해서 모든 참여자가 동시에 상호작용이 가능하게 하는 것이다. 기존 방법은 시간 정확도를 향상을 위해 대부분 NTP(Network Time Protocol) 기반의 시간 동기화 방식에 초점이 맞추어져 있다. 동기화 서버에서는 미디어 재생 시간을 제어하기 위해 이동 평균 필터를 사용한다. 그 한 예로서, 지수 가중평균 방법은 입력 데이터의 변화가 크지 않으면 정확하게 재생 시간을 추종하고 예측하나 네트워크, 코덱, 시스템 상태의 급격한 변화가 있을 때는 안정화를 위해 더 많이 시간이 필요하다. 이런 문제점을 개선하기 위해서 데이터의 특성을 반영할 수 있는 딥러닝 기반의 그룹 동기화 기법인 DeepGroupSync를 제안한다. 제안한 딥러닝 모델은 시계열의 재생 지연 시간을 이용하여 최적의 재생 시간을 예측하는 두 개의 GRU(gated recurrent unit) 계층과 하나의 완전 연결 계층으로 구성된다. 실험에서는 기존의 지수 가중평균 기반 방법과 제안한 DeepGroupSync 방법에 대한 성능을 평가한다. 실험 결과로부터 예상하지 못한 급격한 네트워크 조건 변화에 대해서 제안한 방법이 기존 방법보다 더 강건함을 볼 수 있다.

불확실성이 높은 의사결정 환경에서 SR 기반 강화학습 알고리즘의 성능 분석 (Evaluating SR-Based Reinforcement Learning Algorithm Under the Highly Uncertain Decision Task)

  • 김소현;이지항
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제11권8호
    • /
    • pp.331-338
    • /
    • 2022
  • 차기 상태 천이 표상(Successor representation, SR) 기반 강화학습 알고리즘은 두뇌에서 발현되는 신경과학적 기전을 바탕으로 발전해온 강화학습 모델이다. 해마에서 형성되는 인지맵 기반의 환경 구조 정보를 활용하여, 변화하는 환경에서도 빠르고 유연하게 학습하고 의사결정 가능한 자연 지능 모사형 강화학습 방법으로, 불확실한 보상 구조 변화에 대해 빠르게 학습하고 적응하는 강인한 성능을 보이는 것으로 잘 알려져 있다. 본 논문에서는 표면적인 보상 구조가 변화하는 환경뿐만 아니라, 상태 천이 확률과 같은 환경 구조 내 잠재 변수가 보상 구조 변화를 유발하는 상황에서도 SR-기반 강화학습 알고리즘이 강인하게 반응하고 학습할 수 있는지 확인하고자 한다. 성능 확인을 위해, 상태 천이에 대한 불확실성과 이로 인한 보상 구조 변화가 동시에 나타나는 2단계 마르코프 의사결정 환경에서, 목적 기반 강화학습 알고리즘에 SR을 융합한 SR-다이나 강화학습 에이전트 시뮬레이션을 수행하였다. 더불어, SR의 특성을 보다 잘 관찰하기 위해 환경을 변화시키는 잠재 변수들을 순차적으로 제어하면서 기존의 환경과 비교하여 추가적인 실험을 실시하였다. 실험 결과, SR-다이나는 환경 내 상태 천이 확률 변화에 따른 보상 변화를 제한적으로 학습하는 행동을 보였다. 다만 기존 환경에서의 실험 결과와 비교했을 때, SR-다이나는 잠재 변수 변화로 인한 보상 구조 변화를 빠르게 학습하지는 못하는 것으로 확인 되었다. 본 결과를 통해 환경 구조가 빠르게 변화하는 환경에서도 강인하게 동작할 수 있는 SR-기반 강화학습 에이전트 설계를 기대한다.

웨이퍼 정렬을 위한 움직임 벡터 기반의 오버레이 계측 알고리즘 (Motion Vector Based Overlay Metrology Algorithm for Wafer Alignment)

  • 이현철;우호성
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제12권3호
    • /
    • pp.141-148
    • /
    • 2023
  • 반도체 제품의 높은 수율을 달성하기 위해서는 정확한 오버레이 계측이 필수적이다. 오버레이 계측 성능은 오버레이 타깃 설계와 측정 방법에 많은 영향을 받는다. 따라서 오버레이 타깃은 성능 개선을 위해 다양한 타깃에 적용할 수 있는 측정 방법들이 요구된다. 본 연구는 이미지 기반의 오버레이를 측정할 수 있는 새로운 알고리즘을 제안한다. 제안하는 측정 알고리즘은 움직임 벡터를 이용하는 방법으로 서브 픽셀 단위의 위치를 추정할 수 있다. 움직임 벡터는 선택된 영역의 픽셀들을 이용하여 다항식 전개를 통해 2차 방정식의 모델을 생성한다. 그 후 모델을 이용하여 서브픽셀 단위의 위치를 추정할 수 있다. 움직임 벡터를 활용한 측정방법은 X축, Y축의 적층 오류를 각각 계산하는 기존 상관계수 기반의 측정방법과는 달리 한 번에 모든 방향의 적층 오류를 계산할 수 있다. 따라서 X축과 Y축의 관계를 반영하여 보다 정확한 오버레이 측정이 가능하다. 하지만 기존 상관계수 기반의 알고리즘보다 계산량이 증가하기 때문에 더 많은 연산시간이 사용될 수 있다. 본 연구에서는 기존 방법보다 개선된 알고리즘을 제시하는 것이 아닌 새로운 측정 방법의 방향을 제안하는 것에 목적을 두고 있다. 실험 결과를 통해 기존 방법과 유사한 정밀도의 측정 결과를 얻을 수 있음을 확인하였다.

다변량 시계열 분석에 기반한 쿠버네티스 오토-스케일링 개선 (An Improvement of Kubernetes Auto-Scaling Based on Multivariate Time Series Analysis)

  • 김용회;김영한
    • 정보처리학회논문지:컴퓨터 및 통신 시스템
    • /
    • 제11권3호
    • /
    • pp.73-82
    • /
    • 2022
  • 오토-스케일링은 클라우드 컴퓨팅 기술이 ICT 핵심 기반 기술로 자리 잡을 수 있는 가장 중요한 기능 중 하나로써 사용자나 서비스 요청의 폭발적인 증가 또는 감소에도 시스템 자원과 서비스 인스턴스를 적절하게 확장 또는 축소하여 상황에 맞는 서비스의 안정성과 비용 대비 효과를 향상하는 기술이다. 하지만 특정 시스템 자원에 대한 모니터링 시점의 단일 메트릭 데이터를 기반으로 정책이 수립·실행되다 보니 이미 서비스에 영향이 있거나 실제 필요한 서비스 인스턴스를 세밀하게 관리하지 못하는 문제점이 있다. 이러한 문제점을 해결하기 위해서 본 논문에서는 시스템 자원과 서비스 응답시간을 다변량 시계열 분석 모델을 사용하여 분석·예측하고 이를 기반으로 오토-스케일링 정책을 수립하는 방안을 제안한다. 이를 검증하기 위해 쿠버네티스 환경에서 커스텀 스케쥴러를 구현하고, 실험을 통해 쿠버네티스 기본 오토-스케일링 방식과 비교 분석한다. 제안하는 기법은 시스템 자원과 응답시간 사이의 영향에 기반한 예측 데이터를 활용하여 예상되는 상황에 대한 오토-스케일링을 선제적으로 실행함으로써 시스템의 안정성을 확보하고 서비스 품질이 저하되지 않는 범위내에서 필요한 만큼의 인스턴스를 세밀하게 관리할 수 있는 결과를 보인다.