• 제목/요약/키워드: 컨볼루션 혼합

검색결과 7건 처리시간 0.021초

컨볼루션 혼합신호의 암묵 잡음분리방법 (Blind Noise Separation Method of Convolutive Mixed Signals)

  • 이행우
    • 한국전자통신학회논문지
    • /
    • 제17권3호
    • /
    • pp.409-416
    • /
    • 2022
  • 본 논문은 시간지연 컨볼루션 혼합신호의 암묵잡음분리방법에 관한 것이다. 폐쇄된 공간에서 음향신호의 혼합모델은 다채널이기 때문에 convolutive 암묵신호분리방법을 적용하며 두 마이크 입력신호의 시간지연된 데이터 샘플들을 사용한다. 이 신호분리방법은 분리계수를 직접 계산하는 것이 아니라 역방향 모델을 이용하여 혼합계수를 산출하며, 계수의 갱신이 2차 통계적 성질에 기반한 반복적인 계산에 의해 이루어진다. 제안한 암묵신호분리의 성능을 검증하기 위해 많은 시뮬레이션을 수행하였다. 모의실험 결과, 이 방법을 사용한 잡음분리는 컨볼루션혼합에 상관없이 안전하게 동작하고, 일반적인 적응 FIR(Finite Impulse Response) 필터구조에 비해 PESQ(Perceptual Evaluation of Speech Quality)가 0.3점 개선되는 것으로 나타났다.

연쇄 컨볼루션 부호의 가중치 열거함수 계산 알고리듬 (An Algorithm for Computing the Weight Enumerating Function of Concatenated Convolutional Codes)

  • 강성진;권성락;이영조;강창언
    • 한국통신학회논문지
    • /
    • 제24권7A호
    • /
    • pp.1080-1089
    • /
    • 1999
  • 병렬 연쇄 컨볼루션 부호 및 직렬 연쇄 컨볼루션 부호의 ML 연판정 복호에 대한 비트오율확률의 상한치는 가중치 열거함수(Weight Enumerating Function; WEF)를 통해서 구할 수 있으며, 이 상한치는 반복 택 알고리듬과 양방향 탐색 알고리듬을 혼합한 새로운 오류사건 탐색 알고복호를 통해 얻을 수 있는 비트오류확률의 하한치가 된다. 본 논문에서는 스리듬을 제안하고, 얻어진 오류사건을 이용하여 WEF를 계산하는 알고리듬을 제안한다. 컴퓨터 시뮬레이션을 통해, 반복복호를 통해 얻을 수 있는 비트오류확률의 하한치가 됨을 확인하였다.

  • PDF

COVID-19 폐 CT 이미지 인식 (COVID-19 Lung CT Image Recognition)

  • 수징제;김강철
    • 한국전자통신학회논문지
    • /
    • 제17권3호
    • /
    • pp.529-536
    • /
    • 2022
  • 지난 2년 동안 중증급성호흡기증후군 코로나바이러스-2(SARS-CoV-2)는 점점 더 많은 사람들에게 영향을 미치고 있다. 본 논문에서는 COVID-19 폐 CT 이미지를 분할하고 분류하기 위해서 서브코딩블록(SCB), 확장공간파라미드풀링(ASSP)와 어텐션게이트(AG)로 구성된 혼합 모드 특징 추출 방식의 새로운 U-Net 컨볼루션 신경망을 제안한다. 그리고 제안된 모델과 비교하기 위하여 FCN, U-Net, U-Net-SCB 모델을 설계한다. 제안된 U-Net-MMFE 는 COVID-19 CT 스캔 디지털 이미지 데이터에 대하여 atrous rate가 12이고, Adam 최적화 알고리즘을 사용할 때 다른 분할 모델에 비하여 94.79%의 우수한 주사위 분할 점수를 얻었다.

문서 분류의 개선을 위한 단어-문자 혼합 신경망 모델 (Hybrid Word-Character Neural Network Model for the Improvement of Document Classification)

  • 홍대영;심규석
    • 정보과학회 논문지
    • /
    • 제44권12호
    • /
    • pp.1290-1295
    • /
    • 2017
  • 문서의 텍스트를 바탕으로 각 문서가 속한 분류를 찾아내는 문서 분류는 자연어 처리의 기본 분야 중 하나로 주제 분류, 감정 분류 등 다양한 분야에 이용될 수 있다. 문서를 분류하기 위한 신경망 모델은 크게 단어를 기본 단위로 다루는 단어 수준 모델과 문자를 기본 단위로 다루는 문자 수준 모델로 나누어진다. 본 논문에서는 문서를 분류하는 신경망 모델의 성능을 향상시키기 위하여 문자 수준과 단어 수준의 모델을 혼합한 신경망 모델을 제안한다. 제안하는 모델은 각 단어에 대하여 문자 수준의 신경망 모델로 인코딩한 정보와 단어들의 정보를 저장하고 있는 단어 임베딩 행렬의 정보를 결합하여 각 단어에 대한 특징 벡터를 만든다. 추출된 단어들에 대한 특징 벡터를 바탕으로, 주의(attention) 메커니즘을 이용한 순환 신경망을 단어 수준과 문장 수준에 각각 적용하는 계층적 신경망 구조를 통해 문서를 분류한다. 제안한 모델에 대하여 실생활 데이터를 바탕으로 한 실험으로 효용성을 검증한다.

BERT 및 계층 그래프 컨볼루션 신경망 기반 감성분석 모델 (BERT & Hierarchical Graph Convolution Neural Network based Emotion Analysis Model)

  • 장쥔쥔;신종호;안수빈;박태영;노기섭
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 추계학술대회
    • /
    • pp.34-36
    • /
    • 2022
  • 기존 텍스트 감성 분석 모델에서는 일반적으로 전체 텍스트를 직접 모델링하고, 텍스트 내용 간의 계층적 관계를 덜 고려한다. 그러나 감정분석의 구현에서는 많은 텍스트가 여러 감정으로 뒤섞여 있다. 전체의 의미론적 모델링을 직접 수행하면 감성분석 모델의 판단 난도가 높아져 혼합 감정 문장의 분류에 적용하기 어려울 수 있다. 따라서 본 논문에서는 텍스트 계층을 고려한 감성 분석 모델 BHGCN을 제안한다. 이 모델에서는 BERT의 각 레이어의 숨겨진 상태의 출력이 노드로 사용되며, 상위 레이어와 하위 레이어 사이에 직접 연결이 이루어져 의미 계층이 있는 그래프 네트워크를 구축한다. BHGCN 모델은 계층별 의미론에 주의를 기울일 뿐만 아니라 계층적 관계에도 주의를 기울이기 때문에 혼합 감성 분류 작업을 처리하는 데 적합하다. 본 논문에서는 비교 실험을 통해 제안하는 BHGCN 모델이 명백한 경쟁 우위를 보인다는 것을 입증하였다.

  • PDF

흉부 CT 영상에서 결절의 밝기값, 재질 및 형상 증강 영상 기반의 GGN-Net을 이용한 간유리음영 결절 자동 분류 (Automated Classification of Ground-glass Nodules using GGN-Net based on Intensity, Texture, and Shape-Enhanced Images in Chest CT Images)

  • 변소현;정주립;홍헬렌;송용섭;김형진;박창민
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제24권5호
    • /
    • pp.31-39
    • /
    • 2018
  • 본 논문에서는 흉부 CT 영상에서 결절의 밝기값, 재질 및 형상 증강 영상 기반의 GGN-Net을 이용해 간유리음영 결절 자동 분류 방법을 제안한다. 첫째, 입력 영상에 결절 내부의 고형 성분의 유무 및 크기 정보가 포함될 수 있도록 밝기값, 재질 및 형상 증강 영상의 활용을 제안한다. 둘째, 다양한 입력 영상을 여러 개의 컨볼루션 모듈을 통해 획득한 특징맵을 내부 네트워크에서 통합하여 훈련하는 GGN-Net를 제안한다. 제안 방법의 분류정확성 평가를 위해 순수 간유리음영 결절 90개와 고형 성분의 크기가 5mm 미만인 혼합 간유리음영 결절 38개, 5mm 이상 고형 성분의 크기를 가지는 혼합 간유리음영 결절 23개의 데이터를 사용하였으며, 입력 영상이 간유리음영 결절 분류 결과에 미치는 영향을 비교하기 위해 다양한 입력 영상을 구성하여 결과를 비교하였다. 실험 결과, 밝기값, 재질 및 형상 정보가 함께 고려된 입력 영상을 사용한 제안 방법이 정확도가 82.75%로 가장 좋은 결과를 보였다.

스마트폰 다종 데이터를 활용한 딥러닝 기반의 사용자 동행 상태 인식 (A Deep Learning Based Approach to Recognizing Accompanying Status of Smartphone Users Using Multimodal Data)

  • 김길호;최상우;채문정;박희웅;이재홍;박종헌
    • 지능정보연구
    • /
    • 제25권1호
    • /
    • pp.163-177
    • /
    • 2019
  • 스마트폰이 널리 보급되고 현대인들의 생활 속에 깊이 자리 잡으면서, 스마트폰에서 수집된 다종 데이터를 바탕으로 사용자 개인의 행동을 인식하고자 하는 연구가 활발히 진행되고 있다. 그러나 타인과의 상호작용 행동 인식에 대한 연구는 아직까지 상대적으로 미진하였다. 기존 상호작용 행동 인식 연구에서는 오디오, 블루투스, 와이파이 등의 데이터를 사용하였으나, 이들은 사용자 사생활 침해 가능성이 높으며 단시간 내에 충분한 양의 데이터를 수집하기 어렵다는 한계가 있다. 반면 가속도, 자기장, 자이로스코프 등의 물리 센서의 경우 사생활 침해 가능성이 낮으며 단시간 내에 충분한 양의 데이터를 수집할 수 있다. 본 연구에서는 이러한 점에 주목하여, 스마트폰 상의 다종 물리 센서 데이터만을 활용, 딥러닝 모델에 기반을 둔 사용자의 동행 상태 인식 방법론을 제안한다. 사용자의 동행 여부 및 대화 여부를 분류하는 동행 상태 분류 모델은 컨볼루션 신경망과 장단기 기억 순환 신경망이 혼합된 구조를 지닌다. 먼저 스마트폰의 다종 물리 센서에서 수집한 데이터에 존재하는 타임 스태프의 차이를 상쇄하고, 정규화를 수행하여 시간에 따른 시퀀스 데이터 형태로 변환함으로써 동행 상태분류 모델의 입력 데이터를 생성한다. 이는 컨볼루션 신경망에 입력되며, 데이터의 시간적 국부 의존성이 반영된 요인 지도를 출력한다. 장단기 기억 순환 신경망은 요인 지도를 입력받아 시간에 따른 순차적 연관 관계를 학습하며, 동행 상태 분류를 위한 요인을 추출하고 소프트맥스 분류기에서 이에 기반한 최종적인 분류를 수행한다. 자체 제작한 스마트폰 애플리케이션을 배포하여 실험 데이터를 수집하였으며, 이를 활용하여 제안한 방법론을 평가하였다. 최적의 파라미터를 설정하여 동행 상태 분류 모델을 학습하고 평가한 결과, 동행 여부와 대화 여부를 각각 98.74%, 98.83%의 높은 정확도로 분류하였다.