• Title/Summary/Keyword: 비교처리과정

Search Result 2,464, Processing Time 0.063 seconds

Performance Evaluation of Parallelization Methods for Volume Rendering (볼륨렌더링을 위한 병렬화 방법들의 성능평가)

  • 김진호;김남규;김지인;정갑주
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 1999.10b
    • /
    • pp.641-643
    • /
    • 1999
  • 많은 처리시간을 요구하는 대규모 3차원 데이터의 영사화(대규모 볼륨렌더링)에서는 병렬처리가 반드시 요구된다. 대규모 볼륨렌더링의 처리시간은 크게 데이터입력 시간과 입력된 데이터의 영상화(연산) 시간으로 구성된다. 따라서 데이터 입력 과정과 연산 과정 모두를 병렬화할 필요가 있다. 입출력 병렬화 및 알고리즘 병렬화는 각각 독립적으로 적용가능하다. 본 논문에서는 (1)순차 볼륨렌더링, (2)병렬연산 기반 볼륨렌더링, (3)병렬입출력 기반 볼륨렌더링, (4) 병렬연산 및 병렬입출력 기반 볼륨렌더링 등 네 가지 경우를 각각 구현하여 성능을 비교하였다. 실험결과에서는 병렬연산 및 병렬 입출력이 동시에 적용되는 (4)가 가장 좋은 성능을 보이는 것으로 나타났다.

  • PDF

Efficient Analysis of Korean Dependency Structures Using Beam Search Algorithms (Beam Search 알고리즘을 이용한 효율적인 한국어 의존 구조 분석)

  • Kim, Hark-Soo;Seo, Jung-Yun
    • Annual Conference on Human and Language Technology
    • /
    • 1998.10c
    • /
    • pp.281-286
    • /
    • 1998
  • 구문분석(syntactic analysis)은 형태소 분석된 결과를 입력으로 받아 구문단위간의 관계를 결정해 주는 자연어 처리의 한 과정이다. 그러나 구문분석된 결과는 많은 중의성(ambiguity)을 갖게 되며, 이러한 중의성은 이후의 자연어 처리 수행과정에서 많은 복잡성(complexity)를 유발하게 된다. 지금까지 이러한 문제를 해결하기 위한 여러 가지 연구들이 있었으며, 그 중 하나가 대량의 데이터로부터 추출된 통계치를 이용한 방법이다. 그러나, 생성된 모든 구문 트리(parse tree)에 통계치를 부여하고, 그것들을 순위화하는 것은 굉장히 시간 소모적인 일(time-consuming job)이다. 그러므로, 생성 가능한 트리의 수를 효과적으로 줄이는 방법이 필요하다. 본 논문에서는 이러한 문제를 해결하기 위해 개선된 beam search 알고리즘을 제안하고, 기존의 방법과 비교한다. 본 논문에서 제안된 beam search 알고리즘을 사용한 구문분석기는 beam search를 사용하지 않은 구문분석기가 생성하는 트리 수의 1/3정도만으로도 같은 구문 구조 정확률을 보였다.

  • PDF

Korean Lexical Knowledge Base Construction System (한국어 어휘 지식 베이스 구축 시스템)

  • Lee, Hae-Joong;Cho, Jeong-Mi;Mun, Jun-Hyeok;Seo, Jung-Yun
    • Annual Conference on Human and Language Technology
    • /
    • 1999.10e
    • /
    • pp.397-403
    • /
    • 1999
  • 어휘 지식은 자연어 처리에서 매우 중요한 요소이다. 그러나 대규모의 어휘 지식 베이스를 구축하는 것은 많은 시간과 비용을 필요로하는 일이다. 본 논문에서는 온라인 국어 사전을 이용하여 범용의 대규모 한국어 어휘 지식 베이스를 자동으로 구축하는 방법을 제안하고 실제로 시스템을 구현한다. 제안하는 방법론은 비교적 적은 비용으로 단시일내에 대규모의 어휘 지식 베이스를 구축하는 것을 가능하게 한다. 또한 지식 구축 과정이 자동화되어 만들어진 지식 베이스의 유지, 보수 및 확장이 용이하다. 구현된 시스템으로 구축한 어휘 지식 베이스는 기계번역에서의 대역어 선정이나 한국어 조사의 의미 분별 등 자연어 처리 과정에서 발생하는 각종 어휘 의미 모호성 해소에 응용될 수 있다.

  • PDF

Adaptive Rule Estimation (ARE) Algorithm against Eluding NIDS (적응적 규칙 추정에 의한 네트워크기반 침입탐지시스템 우회공격 방지 기법)

  • Choi, Byeongl-Cheol;Seo, Dong-Il;Sohn, Sung-Won
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.11b
    • /
    • pp.975-978
    • /
    • 2002
  • 본 연구는 네트워크 기반 침입탐지 시스템(NIDS)의 우회공격 방지를 위한 적응적 규칙 추정 알고리즘(ARE; Adaptive Rule Estimation)을 제안한다. 네트워크 기반 침입탐지 시스템에서 가장 많이 사용하는 침입탐지 방법은 규칙 기반의 패턴 매칭 기법이며, 이 방법은 삽입과 삭제에 의한 우회 공격에 많은 취약성을 가지고 있다. 본 연구에서는 이러한 삽입과 삭제에 의한 우회 공격을 방지 하고자 하는 취지에서 제안된 알고리즘이다. 적응적 규칙 추정에 의한 침입 탐지 알고리즘은 두 개의 과정으로 구성되며, 전처리 부분에서는 최적의 규칙을 선택하고, 주처리 부분에서 적응적으로 규칙 패턴의 변형된 위치를 찾아서 비교 판단하는 과정으로 이루어져 있다. 제안된 적응적 규칙 추정 알고리즘은 기존의 규칙 기반 패턴 매칭에서 우회공격이 가능한 것들이 탐지되며, 미탐지 확률을 줄일 수 있다.

  • PDF

Implementation of Vocabulary-Independent Keyword Spotting System (가변어휘 핵심어 검출 시스템의 구현)

  • Shin Young Wook;Song Myung Gyu;Kim Hyung Soon
    • Proceedings of the Acoustical Society of Korea Conference
    • /
    • autumn
    • /
    • pp.167-170
    • /
    • 2000
  • 본 논문에서는 triphone을 기본단위로 하는 HMM에 의해 핵심어 모델을 구성하고, 사용자가 임의로 핵심어를 추가 및 변경할 수 있도록 가변어휘 핵심어 검출기를 구현하였다. 비핵심어 모델링 방법으로 monophone clustering을 사용한 방법 및 GMM을 사용한 방법의 성능을 비교하였다. 또한 후처리 과정에서 가변어휘 인식구조에 적합한 anti-subword 모델을 사용하였으며 몇 가지 구현방식에 따른 후처리 성능을 검토하였다. 실험결과 비핵심어 모델로 monophone을 clustering하여 사용한 방법보다 GMM을 사용한 경우 약간의 인식성능 개선을 얻을 수 있었으며, 후처리 과정에서 Kullback distance를 이용한 anti-subword 모델링 방식이 다른 방식에 비해 우수한 결과를 나타냈다.

  • PDF

Resolution Enhancement of Surveillance Camera Image Using Error Estimation (에러 추정을 이용한 감시 카메라 영상의 해상도 향상)

  • Kim, Won-Hee;Park, Sung-Mo;Kim, Jong-Nam
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2009.04a
    • /
    • pp.169-170
    • /
    • 2009
  • 영상 해상도 향상 기술은 영상 처리의 많은 분야에서 사용되는 전처리 기술로서, 최근들어 감시 카메라 시스템에서의 영상 해상도 향상을 위한 연구가 진행되고 있다. 보간 과정에서의 블러링으로 인한 화질 저하를 해결하기 위해서, 본 논문에서는 하위 레벨 보간을 이용한 에러 추정과 영상 해상도 향상방법을 제안한다. 제안하는 방법에서는 하위 레벨 보간을 통해서 보간 과정에서 발생하는 손실 정보를 추정하고, 추정한 손실 정보를 보간 결과에 적용하여 영상 복원의 결과를 향상시킨다. 동일한 영상을 이용한 실험을 통해서 기존의 방법들보다 0.38~1.75dB의 객관적 화질의 개선을 확인하였고 주관적 화질 비교에서도 향상되었음을 확인하였다. 제안하는 방법은 감시 카메라 시스템을 비롯한 영상 확대를 위한 응용 환경에서 활용될 수 있다.

Watermarking Algorithm to Authenticate Image Integrity on JPEG Compression (JPEG 압축 표준에서 이미지 무결성 인증을 위한 워터마킹 알고리즘)

  • Jo, Hyun-Wu;Yeo, Dong-Gyu;Lee, Hae-Yeoun
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2011.11a
    • /
    • pp.302-305
    • /
    • 2011
  • 멀티미디어 콘텐츠는 디지털 데이터의 특성상 위 변조 또는 불법유통 등의 문제가 발생할 수 있다. 특히 의료 및 군사, 예술 분야 등 많은 부분에서 멀티미디어 데이터의 보안성이 중요한 이슈가 되고 있다. 본 논문에서는 이러한 기술적 요구에 맞추어 이미지의 무결성을 인증할 수 있는 워터마킹 알고리즘을 제안한다. 제안하는 알고리즘은 JPEG 이미지 압축 과정에서 추가적인 처리를 통해 이미지에 인증코드를 삽입하고, 디코딩 과정에서 삽입 인증코드 추출 및 비교 인증코드 재생성을 통해 이미지의 원본 여부를 블록 단위로 판단할 수 있다. 제안 알고리즘을 통해 생성된 JPEG 이미지 표준 인코딩 이미지 대비 2.44dB 의 화질 저하를 보였고 1.63%의 압축률 차이를 보였다.

Development of neuroimaging methods for assessing localized brain volume changes in Korean human brain MRI images (한국인 뇌MRI영상을 이용하여 국부 해부학적 영역별 분석 프로토콜 및 정량 평가방법 개발)

  • Kim, Tae-Hoon;Jeong, Chang-Won;Kim, Youe Ree;Chae, IlSeok;Kim, Ki-Jong
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2020.11a
    • /
    • pp.1064-1065
    • /
    • 2020
  • 본 연구는 한국인 뇌MRI영상을 이용하여 대뇌 영역별 분석 프로토콜과 정량 평가방법을 개발하여 정상인을 대상으로 뇌용적량을 정량 분석하고자 한다. 뇌MRI영상 분석 프로토콜을 최적화하기 위해 먼저 뇌용적 변화에 있어 평가방법을 선정하고, VBM 후처리과정은 MRI영상 신호불균질성 교정, 조직세분화 방법, 대뇌 표준영상 제작, 신호 편평화(smoothing) 과정을 단계별로 최적화하였다. 이 정량분석 프로토콜은 정상인과 뇌질환 환자의 뇌용적 비교뿐만 아니라 환자 약물 치료 전·후에 나타나는 용적 변화를 정량적으로 평가하는 연구에 활용할 수 있을 것으로 기대한다.

Classification of 6 Emotions with Emotion Diary : LSTM Model (감정 일기를 통한 6가지 감정 분류 : LSTM모델 연구)

  • Dan-Bi Lee;Ga-Yeong Kim;Ye-Jin Yoon;Ji-Eun Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.932-933
    • /
    • 2023
  • 이 연구는 사람의 감정 변화를 건강하게 파악하고 분석하기 위해 시작되었다. Natural Language Processing(NLP)는 컴퓨터가 인간의 언어를 이해하기 위해 개발된 자연어 처리 기술이다. 본 논문에서는 이 기술을 이용하여 Text Mining을 통해 사용자가 작성한 일기에 담긴 감정을 분석하고 LSTM 모델과 GRU 모델을 비교군으로 두어 두 모델 중 감정 분석에 더 적합한 모델을 찾는 과정을 거쳤다. 이 과정을 정확도가 더 높은 LSTM 모델을 사용하여 감정 분석 결과를 분류하였다.

Building an Automated Scoring System for a Single English Sentences (단문형의 영작문 자동 채점 시스템 구축)

  • Kim, Jee-Eun;Lee, Kong-Joo;Jin, Kyung-Ae
    • The KIPS Transactions:PartB
    • /
    • v.14B no.3 s.113
    • /
    • pp.223-230
    • /
    • 2007
  • The purpose of developing an automated scoring system for English composition is to score the tests for writing English sentences and to give feedback on them without human's efforts. This paper presents an automated system to score English composition, whose input is a single sentence, not an essay. Dealing with a single sentence as an input has some advantages on comparing the input with the given answers by human teachers and giving detailed feedback to the test takers. The system has been developed and tested with the real test data collected through English tests given to the third grade students in junior high school. Two steps of the process are required to score a single sentence. The first process is analyzing the input sentence in order to detect possible errors, such as spelling errors, syntactic errors and so on. The second process is comparing the input sentence with the given answer to identify the differences as errors. The results produced by the system were then compared with those provided by human raters.