• Title/Summary/Keyword: 한국 분석

Search Result 224,374, Processing Time 0.132 seconds

Dependency Parsing by Chunks (단위(Chunks) 분석과 의존문법에 기반한 한국어 구문분석)

  • 김미영;강신재;이종혁
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.04b
    • /
    • pp.327-329
    • /
    • 2000
  • 기존의 구문분석 방법은 구구조문법과 의존문법에 기반한 것이 대부분이다. 이러한 구문분석은 다양한 분석 결과들이 분석되는 동안 많은 시간이 소요되며, 잘못된 분석 결과를 찾아 내어 삭제하기(pruning)도 어렵다. 본 논문은 구문분석에 필요한 의존문법을 적용하기 이전에, 단위화(Chunking) 방법을 사용하는 것을 제안한다. 이렇게 함으로써, 의존문법에 적용하는 차트의 수를 줄이게 되고, 의존관계의 설정 범위(scope)도 제한을 가할 수 있으며, 구문분석 속도 또한 빨라지게 된다.

  • PDF

A Classification of Endings for an Efficient Morphological Analysis of Korean (고성능 한국어 형태소 분석을 위한 어미 분류)

  • 은종진;박선영
    • Proceedings of the Korean Society for Cognitive Science Conference
    • /
    • 2000.06a
    • /
    • pp.41-47
    • /
    • 2000
  • 한국어 형태소 분석에서 가장 중요한 부분 중 하나가 바로 용언구(서술어)를 분석하는 것이다. 형태소 분석 뿐만 아니라 구문 분석, 의미 분석 단계에서도 정확한 용언구 분석은 매우 중요한 작업 중의 하나이다. 또한, 용언구에는 [체언+지정사+어미] 패턴도 포함되므로, 정보 검색기의 핵심 모듈인 명사 추출기(색인기)의 성능에도 용언구의 분석은 높은 비중을 차지한다. 본 논문에서는 용언구 분석의 정확성을 높이고, 견고하면서 속도도 향상시킬 수 있는 방법으로 새로운 어미 분류를 제안하고자 한다.

  • PDF

과다 구속 메커니즘의 새로운 모빌리티 분석 방법

  • 최기영;김희국;이병주
    • Proceedings of the Korean Society of Precision Engineering Conference
    • /
    • 2004.05a
    • /
    • pp.284-284
    • /
    • 2004
  • 기존의 모빌리티 분석 방법은 크게 Grubler의 모빌리티 공식에 의한 zeroth-order 모빌리티 분석 방법, 관절 스크류를 활용한 일차 기구학 성질을 관절 스크류로서 활용한 first-order 모빌리티 분석 방법, 그리고 이차 기구학 특성을 활용하는 second-order 모빌리티 분석 방법으로 구분된다. 그러나, 많은 과다 구속 메커니즘의 경우 zeroth-order 또는 first-order 모빌리티 분석 방법에 의해서는 모빌리티의 분석이 불가능하며 현재까지 문헌에 소개된 second-order 모빌리티 분석 방법은 수치적인 방법에 의존하여 전체 메카니즘의 이차 기구학 특성을 분석하게 되므로 매우 복잡하여 활용하는데 매우 어려움이 있다.(중략)

  • PDF

A Study on the Marketing Conversion Analysis Algorithm of Web Log Analytics System (웹로그 분석 시스템의 마케팅 전환 분석 알고리즘에 관한 연구)

  • Seo, MinGu
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2018.10a
    • /
    • pp.446-448
    • /
    • 2018
  • 현재 온라인 마케팅 분석을 위해 웹로그 분석시스템을 사용하여 마케팅 결과에 대한 분석을 하고 있지만, 전환에 대한 원인 분석이 사용자의 접속 당시 정보에 의한 데이터로만 분석되고 있어, 본 연구에서는 전환 데이터 분석에 대한 좀 더 현실적으로 분석하기 위한 알고리즘 연구를 제안한다.

Development of a Data Analysis Program Using a Data Analysis Competition for Primary School Students (초등학생을 위한 데이터 분석대회를 활용한 데이터 분석 프로그램 개발)

  • HakNeung Go;JaeRi Jeong;Youngjun Lee
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2024.01a
    • /
    • pp.471-472
    • /
    • 2024
  • 본 논문에서는 초등학생을 위한 데이터 분석 대회를 활용한 데이터 분석 프로그램을 개발하였다. 데이터 분석 프로그램은 ADDIE 모형에 개발하였다. 분석 단계에서 G초등학교 학생들의 데이터 분석 도구인 스프레드 시트를 학습한 경험이 적고 배우고자 하는 동기가 없었다. 하지만 교육과정에서 공학도구로 활용하도록 제시되어 있다. 이를 바탕으로 디자인 학생들이 스프레드 시트를 학습할 수 있는 프로그램과 이를 실습할 수 있는 데이터 분석 대회를 디자인 하였다. 개발 단계에서는 LMS를 활용하여 학생들에게 학습을 위한 데이터를 제공하고 학습하며, 데이터 분석 대회에서는 학습한 데이터와 문제만 제공하여 대회에 참여하면서 실습할 수 있는 기회를 제공하였다. 평가 도구로는 데이터 리터러시 평가 도구를 선정하였다.

  • PDF

A Study on Preservation Metadata Model for long-term Preservation of the R&D Information (국가R&D 조사분석 검증자료의 장기적 보존 메타데이터 모델에 관한 연구)

  • AN, Jeong-Eun;Yoon, Jong-Min;ko, Jun-Ho
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2012.11a
    • /
    • pp.1385-1388
    • /
    • 2012
  • 국가R&D사업의 추진결과와 활동현황에 대한 종합적이고 다각적인 분석을 위해 1999년도부터 매년 모든 국가R&D사업에 대해 주요 연구 성과인 논문, 특허, 기술료 등에 대한 국가R&D 조사분석 자료 수집이 실시되고 있다. 국가R&D 표준정보 수집을 위해 2003년도에 '국가연구개발사업 종합관리시스템(CORDI, 현재 SIMS)'이 구축되었고, 매년 국가R&D 조사분석 자료들의 수집 분석이 실시되고 있으나, 전자기록의 속성을 갖는 국가R&D 조사분석 자료, 특히 조사분석의 검증자료에 대한 장기적 보존을 위한 관련 연구는 전무한 상태이다. 따라서 본 연구는 국가R&D 조사분석의 검증자료에 대한 장기적 보존과 나아가서는 평가의 활용 및 정보 시스템간의 상호운용성을 높이기 위한 국가R&D 조사분석 검증자료의 보존 메타데이터 모델을 제안한다.

Transformation of Constraint-based Analyses for Efficient Analysis of Java Programs (Java 프로그램의 효율적인 분석을 위한 집합-기반 분석의 변환)

  • Jo, Jang-Wu;Chang, Byeong-Mo
    • Journal of KIISE:Software and Applications
    • /
    • v.29 no.7
    • /
    • pp.510-520
    • /
    • 2002
  • This paper proposes a transformation-based approach to design constraint-based analyses for Java at a coarser granularity. In this approach, we design a less or equally precise but more efficient version of an original analysis by transforming the original construction rules into new ones. As applications of this rule transformation, we provide two instances of analysis design by rule-transformation. The first one designs a sparse version of class analysis for Java and the second one deals with a sparse exception analysis for Java. Both are designed based on method-level, and the sparse exception analysis is shown to give the same information for every method as the original analysis.

통계적 분류방법을 이용한 문화재 정보 분석

  • Kang, Min-Gu;Sung, Su-Jin;Lee, Jin-Young;Na, Jong-Hwa
    • Proceedings of the Korea Society for Industrial Systems Conference
    • /
    • 2009.05a
    • /
    • pp.120-125
    • /
    • 2009
  • 본 논문에서는 통계적 분류방법을 이용하여 문화재 자료의 분석을 수행하였다. 분류방법으로는 선형판별분석, 로지스틱회귀분석, 의사결정나무분석, 신경망분석, SVM분석을 사용하였다. 각각의 분류방법에 대한 개념 및 이론에 대해 간략히 소개하고, 실제자료 분석에서는 "지역별 문화재 통계분석 및 모형개발 연구 1차(2008)"에 사용된 자료 중 익산시 자료를 근거로 매장문화재에 대한 분류방법별 적합모형을 구축하였다. 구축된 모형과 모의실험의 결과를 통해 각각의 적합모형에 대한 비교를 수행하여 모형의 성능을 비교하였다. 분석에 사용된 도구로는 최근 가장 관심을 갖는 R-project를 사용하였다.

  • PDF

Alarm-Guided Locally Relational Post-Analysis for Reducing False Alarms (분석 경보 주위에만 관계 분석을 적용하여 거짓경보를 줄이는 방법)

  • Lee, Woo-Suk;Oh, Hak-Joo;Kim, You-Il;Yi, Kwang-Keun
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2011.06c
    • /
    • pp.450-453
    • /
    • 2011
  • 분석 경보에 따른 점층적인 분석을 수행하는 버퍼 오버런 분석 기법을 제안한다. 구간 도메인을 사용한 분석은 비용이 낮지만 정확도도 낮다. 변수들 간의 관계를 고려하는 팔각형 도메인을 사용한 분석은 정확도가 높지만 비용도 높다. 점층적인 분석 방법으로 정적 분석기의 비용과 정확도 사이에서 균형을 잡을 수 있다. 먼저 (비용이 낮은) 구간 도메인을 사용한 분석을 수행하고, 증명하지 못한 부분 코드에 대해서만 (정확도가 높은) 관계 도메인을 사용한 분석을 적용한다. 정확도가 높은 분석이 필요한 부분에만 관계 분석을 적용함으로써, 낮은 분석 비용을 유지하면서 정확도를 높일 수 있다.