• Title/Summary/Keyword: 문장의 복잡도

Search Result 133, Processing Time 0.03 seconds

Method and Application of Searching Hot Spot For Reengineering Software Using AOP (AOP를 이용한 재공학에서의 핫 스팟 탐색과 응용)

  • Lee, Ei-Sung;Choi, Eun-Man
    • The KIPS Transactions:PartD
    • /
    • v.16D no.1
    • /
    • pp.83-92
    • /
    • 2009
  • Complicated business logic makes program complexity more complicated. It's inevitable that the program must undergo reengineering processes all the way of in its lifetime. Hot spot analysis that has diverse purposes is getting an important question more and more. As a rule, reengineering process is done by UML model-based approach to analyze the legacy system. The smallest fragment of targets to be analysed is unit, that is function or class. Today's software development is to deal with huge change of software product and huge class including heavy quantity of LOC(Lines Of Code). However, analysis of unit is not precise approach process for reliable reengineering consequence. In this paper, we propose very precise hot spot analysis approach using Aspect-Oriented Programming languages, such as AspectJ. Typically the consistency between UML and source is needed code to redefine the modified library or framework boundaries. But reengineering approach using AOP doesn't need to analyze UML and source code. This approach makes dynamic event log data that contains detailed program interaction information. This dynamic event log data makes it possible to analyze hot spot.

Efficient Classification of User's Natural Language Question Types using Word Semantic Information (단어 의미 정보를 활용하는 이용자 자연어 질의 유형의 효율적 분류)

  • Yoon, Sung-Hee;Paek, Seon-Uck
    • Journal of the Korean Society for information Management
    • /
    • v.21 no.4 s.54
    • /
    • pp.251-263
    • /
    • 2004
  • For question-answering system, question analysis module finds the question points from user's natural language questions, classifies the question types, and extracts some useful information for answer. This paper proposes a question type classifying technique based on focus words extracted from questions and word semantic information, instead of complicated rules or huge knowledge resources. It also shows how to find the question type without focus words, and how useful the synonym or postfix information to enhance the performance of classifying module.

Developing the Deep Text-to-Ontology Generator based on Neuro-Symbolic Architecture (뉴로-심볼릭 구조 기반 온톨로지 생성기 제안)

  • Hyeoung-Cheol Park;Eun-Su Yun;Min-Jeong Kim;Hui-Jae Bae;Yu-Jin Shin;Jee-Hang Lee
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2023.11a
    • /
    • pp.672-674
    • /
    • 2023
  • 본 논문은 뉴로-심볼릭 구조를 바탕으로 일반 텍스트로부터 온톨로지 생성이 가능한 심층 신경망 기반 온톨로지 추출기를 제안한다. 온톨로지 추출 단계를 (i) 온톨로지 학습 및 (ii) 온톨로지 생성의 2 단계로 상정, (i) 일반 텍스트로부터 문장 구조 및 논리적 관계를 학습하는 트랜스포머 기반 심층 생성 신경망 출력을 이용하여 (ii) 계층적으로 결합한 심볼릭 추론기로 온톨로지를 생성하는 뉴로-심볼릭 구조 온톨로지 추출기를 구현하였다. 1800 개 훈련 집합으로 학습 후 200 개 테스트 집합으로 평가한 결과, 정확도 91.9%, Precision 100%, Recall 99.1%로 비교 모델 OpenIE 의 성능에 비해서 각각 83.8%, 1.8%, 3.5% 개선된 것을 확인하였다. 정성적 품질에 있어서, 복잡한 문장 (예: 관계대명사, 접속사, 중첩 구조)에서도 비교 모델에 비해 더 정밀한 온톨로지 생성 결과를 보였다.

Implementation of an Efficient Requirements Analysis supporting System using Similarity Measure Techniques (유사도 측정 기법을 이용한 효율적인 요구 분석 지원 시스템의 구현)

  • Kim, Hark-Soo;Ko, Young-Joong;Park, Soo-Yong;Seo, Jung-Yun
    • Journal of KIISE:Software and Applications
    • /
    • v.27 no.1
    • /
    • pp.13-23
    • /
    • 2000
  • As software becomes more complicated and large-scaled, user's demands become more varied and his expectation levels about software products are raised. Therefore it is very important that a software engineer analyzes user's requirements precisely and applies it effectively in the development step. This paper presents a requirements analysis system that reduces and revises errors of requirements specifications analysis effectively. As this system measures the similarity among requirements documents and sentences, it assists users in analyzing the dependency among requirements specifications and finding the traceability, redundancy, inconsistency and incompleteness among requirements sentences. It also extracts sentences that contain ambiguous words. Indexing method for the similarity measurement combines sliding window model and dependency structure model. This method can complement each model's weeknesses. This paper verifies the efficiency of similarity measure techniques through experiments and presents a proccess of the requirements specifications analysis using the embodied system.

  • PDF

Application of sinusoidal model to perception of electrical hearing in cochlear implants (인공와우 전기 청각 인지에 대한 정현파 모델 적용에 관한 연구)

  • Lee, Sungmin
    • The Journal of the Acoustical Society of Korea
    • /
    • v.41 no.1
    • /
    • pp.52-57
    • /
    • 2022
  • Speech consists of the sum of complex sine-waves. This study investigated the perception of electrical hearing by applying the sinusoidal model to cochlear implant simulation. Fourteen adults with normal hearing participated in this study. The sentence recognition tests were implemented using the sentence lists processed by the sinusoidal model which extracts 2, 4, 6, 8 sine-wave components and sentence lists processed by the same sinusoidal model along with cochlear implant simulation (8 channel vocoders). The results showed lower speech recognition for the sentence lists processed by the sinusoidal model and cochlear implant simulation compared to those by the sinusoidal model alone. Notably, the lower the number of sine-wave components (2), the larger the difference was. This study provides the perceptual pattern of sine-wave speech for electrical hearing by cochlear implant listeners, and basic data for development of speech processing algorithms in cochlear implants.

$Infinitivit\"{a}t$ des deutschen und koreanischen Verbs - Im sprachtypologischen Vergleich beider Sprachen (언어 유형학적인 비교를 통한 독일어와 한국어 동사의 부정성)

  • Park Jin-Gil
    • Koreanishche Zeitschrift fur Deutsche Sprachwissenschaft
    • /
    • v.6
    • /
    • pp.79-98
    • /
    • 2002
  • 지금까지 우리는 한국어와 독일어를 비교하면서 동사의 정형과 부정형을 관찰해 왔다. 이 부정성(역으로 말하면 비구속성)은 한국어 동사에는 전반적으로 통용되는 데 반해 독일어에는 부정형/동사원형과 분사가 그러할 뿐이다. 동사의 특성 연구는 어느 자연어/개별언어의 상이한 기능을 위해서 뿐만이 아니라 외국어 학습/습득을 위해서도 큰 의미를 갖는다. 이러한 중요성에도 불구하고 독특한 한국어 동사의 부정성, 그 연구는 거의 찾아볼 수가 없다. 한국어와 독일어 동사의 부정성 비교에서 드러난 문제점은 대체로 다음과 같이 요약될 수 있을 것이다. $\ast$ 한국어 동사의 특징인 부정성은 우리의 운명으로 간주해야 할 것이다. 왜냐하면 우리가 어떤 면에서는 유익함을, 그리고 어떤 다른 면에서는 문제점을 감수해야 하기 때문이다. 특히 전형적인 전치성 언어인 유럽언어를 습득할 때 언어간섭현상을 통해 그러하다. $\ast$ 독일어의 부정사/분사 및 한국어 동사가 인칭변화를 하지 않는다는 것은 그들이 주어를 갖지 않고 있거나 (독일어의 경우), 아니면 그것이 어떤 문법/통사적 역할을 하는가 (한국어의 경우)에 주된 원인이 있다. $\ast$ 비교 대상의 양쪽은 생략가능성, 즉 원자가 요구에 대한 자유/비구속성을 누린다. 핵(성분), 즉 독일어의 부정형 및 분사 그리고 한국어 동사는 혼자 남을 때까지 생략이 계속될 수 있다. 이러한 의미에서 부정성은 <비한정성/비구속성>과 관련된 것 같으며, 반면에 정동사의 특성은 <한정성/구속성>과 관계되어 있다. $\ast$ 원자가 요구/충족에 대한 자유/비구속성은 한국어 동사/술어가 문장 끝에 고정되어 있다는 사실은, 직접 또는 간접으로 본동사 앞에 놓여 있어야 되는 모든 문장성분과 부문장 때문에, 즉 한국어의 전면적인 전위수식 현상으로 흔히 큰 부담/복잡함을 야기한다는 데에 그 원인이 있다. 이러한 상황에서 동사는 가능한 한 그의 문장성분을 줄이려 한다. 통사적으로 보장되어 이미 있으니 말이다. 그래서 한국어 동사의 부정성은 일종의 부담해소 대책으로 간주될 수 있을 것이다. $\ast$ 두 비교 대상에서의 핵 및 최소문장 가능성은 역시 원자가에 대한 비구속성에서 비롯된다. $\ast$ 우리 한국인이 빨리 말할 때 흔히 범하는 부정성으로 인한 인칭변화에서의 오류는 무엇보다도 정형성/제한성을 지닌 독일어 정동사가 인칭 변화하는 데 반해 한국어에서는 부정성/비구속성을 지닌 동사가 그것과는 무관한 페 기인한다. 동사의 속성을 철저히 분석함으로써 이런 과오를 극복해야 할 것이다. 한국어 동사의 부정성은 지금까지 거의 연구되지 않았다. 이 문제는 또한 지속적으로 수많은 다른 자연어들과의 비교분석을 통해 관찰돼야 할 것이다. 이 논문이 이런 연구와 언어습득을 위한 작업에 도움이 되기를 바란다.

  • PDF

Verarbeitungsprozess der Bedeutungen von sprachlichen $Ausdr\"{u}cken$ (언어표현에 나타난 의미의 처리과정)

  • OH Young Hun
    • Koreanishche Zeitschrift fur Deutsche Sprachwissenschaft
    • /
    • v.3
    • /
    • pp.277-301
    • /
    • 2001
  • 우리가 간단히 사용하는 언어는 실제적으로 아주 복잡한 진행과정을 가지고 있다. 사전상의 각 어휘는 대화상황에서 상호 작용하는 초기단계의 역할을 하며, 표현은 과거나 현재에 행해지는 대화상황 및 대화참여자의 발화 과정에서 생기는 일종의 일체감을 표시한다. 의사 소통을 한다는 것은 단어나 문장에 대한 다양한 의미와 각각의 개념에서 지시되는 표현을 수단으로 발생하는 대화상의 연관성을 의미한다. 이러한 모든 것은 의사소통에 있어 의미의 다양성과 관련을 맺고있다. 우리는 표현을 통하여 매우 복잡하고 다양한 양상들을 볼 수 있다. 대화내용에 따라 똑같은 표현들이 서로 다르게 이해될 수 있기 때문이다. 언어는 단지 사람이 행하는 언어처리의 일부만을 보여줄 뿐이다 언어를 처리하는데 있어서 문제가 되는 것은 매우 복잡하고 구성적인 진행과정이다. 청자는 의사소통이 진행되는 과정에서 활자와 함께 주어진 정보를 처리함으로써 상황을 내적 형상화하게 된다. 따라서 청자는 표현의 의미를 이해하려고 노력하며, 다양한 방법을 동원한 지식을 사용한다. 의사소통에 있어서 통사적$\cdot$의미적인 지식, 문맥에 맞는 대화지식 혹은 일반 지식을 대화상황에 맞게 적용하는 것이 그 예라 할 수 있다. 지시적 언어의 표현은 사전적으로 고정된 단어의 의미를 규정하거나 또는 이와 같은 단어의 의미에 정확하고 적절한 지시사를 규정하는 근거가 된다. 인칭$\cdot$장소$\cdot$시간을 지시하는 언어 Personal-, Lokal-, Temporaldeixis는 언어 시스템을 형성하게 되는데, 활자와 청자는 이러한 표현을 인칭$\cdot$장소$\cdot$시간으로 형상화하면서 의사소통을 한다. 따라서 자연어의 처리과정에 나타나는 다양한 표현들에 대한 심리학 및 언어학의 강력한 연구가 요구된다.에 기대어 텍스트, 문장, 어휘영역 등이 투입되어 적용되었으며, 이에 상응되게 구체적인 몇몇 방안들이 제시되었다. 학습자들이 텍스트를 읽고 중심내용을 찾아내며, 단락을 구획하고 또한 체계를 파악하는데 있어서 어휘연습은 외국어 교수법 측면에서도 매우 관여적이며 시의적절한 과제라 생각된다. Sd 2) PL - Sn - pS: (1) PL[VPL - Sa] - Sn - pS (2) PL[VPL - pS] - Sn - pS (3) PL(VPL - Sa - pS) - Sn - pS 3) PL[VPL - pS) - Sn -Sa $\cdot$ 3가 동사 관용구: (1) PL[VPL - pS] - Sn - Sd - Sa (2) PL[VPL - pS] - Sn - Sa - pS (3) PL[VPL - Sa] - Sn - Sd - pS 이러한 분류가 보여주듯이, 독일어에는 1가, 2가, 3가의 관용구가 있으며, 구조 외적으로 동일한 통사적 결합가를 갖는다 하더라도 구조 내적 성분구조가 다르다는 것을 알 수 있다. 우리는 이 글이 외국어로서의 독일어를 배우는 이들에게 독일어의 관용구를 보다 올바르게 이해할 수 있는 방법론적인 토대를 제공함은 물론, (관용어) 사전에서 외국인 학습자를 고려하여 관용구를 알기 쉽게 기술하는 데 도움을 줄 수 있기를 바란다.되기 시작하면서 남황해 분지는 구조역전의 현상이 일어났으며, 동시에 발해 분지는 인리형 분지로 발달하게 되었다. 따라서, 올리고세 동안 발해 분지에서는 퇴적작용이, 남황해 분지에서는 심한 구조역전에 의한 분지변형이 동시에 일어났다 올리고세 이후 현재까지, 남황해 분지와 발해 분지들은 간헐적인 해침과 함께 광역적 침강을 유지하면서 안정된 대륙 및 대륙붕 지역으로 전이되었다.

  • PDF

Reduce Redundant Repetition Using Decoding History for Sequence-to-Sequence Summarization (단어 생성 이력을 이용한 시퀀스-투-시퀀스 요약의 어휘 반복 문제 해결)

  • Ryu, Jae-Hyun;Noh, Yunseok;Choi, Su Jeong;Park, Se-Young
    • Annual Conference on Human and Language Technology
    • /
    • 2018.10a
    • /
    • pp.120-125
    • /
    • 2018
  • 문서 요약 문제는 최근 심층 신경망을 활용하여 활발히 연구되고 있는 문제 중 하나이다. 많은 기존 연구들이 주로 시퀀스-투-시퀀스 모델을 활용하여 요약을 수행하고 있으나, 아직 양질의 요약을 생성하기에는 많은 문제점이 있다. 시퀀스-투-시퀀스 모델을 활용한 요약에서 가장 빈번히 나타나는 문제 중 하나는 요약문의 생성과정에서 단어나 구, 문장이 불필요하게 반복적으로 생성되는 것이다. 이를 해결하기 위해 다양한 연구가 이루어지고 있으며, 이들 대부분은 요약문의 생성 과정에서 정확한 정보를 주기 위해 모델에 여러 모듈을 추가하였다. 하지만 기존 연구들은 생성 단어가 정답 단어로 나올 확률을 최대화 하도록 학습되기 때문에, 생성하지 말아야 하는 단어에 대한 학습이 부족하여 반복 생성 문제를 해결하는 것에는 한계가 있다. 따라서 본 논문에서는 기존 요약 모델의 복잡도를 높이지 않고, 단어 생성 이력을 직접적으로 이용하여 반복 생성을 제어하는 모델을 제안한다. 제안한 모델은 학습할 때 생성 단계에서 이전에 생성한 단어가 이후에 다시 생성될 확률을 최소화하여 실제 모델이 생성한 단어가 반복 생성될 확률을 직접적으로 제어한다. 한국어 데이터를 이용하여 제안한 방법을 통해 요약문을 생성한 결과, 비교모델보다 단어 반복이 크게 줄어들어 양질의 요약을 생성하는 것을 확인할 수 있었다.

  • PDF

Science Popularizing Mechanism of a Science Magazine in terms of the Linguistic Features of Earth Science Articles in 'Science Donga' ('과학동아' 지구과학 기사의 언어적 특성으로 본 과학 잡지의 과학 대중화 기제)

  • Ham, Seok-Jin;Maeng, Seung-Ho;Kim, Chan-Jong
    • Journal of the Korean earth science society
    • /
    • v.31 no.1
    • /
    • pp.51-62
    • /
    • 2010
  • The purpose of this study was to investigate how a science magazine played a role in filling the gap between scientists and the general public, and how it contributed to science popularization. We analyzed the linguistic features of the texts used in a science magazine. We used 12 articles (six written by journalists, and six written by scientists) from the Science Donga. Register analysis was conducted in order to define the linguistic features of the texts in terms of ideational meaning, interpersonal meaning and, textual meaning. Results of this study are as follows: (1) the articles written by journalists used a higher mental and verbal processes in which the conversations and thoughts of scientists were expressed. (2) Human agents were relatively explicit in the journalists' articles. However, they were implicit or omitted in the articles of scientists. (3) Interrogative sentences and inclusive imperative sentences, and even omissions were frequently found in the journalists' articles whereas scientists' articles mainly used declarative statements. (4) The clause density of journalist' articles and scientists' were similarly lower than that of science textbooks. (5) The information structure revealed by the patterns of Theme and Rheme that the journalists' articles used in science magazines was simpler than that of science textbooks, while the structure of scientists' articles was more complex than that of journalists'. Based on the linguistic features of the texts used in science magazines, we found that a science magazine contributes to science popularization in two faces: One is in that the articles of journalists present science contents in a way that the readers can follow with ease and feel well-acquainted. The other is that the modified articles of scientists help the general public get familiar with the culuture of science in terms of use of science language.

Safety Verification Techniques of Privacy Policy Using GPT (GPT를 활용한 개인정보 처리방침 안전성 검증 기법)

  • Hye-Yeon Shim;MinSeo Kweun;DaYoung Yoon;JiYoung Seo;Il-Gu Lee
    • Journal of the Korea Institute of Information Security & Cryptology
    • /
    • v.34 no.2
    • /
    • pp.207-216
    • /
    • 2024
  • As big data was built due to the 4th Industrial Revolution, personalized services increased rapidly. As a result, the amount of personal information collected from online services has increased, and concerns about users' personal information leakage and privacy infringement have increased. Online service providers provide privacy policies to address concerns about privacy infringement of users, but privacy policies are often misused due to the long and complex problem that it is difficult for users to directly identify risk items. Therefore, there is a need for a method that can automatically check whether the privacy policy is safe. However, the safety verification technique of the conventional blacklist and machine learning-based privacy policy has a problem that is difficult to expand or has low accessibility. In this paper, to solve the problem, we propose a safety verification technique for the privacy policy using the GPT-3.5 API, which is a generative artificial intelligence. Classification work can be performed evenin a new environment, and it shows the possibility that the general public without expertise can easily inspect the privacy policy. In the experiment, how accurately the blacklist-based privacy policy and the GPT-based privacy policy classify safe and unsafe sentences and the time spent on classification was measured. According to the experimental results, the proposed technique showed 10.34% higher accuracy on average than the conventional blacklist-based sentence safety verification technique.