• Title/Summary/Keyword: 가중치 방법

Search Result 2,831, Processing Time 0.029 seconds

Optimal Brain Surgeon with Adaptive Weight Decay Term (적응적 가중치 감소항을 적용한 Optimal Brain Surgeon)

  • 이현진;지태창;박혜영;이일병
    • Proceedings of the Korean Information Science Society Conference
    • /
    • 2000.10b
    • /
    • pp.305-307
    • /
    • 2000
  • 본 논문에서는 다층 퍼셉트론 신경망에서 연결선 수를 최소로 하면서 일반화 성능을 향상시키기 위해 가장 널리 쓰여지고 있는 Optimal Brain Surgeon을 이용한 프루닝(pruning)을 기반으로 하여 오차 함수의 가중치 감소항을 추가시키는 방법을 사용한다. 이때 학습 및 프루닝의 성능에 많은 영향을 미치는 가중치 감소항의 방영정도를 베이시안 테크닉에 기반하여 적응적으로 최적화 하는 방법을 제안한다. 제안하는 방법의 성능을 검증하기 위해 벤치마크 데이터를 이용하여 실험을 수행하였다. 순수한 OBS 방법과 고정된 반영정도를 가진 가중치 감소항을 추가시킨 OBS, 그리고 제안하는 적응적 가중치 감소항을 적용한 OBS 방법을 비교하여 제한하는 방법이 기존의 두 방법에 비해 신경망 구조의 최적화 능력이 뛰어남을 확인할 수 있었다.

  • PDF

Keyword Extraction based on Style (스타일 기반 키워드 추출)

  • Lee, Joon-Hwi;Lee, Won-Suk
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2002.04b
    • /
    • pp.1049-1052
    • /
    • 2002
  • 기존의 키워드 추출 방법은 출현회수(frequency)에 기반한 가중치(weight) 부여 방식이 많이 쓰였다. 본 논문에서는 HTML 문서와 같이 스타일이 적용된 문서의 경우 출현회수와 함께 단어에 적용된 스타일을 고려하여 가중치를 부여해 키워드를 추출하는 방법을 제안한다. 가중치를 부여할 스타일 항목과 항목별 가중치 부여방법을 정의하고 이를 단어별로 합산하고 정규화(normalization)하는 방법을 정의하여 스타일에 기반 해 키워드를 추출하였다. 내용이 특정된 도메인으로부터 순위(ranking)가 매겨진 도메인 키워드 리스트를 뽑아서 이를 기준으로 삼아 기존의 출현회수 기반의 키워드 추출 방식과 양적, 질적인 비교를 수행하여 우월함을 보였다.

  • PDF

A study on DID metadata processing method according to distance learning data weight (원격교육 학습데이터 가중치에 따른 DID 메타데이터 처리방법 연구)

  • Youn-A Min
    • Proceedings of the Korean Society of Computer Information Conference
    • /
    • 2023.07a
    • /
    • pp.567-568
    • /
    • 2023
  • 본 논문에서는 블록체인 기반 DID기술을 이용하여 원격교육에서 발생하는 학습데이터를 효율적으로 관리하기 위한 방법으로, 학습데이터 가중치를 고려한 DID 메타데이터관리방법을 제안하였다. 메타데이터의 식별자에 대하여 특정위치로 데이터 가중치를 검색하도록 하고 해당 가중치에 따라 처리방법을 다양화 할 수 있다. 본문에서는 블록체인의 Zero Knowledge Proof 방식 처리에 차별화를 두어 메타데이터를 처리하였으며 데이터 처리속도 및 데이터관리에 효율성높일 수 있다.

  • PDF

Methods of computing Toll Road Weights when Calibrating Road Networks in a Transportation Planning Model (교통계획 모형내 유료도로의 요금적용 방안에 관한 연구)

  • Kim, Eung-Cheol;Kim, Do-Hoon
    • International Journal of Highway Engineering
    • /
    • v.11 no.1
    • /
    • pp.47-58
    • /
    • 2009
  • Calibrating toll roads of highway networks needs additional weights within volume delay functions not like other general highway lints. However, current methods assigning additional weights in the volume delay function of toll roads are not sufficiently enough to predict real toll road volumes measured, since it does not consider discounting rates and an extra charges. This study develops methods to improve relevant and reliable volume delay functions. Suggested ideas include a method of weighting volume delay functions considering a value of time of vehicle types, a method of weighting volume delay functions considering lane distributions of vehicles, and a method of weighting volume delay functions considering percentages of link lengths per a number of lanes of toll roads. It is found that the method of weighting volume delay functions considering lane distributions of vehicles show most reliable and appropriate results, while the first method shows overestimation and the third method does underestimation of highway link volumes. In terms of assignment methods, total OD equilibrium assignment shows better results than PCU based assignment.

  • PDF

Term Weighting Method for Natural Language Query Sentence (자연언어 질의 문장의 용어 가중치 부여 기법)

  • Kang, Seung-Shik;Lee, Ha-Gyu;Son, So-Hyun;Moon, Byung-Joo;Hong, Gi-Choi
    • Annual Conference on Human and Language Technology
    • /
    • 2002.10e
    • /
    • pp.223-227
    • /
    • 2002
  • 자연언어 질의 문장으로부터 검색어로 사용될 질의어의 추출 및 질의어 가중치를 계산하기 위하여 질의 문장들의 유형을 분석하였으며, 질의어 구문의 특성에 따라 용어들의 가중치를 계산하는 방법을 제안하였다. 용어의 가중치를 부여할 때 띄어쓴 복합명사와 접속 관계 등에 의해 연결된 명사구는 질의어 가중치를 동등하게 적용할 필요가 있다. 질의 문장에서 가중치가 동등하게 적용되는 명사구를 인식하기 위한 목적으로 구현된 명사구 chunking을 수행한 후에 각 용어들에 대한 질의어 가중치를 계산한다. 질의어 가중치를 계산하기 위하여 용어의 유형, 질의 구문의 특성, 문서 유형을 지칭하는 용어, 조사 유형, 용어의 길이 등에 따라 가중치를 조절하는 방법을 사용한다. 용어유형에 의한 가중치 계산은 추출된 용어의 품사 정보와 전문 용어 사전, 부사성 명사 사전을 이용하였다.

  • PDF

The Weighting Adjustment of Korea Welfare Panel Study

  • Son, Chang-Gyun;Ryu, Je-Bok;Hong, Gi-Hak;Lee, Gi-Seong
    • Proceedings of the Korean Association for Survey Research Conference
    • /
    • 2006.12a
    • /
    • pp.11-40
    • /
    • 2006
  • 시간의 흐름에 따라 사회 구성원들에 대한 행태 연구나 사회의 변화가 개인의 행동양식에 미치는 영향 등에 대한 조사에서는 어느 한 시점에서의 구성원들에 대한 횡단면 조사와는 다르게 다년간 지속적으로 조사개체를 추적조사 해야 하는 종단면 조사 또는 패널조사를 수행해야 한다. 패널조사는 횡단면 조사와는 달리 최초 표본이 시간이 지남에 따라 조사 대상 표본으로부터 탈락함으로서 발생하는 표본의 마모와 그에 따른 대표성 상실의 문제이다. 그러므로 이러한 표본의 대표성 상실 문제를 적절히 해결하기 위해 적용 가능한 방법이 가중치 조정 방법이다 횡단면 조사에서는 (1)추출가중치의 조정, (2)무응답 가중치 조정, (3)사후층화 가중치 조정과 같이 3단계의 가중치 조정과정을 수행하지만, 패널 조사의 경우 이와 더불어 원 표본의 대표성을 유지하기 위해 종단면 가중치(longitudinal weight)를 함께 고려해야 한다. 이러한 관점에서 본 연구에서는 다양한 패널형태에 따른 가중치 조정 방법에 대해 고찰하고, 향후 수행될 한국복지패널(Korea Welfare Panel Study: KWPS)의 가중치 산정에 관한 이론적 근거를 마련함과 동시에 현재 국내에서 수행되고 있는 패널조사의 가중치 조정방법과 비교하고자 한다.

  • PDF

Weight decision of the XML Tag using Relationship Probability (관계성 확률을 이용한 XML 태그의 가중치 결정)

  • Jeong, Hye-Jin
    • Proceedings of the Korea Information Processing Society Conference
    • /
    • 2007.05a
    • /
    • pp.699-702
    • /
    • 2007
  • 보다 효과적인 색인어 추출 및 색인어 가중치 결정을 위하여 문서의 내용뿐 아니라 구조를 이용하여 색인을 추출하는 연구가 이루어지고 있는데, 대부분의 연구들이 XML 태그의 중요도가 아닌, 문맥상의 단락에 대한 중요도를 계산하거나 HTML 문서 태그의 중요도 결정에 관한 연구들이다. 이러한 기존 연구들은 대부분이 객관적인 실험을 통해서 중요도를 입증하기보다는 상식적인 관점에서 단순한 수치로 중요도를 결정하고 있다. 본 논문에서는 웹 문서 관리를 위한 표준으로 자리잡아가고 있는 XML 문서의 태그 정보를 이용한 자동색인을 위하여, 논문을 구성하는 주요 태그의 가중치를 계산하는 방법을 제안한다. 보다 객관적인 가중치 결정을 위하여 인용된 문서간의 관계를 알아보고 서로 연관이 있을 확률을 계산하여 그 기대치만큼 색인어에 대한 가중치에 반영한다. 그리고 기존 태그 중요도 결정 방법을 적용하여 계산된 색인어 가중치를 이용한 검색성능과 비교함으로써 본 논문에서 제안한 방법을 적용하여 계산된 색인어 가중치의 효과를 검증한다.

  • PDF

A simulation study for various propensity score weighting methods in clinical problematic situations (임상에서 발생할 수 있는 문제 상황에서의 성향 점수 가중치 방법에 대한 비교 모의실험 연구)

  • Siseong Jeong;Eun Jeong Min
    • The Korean Journal of Applied Statistics
    • /
    • v.36 no.5
    • /
    • pp.381-397
    • /
    • 2023
  • The most representative design used in clinical trials is randomization, which is used to accurately estimate the treatment effect. However, comparison between the treatment group and the control group in an observational study without randomization is biased due to various unadjusted differences, such as characteristics between patients. Propensity score weighting is a widely used method to address these problems and to minimize bias by adjusting those confounding and assess treatment effects. Inverse probability weighting, the most popular method, assigns weights that are proportional to the inverse of the conditional probability of receiving a specific treatment assignment, given observed covariates. However, this method is often suffered by extreme propensity scores, resulting in biased estimates and excessive variance. Several alternative methods including trimming, overlap weights, and matching weights have been proposed to mitigate these issues. In this paper, we conduct a simulation study to compare performance of various propensity score weighting methods under diverse situation, such as limited overlap, misspecified propensity score, and treatment contrary to prediction. From the simulation results overlap weights and matching weights consistently outperform inverse probability weighting and trimming in terms of bias, root mean squared error and coverage probability.

A Dynamic feature Weighting Method for Case-based Reasoning (사례기반 추론을 위한 동적 속성 가중치 부여 방법)

  • 이재식;전용준
    • Journal of Intelligence and Information Systems
    • /
    • v.7 no.1
    • /
    • pp.47-61
    • /
    • 2001
  • Lazy loaming methods including CBR have relative advantages in comparison with eager loaming methods such as artificial neural networks and decision trees. However, they are very sensitive to irrelevant features. In other words, when there are irrelevant features, larry learning methods have difficulty in comparing cases. Therefore, their performance can be degraded significantly. To overcome this disadvantage, feature weighting methods for lazy loaming methods have been studied. Most of the existing researches, however, were focused on global feature weighting. In this research, we propose a new local feature weighting method, which we shall call CBDFW. CBDFW stores classification performance of randomly generated feature weight vectors. Then, given a new query case, CBDFW retrieves the successful feature weight vectors and designs a feature weight vector fur the query case. In the test on credit evaluation domain, CBDFW showed better classification accuracy when compared to the results of previous researches.

  • PDF

New Weight Generation Algorithm for Path Delay Fault Test Using BIST (내장된 자체 테스트에서 경로 지연 고장 테스트를 위한 새로운 가중치 계산 알고리듬)

  • Hur, Yun;Kang, Sung-Ho
    • Journal of the Institute of Electronics Engineers of Korea SD
    • /
    • v.37 no.6
    • /
    • pp.72-84
    • /
    • 2000
  • The test patterns for path delay faults consist of two patterns. So in order to test the delay faults, a new weight generation algorithm that is different from the weight generation algorithm for stuck-at faults must be applied. When deterministic test patterns for weight calculation are used, the deterministic test patterns must be divided into several subsets, so that Hamming distances between patterns are not too long. But this method makes the number of weight sets too large in delay testing, and may generate inaccurate weights. In this pater, we perform fault simulation without pattern partition. Experimental results for ISCAS 89 benchmark circuits prove the effectiveness of the new weight generation algorithm proposed in this paper.

  • PDF