• Title/Summary/Keyword: data normalization

검색결과 485건 처리시간 0.051초

가시광 및 근적외선 분광기법을 이용한 방울토마토의 내부품질 예측에 관한 연구 (Study on Prediction of Internal Quality of Cherry Tomato using Vis/NIR Spectroscopy)

  • 김대용;조병관;모창연;김영식
    • Journal of Biosystems Engineering
    • /
    • 제35권6호
    • /
    • pp.450-457
    • /
    • 2010
  • Although cherry tomato is one of major vegetables consumed in fresh vegetable market, the quality grading method is mostly dependant on size measurement using drum shape sorting machines. Using Visible/Near-infrared spectroscopy, apparatus to be able to acquire transmittance spectrum data was made and used to estimate firmness, sugar content, and acidity of cherry tomatoes grown at hydroponic and soil culture. Partial least square (PLS) models were performed to predict firmness, sugar content, and acidity for the acquired transmittance spectra. To enhance accuracy of the PLS models, several preprocessing methods were carried out, such as normalization, multiplicative scatter correction (MSC), standard normal variate (SNV), and derivatives, etc. The coefficient of determination ($R^2_p$) and standard error of prediction (SEP) for the prediction of firmness, sugar, and acidity of cherry tomatoes from green to red ripening stages were 0.859 and 1.899 kgf, with a preprocessing of normalization, 0.790 and $0.434^{\circ}Brix$ with a preprocessing of the 1st derivative of Savitzky Golay, and 0.518 and 0.229% with a preprocessing normalization, respectively.

The Attenuation Structure of the South Korea: A review

  • Chung, T. W.;Noh, M. H.;Matsumoto, S.
    • 지구물리
    • /
    • 제9권3호
    • /
    • pp.199-207
    • /
    • 2006
  • Fukuoka earthquake on March 20, 2005 showed the potential hazard of large events out of S. Korea. From the viewpoint of seismic hazard, seismic amplitude decrease Q-1 is very important. Related to the crustal cracks induced by the earthquakes, the value of Q-1- high Q-1 regions are more attenuating than low Q-1 regions - shows a correlation with seismic activity; relatively higher values of Q-1 have been observed in seismically active areas than in stable areas. For the southeastern and central S. Korea, we first simultaneously estimated QP-1 and QS-1 by applying the extended coda-normalization method to KIGAM and KNUE network data. Estimated QP-1 and QS-1 values are 0.009 f-1.05 and 0.004 f-0.70 for southeastern S. Korea and 0.003 f -0.54 and 0.003 f -0.42 for central S. Korea, respectively. These values agree with those of seismically inactive regions such as shield. The low QLg-1 value, 0.0018f -0.54 was also obtained by the coda normalization method. In addition, we studied QLg-1 by applying the source pair/receiver pair (SPRP) method to both domestic and far-regional events. The obtained QLg-1 for all Fc is less than 0.002, which is reasonable value for a seismically inactive region.

  • PDF

Improving methods for normalizing biomedical text entities with concepts from an ontology with (almost) no training data at BLAH5 the CONTES

  • Ferre, Arnaud;Ba, Mouhamadou;Bossy, Robert
    • Genomics & Informatics
    • /
    • 제17권2호
    • /
    • pp.20.1-20.5
    • /
    • 2019
  • Entity normalization, or entity linking in the general domain, is an information extraction task that aims to annotate/bind multiple words/expressions in raw text with semantic references, such as concepts of an ontology. An ontology consists minimally of a formally organized vocabulary or hierarchy of terms, which captures knowledge of a domain. Presently, machine-learning methods, often coupled with distributional representations, achieve good performance. However, these require large training datasets, which are not always available, especially for tasks in specialized domains. CONTES (CONcept-TErm System) is a supervised method that addresses entity normalization with ontology concepts using small training datasets. CONTES has some limitations, such as it does not scale well with very large ontologies, it tends to overgeneralize predictions, and it lacks valid representations for the out-of-vocabulary words. Here, we propose to assess different methods to reduce the dimensionality in the representation of the ontology. We also propose to calibrate parameters in order to make the predictions more accurate, and to address the problem of out-of-vocabulary words, with a specific method.

다중 생체 인식 시스템을 위한 정규화함수와 결합알고리즘의 성능 평가 (Performance Evaluation of Various Normalization Methods and Score-level Fusion Algorithms for Multiple-Biometric System)

  • 우나영;김학일
    • 정보보호학회논문지
    • /
    • 제16권3호
    • /
    • pp.115-127
    • /
    • 2006
  • 본 논문의 목적은 다중 생체 인식을 위하여 사용되는 다양한 정규화함수와 결합 및 패턴 분류 알고리즘들의 성능을 비교 평가하는 것이다. 이를 위하여 NIST에서 제공하는 유사도 집합인 BSSR(Biometric from Set-Releasel) 데이터베이스와 다양한 정규화함수, 결합 및 패턴 분류 알고리즘을 이용하여 실험을 수행하였으며, HTER(Half Total Error Rate)을 이용한 평가 결과를 제시하고 있다. 본 연구는 단일 데이터베이스와 평가 항목을 이용한 평가 결과를 제시함으로써 다중 생체 인식시스템의 성능 개선 연구를 위한 토대가 될 수 있다.

변화지역 탐지를 위한 시계열 KOMPSAT-2 다중분광 영상의 MAD 기반 상대복사 보정에 관한 연구 (A Study on Object Based Image Analysis Methods for Land Use and Land Cover Classification in Agricultural Areas)

  • 염종민;김현옥;윤보열
    • 한국지리정보학회지
    • /
    • 제15권3호
    • /
    • pp.66-80
    • /
    • 2012
  • 원격탐사 방법을 활용한 변화지역 탐지, 재난재해 지도 작성, 작황 모니터링 등 다중시기의 위성영상을 활용한 결과를 도출하기 위해서는 시계열 영상 정보를 서로 비교할 수 있는 공통의 스케일로 정규화 하는 것이 필요하다. 다중시기 영상에 대한 정규화 방법은 절대복사보정과 상대복사 보정으로 나눌 수 있으며, 본 연구에서는 상대복사 보정을 통한 시계열 위성영상처리 기법을 다루고자 한다. 2011년 3월 해일 피해가 발생했던 일본 센다이 지역을 연구대상지로 선정하였고, KOMPSAT-2 다중분광영상을 이용한 사고 전, 후의 피해지역 탐지에 있어 상대복사 보정의 실효성을 분석하였다. 다양한 상대복사 보정 기법 중에서 정준상관분석을 통해 PIFs(Pseudo Invariant Features) 지역을 자동으로 추출하는 MAD(Multivariate Alteration Detection) 기법을 적용하였다. 본 사례연구 분석결과 MAD 방식에 의한 자동 PIFs 지역의 추출은 비교적 높은 정확도 수준에서 이루어짐을 확인할 수 있었으며, 상대복사 보정된 시계열 위성영상을 사용함으로써 변화지역 자동탐지의 신뢰수준을 높일 수 있는 것으로 나타났다.

호감도 함수 기반 다특성 강건설계 최적화 기법 (A Desirability Function-Based Multi-Characteristic Robust Design Optimization Technique)

  • 박종필;조재훈;남윤의
    • 산업경영시스템학회지
    • /
    • 제46권4호
    • /
    • pp.199-208
    • /
    • 2023
  • Taguchi method is one of the most popular approaches for design optimization such that performance characteristics become robust to uncontrollable noise variables. However, most previous Taguchi method applications have addressed a single-characteristic problem. Problems with multiple characteristics are more common in practice. The multi-criteria decision making(MCDM) problem is to select the optimal one among multiple alternatives by integrating a number of criteria that may conflict with each other. Representative MCDM methods include TOPSIS(Technique for Order of Preference by Similarity to Ideal Solution), GRA(Grey Relational Analysis), PCA(Principal Component Analysis), fuzzy logic system, and so on. Therefore, numerous approaches have been conducted to deal with the multi-characteristic design problem by combining original Taguchi method and MCDM methods. In the MCDM problem, multiple criteria generally have different measurement units, which means that there may be a large difference in the physical value of the criteria and ultimately makes it difficult to integrate the measurements for the criteria. Therefore, the normalization technique is usually utilized to convert different units of criteria into one identical unit. There are four normalization techniques commonly used in MCDM problems, including vector normalization, linear scale transformation(max-min, max, or sum). However, the normalization techniques have several shortcomings and do not adequately incorporate the practical matters. For example, if certain alternative has maximum value of data for certain criterion, this alternative is considered as the solution in original process. However, if the maximum value of data does not satisfy the required degree of fulfillment of designer or customer, the alternative may not be considered as the solution. To solve this problem, this paper employs the desirability function that has been proposed in our previous research. The desirability function uses upper limit and lower limit in normalization process. The threshold points for establishing upper or lower limits let us know what degree of fulfillment of designer or customer is. This paper proposes a new design optimization technique for multi-characteristic design problem by integrating the Taguchi method and our desirability functions. Finally, the proposed technique is able to obtain the optimal solution that is robust to multi-characteristic performances.

A note on Box-Cox transformation and application in microarray data

  • Rahman, Mezbahur;Lee, Nam-Yong
    • Journal of the Korean Data and Information Science Society
    • /
    • 제22권5호
    • /
    • pp.967-976
    • /
    • 2011
  • The Box-Cox transformation is a well known family of power transformations that brings a set of data into agreement with the normality assumption of the residuals and hence the response variable of a postulated model in regression analysis. Normalization (studentization) of the regressors is a common practice in analyzing microarray data. Here, we implement Box-Cox transformation in normalizing regressors in microarray data. Pridictabilty of the model can be improved using data transformation compared to studentization.

An Algorithm for Baseline Correction of SELDI/MALDI Mass Spectrometry Data

  • Lee, Kyeong-Eun
    • Journal of the Korean Data and Information Science Society
    • /
    • 제17권4호
    • /
    • pp.1289-1297
    • /
    • 2006
  • Before other statistical data analysis the preprocessing steps should be performed adequately to have meaningful results. These steps include processes such as baseline correction, normalization, denoising, and multiple alignment. In this paper an algorithm for baseline correction is proposed with using the piecewise cubic Hermite interpolation with block-selected points and local minima after denoising for SELDI or MALDI mass spectrometry data.

  • PDF

JPEG Pleno 홀로그램 데이터의 정규화를 위한 양자화 (Quantization Method for Normalization of JPEG Pleno Hologram)

  • 김경진;김진겸;오관정;김진웅;김동욱;서영호
    • 방송공학회논문지
    • /
    • 제25권4호
    • /
    • pp.587-597
    • /
    • 2020
  • 본 논문에서는 디지털 홀로그램을 처리하는 과정에서 필수적으로 발생하는 양자화 과정에 대해 분석하고 최적화된 양자화기를 제안한다. 홀로그램의 압축 표준을 제정하고 있는 JPEG Pleno에서 full complex 홀로그램은 32비트 혹은 64비트의 정밀도를 갖는 복소수로 정의되고, 값의 범위는 홀로그램의 생성 방법 및 객체의 형태에 따라서 매우 다양하다. 이와 같은 높은 정밀도와 넓은 범위를 갖는 데이터는 신호 처리 및 압축 등의 이유로 인해 보다 낮은 정밀도를 갖는 고정소수점 데이터 혹은 정수형 데이터로 변환된다. 또한 다양한 신호처리 과정을 거친 홀로그램 데이터를 SLM에 재생하기 위해서는 SLM의 화소가 표현할 수 있는 값의 정밀도로 근사화된다. 이러한 과정은 양자화를 통한 정규화 과정이라 할 수 있다. 본 논문에서는 높은 정밀도와 넓은 범위의 홀로그램 데이터를 양자화 기법을 이용하여 정규화시키는 방법에 대해 소개하고 최적화된 방법을 제시한다.

Active Shape Model을 이용한 외형기반 얼굴표정인식에 관한 연구 (A Study on Appearance-Based Facial Expression Recognition Using Active Shape Model)

  • 김동주;신정훈
    • 정보처리학회논문지:소프트웨어 및 데이터공학
    • /
    • 제5권1호
    • /
    • pp.43-50
    • /
    • 2016
  • 본 논문에서는 ASM(Active Shape Model) 특징점(Landmark)을 이용하여 정밀한 얼굴영역을 획득하고, 외형기반 접근법으로 표정을 인식하는 방법에 대하여 제안한다. 외형기반 표정인식은 EHMM(Embedded Hidden Markov Model) 및 이진패턴 히스토그램 특징과 SVM(Support Vector Machine)을 사용하는 알고리즘으로 구성되며, 제안 방법의 성능평가는 공인 CK 데이터베이스와 JAFFE 데이터베이스를 이용하여 수행되었다. 더불어, 성능비교는 기존의 눈 거리 기반의 얼굴 정규화 방법과 비교를 통하여 수행되었고, 또한 ASM 전체 특징점 및 변형된 특징을 SVM으로 인식하는 기하학적 표정인식 방법론과 성능비교를 수행하였다. 실험 결과, 제안 방법은 거리기반 얼굴정규화 영상을 사용한 방법보다 CK 데이터베이스 및 JAFFE 데이터베이스 경우, 최대 6.39%와 7.98%의 성능향상을 보였다. 또한, 제안 방법은 기하학적 특징점을 사용한 방법보다 높은 인식 성능을 보였으며, 이로부터 제안하는 표정인식 방법의 효용성을 확인하였다.