• 제목/요약/키워드: Variance Reduction Techniques

검색결과 29건 처리시간 0.027초

사례기반추론과 텍스트마이닝 기법을 활용한 KTX 차량고장 지능형 조치지원시스템 연구 (An Intelligence Support System Research on KTX Rolling Stock Failure Using Case-based Reasoning and Text Mining)

  • 이형일;김종우
    • 지능정보연구
    • /
    • 제26권1호
    • /
    • pp.47-73
    • /
    • 2020
  • KTX 차량은 수많은 기계, 전기 장치 및 부품들로 구성되어 있는 하나의 시스템으로 차량의 유지보수에는 상당히 많은 전문성과 유지보수 작업자들의 경험을 필요로 한다. 차량 고장발생 시 유지보수자의 지식과 경험에 따라 문제 해결의 시간과 작업의 질적 차이가 발생하며 그에 따른 차량의 가용율이 달라진다. 일반적으로 문제해결은 고장 매뉴얼을 기반으로 하지만 경험이 많고 능숙한 전문가의 경우는 이와 더불어 개인의 노하우를 접목하여 신속하게 진단하고 조치를 취한다. 이러한 지식은 암묵지 형태로 존재하기 때문에 후임자에게 완전히 전수되기 어려우며, 이를 위해 사례기반의 철도차량 전문가시스템을 개발하여 데이터화된 지식으로 바꾸려고 하는 연구들이 있어왔다. 하지만, 간선에 가장 많이 투입되고 있는 KTX 차량에 대한 연구나 텍스트의 특징을 추출하여 유사사례를 검색하는 시스템 개발은 아직 미비하다. 따라서, 본 연구에서는 이러한 차량 유지보수 전문가들의 노하우를 통해 수행된 고장들에 대한 진단과 조치 이력을 문제 해결의 사례로 활용하여 새롭게 발생하는 고장에 대한 조치가이드를 제공하는 지능형 조치지원시스템을 제안하고자 한다. 이를 위하여, 2015년부터 2017년동안 생성된 차량고장 데이터를 수집하여 사례베이스를 구축하였고, 차원축소 기법인 비음수 행렬 인수분해(NMF), 잠재의미분석(LSA), Doc2Vec을 통해 고장의 특징을 추출하여 벡터 간의 코사인 거리를 측정하는 방식으로 유사 사례를 검색하였으며, 위의 알고리즘에 의해 제안된 조치내역들 간 성능을 비교하였다. 분석결과, 고장 내역의 키워드가 적은 경우의 유사 사례 검색과 조치 제안은 코사인 유사도를 직접 적용하는 경우에도 좋은 성능을 낸다는 것을 알 수 있었고 차원 축소 기법들의 성능 비교를 통해 문맥적 의미를 보존하는 차원 축소 방식 중 Doc2Vec을 적용하는 것이 가장 좋은 성능을 나타낸다는 것을 알 수 있었다. 텍스트 마이닝 기술은 여러 분야에서 활용을 위한 연구들이 이루어지고 있는 추세이나, 본 연구에서 활용하고자 하는 분야처럼 전문적인 용어들이 다수이고 데이터에 대한 접근이 제한적인 환경에서 이러한 텍스트 데이터를 활용한 연구는 아직 부족한 실정이다. 본 연구는 이러한 관점에서 키워드 기반의 사례 검색을 보완하고자 텍스트 마이닝 기법을 접목하여 고장의 특징을 추출하는 방식으로 사례를 검색해 조치를 제안하는 지능형 진단시스템을 제시하였다는 데에 의의가 있다. 이를 통해 현장에서 바로 사용 가능한 진단시스템을 단계적으로 개발하는데 기초자료로써 시사점을 제공할 수 있을 것으로 기대한다.

유통과학분야에서 탐색적 연구를 위한 요인분석 (Factor Analysis for Exploratory Research in the Distribution Science Field)

  • 임명성
    • 유통과학연구
    • /
    • 제13권9호
    • /
    • pp.103-112
    • /
    • 2015
  • Purpose - This paper aims to provide a step-by-step approach to factor analytic procedures, such as principal component analysis (PCA) and exploratory factor analysis (EFA), and to offer a guideline for factor analysis. Authors have argued that the results of PCA and EFA are substantially similar. Additionally, they assert that PCA is a more appropriate technique for factor analysis because PCA produces easily interpreted results that are likely to be the basis of better decisions. For these reasons, many researchers have used PCA as a technique instead of EFA. However, these techniques are clearly different. PCA should be used for data reduction. On the other hand, EFA has been tailored to identify any underlying factor structure, a set of measured variables that cause the manifest variables to covary. Thus, it is needed for a guideline and for procedures to use in factor analysis. To date, however, these two techniques have been indiscriminately misused. Research design, data, and methodology - This research conducted a literature review. For this, we summarized the meaningful and consistent arguments and drew up guidelines and suggested procedures for rigorous EFA. Results - PCA can be used instead of common factor analysis when all measured variables have high communality. However, common factor analysis is recommended for EFA. First, researchers should evaluate the sample size and check for sampling adequacy before conducting factor analysis. If these conditions are not satisfied, then the next steps cannot be followed. Sample size must be at least 100 with communality above 0.5 and a minimum subject to item ratio of at least 5:1, with a minimum of five items in EFA. Next, Bartlett's sphericity test and the Kaiser-Mayer-Olkin (KMO) measure should be assessed for sampling adequacy. The chi-square value for Bartlett's test should be significant. In addition, a KMO of more than 0.8 is recommended. The next step is to conduct a factor analysis. The analysis is composed of three stages. The first stage determines a rotation technique. Generally, ML or PAF will suggest to researchers the best results. Selection of one of the two techniques heavily hinges on data normality. ML requires normally distributed data; on the other hand, PAF does not. The second step is associated with determining the number of factors to retain in the EFA. The best way to determine the number of factors to retain is to apply three methods including eigenvalues greater than 1.0, the scree plot test, and the variance extracted. The last step is to select one of two rotation methods: orthogonal or oblique. If the research suggests some variables that are correlated to each other, then the oblique method should be selected for factor rotation because the method assumes all factors are correlated in the research. If not, the orthogonal method is possible for factor rotation. Conclusions - Recommendations are offered for the best factor analytic practice for empirical research.

넙다리뒤근 단축이 있는 성인에게 이완 기법의 적용이 하지의 유연성과 균형에 미치는 영향 (Effects of Relaxation Techniques on Flexibility and Balance of the Lower Limb in Adults with Hamstring Shortening)

  • 이정우;전성민;김하영;배종연;손송찬;송은진;심상은;이형욱;이혜경;조백광;조성빈;주진희;진하연;황정현;김민희
    • PNF and Movement
    • /
    • 제22권1호
    • /
    • pp.55-70
    • /
    • 2024
  • Purpose: The purpose of this study was to investigate the effects of three relaxation techniques, namely, Static Stretching Exercise (SSE), Eccentric Contraction Exercise (ECE), and Suboccipital Muscle Release (SMR) on the flexibility and balance of the lower limb in adults with hamstring shortening. Methods: The participants were 45 adults in their 20s with hamstring shortening. They performed three exercises (i.e., SSE, ECE, and SMR) for two weeks. We measured flexibility, muscle tone and stiffness, proprioception, and balance before and after the intervention, applying each relaxation technique. Data were analyzed using two-way repeated measures analysis of variance (ANOVA). The significance level was set at α=0.05. Results: Flexibility increased in the SSE, ECE, and SMR groups, with the SSE group showing the greatest improvement. Muscle tone and stiffness decreased in all groups, with the ECE group exhibiting the highest reduction. Proprioception increased in the SSE, ECE, and SMR groups, with SSE demonstrating the greatest enhancement. Balance also increased in all groups, with the ECE group showing the most pronounced improvement. Conclusion: Overall, all three relaxation techniques for hamstring shortening resulted in improved flexibility, muscle tone and stiffness, proprioception, and balance of the lower limb in adults with hamstring shortening. The findings of this study underscore the importance of selecting an appropriate technique according to the purpose of treatment and the condition of the patient.

Study on Dimensionality Reduction for Sea-level Variations by Using Altimetry Data around the East Asia Coasts

  • Hwang, Do-Hyun;Bak, Suho;Jeong, Min-Ji;Kim, Na-Kyeong;Park, Mi-So;Kim, Bo-Ram;Yoon, Hong-Joo
    • 대한원격탐사학회지
    • /
    • 제37권1호
    • /
    • pp.85-95
    • /
    • 2021
  • Recently, as data mining and artificial neural network techniques are developed, analyzing large amounts of data is proposed to reduce the dimension of the data. In general, empirical orthogonal function (EOF) used to reduce the dimension in the ocean data and recently, Self-organizing maps (SOM) algorithm have been investigated to apply to the ocean field. In this study, both algorithms used the monthly Sea level anomaly (SLA) data from 1993 to 2018 around the East Asia Coasts. There was dominated by the influence of the Kuroshio Extension and eddy kinetic energy. It was able to find the maximum amount of variance of EOF modes. SOM algorithm summarized the characteristic of spatial distributions and periods in EOF mode 1 and 2. It was useful to find the change of SLA variable through the movement of nodes. Node 1 and 5 appeared in the early 2000s and the early 2010s when the sea level was high. On the other hand, node 2 and 6 appeared in the late 1990s and the late 2000s, when the sea level was relatively low. Therefore, it is considered that the application of the SOM algorithm around the East Asia Coasts is well distinguished. In addition, SOM results processed by SLA data, it is able to apply the other climate data to explain more clearly SLA variation mechanisms.

Micro-CT evaluation of the removal of root fillings using rotary and reciprocating systems supplemented by XP-Endo Finisher, the Self-Adjusting File, or Er,Cr:YSGG laser

  • Gulsen Kiraz;Bulem Ureyen Kaya;Mert Ocak;Muhammet Bora Uzuner;Hakan Hamdi Celik
    • Restorative Dentistry and Endodontics
    • /
    • 제48권4호
    • /
    • pp.36.1-36.15
    • /
    • 2023
  • Objectives: This study aimed to compare the effectiveness of a single-file reciprocating system (WaveOne Gold, WOG) and a multi-file rotary system (ProTaper Universal Retreatment, PTUR) in removing canal filling from severely curved canals and to evaluate the possible adjunctive effects of XP-Endo Finisher (XPF), the Self-Adjusting File (SAF), and an erbium, chromium: yttrium, scandium, gallium garnet (Er,Cr:YSGG) laser using microcomputed tomography (µCT). Materials and Methods: Sixty-six curved mandibular molars were divided into 2 groups based on the retreatment technique and then into 3 based on the supplementary method. The residual filling volumes and root canals were evaluated with µCT before and after retreatment, and after the supplementary steps. The data were statistically analyzed with the t-test, Mann-Whitney U test, analysis of covariance, and factorial analysis of variance (p < 0.05). Results: PTUR and WOG showed no significant difference in removing filling materials (p > 0.05). The supplementary techniques were significantly more effective than reciprocating or rotary systems only (p < 0.01). The supplementary steps showed no significant differences in canal filling removal effectiveness (p > 0.05), but XPF showed less dentin reduction than the SAF and Er,Cr:YSGG laser (p < 0.01). Conclusions: The supplementary methods significantly decreased the volume of residual filling materials. XPF caused minimal changes in root canal volume and might be preferred for retreatment in curved root canals. Supplementary approaches after retreatment procedures may improve root canal cleanliness.

점진적 광자 매핑을 위한 기울기 계산 기법 (Gradient Estimation for Progressive Photon Mapping)

  • 전동희;구정민;문보창
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제30권3호
    • /
    • pp.141-147
    • /
    • 2024
  • 점진적 광자 매핑 방식은 복잡한 전역 조명 효과를 효율적으로 렌더링할 수 있다. 그러나 샘플이 유한한 경우, 반경 축소비율 변수에 의해 분산과 편향 값이 크게 영향 받는다. 유한한 샘플을 사용한 렌더링 결과의 픽셀 오류 및 기울기를 추정하여 추정된 기울기를 기반으로 반경 축소비율을 결정하는 최적의 매개변수를 학습할 수 있다면, 렌더링 된 이미지의 오류를 줄일 수 있을 것이다. 본 논문에서는 점진적 광자 매핑 방식을 통한 렌더링과 매개변수 학습이 동시에 될 수 있도록 기울기를 추정하고 추정된 기울기를 유한 차분법을 통해 계산된 기울기와 비교하여 검증한다. 본 논문에서 추정된 기울기는 향후 점진적 광자 매핑 방식의 렌더링과 매개변수 추정을 동시에 수행하는 온라인 학습 알고리즘에 적용될 수 있을 것으로 기대된다.

자기 유사성을 이용한 가우시안 노이즈 제거 알고리즘 (Gaussian Noise Reduction Algorithm using Self-similarity)

  • 전영은;엄민영;최윤식
    • 대한전자공학회논문지SP
    • /
    • 제44권5호
    • /
    • pp.1-10
    • /
    • 2007
  • 대부분의 자연 영상은 프랙탈 이론의 기반이 되는 자기 유사성이라는 특징을 가지고 있다. 비록 국부적으로 영상을 정상 신호라고 가정할 수 있지만 일반적으로 영상 신호는 에지나 코너 부분과 같은 불연속성을 가지고 있는 비정상 신호이다. 이 때문에 대부분의 선형 알고리즘의 성능 저하가 나타난다. 따라서 이러한 문제를 해결하기 위하여 본 논문에서는 영상 내에 포함되어 있는 자기 유사성을 이용하는 새로운 비선영 잡음 제거 알고리즘을 제안 한다. 이를 위해 우선 잡음 제거를 수행 할 위치의 화소 주변 화소들을 이용하여 평탄 영역인지를 판단한다. 평탄 영역일 경우 그 주변 픽셀들의 평균으로 잡음을 제거하고, 평탄 영역이 아닌 경우, 블록 MSE(block Mean Square Error) 관점에서 유사도가 높은 블록을 탐색하여 그 블록들의 중심 화소값들을 이용하여 잡음 제거를 수행한다. 실험 결과는 PSNR 측면에서 잡음 제거 성능이 약 $1{\sim}3dB$ 정도 향상됨을 보여준다. 또한 추정 이론 관점에서 추정자의 분산 분석 결과 가장 낮은 분산을 갖음을 보였다.

정적 영상에서 Noise Reduction Software의 이해와 적용 (The Understanding and Application of Noise Reduction Software in Static Images)

  • 이형진;송호준;승종민;최진욱;김진의;김현주
    • 핵의학기술
    • /
    • 제14권1호
    • /
    • pp.54-60
    • /
    • 2010
  • 본원에 도입된 새로운 소프트웨어는 SPECT나 전신 뼈 영상에만 국한되어 사용되어 지고 있지만 보다 효과적으로 다른 검사에 적용하기 위해 팬텀을 통한 실험과 영상의 비교를 통하여 그 유용성을 찾아보고자 하였다. 실험을 위하여 Body IEC phantom과 Jaszczak ECT phantom, Capillary를 이용한 실린더 팬텀을 이용하였고, 영상의 처리 전후의 계수, statistics를 비교해 보고 contrast ratio나 BKG의 변화들을 정량적으로 분석해 보았다. Capillary source를 이용한 FWHM 비교에서는 PIXON의 경우 처리 전후의 영상에서 차이가 거의 없었고, ASTONISH의 경우 처리 후의 영상이 우수해짐을 확인할 수 있었다. 반면 Standard deviation과 그에 따른 Variance는 PIXON은 다소 감소한 반면 ASTONISH는 큰 폭으로 증가함을 보였다. IEC phantom을 이용한 BKG variability 비교에서는 PIXON의 경우 전체적으로 감소한 반면 ASTONISH는 다소 증가하는 경향을 보였고, 각각의 sphere에 대한 contrast ratio도 두 가지 방법 모두 향상됨을 확인하였다. 영상의 스케일 면에서도 PIXON의 경우 처리 후에는 window width가 약 4-5배 증가하였지만 ASTONISH에서는 큰 차이가 없었다. 팬텀 실험 분석 후 ASTONISH는 정량적 분석을 위해 ROI를 그려야 하는 기타 검사와 대조도를 강조하는 검사에 적용 가능성을 보였고, PIXON은 획득계수가 부족하거나 SNR이 낮은 핵의학 검사에 유용하게 사용될 것으로 생각되었다. 영상의 분석 인자로 많이 사용되는 정량적인 수치들은 소프트웨어의 적용 후 대체로 향상되었지만 감마카메라의 차이보다 소프트웨어간의 알고리즘 특성으로 인한 결과영상의 차이가 많아 모든 핵의학 검사의 적용에 있어서 일관성을 유지하기는 어려울 것으로 사료된다. 또한 전신 뼈 영상과 같이 검사시간의 획기적 단축과 같은 수단으로는 우수한 영상의 질을 기대하기 어렵다. 새로운 소프트웨어의 도입 시 병원의 특성에 맞는 protocol과 임상 적용 전에 많은 연구가 필요할 것으로 사료된다.

  • PDF

빛의 내부산란의 효과적인 표현을 위한 밀도 추정기법 (Density Estimation Technique for Effective Representation of Light In-scattering)

  • 민승기;임인성
    • 한국컴퓨터그래픽스학회논문지
    • /
    • 제16권1호
    • /
    • pp.9-20
    • /
    • 2010
  • 3차원 공간에 존재하는 반투명 물질을 물리 기반으로 렌더링하기 위해서 빛의 진행 경로를 작은 구간으로 나눈 후, 각 구간에 대하여 빛의 직접적인 영향, 산란으로 인한 영향, 반투명 물질안에서의 소멸 및 물질의 발광으로 인한 영향 등을 고려한 빛의 에너지를 계산하여 누적하는 방식을 사용한다. 이중 빛의 산란은 연속 공간에서 매우 복잡한 방식으로 작용하기 때문에 이의 시뮬레이션을 위해서 상당한 노력이 필요하다. 빛의 산란을 효과적으로 계산하기 위해 여러근사 방법들이 고안되었는데, 그중 볼륨 포톤매핑 기법은 빛이 간섭매체 내부에서 산란되는 효과를 단순화된 시뮬레이션으로 미리 계산하여두고 이를 검색해 효율적으로 렌더링 하는 방법을 사용한다. 이 방법은 주변에서 검색한 시뮬레이션 정보를 이용하기 위해서 밀도추정방법을 적용하는데, 시뮬레이션자료의분포에 따라서 검색에 따른 편차가 있을 수 있게된다. 또한 시뮬레이션된 자료만을 이용하여 산란효과를 반영하기 때문에 고밀도이지만 시뮬레이션이 충분하지 못한 위치에 대해서 방향성 있는 위상함수에 대한 특징을 잘 표현하지 못한다는 문제가있다. 이러한 문제를해결하고자 하는 노력의 일환으로, 본 논문에서는 입자형태로 시뮬레이션된 볼륨데이터에 대해 밀도추정방법의 하나인 커널스무딩을 이용하여 표현한 산란효과를 반투명물질 자료구조에 저장하고 이를 복원하는 방법을 제안하고, 실험결과 분석을 통하여 장단점을 분석한다.