• 제목/요약/키워드: machine accuracy

검색결과 3,178건 처리시간 0.03초

Scoring systems for the management of oncological hepato-pancreato-biliary patients

  • Alexander W. Coombs;Chloe Jordan;Sabba A. Hussain;Omar Ghandour
    • 한국간담췌외과학회지
    • /
    • 제26권1호
    • /
    • pp.17-30
    • /
    • 2022
  • Oncological scoring systems in surgery are used as evidence-based decision aids to best support management through assessing prognosis, effectiveness and recurrence. Currently, the use of scoring systems in the hepato-pancreato-biliary (HPB) field is limited as concerns over precision and applicability prevent their widespread clinical implementation. The aim of this review was to discuss clinically useful oncological scoring systems for surgical management of HPB patients. A narrative review was conducted to appraise oncological HPB scoring systems. Original research articles of established and novel scoring systems were searched using Google Scholar, PubMed, Cochrane, and Ovid Medline. Selected models were determined by authors. This review discusses nine scoring systems in cancers of the liver (CLIP, BCLC, ALBI Grade, RETREAT, Fong's score), pancreas (Genç's score, mGPS), and biliary tract (TMHSS, MEGNA). Eight models used exclusively objective measurements to compute their scores while one used a mixture of both subjective and objective inputs. Seven models evaluated their scoring performance in external populations, with reported discriminatory c-statistic ranging from 0.58 to 0.82. Selection of model variables was most frequently determined using a combination of univariate and multivariate analysis. Calibration, another determinant of model accuracy, was poorly reported amongst nine scoring systems. A diverse range of HPB surgical scoring systems may facilitate evidence-based decisions on patient management and treatment. Future scoring systems need to be developed using heterogenous patient cohorts with improved stratification, with future trends integrating machine learning and genetics to improve outcome prediction.

생산 및 제조 단계의 검사 데이터를 이용한 유도탄 탐색기의 고장 분류 연구 (Study on Failure Classification of Missile Seekers Using Inspection Data from Production and Manufacturing Phases)

  • 정예은;김기현;김성목;이연호;김지원;용화영;정재우;박정원;김용수
    • 산업경영시스템학회지
    • /
    • 제47권2호
    • /
    • pp.30-39
    • /
    • 2024
  • This study introduces a novel approach for identifying potential failure risks in missile manufacturing by leveraging Quality Inspection Management (QIM) data to address the challenges presented by a dataset comprising 666 variables and data imbalances. The utilization of the SMOTE for data augmentation and Lasso Regression for dimensionality reduction, followed by the application of a Random Forest model, results in a 99.40% accuracy rate in classifying missiles with a high likelihood of failure. Such measures enable the preemptive identification of missiles at a heightened risk of failure, thereby mitigating the risk of field failures and enhancing missile life. The integration of Lasso Regression and Random Forest is employed to pinpoint critical variables and test items that significantly impact failure, with a particular emphasis on variables related to performance and connection resistance. Moreover, the research highlights the potential for broadening the scope of data-driven decision-making within quality control systems, including the refinement of maintenance strategies and the adjustment of control limits for essential test items.

Artificial Intelligence-Enhanced Neurocritical Care for Traumatic Brain Injury : Past, Present and Future

  • Kyung Ah Kim;Hakseung Kim;Eun Jin Ha;Byung C. Yoon;Dong-Joo Kim
    • Journal of Korean Neurosurgical Society
    • /
    • 제67권5호
    • /
    • pp.493-509
    • /
    • 2024
  • In neurointensive care units (NICUs), particularly in cases involving traumatic brain injury (TBI), swift and accurate decision-making is critical because of rapidly changing patient conditions and the risk of secondary brain injury. The use of artificial intelligence (AI) in NICU can enhance clinical decision support and provide valuable assistance in these complex scenarios. This article aims to provide a comprehensive review of the current status and future prospects of AI utilization in the NICU, along with the challenges that must be overcome to realize this. Presently, the primary application of AI in NICU is outcome prediction through the analysis of preadmission and high-resolution data during admission. Recent applications include augmented neuromonitoring via signal quality control and real-time event prediction. In addition, AI can integrate data gathered from various measures and support minimally invasive neuromonitoring to increase patient safety. However, despite the recent surge in AI adoption within the NICU, the majority of AI applications have been limited to simple classification tasks, thus leaving the true potential of AI largely untapped. Emerging AI technologies, such as generalist medical AI and digital twins, harbor immense potential for enhancing advanced neurocritical care through broader AI applications. If challenges such as acquiring high-quality data and ethical issues are overcome, these new AI technologies can be clinically utilized in the actual NICU environment. Emphasizing the need for continuous research and development to maximize the potential of AI in the NICU, we anticipate that this will further enhance the efficiency and accuracy of TBI treatment within the NICU.

A new surrogate method for the neutron kinetics calculation of nuclear reactor core transients

  • Xiaoqi Li;Youqi Zheng;Xianan Du;Bowen Xiao
    • Nuclear Engineering and Technology
    • /
    • 제56권9호
    • /
    • pp.3571-3584
    • /
    • 2024
  • Reactor core transient calculation is very important for the reactor safety analysis, in which the kernel is neutron kinetics calculation by simulating the variation of neutron density or thermal power over time. Compared with the point kinetics method, the time-space neutron kinetics calculation can provide accurate variation of neutron density in both space and time domain. But it consumes a lot of resources. It is necessary to develop a surrogate model that can quickly obtain the temporal and spatial variation information of neutron density or power with acceptable calculation accuracy. This paper uses the time-varying characteristics of power to construct a time function, parameterizes the time-varying characteristics which contains the information about the spatial change of power. Thereby, the amount of targets to predict in the space domain is compressed. A surrogate method using the machine learning is proposed in this paper. In the construction of a neural network, the input is processed by a convolutional layer, followed by a fully connected layer or a deconvolution layer. For the problem of time sequence disturbance, a structure combining convolutional neural network and recurrent neural network is used. It is verified in the tests of a series of 1D, 2D and 3D reactor models. The predicted values obtained using the constructed neural network models in these tests are in good agreement with the reference values, showing the powerful potential of the surrogate models.

검색 증강 생성(RAG) 기술의 최신 연구 동향에 대한 조사 (A Survey on the Latest Research Trends in Retrieval-Augmented Generation)

  • 이은빈;배호
    • 정보처리학회 논문지
    • /
    • 제13권9호
    • /
    • pp.429-436
    • /
    • 2024
  • Large Language Model(LLM)의 급격한 발전은 자연어 처리 분야에 혁신을 불러 일으켜 이를 적절하게 활용하는 것이 중요한 주제로 떠오르고 있다. 방대한 데이터로 훈련된 LLM은 다양한 주제에 대한 텍스트 생성이 가능하여 콘텐츠 생성, 기계 번역, 챗봇 등 여러 방식으로 적용이 가능하나 특정 유형이나 전문적 지식이 부족할 수 있어 일반화하기 어렵다는 단점이 존재한다. 모델 훈련이 완료된 이후의 최신 정보로 즉각 업데이트되기도 어려우며, 모델이 실제로 존재하지 않는 정보나 오류에 대해 그럴 듯하게 답변하는 환각 현상(Hallucination) 역시 주요 문제점이다. 이를 극복하기 위해 지속적으로 업데이트되는 최신 정보를 포함한 외부 데이터베이스에서 정보를 검색해 응답을 생성하는 Retrieval-Augmented Generation(RAG, 검색 증강 생성) 모델을 도입하여 LLM의 환각 현상을 최소화하고 효율성과 정확성을 향상하기 위한 연구가 활발히 이루어지고 있다. 본 논문에서는 RAG의 기본 아키텍처를 소개하고, LLM에 RAG를 적용하기 위한 연구 및 최적화의 최신 동향을 분석한다. RAG를 평가하기 위한 다양한 기법들을 소개하고, 실제 산업에서 RAG를 활용하기 위해 성능을 최적화하거나 응용한 사례들을 분석한다. 이를 바탕으로 향후 RAG 모델이 발전할 수 있는 연구 방향성을 제시하고자 한다.

국내 의료기관들의 광자 빔 데이터의 비교 분석 및 치료계획 시스템 정도관리자료 (Comparison and Analysis of Photon Beam Data for Hospitals in Korea and Data for Quality Assurance of Treatment Planning System)

  • 이레나;조병철;강세권
    • 한국의학물리학회지:의학물리
    • /
    • 제17권3호
    • /
    • pp.179-186
    • /
    • 2006
  • 목적: 방사선 종양학과에서 사용되고 있는 선형가속기의 광자선 빔 데이터를 수집하여 비교 분석하였으며 치료계획용 시스템에 대한 간단한 정도관리 방법을 제시하였다. 대상 및 방법: 국내 26개 방사선 치료기관을 대상으로 출력교정 조건, 출력인자, 쐐기인자, 깊이 선량분포, 측방선량분포 및 선질에 대한 데이터를 수집하였다. 치료계획용 시스템의 선량계산의 정확성을 확인하기 위하여 10가지 광자선 치료 조건(정방형/직사각형/부정형 조사면, 쐐기필터 조사면, 축이탈 선량계산, SSD 변화)에 대한 선량계산을 치료계획용 시스템을 이용하여 시행하였으며 치료계획용 시스템을 이용하여 계산된 모니터 값과 수 계산에 의한 결과를 비교 분석하였다. 결과: 광자선 선질은 6 MV, 10 MV 및 15 MV에 대해 각각 $0.576{\pm}0.005,\;0.632{\pm}0.004$$0.647{\pm}0.006$이다. 최대선량 깊이에서 조사면의 크기에 따른 출력상수의 평균값은 6 MV 광자선의 경우 $5{\times}5cm,\;15{\times}15cm,\;20{\times}20cm$에 대해 $0.944{\pm}0.006,\;1.031{\pm}0.006,\;1.055{\pm}0.007$이다. 10 MV 광자의 경우는 조사면의 크기가 $5{\times}5cm,\;15{\times}15cm,\;20{\times}20cm$에 대해 각각 $0.935{\pm}0.006,\;1.031{\pm}0.007,\;1.054{\pm}0.0005$이다. 15 MV의 경우는 수집된 데이터의 수가 많지 않지만 $5{\times}5cm,\;15{\times}15cm,\;20{\times}20cm$에 대해 $0.941{\pm}0.008,\;1.032{\pm}0.004,\;1.049{\pm}0.014$이다. 치료 계획용 시스템과 수 계산에 의한 MU값의 계산 비교결과 7개 기관의 값이 허용오차 범위를 벗어났다. 쐐기를 제외한 8가지 조건에서 계산된 평균 MU값들은 SAD 조건으로 출력 교정된 장비가 SSD 조건으로 교정된 장비에 비해 6 MV 광자선은 3 MU, 10 MV 광자선은 5 MU 정도 더 높았다. 쐐기를 사용할 경우 MU값은 Varian사 장비와 Siemens사의 장비에 따라 다르고 동일 각의 쐐기를 사용할 경우 Siemens사의 쐐기를 사용할 때 MU값이 크다. 결론: 수집된 광자선 빔 데이터를 분석하여 빔데이터의 정확성과 치료계획용 시스템의 계산 정확성을 대략적으로 점검 할 수 있는 기준 값을 제시하였다.

  • PDF

비대칭 오류비용을 고려한 분류기준값 최적화와 SVM에 기반한 지능형 침입탐지모형 (An Intelligent Intrusion Detection Model Based on Support Vector Machines and the Classification Threshold Optimization for Considering the Asymmetric Error Cost)

  • 이현욱;안현철
    • 지능정보연구
    • /
    • 제17권4호
    • /
    • pp.157-173
    • /
    • 2011
  • 최근 인터넷 사용의 증가에 따라 네트워크에 연결된 시스템에 대한 악의적인 해킹과 침입이 빈번하게 발생하고 있으며, 각종 시스템을 운영하는 정부기관, 관공서, 기업 등에서는 이러한 해킹 및 침입에 의해 치명적인 타격을 입을 수 있는 상황에 놓여 있다. 이에 따라 인가되지 않았거나 비정상적인 활동들을 탐지, 식별하여 적절하게 대응하는 침입탐지 시스템에 대한 관심과 수요가 높아지고 있으며, 침입탐지 시스템의 예측성능을 개선하려는 연구 또한 활발하게 이루어지고 있다. 본 연구 역시 침입탐지 시스템의 예측성능을 개선하기 위한 새로운 지능형 침입탐지모형을 제안한다. 본 연구의 제안모형은 비교적 높은 예측력을 나타내면서 동시에 일반화 능력이 우수한 것으로 알려진 Support Vector Machine(SVM)을 기반으로, 비대칭 오류비용을 고려한 분류기준값 최적화를 함께 반영하여 침입을 효과적으로 차단할 수 있도록 설계되었다. 제안모형의 우수성을 확인하기 위해, 기존 기법인 로지스틱 회귀분석, 의사결정나무, 인공신경망과의 결과를 비교하였으며 그 결과 제안하는 SVM 모형이 다른 기법에 비해 상대적으로 우수한 성과를 보임을 확인할 수 있었다.

다분류 SVM을 이용한 DEA기반 벤처기업 효율성등급 예측모형 (The Prediction of DEA based Efficiency Rating for Venture Business Using Multi-class SVM)

  • 박지영;홍태호
    • Asia pacific journal of information systems
    • /
    • 제19권2호
    • /
    • pp.139-155
    • /
    • 2009
  • For the last few decades, many studies have tried to explore and unveil venture companies' success factors and unique features in order to identify the sources of such companies' competitive advantages over their rivals. Such venture companies have shown tendency to give high returns for investors generally making the best use of information technology. For this reason, many venture companies are keen on attracting avid investors' attention. Investors generally make their investment decisions by carefully examining the evaluation criteria of the alternatives. To them, credit rating information provided by international rating agencies, such as Standard and Poor's, Moody's and Fitch is crucial source as to such pivotal concerns as companies stability, growth, and risk status. But these types of information are generated only for the companies issuing corporate bonds, not venture companies. Therefore, this study proposes a method for evaluating venture businesses by presenting our recent empirical results using financial data of Korean venture companies listed on KOSDAQ in Korea exchange. In addition, this paper used multi-class SVM for the prediction of DEA-based efficiency rating for venture businesses, which was derived from our proposed method. Our approach sheds light on ways to locate efficient companies generating high level of profits. Above all, in determining effective ways to evaluate a venture firm's efficiency, it is important to understand the major contributing factors of such efficiency. Therefore, this paper is constructed on the basis of following two ideas to classify which companies are more efficient venture companies: i) making DEA based multi-class rating for sample companies and ii) developing multi-class SVM-based efficiency prediction model for classifying all companies. First, the Data Envelopment Analysis(DEA) is a non-parametric multiple input-output efficiency technique that measures the relative efficiency of decision making units(DMUs) using a linear programming based model. It is non-parametric because it requires no assumption on the shape or parameters of the underlying production function. DEA has been already widely applied for evaluating the relative efficiency of DMUs. Recently, a number of DEA based studies have evaluated the efficiency of various types of companies, such as internet companies and venture companies. It has been also applied to corporate credit ratings. In this study we utilized DEA for sorting venture companies by efficiency based ratings. The Support Vector Machine(SVM), on the other hand, is a popular technique for solving data classification problems. In this paper, we employed SVM to classify the efficiency ratings in IT venture companies according to the results of DEA. The SVM method was first developed by Vapnik (1995). As one of many machine learning techniques, SVM is based on a statistical theory. Thus far, the method has shown good performances especially in generalizing capacity in classification tasks, resulting in numerous applications in many areas of business, SVM is basically the algorithm that finds the maximum margin hyperplane, which is the maximum separation between classes. According to this method, support vectors are the closest to the maximum margin hyperplane. If it is impossible to classify, we can use the kernel function. In the case of nonlinear class boundaries, we can transform the inputs into a high-dimensional feature space, This is the original input space and is mapped into a high-dimensional dot-product space. Many studies applied SVM to the prediction of bankruptcy, the forecast a financial time series, and the problem of estimating credit rating, In this study we employed SVM for developing data mining-based efficiency prediction model. We used the Gaussian radial function as a kernel function of SVM. In multi-class SVM, we adopted one-against-one approach between binary classification method and two all-together methods, proposed by Weston and Watkins(1999) and Crammer and Singer(2000), respectively. In this research, we used corporate information of 154 companies listed on KOSDAQ market in Korea exchange. We obtained companies' financial information of 2005 from the KIS(Korea Information Service, Inc.). Using this data, we made multi-class rating with DEA efficiency and built multi-class prediction model based data mining. Among three manners of multi-classification, the hit ratio of the Weston and Watkins method is the best in the test data set. In multi classification problems as efficiency ratings of venture business, it is very useful for investors to know the class with errors, one class difference, when it is difficult to find out the accurate class in the actual market. So we presented accuracy results within 1-class errors, and the Weston and Watkins method showed 85.7% accuracy in our test samples. We conclude that the DEA based multi-class approach in venture business generates more information than the binary classification problem, notwithstanding its efficiency level. We believe this model can help investors in decision making as it provides a reliably tool to evaluate venture companies in the financial domain. For the future research, we perceive the need to enhance such areas as the variable selection process, the parameter selection of kernel function, the generalization, and the sample size of multi-class.

차원축소를 활용한 해외제조업체 대상 사전점검 예측 모형에 관한 연구 (Preliminary Inspection Prediction Model to select the on-Site Inspected Foreign Food Facility using Multiple Correspondence Analysis)

  • 박혜진;최재석;조상구
    • 지능정보연구
    • /
    • 제29권1호
    • /
    • pp.121-142
    • /
    • 2023
  • 수입식품의 수입 건수와 수입 중량이 꾸준히 증가함에 따라 식품안전사고 방지를 위한 수입식품의 안전관리가 더욱 중요해지고 있다. 식품의약품안전처는 통관단계의 수입검사와 더불어 통관 전 단계인 해외제조업소에 대한 현지실사를 시행하고 있지만 시간과 비용이 많이 소요되고 한정된 자원 등의 제약으로 데이터 기반의 수입식품 안전관리 방안이 필요한 실정이다. 본 연구에서는 현지실사 전 부적합이 예상되는 업체를 사전에 선별하는 기계학습 예측 모형을 마련하여 현지실사의 효율성을 높이고자 하였다. 이를 위해 통합식품안전정보망에 수집된 총 303,272건의 해외제조가공업소 기본정보와 2019년도부터 2022년 4월까지의 현지실사 점검정보 데이터 1,689건을 수집하였다. 해외제조가공업소의 데이터 전처리 후 해외 제조업소_코드를 활용하여 현지실사 대상 데이터만 추출하였고, 총 1,689건의 데이터와 103개의 변수로 구성되었다. 103개의 변수를 테일유(Theil-U) 지표를 기준으로 '0'인 변수들을 제거하였고, 다중대응분석(Multiple Correspondence Analysis)을 적용해 축소 후 최종적으로 49개의 특성변수를 도출하였다. 서로 다른 8개의 모델을 생성하고, 모델 학습 과정에서는 5겹 교차검증으로 과적합을 방지하고, 하이퍼파라미터를 조정하여 비교 평가하였다. 현지실사 대상업체 선별의 연구목적은 부적합 업체를 부적합이라고 판정하는 확률인 검측률(recall)을 최대화하는 것이다. 머신러닝의 다양한 알고리즘을 적용한 결과 Recall_macro, AUROC, Average PR, F1-score, 균형정확도(Balanced Accuracy)가 가장 높은 랜덤포레스트(Random Forest)모델이 가장 우수한 모형으로 평가되었다. 마지막으로 모델에 의해서 평가된 개별 인스턴스의 부적합 업체 선정 근거를 제시하기 위해 SHAP(Shapley Additive exPlanations)을 적용하고 현지실사 업체 선정 시스템에의 적용 가능성을 제시하였다. 본 연구결과를 바탕으로 데이터에 기반한 과학적 위험관리 모델을 통해 수입식품 관리체계의 구축으로 인력·예산 등 한정된 자원의 효율적 운영방안 마련에 기여하길 기대한다.

캠페인 효과 제고를 위한 자기 최적화 변수 선택 알고리즘 (Self-optimizing feature selection algorithm for enhancing campaign effectiveness)

  • 서정수;안현철
    • 지능정보연구
    • /
    • 제26권4호
    • /
    • pp.173-198
    • /
    • 2020
  • 최근 온라인의 비약적인 활성화로 캠페인 채널들이 다양하게 확대되면서 과거와는 비교할 수 없을 수준의 다양한 유형들의 캠페인들이 기업에서 수행되고 있다. 하지만, 고객의 입장에서는 중복 노출로 인한 캠페인에 대한 피로감이 커지면서 스팸으로 인식하는 경향이 있고, 기업입장에서도 캠페인에 투자하는 비용은 점점 더 늘어났지만 실제 캠페인 성공률은 오히려 더 낮아지고 있는 등 캠페인 자체의 효용성이 낮아지고 있다는 문제점이 있어 실무적으로 캠페인의 효과를 높이고자 하는 다양한 연구들이 지속되고 있다. 특히 최근에는 기계학습을 이용하여 캠페인의 반응과 관련된 다양한 예측을 해보려는 시도들이 진행되고 있는데, 이 때 캠페인 데이터의 다양한 특징들로 인해 적절한 특징을 선별하는 것은 매우 중요하다. 전통적인 특징 선택 기법으로 탐욕 알고리즘(Greedy Algorithm) 중 SFS(Sequential Forward Selection), SBS(Sequential Backward Selection), SFFS(Sequential Floating Forward Selection) 등이 많이 사용되었지만 최적 특징만을 학습하는 모델을 생성하기 때문에 과적합의 위험이 크고, 특징이 많은 경우 분류 예측 성능 하락 및 학습시간이 많이 소요된다는 한계점이 있다. 이에 본 연구에서는 기존의 캠페인에서의 효과성 제고를 위해 개선된 방식의 특징 선택 알고리즘을 제안한다. 본 연구의 목적은 캠페인 시스템에서 처리해야 하는 데이터의 통계학적 특성을 이용하여 기계 학습 모델 성능 향상의 기반이 되는 특징 부분 집합을 탐색하는 과정에서 기존의 SFFS의 순차방식을 개선하는 것이다. 구체적으로 특징들의 데이터 변형을 통해 성능에 영향을 많이 끼치는 특징들을 먼저 도출하고 부정적인 영향을 미치는 특징들은 제거를 한 후 순차방식을 적용하여 탐색 성능에 대한 효율을 높이고 일반화된 예측이 가능하도록 개선된 알고리즘을 적용하였다. 실제 캠페인 데이터를 이용해 성능을 검증한 결과, 전통적인 탐욕알고리즘은 물론 유전자알고리즘(GA, Genetic Algorithm), RFE(Recursive Feature Elimination) 같은 기존 모형들 보다 제안된 모형이 보다 우수한 탐색 성능과 예측 성능을 보임을 확인할 수 있었다. 또한 제안 특징 선택 알고리즘은 도출된 특징들의 중요도를 제공하여 예측 결과의 분석 및 해석에도 도움을 줄 수 있다. 이를 통해 캠페인 유형별로 중요 특징에 대한 분석과 이해가 가능할 것으로 기대된다.