• 제목/요약/키워드: eXplainable artificial intelligence

검색결과 26건 처리시간 0.014초

지능형 Self-Organizing Network를 위한 설명 가능한 기계학습 연구 동향 (Trend in eXplainable Machine Learning for Intelligent Self-organizing Networks)

  • 권동승;나지현
    • 전자통신동향분석
    • /
    • 제38권6호
    • /
    • pp.95-106
    • /
    • 2023
  • As artificial intelligence has become commonplace in various fields, the transparency of AI in its development and implementation has become an important issue. In safety-critical areas, the eXplainable and/or understandable of artificial intelligence is being actively studied. On the other hand, machine learning have been applied to the intelligence of self-organizing network (SON), but transparency in this application has been neglected, despite the critical decision-makings in the operation of mobile communication systems. We describes concepts of eXplainable machine learning (ML), along with research trends, major issues, and research directions. After summarizing the ML research on SON, research directions are analyzed for explainable ML required in intelligent SON of beyond 5G and 6G communication.

데이터 불균형을 고려한 설명 가능한 인공지능 기반 기업부도예측 방법론 연구 (A Methodology for Bankruptcy Prediction in Imbalanced Datasets using eXplainable AI)

  • 허선우;백동현
    • 산업경영시스템학회지
    • /
    • 제45권2호
    • /
    • pp.65-76
    • /
    • 2022
  • Recently, not only traditional statistical techniques but also machine learning algorithms have been used to make more accurate bankruptcy predictions. But the insolvency rate of companies dealing with financial institutions is very low, resulting in a data imbalance problem. In particular, since data imbalance negatively affects the performance of artificial intelligence models, it is necessary to first perform the data imbalance process. In additional, as artificial intelligence algorithms are advanced for precise decision-making, regulatory pressure related to securing transparency of Artificial Intelligence models is gradually increasing, such as mandating the installation of explanation functions for Artificial Intelligence models. Therefore, this study aims to present guidelines for eXplainable Artificial Intelligence-based corporate bankruptcy prediction methodology applying SMOTE techniques and LIME algorithms to solve a data imbalance problem and model transparency problem in predicting corporate bankruptcy. The implications of this study are as follows. First, it was confirmed that SMOTE can effectively solve the data imbalance issue, a problem that can be easily overlooked in predicting corporate bankruptcy. Second, through the LIME algorithm, the basis for predicting bankruptcy of the machine learning model was visualized, and derive improvement priorities of financial variables that increase the possibility of bankruptcy of companies. Third, the scope of application of the algorithm in future research was expanded by confirming the possibility of using SMOTE and LIME through case application.

XAI(eXplainable Artificial Intelligence) 알고리즘 기반 사출 공정 수율 개선 방법론 (Injection Process Yield Improvement Methodology Based on eXplainable Artificial Intelligence (XAI) Algorithm)

  • 홍지수;홍용민;오승용;강태호;이현정;강성우
    • 품질경영학회지
    • /
    • 제51권1호
    • /
    • pp.55-65
    • /
    • 2023
  • Purpose: The purpose of this study is to propose an optimization process to improve product yield in the process using process data. Recently, research for low-cost and high-efficiency production in the manufacturing process using machine learning or deep learning has continued. Therefore, this study derives major variables that affect product defects in the manufacturing process using eXplainable Artificial Intelligence(XAI) method. After that, the optimal range of the variables is presented to propose a methodology for improving product yield. Methods: This study is conducted using the injection molding machine AI dataset released on the Korea AI Manufacturing Platform(KAMP) organized by KAIST. Using the XAI-based SHAP method, major variables affecting product defects are extracted from each process data. XGBoost and LightGBM were used as learning algorithms, 5-6 variables are extracted as the main process variables for the injection process. Subsequently, the optimal control range of each process variable is presented using the ICE method. Finally, the product yield improvement methodology of this study is proposed through a validation process using Test Data. Results: The results of this study are as follows. In the injection process data, it was confirmed that XGBoost had an improvement defect rate of 0.21% and LightGBM had an improvement defect rate of 0.29%, which were improved by 0.79%p and 0.71%p, respectively, compared to the existing defect rate of 1.00%. Conclusion: This study is a case study. A research methodology was proposed in the injection process, and it was confirmed that the product yield was improved through verification.

초등 인공지능 교육을 위한 설명 가능한 인공지능의 교육적 의미 연구 (A Study on the Educational Meaning of eXplainable Artificial Intelligence for Elementary Artificial Intelligence Education)

  • 박다빈;신승기
    • 정보교육학회논문지
    • /
    • 제25권5호
    • /
    • pp.803-812
    • /
    • 2021
  • 본 연구는 문헌 연구 통해 설명 가능한 인공지능의 개념과 문제해결과정을 탐구하였다. 본 연구를 통하여 설명 가능한 인공지능의 교육적 의미와 적용 방안을 제시하였다. 설명 가능한 인공지능 교육이란 인간과 관련된 인공지능 문제를 다루는 사람 중심의 인공지능 교육으로 학생들은 문제 해결 능력을 함양할 수 있다. 그리고, 알고리즘 교육을 통해 인공지능의 원리를 이해하고 실생활 문제 상황과 관련된 인공지능 모델을 설명하며 인공지능의 활용분야까지 확장할 수 있다. 이러한 설명 가능한 인공지능 교육이 초등학교에서 적용되기 위해서는 실제 삶과 관련된 예를 사용해야 하며 알고리즘 자체가 해석력을 지닌 것을 활용하는 것이 좋다. 또한, 이해가 설명으로 나아가기 위해 다양한 교수학습방법 및 도구를 활용해야 한다. 2022년 개정 교육과정에서 인공지능 도입을 앞두고 본 연구가 실제 수업을 위한 기반으로써 의미 있게 활용되기를 바란다.

설명가능한 인공지능 기술을 이용한 인공신경망 기반 수질예측 모델의 성능향상 (Performance improvement of artificial neural network based water quality prediction model using explainable artificial intelligence technology)

  • 이원진;이의훈
    • 한국수자원학회논문집
    • /
    • 제56권11호
    • /
    • pp.801-813
    • /
    • 2023
  • 최근 인공신경망(Artificial Neural Network, ANN)의 연구가 활발하게 진행되면서 ANN을 이용하여 하천의 수질을 예측하는 연구가 진행되고 있다. 그러나 ANN은 Black-box의 형태이기 때문에 ANN 내부의 연산과정을 분석하는데 어려움이 있다. ANN의 연산과정을 분석하기 위해 설명가능한 인공지능(eXplainable Artificial Intelligence, XAI) 기술이 사용되고 있으나, 수자원 분야에서 XAI 기술을 활용한 연구는 미비한 실정이다. 본 연구는 XAI 기술 중 Layer-wise Relevance Propagation (LRP)을 사용하여 낙동강의 다산 수질관측소의 수온, 용존산소량, 수소이온농도 및 엽록소-a를 예측하기 위한 Multi Layer Perceptron (MLP)을 분석하였다. LRP를 기반으로 수질을 학습한 MLP를 분석하여 수질을 예측하기 위한 최적의 입력자료를 선정하고, 최적의 입력자료를 이용하여 학습한 MLP의 예측결과에 대한 분석을 실시하였다. LRP를 이용하여 최적의 입력자료를 선정한 결과를 보면, 수온, 용존산소량, 수소이온농도 및 엽록소-a 모두 주변지역의 일 강수량을 제외한 입력자료를 학습한 MLP의 예측정확도가 가장 높았다. MLP의 용존산소량 예측결과에 대한 분석결과를 보면, 최고점에서 수소이온농도 및 용존산소량의 영향이 크고 최저점에서는 수온의 영향이 큰 것으로 분석되었다.

XAI 기법을 이용한 리뷰 유용성 예측 결과 설명에 관한 연구 (Explainable Artificial Intelligence Applied in Deep Learning for Review Helpfulness Prediction)

  • 류동엽;이흠철;김재경
    • 지능정보연구
    • /
    • 제29권2호
    • /
    • pp.35-56
    • /
    • 2023
  • 정보통신 기술의 발전에 따라 웹 사이트에는 수많은 리뷰가 지속적으로 게시되고 있다. 이로 인해 정보 과부하 문제가 발생하여 사용자들은 본인이 원하는 리뷰를 탐색하는데 어려움을 겪고 있다. 따라서, 이러한 문제를 해결하여 사용자에게 유용하고 신뢰성 있는 리뷰를 제공하기 위해 리뷰 유용성 예측에 관한 연구가 활발히 진행되고 있다. 기존 연구는 주로 리뷰에 포함된 특성을 기반으로 리뷰 유용성을 예측하였다. 그러나, 예측한 리뷰가 왜 유용한지 근거를 제시할 수 없다는 한계점이 존재한다. 따라서 본 연구는 이러한 한계점을 해결하기 위해 리뷰 유용성 예측 모델에 eXplainable Artificial Intelligence(XAI) 기법을 적용하는 방법론을 제안하였다. 본 연구는 Yelp.com에서 수집한 레스토랑 리뷰를 사용하여 리뷰 유용성 예측에 관한 연구에서 널리 사용되는 6개의 모델을 통해 예측 성능을 비교하였다. 그 다음, 예측 성능이 가장 우수한 모델에 XAI 기법을 적용하여 설명 가능한 리뷰 유용성 예측 모델을 제안하였다. 따라서 본 연구에서 제안한 방법론은 사용자의 구매 의사결정 과정에서 유용한 리뷰를 추천할 수 있는 동시에 해당 리뷰가 왜 유용한지에 대한 해석을 제공할 수 있다.

딥러닝을 이용한 직물의 결함 검출에 관한 연구 (A Study on the Defect Detection of Fabrics using Deep Learning)

  • 남은수;최윤성;이충권
    • 스마트미디어저널
    • /
    • 제11권11호
    • /
    • pp.92-98
    • /
    • 2022
  • 섬유산업에서 생산된 직물의 결함을 식별하는 것은 품질관리를 위한 핵심적인 절차이다. 본 연구는 직물의 이미지를 분석하여 결함을 검출하는 모델을 만들고자 하였다. 연구에 사용된 모델은 딥러닝 기반의 VGGNet 과 ResNet이었고, 두 모델의 결함 검출 성능을 비교하여 평가하였다. 정확도는 VGGNet 모델이 0.859, ResNet 모델이 0.893으로 ResNet 모델의 정확도가 더 높은 결과를 보여주었다. 추가적으로 딥러닝 모델이 직물의 이미지 내에서 결함으로 인식한 부분의 위치를 알아보기 위하여 XAI(eXplainable Artificial Intelligence)기법인 Grad-CAM 알고리즘을 사용하여 모델의 관심영역을 도출하였다. 그 결과 딥러닝 모델이 직물의 결함으로 인식한 부분이 육안으로도 실제 결함이 있는 것으로 확인되었다. 본 연구의 결과는 직물의 결함 검출에 있어서 딥러닝 기반의 인공지능을 활용함으로써 섬유의 생산과정에서 발생하는 시간과 비용을 줄일 수 있을 것으로 기대된다.

A reliable intelligent diagnostic assistant for nuclear power plants using explainable artificial intelligence of GRU-AE, LightGBM and SHAP

  • Park, Ji Hun;Jo, Hye Seon;Lee, Sang Hyun;Oh, Sang Won;Na, Man Gyun
    • Nuclear Engineering and Technology
    • /
    • 제54권4호
    • /
    • pp.1271-1287
    • /
    • 2022
  • When abnormal operating conditions occur in nuclear power plants, operators must identify the occurrence cause and implement the necessary mitigation measures. Accordingly, the operator must rapidly and accurately analyze the symptom requirements of more than 200 abnormal scenarios from the trends of many variables to perform diagnostic tasks and implement mitigation actions rapidly. However, the probability of human error increases owing to the characteristics of the diagnostic tasks performed by the operator. Researches regarding diagnostic tasks based on Artificial Intelligence (AI) have been conducted recently to reduce the likelihood of human errors; however, reliability issues due to the black box characteristics of AI have been pointed out. Hence, the application of eXplainable Artificial Intelligence (XAI), which can provide AI diagnostic evidence for operators, is considered. In conclusion, the XAI to solve the reliability problem of AI is included in the AI-based diagnostic algorithm. A reliable intelligent diagnostic assistant based on a merged diagnostic algorithm, in the form of an operator support system, is developed, and includes an interface to efficiently inform operators.

신용 데이터의 이미지 변환을 활용한 합성곱 신경망과 설명 가능한 인공지능(XAI)을 이용한 개인신용평가 (A Personal Credit Rating Using Convolutional Neural Networks with Transformation of Credit Data to Imaged Data and eXplainable Artificial Intelligence(XAI))

  • 원종관;홍태호;배경일
    • 한국정보시스템학회지:정보시스템연구
    • /
    • 제30권4호
    • /
    • pp.203-226
    • /
    • 2021
  • Purpose The purpose of this study is to enhance the accuracy score of personal credit scoring using the convolutional neural networks and secure the transparency of the deep learning model using eXplainalbe Artifical Inteligence(XAI) technique. Design/methodology/approach This study built a classification model by using the convolutional neural networks(CNN) and applied a methodology that is transformation of numerical data to imaged data to apply CNN on personal credit data. Then layer-wise relevance propagation(LRP) was applied to model we constructed to find what variables are more influenced to the output value. Findings According to the empirical analysis result, this study confirmed that accuracy score by model using CNN is highest among other models using logistic regression, neural networks, and support vector machines. In addition, With the LRP that is one of the technique of XAI, variables that have a great influence on calculating the output value for each observation could be found.

정보보호 분야의 XAI 기술 동향

  • 김홍비;이태진
    • 정보보호학회지
    • /
    • 제31권5호
    • /
    • pp.21-31
    • /
    • 2021
  • 컴퓨터 기술의 발전에 따라 ML(Machine Learning) 및 AI(Artificial Intelligence)의 도입이 활발히 진행되고 있으며, 정보보호 분야에서도 활용이 증가하고 있는 추세이다. 그러나 이러한 모델들은 black-box 특성을 가지고 있으므로 의사결정 과정을 이해하기 어렵다. 특히, 오탐지 리스크가 큰 정보보호 환경에서 이러한 문제점은 AI 기술을 널리 활용하는데 상당한 장애로 작용한다. 이를 해결하기 위해 XAI(eXplainable Artificial Intelligence) 방법론에 대한 연구가 주목받고 있다. XAI는 예측의 해석이 어려운 AI의 문제점을 보완하기 위해 등장한 방법으로 AI의 학습 과정을 투명하게 보여줄 수 있으며, 예측에 대한 신뢰성을 제공할 수 있다. 본 논문에서는 이러한 XAI 기술의 개념 및 필요성, XAI 방법론의 정보보호 분야 적용 사례에 설명한다. 또한, XAI 평가 방법을 제시하며, XAI 방법론을 보안 시스템에 적용한 경우의 결과도 논의한다. XAI 기술은 AI 판단에 대한 사람 중심의 해석정보를 제공하여, 한정된 인력에 많은 분석데이터를 처리해야 하는 보안담당자들의 분석 및 의사결정 시간을 줄이는데 기여할 수 있을 것으로 예상된다.