• 제목/요약/키워드: XAI

검색결과 84건 처리시간 0.028초

Characterization of the xaiF Gene Encoding a Novel Xylanase-activity- increasing Factor, XaiF

  • Cho, Ssang-Goo;Choi, Yong-Jin
    • Journal of Microbiology and Biotechnology
    • /
    • 제8권4호
    • /
    • pp.378-387
    • /
    • 1998
  • The DNA sequence immediately following the xynA gene of Bacillus stearothermophilus 236 [about l-kb region downstream from the translational termination codon (TAA) of the xynA gene]was found to have an ability to enhance the xylanase activity of the upstream xynA gene. An 849-bp ORF was identified in the downstream region, and the ORF was confirmed to encode a novel protein of 283 amino acids designated as XaiF (xylanase-activity-increasing factor). From the nucleotide sequence of the xaiF gene, the molecular mass and pI of XaiF were deduced to be 32,006 Da and 4.46, respectively. XaiF was overproduced in the E. coli cells from the cloned xaiF gene by using the T7 expression system. The transcriptional initiation site was determined by primer extension analysis and the putative promoter and ribosome binding regions were also identified. Blast search showed that the xaiF and its protein product had no homology with any gene nor any protein reported so far. Also, in B. subtilis, the xaiF trans-activated the xylanase activity at the same rate as in E. coli. In contrast, xaiF had no activating effect on the co-expressed ${\beta}-xylosidase$ of the xylA gene derived from the same strain of B. stearothermophilus. In addition, the intracellular and extracellular fractions from the E. coli cells carrying the plasmid-borne xaiF gene did not increase the isolated xylanase activity, indicating that the protein-protein interaction between XynA and XaiF was not a causative event for the xylanase activating effect of the xaiF gene.

  • PDF

악성코드 분석에서의 AI 결과해석에 대한 평가방안 연구 (A Study on Evaluation Methods for Interpreting AI Results in Malware Analysis)

  • 김진강;황찬웅;이태진
    • 정보보호학회논문지
    • /
    • 제31권6호
    • /
    • pp.1193-1204
    • /
    • 2021
  • 정보보안에서 AI 기술은 알려지지 않은 악성코드를 탐지하기 위해 사용한다. AI 기술은 높은 정확도를 보장하지만, 오탐을 필연적으로 수반하므로 AI가 예측한 결과를 해석하기 위해 XAI 도입을 고려하고 있다. 그러나, XAI는 단순한 해석결과만 제공할 뿐 그 해석을 평가하거나 검증하는 XAI 평가 연구는 부족하다. XAI 평가는 어떤 기술이 더 정확한지 안전성 확보를 위해 필수적이다. 본 논문에서는 악성코드 분야에서 AI 예측에 크게 기여한 feature로 AI 결과를 해석하고, 이러한 AI 결과해석에 대한 평가방안을 제시한다. 약 94%의 정확도를 보이는 tree 기반의 AI 모델에 두 가지 XAI 기술을 사용하여 결과해석을 진행하고, 기술 정확도 및 희소성을 분석하여 AI 결과해석을 평가한다. 실험 결과 AI 결과해석이 적절하게 산출되었음을 확인하였다. 향후, XAI 평가로 인해 XAI 도입 및 활용은 점차 증가하고, AI 신뢰성 및 투명성이 크게 향상될 것으로 예상한다.

정보보호 분야의 XAI 기술 동향

  • 김홍비;이태진
    • 정보보호학회지
    • /
    • 제31권5호
    • /
    • pp.21-31
    • /
    • 2021
  • 컴퓨터 기술의 발전에 따라 ML(Machine Learning) 및 AI(Artificial Intelligence)의 도입이 활발히 진행되고 있으며, 정보보호 분야에서도 활용이 증가하고 있는 추세이다. 그러나 이러한 모델들은 black-box 특성을 가지고 있으므로 의사결정 과정을 이해하기 어렵다. 특히, 오탐지 리스크가 큰 정보보호 환경에서 이러한 문제점은 AI 기술을 널리 활용하는데 상당한 장애로 작용한다. 이를 해결하기 위해 XAI(eXplainable Artificial Intelligence) 방법론에 대한 연구가 주목받고 있다. XAI는 예측의 해석이 어려운 AI의 문제점을 보완하기 위해 등장한 방법으로 AI의 학습 과정을 투명하게 보여줄 수 있으며, 예측에 대한 신뢰성을 제공할 수 있다. 본 논문에서는 이러한 XAI 기술의 개념 및 필요성, XAI 방법론의 정보보호 분야 적용 사례에 설명한다. 또한, XAI 평가 방법을 제시하며, XAI 방법론을 보안 시스템에 적용한 경우의 결과도 논의한다. XAI 기술은 AI 판단에 대한 사람 중심의 해석정보를 제공하여, 한정된 인력에 많은 분석데이터를 처리해야 하는 보안담당자들의 분석 및 의사결정 시간을 줄이는데 기여할 수 있을 것으로 예상된다.

XAI를 활용한 생산기간에 따른 치밀오일 생산성 예측 모델 개발 및 영향변수 설명 (Explanation of Influence Variables and Development of Tight Oil Productivity Prediction Model by Production Period using XAI Algorithm)

  • 한동권;안유빈;권순일
    • 한국정보통신학회:학술대회논문집
    • /
    • 한국정보통신학회 2022년도 춘계학술대회
    • /
    • pp.484-487
    • /
    • 2022
  • 이 연구에서는 생산기간에 따른 치밀오일 저류층의 미래 생산성을 예측하기 위해 XAI(eXplainable Artificial Intelligence) 기반의 머신러닝 모델을 제시하였다. XAI 알고리즘은 해석 가능한 인공지능을 뜻하며 예측한 최종 결과의 근거와 도출 과정의 타당성을 제공한다. 본 연구에서는 현장자료를 기반으로 데이터전처리를 수행한 후 생산 초기와 후기의 생산성을 예측하는 지도학습 모델을 제안하고, 모델의 결과를 바탕으로 XAI를 이용하여 생산성 예측 모델의 영향을 미치는 인자를 분석하였다.

  • PDF

XAI 기반의 임상의사결정시스템에 관한 연구 (A Study on XAI-based Clinical Decision Support System)

  • 안윤애;조한진
    • 한국콘텐츠학회논문지
    • /
    • 제21권12호
    • /
    • pp.13-22
    • /
    • 2021
  • 임상의사결정시스템은 누적된 의료 데이터를 활용하여 머신러닝으로 학습된 AI 모델을 환자의 진단 및 진료 예측에 적용한다. 그러나 기존의 블랙박스 기반의 AI 응용은 시스템이 예측한 결과에 대해 타당한 이유를 제시하지 못하여 설명성이 부족한 한계점이 존재한다. 이와 같은 문제점을 보완하기 위해 이 논문에서는 임상의사결정시스템의 개발 단계에서 설명이 가능한 XAI를 적용하는 시스템 모델을 제안한다. 제안 모델은 기존의 AI모델에 설명성이 가능한 특정 XAI 기술을 추가로 적용시켜 블랙박스의 한계점을 보완할 수 있다. 제안 모델의 적용을 보이기 위해 LIME과 SHAP을 활용한 XAI 적용 사례를 제시한다. 테스트를 통해 데이터들이 모델의 예측 결과에 어떤 영향을 미치는지 다양한 관점에서 설명할 수 있다. 제안된 모델은 사용자에게 구체적인 이유를 제시함으로써 사용자의 신뢰를 높일 수 있는 장점을 가진다. 아울러 XAI의 적극적인 활용을 통해 기존 임상의사결정시스템의 한계를 극복하고 더 나은 진단 및 의사결정 지원을 가능하게 할 것으로 기대한다.

XAI에서 의사결정 나무 시각화의 심미도 평가 (Esthetic Evaluation of Decision tree Visualization in XAI)

  • 안철용;박지수;손진곤
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2020년도 추계학술발표대회
    • /
    • pp.1122-1125
    • /
    • 2020
  • AI의 결과를 이해하기 위해서 XAI(eXplainable Artificial Intelligence)의 연구는 매우 중요하다. 세계적으로 XAI 개발 연구는 많이 진행되고 있지만 개발된 XAI를 평가하는 연구는 매우 적다. 본 논문은 사용성 측면에서 XAI를 평가하기 위해 AI 사용성 요소, 과학적 설명의 요소, 휴리스틱 평가 요소를 분류하고 의사결정 나무를 시각화여 심미도를 평가한다.

학습된 머신러닝의 표류 현상에 관한 고찰 (A Study on Drift Phenomenon of Trained ML)

  • 신병춘;차윤석;김채윤;차병래
    • 스마트미디어저널
    • /
    • 제11권7호
    • /
    • pp.61-69
    • /
    • 2022
  • 학습된 머신러닝은 시간 경과에 따른 학습 모델과 학습 데이터 측면의 표류 현상이 발생과 동시에 머신러닝의 성능이 퇴화하게 된다. 이를 해결하기 위한 방안으로 머신러닝의 재학습 시기를 결정하기 위한 ML 표류의 개념과 평가 방법을 제안하고자 한다. 딸기와 선명도에 따른 XAI 테스트 및 사과 이미지의 XAI 테스트를 진행하였다. 딸기의 경우 선명도 값에 따른 ML 모델의 XAI 분석의 변화는 미미하였으며 사과 이미지의 XAI의 경우 사과는 정상적으로 객체 분류 및 히트맵 영역을 표시하였으나 사과꽃 및 꽃봉오리의 경우 그 결과가 딸기나 사과에 비해 미미하였다. 이는 사과꽃 및 꽃봉오리의 학습 이미지 수가 부족하기에 발생한 것으로 예상되며 추후 더 많은 사과꽃 및 꽃봉오리 이미지를 학습하여 테스트할 계획이다.

블록체인과 XAI 기반의 CDSS 아키텍처 (CDSS Architechure Based on Blockchain and XAI)

  • 허윤녕;조인휘
    • 한국정보처리학회:학술대회논문집
    • /
    • 한국정보처리학회 2022년도 추계학술발표대회
    • /
    • pp.255-256
    • /
    • 2022
  • 임상의사결정지원시스템(Clinical Decision Support System)은 환자의 질병을 진단하고 치료할 때 의사결정을 도와주는 시스템이다.[1] 본 논문에서는 블록체인과 XAI 기술을 활용해 임상의사결정지원시스템의 아키텍처를 제안한다. 제안 아키텍처는 데이터의 중앙화, 의료데이터의 보안을 블록체인기술로 해결하고 블록체인을 기반으로 한 보반 기술인 DID 기술을 활용해 데이터의 신뢰성과 보안성을 확보하였다. 또한 XAI 모듈을 활용해 예측 결과의 신뢰도와 투명성도 제공해 의료인의 의사결정을 지원하였다.

XAI기반 악성코드 그룹분류 결과 해석 연구 (Analysis of Malware Group Classification with eXplainable Artificial Intelligence)

  • 김도연;정아연;이태진
    • 정보보호학회논문지
    • /
    • 제31권4호
    • /
    • pp.559-571
    • /
    • 2021
  • 컴퓨터의 보급 증가와 더불어 일반 사용자들에 대한 공격자들의 악성코드 배포 횟수 또한 증가하였다. 악성코드를 탐지하기 위한 연구는 현재까지도 진행되고 있으며 최근에는 AI를 이용한 악성코드 탐지 및 분석 연구가 중점적으로 이뤄지고 있다. 하지만 AI 알고리즘은 어떠한 이유로 악성코드를 탐지하고 분류하는지 설명할 수 없다는 단점이 존재한다. 이런 AI의 한계를 극복하고 실용성을 갖도록 하기 위해 XAI 기법이 등장하였다. XAI를 사용하면 AI의 최종 결과에 대해 판단 근거를 제시할 수 있다. 본 논문에서는 XGBoost와 Random Forest를 이용하여 악성코드 그룹분류를 진행하였으며, SHAP을 통해 결과를 해석하였다. 두 분류모델 모두 약 99%의 높은 분류 정확도를 보였으며, XAI를 통해 도출된 상위 API feature와 악성코드 주요 API를 비교해보았을 때 일정 수준 이상의 해석 및 이해가 가능하였다. 향후, 이를 바탕으로 직접적인 AI 신뢰성 향상 연구를 진행할 예정이다.

화학 공정 설계 및 분석을 위한 설명 가능한 인공지능 대안 모델 (Explainable Artificial Intelligence (XAI) Surrogate Models for Chemical Process Design and Analysis)

  • 고유나;나종걸
    • Korean Chemical Engineering Research
    • /
    • 제61권4호
    • /
    • pp.542-549
    • /
    • 2023
  • 대안 모델링에 대한 관심이 커진 이후 데이터 기반의 기계학습을 이용하여 비선형 화학 공정을 모사하고자 하는 연구가 지속되고 있다. 그러나 기계 학습 모델의 black box 성질로 인하여 모델의 해석 가능성에 한계는 산업 적용에 걸림돌이 되고 있다. 따라서, 모델의 정확도가 보장된 상태에서 해석력을 부여하는 개념인 설명 가능한 인공지능(explainable artificial intelligence, XAI)을 이용하여 화학 공정 분석을 시도하고자 한다. 기존의 화학 공정 민감도 분석이 변수의 민감도 지수를 계산하고 순위를 매기는 데에 그쳤다면, XAI를 이용하여 전역적, 국소적 민감도 분석뿐만 아니라 변수들 간의 상호작용에 대하여 분석하여 데이터로부터 물리적 통찰을 얻어내는 방법론을 제안한다. 사례 연구의 대상공정인 암모니아 합성 공정에 대하여 첫번째 반응기로 향하는 흐름에 대한 예열기(preheater)의 온도, 세 반응기로 향하는 cold-shot의 분배 비율을 공정 변수로 설정하였다. Matlab과 Aspen plus를 연동하여 공정 변수를 바꿔가면서 암모니아의 생산량과 세 반응기의 최고 온도에 대한 데이터를 얻었으며, tree 기반의 모델들을 훈련시켰다. 그리고 성능이 좋은 모델에 대하여 XAI 기법 중 하나인 SHAP 기법을 이용하여 민감도 분석을 수행하였다. 전역적 민감도 분석 결과, 예열기의 온도가 가장 큰 영향을 미쳤으며 국소적 민감도 분석 결과에서 생산성 향상 및 과열 방지를 위한 공정 변수들의 범위를 규정할 수 있었다. 이처럼 화학 공정의 대안 모델을 구축하고 설명 가능한 인공지능을 이용해 민감도 분석을 진행하는 방법론을 통해 공정 최적화에 대한 정량적, 정성적 피드백을 제안하는 데 도움을 줄 것이다.